ElasticSearch 101 : Ein Beginners für elastischen Stapel | Vikas Yadav | Skillshare

Playback-Geschwindigkeit


1.0x


  • 0.5x
  • 0.75x
  • 1x (normal)
  • 1.25x
  • 1.5x
  • 1.75x
  • 2x

ElasticSearch 101 : Ein Beginners für elastischen Stapel

teacher avatar Vikas Yadav

Schau dir diesen Kurs und Tausende anderer Kurse an

Erhalte unbegrenzten Zugang zu allen Kursen
Lerne von Branchenführern, Ikonen und erfahrenen Experten
Wähle aus einer Vielzahl von Themen, wie Illustration, Design, Fotografie, Animation und mehr

Schau dir diesen Kurs und Tausende anderer Kurse an

Erhalte unbegrenzten Zugang zu allen Kursen
Lerne von Branchenführern, Ikonen und erfahrenen Experten
Wähle aus einer Vielzahl von Themen, wie Illustration, Design, Fotografie, Animation und mehr

Einheiten dieses Kurses

    • 1.

      Willkommen

      0:54

    • 2.

      Einführung in die elasticsearch 101

      2:27

    • 3.

      Datenübersicht

      2:17

    • 4.

      Unterschied zwischen relationalen und nicht-relationalen Datenbanken

      4:24

    • 5.

      Übersicht über JSON

      1:52

    • 6.

      Übersicht der Rest-API

      6:07

    • 7.

      Einführung in die elasticsearch

      4:29

    • 8.

      Elastischer Stapel - eine Vogelauge

      3:43

    • 9.

      So installieren Sie Elasticsearch auf einem Debian Linux

      8:24

    • 10.

      So installieren Sie Elasticsearch auf einem RPM Linux

      8:29

    • 11.

      So installieren Sie ELK auf einem Windows-Server

      14:39

    • 12.

      Sicherung deines Clusters mit X-pack

      5:22

    • 13.

      Daten in unseren elk mit Kibana hinzufügen

      12:56

    • 14.

      Visualisierungen mit Kibana erstellen

      4:47

    • 15.

      Geschichte mit Kibana Dashboards erzählen

      6:23

    • 16.

      Real mit Kibana Canvas

      4:55

    • 17.

      Übersicht der authentication der Elasticsearch

      3:56

    • 18.

      Kibana Rollenbasierte Zugriffskontrollen verstehen

      9:39

    • 19.

      Kategorisieren deiner Dashboards mit Kibana

      6:43

    • 20.

      Einführung in Logstash

      4:32

    • 21.

      CSV-Daten mit Logstash aufnehmen und transformieren

      22:10

    • 22.

      Apache Webserver installieren

      1:58

    • 23.

      Metricbeat installieren und konfigurieren

      20:15

    • 24.

      Filebeat installieren und konfigurieren

      22:13

    • 25.

      Heartbeat installieren und konfigurieren

      11:35

    • 26.

      Auditbeat installieren und konfigurieren

      16:47

    • 27.

      Packetbeat installieren und konfigurieren

      9:12

    • 28.

      So stellen Sie einen multi bereit

      26:23

    • 29.

      Übersicht der Elasticsearch Knoten

      7:45

    • 30.

      Neue und elastische Suche v8.x Installation

      10:19

    • 31.

      elastic-agent installieren und apache-Protokolle analysieren

      18:08

  • --
  • Anfänger-Niveau
  • Fortgeschrittenes Niveau
  • Fortgeschrittenes Niveau
  • Jedes Niveau

Von der Community generiert

Das Niveau wird anhand der mehrheitlichen Meinung der Teilnehmer:innen bestimmt, die diesen Kurs bewertet haben. Bis das Feedback von mindestens 5 Teilnehmer:innen eingegangen ist, wird die Empfehlung der Kursleiter:innen angezeigt.

124

Teilnehmer:innen

--

Projekte

Über diesen Kurs

Hallo

Willkommen in meinem Kurs ELASTICSEARCH 101, einem beginners für den elastischen Stapel , ist dies ein Kurs mit dem Fokus auf die Bereitstellung und Verwaltung von elastics

Dieser Kurs setzt sich für den Lernansatz ein und konzentriert sich auf die

  • DevOps die für die Bereitstellung und Verwaltung von Elasticsearch Clustern verantwortlich sind

  • IT die für die Unterstützung der elastischen stack verantwortlich sind

  • und es könnte Softwareentwicklern nützen, wenn sie ein Verständnis dafür benötigen, wie Elasticsearch Cluster bereitgestellt und verwaltet werden

In diesem Kurs beginnen wir mit einigen Grundlagen wie zum Beispiel mit den verschiedenen Arten von Daten, die du in einem Unternehmensumfeld begegnen wirst, und dann werden wir den Unterschied zwischen relationalen und nicht-relationalen Datenbanken betrachten, bevor wir fortfahren, um ein Verständnis für JSON und Rest APIs zu haben.

Nachdem du das erforderliche Wissen hast, das wichtig ist, wenn du an der elastischen Suche arbeiten möchtest, werden wir die elastische Suche und den elastischen Stapel aus einer Vogelperspektive betrachten und dann ist es Zeit, deine Hände schmutzig zu machen, zuerst werden wir unsere Laborumgebung einrichten und dann werden wir uns ansehen, wie du einen elastischen search auf verschiedene Weise bereitstellen kannst. Wir werden dies nachverfolgen, indem wir einige Daten in unseren Cluster durch pre-requisite hinzufügen und ein allgemeines Gefühl von Kibana haben. Als nächstes betrachten wir Logstash einen wesentlichen Bestandteil des elastischen Stapels, wenn du deine Daten umwandeln und mit Hilfe von Logstash einige CSV-Daten einnehmen möchtest.

Im letzten Abschnitt werden wir uns ansehen, was in der Elasticsearch Version 8 geändert wurde und dann v8-Cluster auf einem einzigen Knoten bereitstellen.

Schließlich werden wir den elastischen Agenten installieren, der ein einziger Agent ist, der für den Versand jeder Art von Protokolle von Ihren Applikationsservern an Elasticsearch erforderlich ist.

Kursprogramme

elastische elasticsearch

Triff deine:n Kursleiter:in

Teacher Profile Image

Vikas Yadav

Kursleiter:in

Hi Everyone, 

I have been an IT engineer for over 11 years now, during this time i have worked in a many fields like networking , systems engineering, virtualization , unified communications and more recently cyber security. I lover tweaking around with systems , deploying and configuring enterprise infrastructure and applications. 

On a personal level, i love reading about historical events and characters and have been trying to learn how to surf (to no avail ;)). 

thanks

Vikas

Vollständiges Profil ansehen

Level: Beginner

Kursbewertung

Erwartungen erfüllt?
    Voll und ganz!
  • 0%
  • Ja
  • 0%
  • Teils teils
  • 0%
  • Eher nicht
  • 0%

Warum lohnt sich eine Mitgliedschaft bei Skillshare?

Nimm an prämierten Skillshare Original-Kursen teil

Jeder Kurs setzt sich aus kurzen Einheiten und praktischen Übungsprojekten zusammen

Mit deiner Mitgliedschaft unterstützt du die Kursleiter:innen auf Skillshare

Lerne von überall aus

Ob auf dem Weg zur Arbeit, zur Uni oder im Flieger - streame oder lade Kurse herunter mit der Skillshare-App und lerne, wo auch immer du möchtest.

Transkripte

1. Willkommen: Willkommen zu meinem Kurs letzte Woche. Solch eins zu eins, ein Leitfaden für Anfänger zu Elastic Stack. Dies ist ein praktischer Kurs mit Schwerpunkt auf Bereitstellung und Verwaltung von Elastic Stack. Mein Name ist Ricardo und ich bin Senior Solutions Architect, über 15 Jahre Erfahrung in der IT. Und ich arbeite derzeit in einem multinationalen Unternehmen, das ich Elastic Stack in einer Produktionsumgebung entworfen und eingesetzt habe. Ich habe mehr als 3400 Kinder auf Udemy unterrichtet und habe in allen meinen Kursen eine durchschnittliche Bewertung von 4,4. Dies ist ein praktischer Kurs, der sich auf praktisches Lernen konzentriert. In diesem Kurs stellen Sie Elastic Stack bereit und fügen dann einige Daten zu Ihrem Cluster hinzu. Zwei verschiedene Methoden wie Log Stretch- und Kibana-Integrationen. Und Sie werden diese Daten auch transformieren , um etwas Bedeutung daraus zu extrahieren. Schließlich stellen Sie den Elastic Agent bereit, der einfach Matrix- und Protokollierungsdaten von Ihren Anwendungsservern extrahiert und diese Daten in Elasticsearch speichert und analysiert. Also bitte begleite mich auf dieser Reise, um Elastic Stack zu lernen. 2. Einführung in die elasticsearch 101: Hey Leute, willkommen zu meinen Anfängerpunkten auf Elastic Stack. Ich freue mich, dass Sie mir die Möglichkeit gegeben haben, Sie auf dem Weg zu einem elastischen Suchprofi zu führen . Dieser Kurs verfolgt einen praktischen Lernansatz und konzentriert sich auf DevOps-Experten Lernansatz und konzentriert sich auf , die für die Bereitstellung und Verwaltung von Elasticsearch-Clustern verantwortlich sind. Es unterstützt Mitarbeiter, die für die Unterstützung von Elastic Stack-Bereitstellungen verantwortlich sind. Und es könnte Softwareentwicklern zugute kommen, wenn sie verstehen müssen , wie Elasticsearch-Cluster diploid sind. Bitte beachten Sie, dass dies ein Anfänger ist, also vermeide ich Deep Diving in eines der Themen in diesem Kurs. Wir beginnen mit einigen Grundlagen, z. B. mit den verschiedenen Datentypen, denen Sie in einer Unternehmensumgebung begegnen werden. Und dann werden wir uns den Unterschied zwischen den relationalen und nicht-relationalen Datenbanken ansehen , bevor wir ein Verständnis von JSON- und Rest-APIs haben, nachdem Sie über das erforderliche Wissen was wichtig ist, wenn Sie an Elastic Search arbeiten möchten , schauen wir uns Elastic Search und Elastic Stack aus der Vogelperspektive an, und dann ist es Zeit, sich die Hände schmutzig zu machen. Zuerst richten wir unsere Laborumgebung ein und schauen uns dann an, wie Sie eine elastische Suche auf verschiedene Arten bereitstellen können . Und wir werden dies verfolgen, indem wir einige Daten über Kibana-Integrationen in unseren Cluster hinzufügen. Dann helfe ich Ihnen bei der Erstellung Ihrer ersten Kibana-Visualisierung. Und dann werden wir ein paar Dashboards einrichten. Danach helfe ich Ihnen, Ihre Dashboards mithilfe von Kibana-Spaces in verschiedene Kategorien wie Marketing, Betrieb usw. zu organisieren Ihre Dashboards mithilfe von Kibana-Spaces in verschiedene Kategorien wie Marketing, . Als Nächstes gebe ich Ihnen einen Überblick über die Benutzerverwaltung in Elastic Search. Und wir werden uns Elastic Search, integrierte Benutzer, integrierte Rollen ansehen integrierte Benutzer, integrierte Rollen und wie Sie Benutzer und Rollen verwenden können, die rollenbasierte Zugriffssteuerungen für Ihren Elasticsearch Cluster erstellen rollenbasierte Zugriffssteuerungen . Als Nächstes schauen wir uns Log Stash an, das ein wesentlicher Bestandteil von Elastic Stack ist, wenn Sie Ihre Daten transformieren möchten. Und dann werden wir einige CSV-Daten mit Hilfe von Log Slash-Pipelines aufnehmen. Im nächsten Abschnitt helfe ich Ihnen, Beats-Agenten und verschiedene Anwendungsfälle zu verstehen , die Sie mit verschiedenen Beats lösen können . Es besagt, dass Sie Metrik-Btu verwenden müssen, um Metrikdaten in Ihren Elasticsearch-Cluster einzugeben. Und Sie müssen 5-Bit verwenden, um dateibasierte Protokolldaten in Ihren Elasticsearch-Cluster einzutragen. Danach werden wir einen Multimode-Elasticsearch-Cluster bereitstellen . Und ich gebe Ihnen einen Überblick über verschiedene Knoten in der Elastic Search-Umgebung. Im letzten Abschnitt werden wir uns ansehen, was sich in Elasticsearch Version acht geändert hat in Elasticsearch Version acht und stellen dann einen Cluster der Version acht auf einem einzigen Knoten bereit. Schließlich wird der Elastic Agent installiert, der ein einziger Agent ist , der benötigt wird, um eine neue Art von Protokollen von Ihren Anwendungsservern an die elastische Suche zu senden . Also lasst uns anfangen. 3. Übersicht der Daten: Hey Leute, wenn du an Elastic Search arbeitest , ergib überwiegend wir an Daten. Daher ist es wichtig, ein Verständnis für verschiedene Arten von Daten zu haben . Sprechen wir zunächst über strukturierte Daten. Strukturierte Daten sind hochorganisiert und richtig formatiert. Dies ist die Art von Daten , die in einer Tabellenkalkulation gespeichert werden können. Relationale Datenbank wie SQL. Ein Beispiel für strukturierte Daten sind Verkaufszahlen pro Quartal für Unternehmens- oder Mitarbeiterinformationen wie Mitarbeiter-ID, Mitarbeitername und Gehalt. Diese Art von Daten ist einfacher zu speichern und zu suchen, da sie, wie der Name schon sagt, eine Struktur aufweisen. Lassen Sie uns als Nächstes einen Blick auf unstrukturierte Daten werfen. Unstrukturierte Daten sind schwieriger zu suchen. Es sind Daten, die nicht organisiert oder formatiert sind. Ein Beispiel für diese Art von Daten sind Textdateien, Video- oder Audiodateien, Social-Media-Likes und Kommentare. Diese Daten machen fast 80% des Datenordners in der realen Welt aus. Und wie der Name schon sagt, ist es unstrukturiert. Es ist also komplexer, diese Art von Daten zu speichern und zu suchen. Lassen Sie uns nun als nächstes einen Blick auf halbstrukturierte Daten werfen. Semi-strukturierte Daten sind eine Mischung aus strukturierten und unstrukturierten Daten. Es sind Daten, die nicht in einer relationalen Datenbank organisiert werden können , aber immer noch eine lockere Struktur aufweisen. Zum Beispiel Daten, die um ein Thema herum organisiert werden können. Und ein gutes Beispiel für diese Art von Daten sind E-Mail-Daten. Da E-Mails durch Felder wie Betreff, Nachricht, Text usw. organisiert werden können . Als Nächstes handelt es sich bei numerischen Daten im Wesentlichen um Daten, die in Zahlen und nicht in Texten ausgedrückt , z. B. Alter usw. Eine andere Art von Daten , auf die Sie stoßen könnten , sind Geodaten. Geodaten sind die Daten , die sich auf ein Objekt auf der Erde beziehen. Es enthält Dinge wie Position, die Längen- und Breitengrad, Größe und Form eines Objekts ist . Damit sind wir am Ende dieser Vorlesung gekommen, einen Überblick über verschiedene Arten von Daten, die Sie vor Ort sehen werden wenn Sie an einem Datenverarbeitungstransformation oder Analysetool arbeiten . Ich hoffe es hat dir gefallen und wir sehen uns im nächsten. 4. Die: Hey Leute, es gibt verschiedene Arten von Datenbanken , auf die Sie stoßen werden , die jeweils ihre eigenen einzigartigen Vorteile bieten. Diese können hauptsächlich in Sequel-, relationale Datenbanken und NoSQL- oder nicht-relationale Datenbanken kategorisiert relationale Datenbanken und NoSQL- werden. Lassen Sie uns zunächst einen Blick auf eine relationale Datenbank werfen. relationale Datenbank ist eine Art von Datenbank, die Daten in Tabellen speichert. In einer relationalen Datenbank ist jede Zeile in der Tabelle ein Datensatz mit einer eindeutigen ID, die als Schlüssel bezeichnet wird. Die Spalten der Tabelle enthalten Attribute der Daten und jeder Datensatz hat normalerweise einen Wert für jedes Attribut, wodurch es einfach ist , Beziehungen zwischen Datenpunkten und damit den Namen relational Datenbankverwaltungssystem oder RDBMS. Diese Art von Datenbank kann nur mit strukturierten Daten arbeiten und strukturierte Programmiersprachen wie SQL können effektiv zum Einfügen, Suchen, Aktualisieren oder Löschen von Datenbankdatensätzen verwendet werden. Einige häufige Beispiele für RDBMS sind Oracle, MySQL, Microsoft SQL Server und Postgres SQL. Hier ist ein Beispiel dafür , wie eine relationale Datenbank aussieht. Angenommen, Sie haben eine Tabelle , in der die Quelle Details verwendet. Und sagen wir, diese Tabelle heißt „Benutzer“. Jetzt enthält die Tabelle dieses Benutzers Details wie Benutzer-ID, Vorname des Benutzers, Nachname des Benutzers und sein Alter. Lassen Sie uns nun auch sehen, dass es eine andere Tabelle gibt , in der Benutzer Bildungsabschluss gespeichert werden. Und es kann mit der Benutzertabelle in Verbindung gebracht werden, indem die Spalte Benutzer-ID verwendet wird. Wie Sie sehen können, ist diese Art von Daten strukturiert und in Tabellen gespeichert und kann mithilfe von Spalten, der Benutzer-ID-Spalte in diesem Beispiel, miteinander verknüpft sein . Sprechen wir nun über nicht-relationale Datenbanken. nicht-relationale Datenbank ist eine Datenbank, die halbstrukturierten oder unstrukturierten Daten arbeitet. Es wird auch NoSQL-Datenbank genannt und verfügt über ein dynamisches Schema für die unstrukturierte Datenspeicherung. Diese Daten können auf viele Arten gespeichert werden, was bedeutet, dass sie dokumentorientiert, spaltenorientiert, graphbasiert oder ein Schlüssel-Wert-Speicher sein können . Diese Flexibilität bedeutet , dass die Datenbank erstellt werden kann , ohne vorher eine definierte Struktur zu haben. Wenn Sie dies nun mit relationalen Datenbanken vergleichen, müssen Sie die Struktur immer vordefinieren und diese Struktur während der gesamten Lebensdauer der Datenbank einhalten . Nosql-Datenbanken speichern Daten in Dokumenten, die aus Schlüssel-Wert-Paaren bestehen. Die Syntax variiert von Datenbank zu Datenbank und Sie können gleichzeitig Felder hinzufügen. Die meisten gleichen Datenbanken bieten flexibles Datenmodell mit der Möglichkeit, Daten jeder Struktur einfach zu speichern und zu kombinieren ohne das Schema ändern zu müssen. Und daher eignet es sich für Big Data und Echtzeit-Web-Apps. Elastic Search ist eine Art NoSQL-Datenbank, die Daten als JSON-Dokument speichert Daten als JSON-Dokument einen Link aus dem elastischen Suchblog angehängt hat. Wenn Sie dies weiter lesen möchten, schauen wir uns nun ein Beispiel für eine NoSQL-Datenbank an. Hier auf dem Bildschirm habe ich eine NoSQL-Datenbank, die aus zwei Dokumenten besteht. Wie Sie sehen können, unterscheidet sich die Struktur beider Dokumente. Zum Beispiel hat Dokument Nummer zwei ein Schlüssel-Wert-Paar für Bildung, das in Dokument Nummer eins nicht vorhanden ist. Auch wenn man sich Hobbys anschaut, Es gibt ein zusätzliches Hobby des Schwimmens für unseren Benutzer. Diese Flexibilität ermöglicht es nun NoSQL-Datenbanken für Big-Data-Anwendungen zu verwenden. Jetzt gibt es einen weiteren Unterschied zwischen NoSQL- und SQL-Datenbanken , wie sie skaliert werden. Relationale Datenbanken skalieren vertikal und NoSQL oder nicht relationale Datenbanken skalieren horizontal. Das heißt, wenn Sie die Kapazität Ihrer Datenbank erhöhen müssen , besteht die einzige Möglichkeit, dies in einem relationalen Datenbankmodell zu tun , darin, einen größeren Computer zu haben. Dies bedeutet nun Ausfallzeiten, um die Kapazitäts- und Wartungsaufgabe zu erhöhen , um spätere Ausfallzeiten zu vermeiden , ist die Vorbereitstellung von Kapazitäten. Die Kehrseite davon ist jedoch, dass all diese Kapazität im Wesentlichen verschwendet würde , bis sie benötigt wird. Nicht-relationale oder NoSQL-Datenbanken lösen dieses Problem durch horizontale Skalierung. Dies bedeutet, dass Sie, wann immer Sie Kapazität benötigen, mehr Kapazität hinzufügen können, indem Sie Ihrem Cluster einfach weitere Computer hinzufügen. Auf diese Weise müssen Sie keine Kapazität vorab bereitstellen und benötigen auch keine Ausfallzeiten. Damit sind wir am Ende dieser Vorlesung gekommen. Danke fürs Zuschauen, und wir sehen uns im nächsten. Tschüss. 5. Übersicht von JSON: Hey Leute, Elasticsearch speichert Daten als JSON-Dokumente. Es wäre also eine gute Idee, sich einen Überblick über JSON zu verschaffen. Json oder JavaScript Object Notation ist ein textbasiertes Datenaustauschformat. Und das Schlüsselwort hier ist Datenaustausch. Da JSON hauptsächlich zum Teilen von Daten verwendet wird, baut JSON auf zwei Strukturen auf. Erstens ein Objekt, bei dem es sich eine ungeordnete Auflistung von Namenwert oder einem Schlüssel-Wert-Paar handelt. Zweitens eine geordnete Werteliste, auch Array genannt. Werfen wir nun einen Blick auf ein Beispiel für JSON-Daten. Hier haben wir ein JSON-Objekt. Ein Objekt ist, wie ich bereits sagte, ein ungeordneter Satz von Namenswert- oder Schlüssel-Wert-Paaren. Es beginnt mit einer geschweiften Klammer links und endet mit der rechten geschweiften Klammer, jedem Namen oder Schlüssel, und ihr Wert ist durch ein Doppelpunkt- und Name-Wert-Paare getrennt . Zum Beispiel ist der Name John und das Alter 29 durch ein Komma getrennt. Unser Beispiel enthält auch ein Array, bei dem Kontakt-Arrays mit einer linken eckigen Klammer beginnen und mit einer rechten eckigen Klammer enden. Jetzt können JSON-Objekte sieben verschiedene Wertetypen haben. Eine Zeichenfolge ist eine Folge von 0 oder mehr Zeichen, die in doppelte Anführungszeichen eingeschlossen sind. Zum Beispiel Mein Name ist John, hier ist eine Zeichenfolge, eine Zahl, zum Beispiel 1234 oder JSON-Schlüssel kann auch ein anderes JSON-Objekt als Wert haben. Es kann auch ein Array sein, und es kann auch boolean sein, was wahr oder falsch ist. Und schließlich kann der angrenzende Wert auch null sein. Wenn Sie mehr über JSON erfahren möchten, habe ich einige Links in die Beschreibung dieser Vorlesung aufgenommen , damit Sie ein tieferes Verständnis erlangen können. Da es bei Elastic Search in erster Linie mit JSON-Dokumenten arbeiten wird mit JSON-Dokumenten , um das Ende dieser Vorlesung zu begleiten. Danke fürs Zuschauen. Wir sehen uns im nächsten. Tschüss. 6. Übersicht der Rest-API: Hey Leute, in diesem Vortrag, Werfen wir einen Blick auf RESTful APIs , eine beliebte Methode zur Kommunikation zwischen Computeranwendungen. Api ist ein Akronym für Application Programming Interface Editor ist nichts anderes als eine Reihe von Definitionen und Protokollen zum Erstellen und Integrieren von Anwendungssoftware. Beispielsweise möchten Sie möglicherweise eine API verwenden, in der ein Benutzer einen Studentenausweis angeben kann, und Ihre API antwortet mit Prüfungsbegründen dieses Schülers, der von der Verwendung von APIs profitiert , dass Ihre Anwendung besteht Software muss nicht wissen, wie die Clientanwendungssoftware implementiert ist. Rest ist ein Akronym für repräsentative Staatstransfer. Das bedeutet, dass es eine Darstellung des Zustands der Ressource überträgt . Und diese Darstellung ist nichts ein Datenelement, das von Ihrer Bewerbung angefordert wird. Rest funktioniert mit Client-Server-Modell. Das bedeutet, dass die Solarressource diese Daten enthält. Ein Client fordert diese Datenmenge an, indem er einen CRUD-, Erstellen-, Lesen -, Aktualisieren- oder Löschvorgang verwendet. Und um diese Anfrage zu stellen, werden einmalige HTTP-Methoden verwendet. Sobald diese Anforderung vom Client gestellt wurde, antwortet der Server mit dem Datenelement, das er auf einer Darstellung des Datenbestandes hält , den der Server besitzt. Werfen wir einen Blick auf einige der STDP-Methoden. Post ermöglicht es Ihnen, eine neue Ressource am Serverport zu erstellen , ermöglicht es Ihnen, eine vorhandene Ressource auf dem Server zu aktualisieren, ermöglicht es Ihnen, eine vorhandene Ressource abzurufen und zu löschen, ermöglicht es Ihnen löscht eine vorhandene Ressource. Dies sind einige der Beispiele für die Methoden , die Sie mit Rest-APIs implementieren können. Eine andere Sache zu beachten ist, dass Rest-API-Anfragen zustandslos sind. Das bedeutet, dass alle Clientanfragen als neue Anfragen behandelt werden und kein Sitzungsverlauf auf dem Server gespeichert wird. Bevor wir weitermachen, schauen wir uns ein Beispiel hier auf dem Bildschirm an. Ich habe ein Beispiel für einen API-Aufruf, der verwendet wird, um den Zustand eines Elasticsearch-Clusters zu überprüfen. Zuerst haben wir die Methode , die eine von GET, PUT, Post oder Delete sein könnte . In unserem Fall verwenden wir GET und testen den Server, auf dem wir einige Informationen abrufen möchten. Danach haben wir den Endpunkt auf dem Server angegeben , den wir eine Anfrage zum Hinzufügen senden möchten. Es ist http localhost auf Port 9000. Dies ist wichtig, da wir möglicherweise mehrere Server und unsere Umgebung haben und jeder Server möglicherweise mehrere Dienste ausführt. Beispielsweise kann derselbe Server auch einen Webserver auf Port 80 ausführen, aber wir möchten eine Verbindung zu einem Dienst herstellen, der auf Port 9200 auf dem lokalen Host ausgeführt wird . Nachdem wir den Endpunkt angegeben haben, müssen wir die Ressource auf diesem Endpunkt angeben , mit der wir eine Verbindung herstellen möchten, in unserem Beispiel für den Ressourcenclusterzustand. Jetzt können in unserem Fall auf jedem Endpunkt mehrere Ressourcen ausgeführt werden in unserem Fall auf jedem Endpunkt mehrere Ressourcen , da wir den Zustand des Clusters ermitteln wollten. Wir verwenden Cluster-Integritätsendpunkte , um eine Verbindung herzustellen und den Status zu erhalten. Und schließlich können wir einen Parameter angeben. In diesem Beispiel möchten wir beispielsweise, dass der Server mit den Informationen in einem für Menschen lesbaren Format antwortet oder es für uns überarbeitet, nachdem wir diese Anfrage eingereicht haben Der Server antwortet dann mit einem antwort. In diesem Beispiel hat der Sommer mit dem Zustand des Clusters im JSON-Format reagiert . Sie können diese Antwort auch in mehreren anderen Formaten erhalten, z. B. in HTML, XML oder einfachen Texten usw. Jetzt stehen Ihnen mehrere Tools zur Verfügung, Sie sich bei API-Aufrufen die Hände schmutzig machen können. Sie können spezielle Tools wie Postboten, Swagger usw. verwenden oder Sie können den Befehl Flugzeug oder Curl von Ihrem Linux- oder Mac-Terminal verwenden. Und schließlich können Sie auch eine API erstellen, die programmgesteuert aus Ihrem Code aufgerufen wird programmgesteuert aus Ihrem , basierend auf einer gewissen Logik. Bevor wir weitermachen, machen wir etwas Praktisches. Ich habe das Terminalfenster meines macOS. Und von hier aus werden wir versuchen, eine öffentliche API für Witze aufzurufen. Zuerst muss ich lockig tippen. Danach musste ich die Endpunkte haben. Also HTTPS, wir machen Punkt-Witz-API, Punkttiefe und dann muss ich die Ressource auf dem Endpunkt bereitstellen. Also tippe ich einen Schrägstrich ein, scherzt irgendeinen Schrägstrich und drücke Enter. Wie Sie sehen können, hat der Scherzserver mit einem Witz geantwortet. Jetzt können Sie diese API verwenden, um einen Scherzbereich auf Ihrer Website zu erstellen , wenn Sie möchten. Oder Sie können einfach diese Witze lesen oder Ihre Firma liegt bei Ihnen. Bevor wir weitermachen, wollte ich Ihnen zeigen, wie Sie genau dasselbe mit einem Tool namens Postman machen. Jetzt habe ich das Interview diesem Tool, um eine API-Anfrage zu erstellen, ich klicke auf Plus. Dies öffnet hier das API-Formular, ich kann wählen, welche Methode ich brauche. In diesem Fall muss ich bekommen, dann muss ich die Endpunkte angeben. Also HTTPS, wir machen Dot Witz API Dot Dev. Und dann muss ich die Ressource eintippen , die Witz Slash ist. Und um das auszuführen, muss ich nur auf Senden klicken. Und du siehst, dass ich wieder eine Antwort vom Server bekommen habe. Dies ist ein sehr einfaches Beispiel, aber da es sich nicht um einen STI-API-Kurs handelt, überlasse ich es Ihnen, sich mit diesem Thema besser zu informieren, wenn Sie es nicht bereits wissen. Ich habe einige Ressourcen in die Beschreibung dieser Vorlesung hinzugefügt , damit Sie dies als Ausgangspunkt für Ihre weiteren Studien nutzen können . Nun, bevor wir weitermachen, wie man eine letzte Sache abdeckt, nämlich diese Statuscodes. Wenn Sie jetzt hier sehen, sehen Sie Status 200, okay, und wenn Sie den Mauszeiger darüber bewegen, erhalten Sie eine kleine Erklärung der Statuswerte. Jedes Mal, wenn Sie eine Anfrage an den Server stellen, wird ein Code an den Client zurückgegeben , der Ihnen den Status der Anforderung angibt. Jetzt hier auf dem Bildschirm habe ich verschiedene Antworttypen, die Sie vom Server erwarten können. Eine Antwort, die danach mit 22 Ziffern beginnt , bedeutet im Allgemeinen , dass die Anfrage erfolgreich war. Wie wir zum Beispiel bei Postboten gesehen haben, haben wir eine 200 OK bekommen, was bedeutet, dass alles in Ordnung ist. Und es antwortet mit drei oder vier, bedeutet, dass der Client die zwischengespeicherte Version der angeforderten Ressource verwenden kann . Irgendwas. Für XXX bedeutet vier und dann zwei Ziffern danach oder fünf, XX, was fünf und dann zwei Ziffern danach bedeutet , dass ein Fehler für XX einen clientseitigen anderen bedeutet, was bedeutet, dass auf dem Client etwas nicht stimmt. Phi von x. X bedeutet, dass es sich um einen serverseitigen Fehler handelt, was bedeutet, dass es einige Probleme mit dem Server gibt. Dies war also eine schnelle Einführung in restliche API-Aufrufe. Es gibt ein bisschen mehr und ich möchte, dass Sie 100% zuversichtlich sind, weil Sie es für Ihre Verwaltung und Administration von Elastic Search verwenden werden . Bitte gehen Sie die Links durch, die ich mit der Beschreibung dieses Videos angehängt habe . Damit sind wir am Ende dieser Vorlesung gekommen. Wir sehen uns im nächsten. Tschüss. 7. Einführung in die elasticsearch: Hey Leute, Elastic Search ist eine verteilte Such - und Analysemaschine, die das Herzstück von Elastic Stack oder einer verteilten Suchmaschine ist, bei der die Indexierung und Abfrageverarbeitung besteht wird auf mehrere Computer verteilt, anstatt ein einziger Supercomputer, der alles verarbeitet. Es ist auf Apache Lucene aufgebaut und wird in Java entwickelt. Es ermöglicht Ihnen, riesige Datenmengen schnell und in nahezu Echtzeit zu speichern, zu suchen und zu analysieren und Antworten in Millisekundenabfragen zurückzugeben Antworten in Millisekundenabfragen zurückzugeben , die normalerweise zehn Sekunden oder länger dauern würden als zehn Millisekunden in der elastischen Suche mit derselben Hardware zurück, Elastic Search kann alle Arten von Daten verarbeiten , z. B. strukturierten Halbkreis usw. Sequenz gibt Ergebnisse in weniger als zehn Millisekunden in der elastischen Suche mit derselben Hardware zurück, Elastic Search kann alle Arten von Daten verarbeiten, z. B. strukturierten Halbkreis usw. von Anwendungsfällen für Elastic Search. Beispielsweise können Sie einer Anwendung oder Website ein Suchfeld hinzufügen, um Anwendung oder Website ein Ihren Katalog schnell zu durchsuchen. Sie können auch Protokolle, Metriken und Sicherheitsereignisdaten speichern und analysieren . Oder Sie können Machine Learning verwenden, um das Verhalten Ihrer Daten in Echtzeit automatisch zu modellieren . Elastic Search bietet eine Rest-API zum Verwalten Ihres Clusters, Indizierung und Suche Ihrer Daten zur Indizierung und Suche Ihrer Daten nach seinen Suchfunktionen Elasticsearch unterstützt drei Arten von Abfragen. Strukturierte Abfragen ermöglichen es Ihnen, nach strukturierten Daten zu suchen und sind genau wie SQL-Abfragen für Textabfragen, die es Ihnen ermöglichen, nach Analyse-Textfeldern wie dem Text einer E-Mail zu suchen Dinge wie das Auffinden eines bestimmten Wortes in einem Absatz komplexen Abfragen, Kombination von strukturierten und Volltextabfragen. Gehen wir nun zu Dokumenten und Indizes in der elastischen Suche über, die kleinste Dateneinheit wird als Feld bezeichnet. Jedes Feld hat einen definierten Datentyp und enthält ein bestimmtes Datenelement. Zum Beispiel, Name John, nein, Dokumente sind die Basisspeichereinheit in Elastic Search. Oder das Dokument besteht aus mehreren Feldern in der Welt der relationalen Datenbank oder des Dokuments entspricht einer Zeile in einer Tabelle. Daten in einem Dokument werden als Feld gespeichert , bei dem es sich um Name-Wert-Paare handelt, und es gibt einige reservierte Lebensmittel in unserem Dokument. Jetzt habe ich hier auf dem Bildschirm ein Beispiel für Daten, die in einem Dokument gespeichert sind. In diesem Beispiel ist ID der eindeutige Bezeichner für das Dokument. Typ ist der Typ des Indexes. Dieses Dokument ist Teil eines Indexes, ist der Name dieses Indexes. Dokument-Scan stellt beispielsweise einen Enzyklopädie-Artikel oder Protokolleinträge von einem Webserver dar . In diesem Beispiel verweisen wir auf etwas, das als Index bezeichnet wird. Werfen wir einen Blick darauf, was es ist. Ein Index ist eine Sammlung logisch verwandter Dokumente mit ähnlichen Merkmalen. Zum Beispiel können Sie einen Index für Benutzer haben, Sie können einen Index für Produkte und einen für Bestellungen und so weiter und so weiter haben . Es ist die Entität auf höchster Ebene , die Sie abfragen können. Eine elastische Suche ähnelt der Datenbank in einer relationalen Datenbank. In Elastic Search ist eigentlich ein sogenannter invertierter Index. Und der invertierte Index ist ein Mechanismus, mit dem alle Suchmaschinen arbeiten. Grundsätzlich besteht dieser Index aus einer Liste ungerade eindeutiger Wörter, die in jedem Dokument erscheinen. Und für jedes Wort besteht es aus einer Liste aller Dokumente, in denen dieses Wort erscheint. wir einen Blick auf die folgenden Sätze, dass jeder Container-Code aus der TV-Serie Game of Thrones, Winter zu unserer Systemwut kommt, und die Wahl liegt bei Ihnen. Lassen Sie uns nun unseren In-Order-Index erstellen. Zuerst schreiben wir die Begriffe in alle drei Dokumente in einer Spalte, und dann schreiben wir die Häufigkeit wie sie in allen drei Zentren erscheint, in der zweiten Spalte. Und dann wird in der dritten Spalte das Dokument geschrieben in dem dieser Begriff kurz vor einem Beispiel erscheint, der Winter erscheint nur einmal in allen drei Sätzen und ist keine Dokumentschrift, während es sich um Winter erscheint nur einmal in allen drei Sätzen und ist keine Dokumentschrift, die zweite handelt Begriff in Dokument eins kommt tatsächlich dreimal und erscheint in allen drei Dokumenten. Also haben wir 123 hier. Ebenso invertierten Index konstruieren, können wir unseren invertierten Index konstruieren, eine Kombination aus Begriffen und einer Frequenz wird als Wörterbuch bezeichnet. Wenn wir stumm zurückgehen und die Häufigkeit als Wörterbuch bezeichnet wird und die Anzahl der Dokumente oder ein bestimmter Begriff in erscheint, wird als Postings bezeichnet. Das wird also Wörterbuch sein und dies werden Buchungen sein Auf diese Weise. Wenn Sie schnell nach einem Begriff suchen möchten, werden wir sagen, Wut Elasticsearch wird sich den invertierten Index ansehen und diese Wut eine PS1 finden und daher auf dem Dokument zu einem Index erscheinen . Begriff ist die kleinste Sucheinheit in Elastic Search, dies ist der Trick , den Elasticsearch verwendet, um schnelle Suchen durchzuführen. Ich habe auch einen Link zu einem elastischen Suchblog hinzugefügt , der Ihnen helfen kann, besser zu verstehen wie die Suche in Elastic Search funktioniert. Damit sind wir am Ende dieser Vorlesung gekommen. Wir sehen uns im nächsten. Tschüss. 8. Elastischer Stapel – Eine eye: Bevor wir mit der Bereitstellung beginnen, möchte ich Ihnen einen kurzen Überblick über jedes dieser elastischen Suchprodukte geben dieser elastischen Suchprodukte , die wir in diesem Labor bereitstellen werden Elasticsearch ist eine Open-Source-Liste für eine eine solche Analyse-Engine verteilt, abhängig Apache Lucene Log Stash ist eine serverseitige Open-Source-Datenverarbeitungspipeline , die Daten aus einer Reihe von Quellen aufnimmt, transformiert und dann sendet an Elasticsearch. Kibana ist ein Open-Source-Datenvisualisierungs-Dashboard für Elasticsearch. In einfachen Worten: Nehmen wir an, Sie haben Anwendungsprotokolldaten von Anwendungsservern. Falls Sie diese Daten nicht verarbeiten müssen , können Sie sie direkt an Elastic Search senden , um den Index wiederherzustellen. Wenn Sie jedoch beispielsweise eine benutzerdefinierte Verarbeitung durchführen müssen , müssen Sie möglicherweise eine Kunden-ID hinzufügen, bei der es sich um ein protokolliertes Ereignis handelt , damit Sie ein bestimmtes Protokollereignis an einen bestimmten Kunden binden können . Sie müssen diese Daten zuerst an Log Stash, Buddha-Verarbeitung oder Transformation senden und sie dann an Elastic Search senden, um sie gespeichert zu werden. Sobald die Daten in Elasticsearch gespeichert und indiziert sind, können Sie Kibana verwenden, die einige Visualisierungen über ihre Daten erstellt . Sprechen wir nun über Beat Bead Side, im Wesentlichen wie sehr speziell entwickelte Agenten die Daten erfasst und sie dann an Elastic Search-Beats füttern oder ein beleuchtetes Bit-Framework verprügeln. Und es macht es einfach, benutzerdefinierte Bits für jede Art von Daten zu erstellen , benutzerdefinierte Bits für jede Art von Daten Wenn Sie an Elasticsearch senden möchten, hatte Beats Standardriffe, die verfügbar sind, die ich auf dem Bildschirm aufgeführt habe. Wenn einer dieser Beats den Job nicht erledigt, können Sie das Lipid-Framework verwenden um Ihre benutzerdefinierte Geschwindigkeit zu erstellen. Sprechen wir also über einige der Standard-Beats. Erstens gibt es etwas, das kämpfen würde, wir würden feststellen, dass Beat ein Leichtgewicht ist, billiger für die Weiterleitung und Zentralisierung von Protokolldaten. Anfangs als Agent auf dem Zielsommer kämpfen große Monitore. Die Protokolldateien sind Orte, die Sie angegeben haben , sammeln, Ereignisse protokollieren und entweder an Elasticsearch weiterleiten sind Protokollsuche für Indizierung oder Deadbeat. Ist diese Wahrscheinlichkeit günstiger, die Sie auf Ihren Servern installieren können, um die Aktivitäten von Benutzern und Prozessen auf Ihrem System zu überprüfen . Zum Beispiel können Sie Audit V8, die linke und zentrale oder Ereignisse von Linux verwenden , aber ein anderes Metrikgebot ist etwas billiger, als Sie es auf Ihren Servern installieren können , um regelmäßig Metriken zu sammeln Betriebssystem und von Diensten, die auf der Silbermetrik laufen, Big X, den Metriken und Statistiken, die es sammelt und verschiebt die Ausgabe auf eine elastische Suche nach Log Stash. Heartbeat ist ein leichtgewichtiger Dämon , den Sie auf einem Remote-Server installieren. Überprüfen Sie regelmäßig den Status Ihrer Dienste und stellen Sie fest , ob sie verfügbar sind. Der Unterschied zwischen Liquids und Heartbeat besteht , dass die Metrik Ihnen nur sagt , ob Ihre Server auf oder ab sind. Während Heartbeat, wie Sie, ob Ihre Dienste verfügbar sind. Zum Beispiel heißt es, dass Apache auf einer Southern Make-Liquid installiert ist, um Ihnen mitzuteilen, ob der Server auf oder ab ist. Heartbeat wird Ihnen tatsächlich sagen, ob Ihre Website fertig ist. Packet Beat ist ein Echtzeit-Paketanalysator , den Sie mit Elastic Search verwenden können. Stellen Sie ein Anwendungsüberwachungs- und Performance-Analysesystem bereit, das übertreffen könnte und eine Sichtbarkeit der Kommunikation zwischen den Servern in Ihrem Netzwerk bietet . Im Allgemeinen ist Beat ein leichtgewichtiger Versender für die Weiterleitung und Zentralisierung von Protokolldaten von dem System lesen die Journalisten. Es wird auch ein Agent auf Ihren Servern installiert und überwacht allgemeine Standorte, die Sie angeben, sammeln Protokollereignisse und leitet diese Ereignisse dann entweder an die elastische Suche auf Log Stash weiter, sie sind keine Zuckerrüben Chips. Windows-Ereignisprotokolle entweder bei Elastic Search oder Log Stash. Es wird als Windows-Dienstfunktion installiert , die Beat ein Elastic ist, das Sie als Funktion in Ihrer serverlosen Umgebung bereitstellen , um Daten von Cloud-Diensten zu sammeln und elastisches Set zu liefern. Damit sind wir am Ende dieser Vorlesung gekommen. Danke fürs Zuschauen. Wir sehen uns im nächsten. Tschüss. 9. 11: Hey Leute, In diesem Video werden wir Elasticsearch und Kibana auf einem DBN-basierten Linux-System mit einem einzigen Knoten installieren und konfigurieren . Die Schritte für diese Vorlesung sind zuerst, wir werden den öffentlichen Signaturschlüssel Elastic Search installieren. Dann installieren wir das APT-Transport-HTTPS-Paket. Danach speichern wir Elastic Search Repository-Definitionen auf unserem Linux-System. Dann machen wir ein Systemupdate und installieren dann Elasticsearch und Kibana. Sobald die drei Anwendungen installiert sind, werden wir Elasticsearch und Kibana konfigurieren. Ich werde einen separaten Vortrag für Log Stash widmen. Und schließlich werden wir die Konnektivität zu unseren Diensten testen. Also lasst uns anfangen. Hier auf dem Bildschirm befinde ich mich in meinem GCP-Konto und auf der Seite VM Instances werden wir diese Seite verwenden, um unser Linux-System mit einem Knoten zu erstellen. Wir klicken auf Instanz erstellen. Dann klicke ich auf die neue VM-Instanz aus Template, wähle dann die ELK-Vorlage aus und klicke auf Weiter. Jetzt kann ich von diesem Bildschirm aus den Namen ELK One behalten, aber ich werde die Region in US West One ändern. Und dann lasse ich alles andere als Standard und gehe zum Networking. Und unter Networking werde ich sicherstellen, dass es das richtige Tag hat, Kibana. Und ich werde auch sicherstellen, dass es sich unter Elasticsearch VPC und Monitoring-Subnetz befindet. Sobald ich diese Dinge validiert habe, klicke ich auf Create, um meine Linux-Instanz zu erstellen. Sobald dieser Computer eingeschaltet ist, gehe ich hier zu meinem Visual Studio-Code. Auf der linken Seite habe ich die Hinweise, um ELK Stack auf einem Linux-Computer zu installieren . Und auf der rechten Seite habe ich mein Terminal hier. Ich gehe zuerst auf meine VM-Instanzen-Seite und kopiere von hier aus die externe IP-Adresse für meine Linux-Instanz. Und dann tippe ich im VS Code Terminal SSH ein, erläutere es, und ich füge die IP-Adresse meiner Linux-Instanz ein und drücke Enter. Hier gebe ich ja ein, wie Sie sehen können, konnte ich mich erfolgreich mit meiner Linux-Instanz verbinden. Jetzt tippe ich zuerst klar und jetzt können wir mit der Installation unserer Anwendungen beginnen. Zuerst mache ich ein Sudo apt-get Update. Also bekomme sudo APT Update und drücke Enter. Und jetzt, sobald das System aktualisiert wurde, lösche ich zuerst den Bildschirm. Dann muss ich W Gate installieren wenn es nicht bereits auf dem System installiert ist. Also mache ich das jetzt. Nachdem diese Voraussetzungen erfüllt sind, kann ich den öffentlichen Signaturschlüssel für Elastic Search installieren, also kopiere ich all dies und füge es auf das Terminal ein und drücke die Eingabetaste. Sobald ich die Oky-Nachricht erhalten habe, kann ich das APT-Transport-HTTPS-Paket installieren. Also kopiere ich diesen Befehl sudo apt-get install epithelial transport, STDEV.S und das Ja und drücke Enter. Sobald dies erledigt ist, lösche ich meinen Bildschirm erneut. Und jetzt müssen wir die Verzeichnisdefinitionen speichern. Also kopiere ich das alles aus meinen Notizen und füge es auf das Terminal ein, und ich drücke Enter. Nachdem die Verzeichnisdefinitionen gespeichert wurden, können wir nun die elastische Suchprotokollsitzung Kibana installieren. Der Befehl lautet also sudo apt-get update, aktualisiere das System zuerst. Dann installieren wir Elastic Search, Log Stash und Kibana. Also kopiere ich das alles und füge es hier und drücke Enter. Sobald alle drei Anwendungen installiert sind, ist es jetzt an der Zeit, unsere Anwendungen zu konfigurieren. Also werde ich zuerst das klären. Dann mache ich Sudo SU und dann werde ich zuerst ATC Elastic Search um meinen Elasticsearch Service zu konfigurieren. jetzt im Elastic Search-Konfigurationsverzeichnis Wenn ich jetzt im Elastic Search-Konfigurationsverzeichnis ein LS mache, gibt es eine Datei namens Elastic Search dot YAML, die die Hauptkonfigurationsdatei namens Elastic Search ist . Geben Sie also entscheidend sudo ein, den Elastic Search Punkt YAML, um diese Datei zu konfigurieren. In dieser Datei müssen wir als erstes den Clusterpunktnamen ändern. Also gehe ich zuerst in Einfügen dann den Cluster-Punktnamen auskommentieren. Diese Einstellung wird verwendet, um einen beschreibenden Namen für Ihren Cluster festzulegen . Also rufe ich meinen Cluster Demo Dash ELK an. Jetzt ist die nächste Einstellung, die ich ändern möchte, der Knotenpunktname. Diese Einstellung besteht darin, einen beschreibenden Namen für diesen Knoten im Cluster einzurichten . Also nenne ich es Knoten eins. Sobald ich das getan habe, kann ich die Standardwerte für Pfadpunktdaten und Pfadpunktprotokolle belassen und muss ins Netzwerk gehen. Unter Netzwerkeinstellung möchte ich ändern, ist Network Dot Host. Standardmäßig ist Elasticsearch nur auf dem lokalen Host zugänglich. Wir müssen das ändern, also ändern wir diesen Wert, geht 0. Als nächstes werden wir den HTTP-Punkt-Port auskommentieren, aber wir werden ihn so belassen, wie es in einer Produktionsumgebung ist. Wenn Sie den Standardport ändern möchten , auf den Elastic Searches zugreifen kann, kommen Sie hierher und ändern diesen Wert. Jetzt lassen wir die Entdeckung so wie sie ist, weil es sich um einen Cluster mit einem einzelnen Knoten , der direkt nach unten und nach unten geht Wir werden eine Einstellung namens Discovery Dot Type eingeben. Also tippe ich den Discovery-Punkttyp ein. Und der Wert für diese Einstellung ist einzelner Knoten, da es sich um einen Server mit einem einzelnen Knoten handelt. Es wird das noch mal in meinen Notizen überprüfen. Entdeckter Punkttyp einen einzelnen Knoten. Jetzt können wir diese Datei speichern. Ich mache WQ und drücke Enter. Und um Elasticsearch Service zu starten, tippe ich System-CTL ein, starte Elastic Search und drücke Enter. Sobald der Dienst gestartet ist, können wir zuerst den Status des Dienstes pro Typisierungssystem CTL überprüfen. Ein Status Elastic Search und der Status zeigt aktiv ausgeführt an. Also kontrolliere ich C, dann weniger Testkonnektivität zu unserem ALK-Cluster, Bodentyp in Mädchen minus x als BIP und dann localhost und dann den Port , auf dem die elastische Suche auf 90 bis 100 läuft. Und um dann den Zustand des Clusters zu überprüfen, muss ich den Unterstrich eintippen, der dann gehalten wird. Und ich möchte, dass die Ausgabe in einem für Menschen lesbaren Format vorliegt. Also tippe ich hübsch ein und drücke Enter. Jetzt kam der Status als grün zurück und es gibt einen einzigen Knoten in diesem Cluster, was wir wollten. Daher ist der elastische Dienst installiert und konfiguriert. Ich werde alles klären und als nächstes ist es Zeit, Kibana zu konfigurieren. Also gehe ich auf CD, ATC, dann Kibana und drücke Enter. Wenn ich jetzt ein ls mache, werden Sie sehen, dass es eine ähnliche Kibana-Punkt-YAML-Datei gibt , die wir konfigurieren müssen. Also tippe ich Sudo VI Kibana dot YAML ein und drücke Enter. Jetzt wird in der Kubernetes YAML-Datei zuerst in Insert gehen, dann zum Sommerpunkt-Port gehen und dann nicht kommentiert werden, aber lassen Sie die Einstellung unverändert. Dies ist der Hafen, den Kibana und so weiter. In einer Produktionseinstellung möchten Sie diese möglicherweise von 5601 ändern. Als nächstes gehen wir zu mehreren Punkthosten, heben das Kommentieren aus und ändern ihn vom lokalen Host auf 0 oder 0 in Richtung 0 zu 0. Dies ermöglicht es Kibana, von der Außenwelt zugänglich zu sein . Das habe ich geändert. Jetzt die nächste Einstellung, dass wir eine öffentliche Basis-URL für Sommerpunkte ändern möchten . Also werde ich das nicht kommentieren. Und dann muss ich hier http und dann die private IP-Adresse meiner Kibana-Instanz eingeben http und dann die private . Gehen wir also auf unsere VM-Instanzen Seite und von hier aus kopiere ich die interne IP-Adresse. Jetzt gebe ich hier http ein, dann füge ich die interne IP-Adresse meiner Kibana-Instanz ein und gebe dann den Port 5601 an. Als Nächstes muss ich einen beschreibenden Namen für meine Kibana-Instanz angeben . Also werde ich den Punktnamen des Servers abkommentieren, und hier gebe ich den Demo-Dash Kibana ein. Als nächstes muss ich die URL angeben, auf die der Elastic Search-Host zugegriffen wird. Hier unter Elasticsearch gelehrten Hosts belasse ich den Wert als Standard, da er auf demselben Server läuft , auf dem Elastic Searches ausgeführt wird. So können wir es so lassen, wie es ist, wir können diese Datei speichern und jetzt ist es Zeit, Kibana zu starten. Also System CTL, starte Kibana und ich drücke Enter. Es sieht so aus, als hätte ich ein Tippfehler CTL gestartet Kibana und ich trete Enter. Sobald der Dienst zurückkommt, werde ich einen System-CTL-Status Kibana und die laufende Dienstaktivität ausführen. Gehen wir also zurück zu unseren VM-Instanzen. Von hier aus kopiere ich die externe IP-Adresse meiner Instanz. Ich öffne eine neue Browser-Tab, füge sie hier ein und gebe dann den Port an, an dem Kibana läuft. Also 5601 und ich drücken Enter wenn Kibana erfolgreich installiert und konfiguriert wurde, werden Sie zuerst das Laden von Elastic sehen. Sobald Kibana richtig geladen wurde, werden Sie bei elastisch willkommen sein. Und wenn Sie alleine auf Explore klicken, gelangen Sie zur Benutzeroberfläche von Kibana. Jetzt gibt es noch eine letzte Sache, die ich Ihnen zeigen wollte , bevor ich Sie loslasse, nämlich wenn Sie möchten, dass Ihre Elasticsearch- und Kibana-Anwendung automatisch wenn Sie Ihr System neu starten, Was Sie tun müssen, ist, dass Sie System eintippen müssen CTL aktivieren elastische Suche und System CTL aktivieren Kibana, ein Altar den Punkt bewegen. Und damit sind wir am Ende dieser Vorlesung gekommen . Danke fürs Zuschauen. Wir sehen uns im nächsten. Tschüss. 10. 12: Hey Leute, In dieser Vorlesung werden wir elasticsearch Log-Sitzung Kibana auf einem RPM-basierten Linux-System installieren und konfigurieren elasticsearch Log-Sitzung Kibana auf einem . Um dies zu tun, müssen wir zuerst den Elastic Search GPG-Schlüssel installieren, und dann müssen wir unsere Kibana-Repositorys für elastische Suchprotokolle auf dem RPM-System konfigurieren unsere Kibana-Repositorys für elastische Suchprotokolle . Danach werden wir unsere Anwendungen installieren. Dann werden wir Elasticsearch und Kibana konfigurieren. Und nachdem wir mit der Konfiguration fertig sind, können wir den Elasticsearch- und Kibana-Dienst starten und die Konnektivität testen. Also lasst uns anfangen. Jetzt bin ich hier auf dem Bildschirm in meinem GCP-Konto. Und unter VMI-Instanzen sehen Sie bereits das Debian-basierte Linux-System, auf dem wir unser elastisches Suchsystem mit einem einzelnen Knoten bereits in den vorherigen Vorträgen installiert haben unser elastisches Suchsystem mit einem einzelnen Knoten bereits in den vorherigen Vorträgen installiert . Hier klicke ich auf Instanz erstellen und klicke dann auf neue VM-Instanz aus Template und wähle dann ELK. Dann klicke ich auf „Weiter“. Wir belassen den Namen ELK T2, aber wir werden die Region in US West One ändern. Dann gehe ich runter und unter Bootdiskette klicke ich auf Ändern. Hier. Unter Betriebssystem klicken wir auf das Dropdown-Menü und hier wählen wir Red Hat Enterprise Linux. Jetzt können wir die Version von Linux ändern , die wir für diesen Computer wünschen. Ich belasse es als Standard und klicke auf „Auswählen“. Sobald ich das getan habe, gehe ich zum Networking. Und unter dem Netzwerk stelle ich sicher, dass ich das richtige Netzwerk-Tag, Kibana, habe und mich in der elastischen Such-VPC und im Überwachungssubnetz befinde. Und dann klicke ich auf Erstellen. Sobald meine ELK zwei Instanzen laufen, kopiere ich die externe IP-Adresse und gehe dann zu meinem Visual Studio-Code. Und auf meinem Visual Studio-Code auf der linken Seite die Hinweise, habe ich auf der linken Seite die Hinweise, um Elastic Search auf einem RPM-System zu installieren . Und auf der rechten Seite habe ich ein Terminalfenster unter dem Terminaltyp in SSH und labor es dann unter. Und dann füge ich die externe IP-Adresse und drücke Enter. Klicken Sie auf „Ja“. Sobald ich mich mit dieser Instanz verbunden habe, klicke ich auf Löschen und jetzt können wir Installation unserer Dienste beginnen. Zuerst müssen wir Elasticsearch GPG-Schlüssel in dieses System importieren . Also kopiere ich das alles und füge es auf mein System ein und drücke Enter. Es. Der Index kann nicht mit den V5-Berechtigungskennzeichen geöffnet werden. Was ich tun werde, ist, dass ich denselben Befehl mit sudo, sudo ausführen und die Eingabetaste drücken und sobald der Schlüssel erfolgreich importiert wurde, wird Installation von RPM-Repositorys beginnen. Also muss ich zuerst drei Dateien erstellen, Elastic Search Dot Repo, Kibera, Repo und Slashdot-Repo in meiner kleinen Tochter repost oder D protokollieren . Also kopiere ich den ersten Touch-Befehl und drücke Enter. Ich muss zuerst Sudo eintippen. Jetzt ziehe ich in Sudo SU ein. Als nächstes kopiere ich den zweiten Touch-Befehl und kopiere dann den dritten Touch-Befehl. Wenn ich jetzt in meine kleine Tochter gehe, repost oder D, mache Nephron ein ls. Ich habe meine drei Dateien, Elasticsearch, kurzes Repo, Logs, Gestenarterie Po und Kibana-Punkt-Bericht. Als nächstes müssen wir Dateien konfigurieren. Also machen wir zuerst VI auf Elastic Search short Repo, und ich gehe in Insert und dann muss ich diese Einstellungen innerhalb des Marie-Profils konfigurieren. Also klicke ich auf Einfügen und mache ein paar Formatierungen. Jetzt ist diese Repository-Definition nichts anderes als zuerst haben wir den Namen dieser Konfigurationseinstellung, dann haben wir die URL, von der das Paket abgerufen werden soll. Gpt prüft den GPG-Schlüssel , ob er aktiviert ist oder nicht und den Typ. Jetzt speichere ich diese Datei. Als Nächstes. Wir machen ein VI auf Kibana Dot Repo, und sie werden in die Einfügung gehen und ich kopiere alle Einstellungen für meine Tastatur oder drei Profile. Ich füge sie hier ein. Und wieder muss ich etwas Formatierung machen. Und jetzt kann ich diese Datei auch speichern. Und schließlich muss ich mein Log gestrecktes Arterienprofil bearbeiten . Ich füge eine Kopie der Einstellungen für Log Stretched oder Triple ein, und ich speichere diese Datei. Jetzt müssen Sie sich keine Gedanken über diese Konfigurationseinstellungen machen. Was ich tun werde, ist, dass ich meine Notizen und den Beschreibungslink dieses Videos anfüge , damit Sie auch darauf zugreifen können. Sobald wir also unsere drei Repos konfiguriert haben, können wir jetzt alles installieren. Also müssen wir zuerst Elastic Search installieren und der Befehl lautet sudo yum install enabled repo. Und dann verweist es auf den Elastic Search Report , den Sie gerade konfiguriert haben. Und dann lautet der Dienstname Elastic Search. Also kopiere ich, ich füge es hier ein und drücke Enter. Wenn der Versicherer Sie auffordert, ein elastisches Suchpaket herunterzuladen, sagen Sie einfach ja und fahren Sie fort. Sobald Elastic Searches und gespeichert ist, können wir Kibana und Log Stash In-Typ in sudo yum Kibana installieren, um Kibana zu installieren und Enter zu drücken, ich trete hier ja. Sobald Kibana installiert ist, können Sie sudo yum install Log Stash eingeben, um Log Stash NAL head zu installieren, ja. Sobald die Protokollsuche ebenfalls installiert ist, ist es an der Zeit, unsere Dienste zu konfigurieren. Dies würde dem ähneln , was wir für unser DBN-basiertes System getan haben . Wenn Sie das bereits getan haben, können Sie diese wahrscheinlich selbst konfigurieren , wenn Sie dies nicht getan haben, bitte folgen Sie dieser Vorlesung. Zuerst konfigurieren wir Elasticsearch. Also CD, ETC slash elastische Suche. Wenn ich hier ein ls mache, werde ich sehen, dass es eine Datei namens Elastic Search gibt , wenn ich es bin, und dies ist die Konfigurationsdatei für Elastic Search. Also lasst uns das bearbeiten. Also gebe ich VI Elastic Search dot YAML ein und drücke Enter. Jetzt gehe ich hier in dieser Datei zuerst in Insert. Und die erste Einstellung , die ich ändern muss, ist der gruppierte Punktname. Ich ändere das in Demo Dash ELK. Als Nächstes wollte ich die Einstellung des Knotenpunktnamens ändern, also ändern wir dies in ELK Dash One. Danach kann ich den Pfad zu Daten- und Pfadpunkt-Log-Einstellung so belassen , ich muss unter Netzwerk und innerhalb des Netzwerks gehen was ich tun werde, ist, dass ich zum Network Dot Host gehe, das kommentieren und ändern Sie diesen Wert auf 0 oder 0 in Richtung 0. Was jetzt passiert, ist standardmäßig, elastische Suche nur von localhost aus zugänglich ist , indem sie auf 0 oder 0 oder 000 geändert wird. Wir setzen dies jedem auf der Welt aus. Als Nächstes werden wir den STDP-Punkt-Port auskommentieren, aber wir belassen den Port als Standard 9200. Wenn Sie einen Produktionscluster betreiben, möchten Sie diesen möglicherweise in einen anderen Port ändern, aber wir belassen dies unverändert. Jetzt gehe ich endlich ganz unten in dieser Datei. Und hier gebe ich eine Einstellung für Discovery Doctype ein. Jetzt wäre dieser Einstellungswert eine einzelne Ladung, da wir einen Discovery-Punkttyp mit einem einzelnen Knoten konfigurieren Elasticsearch-Cluster oder einen Discovery-Punkttyp mit einem einzelnen Knoten konfigurieren. Und der Wert ist ein einzelner Dash-Knoten. Und jetzt kann ich meine Elasticsearch getroffene YAML speichern, also klicke ich jetzt Enter. Ich kann meinen Elasticsearch Service starten. Also starte System-CTL Elastic Search. Sobald der Dienst aktiviert ist, kann er den Status des Dienstes überprüfen. Es ist aktiv und läuft. Um die Konnektivität zu unserem Cluster zu überprüfen, geben wir minus x ein, holen STDP und dann localhost und dann den Port , den Elastic Searches auf 90 bis 100 läuft. Und dann verbinden wir uns der Cluster-API und dem Gesundheitsdienst auf dieser API. Und was wir wollen, ist, dass wir die Ausgabe in menschlich lesbarem Format haben wollen. Also tippen wir hübsch ein und drücken Enter. Und wie Sie sehen können, ist der Status unseres Clusters grün und die Anzahl der Knoten macht Spaß. Jetzt können wir mit der Konfiguration unserer Kibana beginnen. Also gehe ich in den Schrägstrich, ETC, schrägst Kibana, und ich werde alles löschen und ein ls in diesem gegebenen Ordner machen , es gibt eine Datei namens keyboard AutoML, die die Konfigurationsdatei für Kibana. Also mache ich VI-Kibana-Punkt YAML. Jetzt gehe ich zuerst in Insert. Die erste Einstellung, die ich ändern möchte, ist unser Punktdiagramm, aber ich lasse diesen Wert so wie er ist, da dies ein Demosystem ist. Wenn Sie in einem Produktionssystem waren, möchten Sie diesen Wert möglicherweise in etwas anderes ändern. Dann werde ich den Kommentar des Server-Punkt-Hosts auskommentieren und dann von localhost auf $0 Punkt 0 ändern. Dies macht es also auch für die Außenwelt zugänglich. Jetzt ist mehrere Punkte Public Base URL die URL, auf die Kibana zugegriffen werden kann. Um den Wert für diese Einstellung zu erhalten , müssen Sie zu unseren VM-Instanzen wechseln. Dann kopiere ich unter IHL k2 die interne IP-Adresse und tippe http und füge die interne IP-Adresse und gebe den Port mit 5601 an. Als Nächstes ändern wir den Servernamen, aber ich gehe zu selbst.name, kommentiere ihn und gebe ihm den Namen demo dash Kibana. Dann gehe ich zu Elastic Search Short Hosts. Und ich kann den Standardwert belassen, da diese Kibana-Instanzen auf demselben Server laufen wie die Elasticsearch-Dienste, auf denen ausgeführt werden. Und sobald ich das gemacht habe, kann ich meine Konfigurationsdatei speichern. Und jetzt kann ich mit Kibana anfangen. Sobald Gibbon gestartet habe, kann ich den System-CTL-Status Kibana erstellen und der Dienst ist aktiv und läuft. Dann gehe ich zu meinen VM-Instanzen, kopiere die öffentliche IP-Adresse meiner Kibana-Instanz, basierend auf der Browser-Registerkarte und tippe 5601 ein, um eine Verbindung mit dem Kibana-Dienst auf dem Server herzustellen. die Kibana-Benutzeroberfläche. Sobald Sie zu diesem Bildschirm gelangen, klicken Sie selbst auf Erkunden und sie sollten Sie zur Kibana-Benutzeroberfläche bringen. Bevor ich dich jetzt gehen lasse, möchte ich dir eine letzte Sache zeigen. Wenn Sie möchten, dass Ihre Elasticsearch- und Kibana-Dienste nach dem Neustart des Systems automatisch wieder angezeigt werden, müssen Sie das System CTL für elastische Suche aktivieren eingeben, den Elasticsearch-Dienst aktivieren und System CTL aktivieren Kibana, aktivieren Sie den Kibana-Dienst. Damit sind wir am Ende dieser Vorlesung gekommen. Danke fürs Zuschauen. Wir sehen uns im nächsten. Tschüss. 11. Installieren ELK auf Windows-Server: Hey Leute, In dieser Vorlesung installieren wir elastische Suche auf einem Windows-Server. Zu Beginn laden wir einige Software herunter. Also werden wir zuerst Elasticsearch und Kibana herunterladen. Danach installieren wir es mit dem Namen NSSS sind nicht saugen Service Manager. Dieses Tool hilft Ihnen, eine Anwendung als Dienst zu installieren. Der Grund, warum wir dieses Tool brauchen, ist Kibana nicht mit dem kostenlosen Paketdienstprogramm geliefert wird, das uns helfen kann, Kibana als Service zu installieren. Also werden wir NSSA für Elastic Search verwenden. Wir haben ein Dienstprogramm namens Elastic Search In diesem Dunkeln in der elastischen Suchzip-Datei, die verwendet wird, um ein Asset wie einen Dienst auf Windows Server zu installieren . Nachdem wir NSSS heruntergeladen haben, werden wir 7-Zip herunterladen und installieren. Sobald die Downloads abgeschlossen sind, konfigurieren wir Elasticsearch und geben unsere Anwendungen an, dann führen wir sie als Service aus. Und sobald sie erfolgreich gestartet sind, testen wir die Konnektivität zu unserem Elasticsearch Cluster und anderen Kibana-Instanz in Ihrer hier gestarteten Skizze. Ich habe irgendwo mein Fenster, wo immer ich Elasticsearch und Kibana auf diesem Server installiere , zuerst öffne ich einen Browser-Tab. Und im Browser tippe ich die klassische Suche ein Windows-Download und drücke Enter. Und von hier gehe ich zu der URL, auf der elastisch steht. Es lädt eine elastische Suche herunter. Also klicke ich auf diesen Link. Und sobald ich auf diesem Link bin, werde ich sicherstellen, dass ich auf der Registerkarte „GA-Release“ bin. Und von Schritt eins werden wir klassisch herunterladen, was wenn Windows ist, klicke ich auf diesen Download-Button. Und während dies heruntergeladen wurde, öffne ich einen weiteren Tab und tippe Kibana Windows Download ein. Und auch hier gehe ich zur Download-URL für Kibana. Und auch von dieser URL gehe ich zu Schritt eins, lade Kibana herunter und entpacke sie. Ich werde sicherstellen, dass der schwarze Schaum als Windows ausgewählt wird, und ich klicke auf den Download-Button für Windows. Und das sollte auch den Download für meinen Kibana-Prozess starten . Während dies heruntergeladen wird, öffne ich einen weiteren Tab und tippe Download und SSM ein und drücke Enter. Und aus den Ergebnissen wählen Sie den Link für einen SSM-Punkt-CC und Downloads aus. Und von dieser Webseite gehe ich unter Abschnitt neueste Version. Habe nicht auf das Dienstprogramm und SSM 2.24 geklickt. Also klicke ich darauf und jetzt öffne ich einen weiteren Tab und ich gebe Download 7-Zip ein und es geht ein. Und von der 7-Zip DOT ORG-Downloadseite klicke ich auf den Link, um das Dienstprogramm für 64-Bit-Windows herunterzuladen . Also klicke ich hier auf diesen Download-Link. Sobald alle Dateien heruntergeladen wurden, klicke ich zuerst auf 7-Zip installiert, 7-Zip auf dem System. Dialogfeld des Installationsprogramms klicke ich auf Ausführen, und von hier aus wähle ich den Standardzielordner aus und klicke auf Installieren. Und sobald die IP von jemandem installiert ist, kann ich auf klicken. Und jetzt öffne ich meinen Download-Ordner. Sobald Sie sich im Download-Ordner befinden, können Sie mit der rechten Maustaste auf Elasticsearch zip und mit 7-Zip die Dateien extrahieren. Also klicke ich auf Dateien extrahieren. Und von hier aus können Sie den Pfad auswählen, in den Sie diese Dateien extrahieren möchten. Was ich für diese Vorlesung getan habe, ist, dass ich diese Dateien bereits in meinem Dokumentenordner akzeptiert habe. Ich gehe zum Ordner Meine Dokumente und wie Sie sehen können, habe ich hier einen elastischen Suchordner und ich habe auch einen Kibana-Ordner. Also fangen wir an, diese zu konfigurieren. Ich öffne den Elastic Search-Ordner und wähle von hier aus Elastic Search. Schon wieder. Ich werde in Konflikt geraten. Im Konfliktordner müssen wir die kurze YAML-Datei Elasticsearch bearbeiten. Also klicke ich mit der rechten Maustaste auf diese Datei und verwende VS-Code , um diese Datei zu bearbeiten. Sie können den Editor Ihrer Wahl verwenden. Öffnen und bearbeiten Sie diese Datei. Sobald ich die kurze YAML-Datei Elasticsearch geöffnet habe, mache ich die erste Einstellung, die ich ändern muss, Cluster oder Name ist. Und ich werde das in Demo Dash ELK ändern. Dann muss ich den Knotennamen ändern. Also werde ich das in ELK Dash One ändern. Danach muss ich keinen Pfad zu meinem Datenverzeichnis oder Log-Verzeichnis angeben meinem Datenverzeichnis oder Log-Verzeichnis da es sich um eine Demo-Instanz handelt. Also werde ich behalten, es heißt Standard. Jetzt gehe ich zum Abschnitt Netzwerk und entkommentiere den Netzwerk-Punkt-Host. Und ich ändere diesen Wert auf 0. Danach werde ich http dot schweinefleisch auskommentieren, aber ich behalte den Port als Standard. Und schließlich gehe ich zum Ende dieser Datei. Und hier gebe ich den Discovery-Punkttyp ein und gebe den Wert Single Dashboard an, und gebe den Wert Single Dashboard da es sich um eine einzige Norton-Lösung handelt. Jetzt kann ich diese Datei speichern und sobald ich das getan habe, kann ich meinen Elasticsearch Service starten. das zu tun, gehe ich in mein Suchfeld und tippe PowerShell ein, und hier wähle ich die Windows PowerShell-Desktop-App aus. Jetzt bin ich in meine PowerShell-Konsole gegangen. Ich tippe CD ein, wenn ich zu Documents gehen muss, und dann muss ich zum Elasticsearch-Ordner und dann wieder zu Elasticsearch gehen und dann in der Ablage, wenn ich ein ls mache. Jetzt werden Sie sehen, dass es eine Datei namens Elastic Search Service Dot Ph.D gibt. Jetzt müssen wir diese Datei ausführen. Ich werde es zuerst aus meinem Bildschirm raus. Und von hier aus gebe ich Punktschrägstrich Elastic Search, Strich, Servicepunkt ein. Und hier muss ich Installateure eintippen. Also Punktschrägstrich Elasticsearch Service Dot USt-Speicherplatz installieren, und ich klicke auf Enter. Dies sollte nun mit der Installation eines Assets wie eines Dienstes beginnen . Sobald dies abgeschlossen ist, können Sie von Ihrem Suchfeld aus zu Services dot MSC wechseln . Hier finden Sie den Elasticsearch-Service und jetzt können Sie den Dienst starten. Aber zuerst ändern wir den Starttyp des Dienstes von manuell auf automatisch , damit der Dienst gestartet wird, nachdem die Mobilfunkboote automatisch in Eigenschaften übergegangen sind. Wir gehen zum Starttyp und ändern Automatisch“ und klicken auf Übernehmen. Sobald Sie das getan haben, können Sie auf Start klicken, um zu beginnen. Der Dienst klickt auf OK. Und Sie können sehen, dass die Dienste laufen. Lassen Sie mich jetzt meine Veröffentlichung maximieren. Jetzt können Sie hier auch dasselbe Dienstprogramm verwenden , um diesen Dienst zu verwalten. Lass mich dir die Verwendung zeigen. Wenn ich den klassischen Suchdienst „Dot Slash “ eingefügt hätte, gespeicherte Mehrwertsteuer und drücke Enter. Jetzt können Sie die Verwendung sehen. Sie können einen Dienstentfernungsdienst installieren , beenden und einen Dienst verwalten. Versuchen wir nun, diesen Dienst mit diesen Dienstprogrammen zu beenden , damit ich auf Lager tippen und auf Enter klicken kann . Jetzt wurde die Meldung erhalten, dass dieser Elasticsearch-Dienst gestoppt wurde. Und ich kann dies überprüfen, indem ich in den MSC meiner Dienste gehe und auf Diese Aktualisierung ausführen klicke, kannst du sehen, dass der Dienst gestoppt wurde. Starten wir nun den Dienst und drücken Enter, und wir haben die Meldung, dass die Dienste gestartet wurden. Lassen Sie uns das nochmal bestätigen. Also klicke ich auf Aktualisieren und Sie können sehen, dass der Dienst ausgeführt wurde, um die Konnektivität zu unserer Elasticsearch-Instanz zu testen . Was wir tun müssen, ist, dass Sie das Chrome-Fenster öffnen müssen . Und von Chrome aus öffnen wir einen weiteren Tab. Und hier geben wir den lokalen Host http slash slash und kauften dann 90 bis 100 und drücken Nervosa-Dienste eingeben. Sie werden einige Informationen sehen von Ihrem Cluster zurückkommen. Was Sie jetzt auch tun können, ist, dass Sie sich den Clusterzustand ansehen können. Dazu geben Sie Schrägstrich nach der URL ein und unterstreichen einen weiteren Schrägstrich und Kopf und dann Fragezeichen und dann ziemlich flüssig den Clusterkopf. Jetzt können Sie sehen, dass der Status des Clusters grün ist und die Anzahl der Knoten eins ist. So können Sie elastische Suche auf einem Windows-Computer installieren. Als Nächstes konfigurieren wir unsere Kibana-Instanz. Um unsere Kibana zu konfigurieren, öffne ich den Datei-Explorer. Und von hier gehe ich zu Documents. Und ich öffne meinen Kibana-Ordner. Und dann wieder Kibana-Ordner und dann config. Und in Config muss ich die Kibera TML Finance bearbeiten, also klicke ich mit der rechten Maustaste darauf und klicke auf Öffnen, um diese Datei in einem Editor zu öffnen. Jetzt werde ich in dieser Datei den Kommentar solver.py auskommentieren, aber belasse es als Standard. Dann entferne ich den Kommentar des Serverpunkt-Hosts und ändere den Wert vom lokalen Host auf 0 Punkt 000. Als Nächstes ändere ich die URL der öffentlichen Basis mit mehreren Punkten, also werde ich das kommentieren. Und um seinen Wert zu erhalten, müssen Sie zu den nächsten Netflix-Einstellungen wechseln. Und von hier aus klicke ich erneut auf Netzwerk, um die IP-Adresse dieses Rechners zu erhalten , der Standard 0 Punkt bis Punkt 15 ist. Die öffentliche Basis-URL ist also STDP zehn Punkt 0 Punkt 15. Und dann nahm das Buch den 601. Dies ist also die URL , auf der „Ehrung geben“ zugänglich sein wird. Ich gehe ein bisschen runter. Als nächstes werde ich mehrere Punktnamen ändern und den beschreibenden Namen meiner Kibana-Instanz von Ihrem Host-verbesserten Demo-Dash Kibana ändern den beschreibenden Namen meiner Kibana-Instanz von . Als Nächstes werde ich Elastic Search Dot Hosts auskommentieren. Aber ich kann dies als Standard belassen da diese Kibana-Instanz lokal auf demselben Server mit elastischen Suchen installiert ist . Als nächstes protokolliert Kibana standardmäßig, Es meldet sich bei STD aus. Wir möchten das ändern und wir möchten unsere Kibana konfigurieren oder ihre Protokolle irgendwo im Blutprotokoll protokollieren. Um dies zu tun, müssen wir nach unten gehen und die Zeile finden, in der Login-Punkt t ESD steht. Es ist online 97, ich werde das nicht kommentieren. Und bevor ich seinen Wert ändere, öffne ich meinen Datei-Explorer und gehe eine Ebene nach oben. Und hier erstelle ich einen neuen Ordner namens Logs. Und das öffne ich. Und dann klicke ich mit der rechten Maustaste auf Logs in der oberen Leiste. Und ich werde Adresstexte kopieren und jetzt werde ich Estradiol durch diesen Text ersetzen. Hier mache ich einen weiteren Schrägstrich und rief meine Log-Datei Kibana dark low an. Damit wird Kibana es in diese Datei schreiben. Jetzt können wir auch den Kommentar des Protokollierungspunkts still und den Protokollierungspunkt leise auskommentieren, aber wir behalten diese Werte als falsch. Wenn Sie nun eine ausführliche Protokollierung wünschen, können Sie das Kommentieren aufheben und den Wert von false auf true ändern . Dies gibt Ihnen detaillierte Details der Kibana ist gesperrt. Jetzt können wir diese Datei speichern. Bevor wir nun ein SSM verwenden, um Kibana als Service zu starten, möchte ich Ihnen zeigen, wie Sie Kibana manuell starten können. Also gehe ich zu meiner PowerShell und von hier aus und tippe CD ein und von Dokumenten gehe ich nach Kibana und dann wieder nach Kibana. Und dann wird sich Kibana diesmal von innen beugen. Und wenn ich hier ein ls mache, wirst du sehen, dass es eine Datei namens Kibana-Punktpunkt gibt. Wir müssen diese Datei ausführen. Zuerst. Ich werde das klären, und dann tippe ich Punktschrägstrich Kibana ein und drücke Enter. Gehen wir danach zu unserem Browserfenster über und geben den HTTP-Schrägstrich ein, Punkt zu Punkt 15 und erhalten einen Port 5601 und ich drücke Enter. Und das sollte mir meine Kibana-Seite nehmen, nicht abhängig davon, wie leistungsstark Ihr Windows-Server ist. Es kann einige Zeit dauern, bis Kibana geladen ist, also gib ihm einfach etwas Zeit. Sehen wir uns danach an, wie man Kibana als Service installiert. Zuerst öffne ich PowerShell und stoppe diese Instanz. Drücken Sie Strg C und es gibt einen und verwalteten System-Minuten-Hintergrund, den ich eintippen kann, ja, ich werde dies dominieren. Und sobald ich das raus bin, gehe ich von Kibana aus, öffne meinen Datei-Explorer, der einen SSM herunterlädt, extrahiert. Also 7-Zip. Wenn Dateien, und ich wähle Dokumente aus und klicke auf OK und dann wieder OK. Und sobald ein FSM in meinen Dokumenten ist, kann ich zurück zu PowerShell und CD und SSM gehen und hier ein LS machen. Nun, hier gibt es einen anderen Ordner namens SSM, also werden wir uns darauf einlassen und von hier aus ein LS machen. Ich muss in 64 gehen , weil meine Maschine jemals 64 Maschinen kennt. Wenn Sie sich auf einem Windows 32-Bit-Computer befinden, müssen Sie in dieses Verzeichnis gehen. Ich gehe mit 60 Vierteln ein, also CD in 64. Wenn ich hier ein LS mache, gibt es eine EXE-Datei namens SSM-Punkt EXE. Also werde ich Punktschrägstrich und SSM-Punkt EXE machen. Und um dir die Verwendung zu zeigen, werde ich es hier enden. Jetzt ist die Verwendung unnötig, eine der Optionen und dann einige Argumente. Installieren Sie einen Dienst, wir müssen eine SSM-Installation verwenden. Hier geben wir also Punktschrägstrich und SSM EXE-Speicherplatz im Speicher ein. Und jetzt müssen wir den Dienstnamen angeben. Also Kibana und trete Enter. Sobald Sie die Eingabetaste gedrückt haben, öffnet sich ein Dialogfeld. Und in diesem Dialogfeld auf der Registerkarte „Anwendung“ müssen wir den Pfad für die Batch-Datei für Kibana angeben . Ich klicke hier auf diesen Button. Dann gehen wir zu Documents, Kibana, Kibana und dann bin. Und von hier aus werde ich angeben, dass wir unsere Batch-Datei beibehalten und auf Jetzt öffnen klicken und den detaillierten Schritt öffnen. Ich kann ein paar Details eingeben, also tippe ich Kibana ein und die Beschreibung wird auch Kibana sein. Sie können angeben, dass der Starttyp automatisch, automatisch, verzögert, manuell oder deaktiviert sein kann . Wir belassen das automatisch. Sie können die Anmeldung hier als Information, Abhängigkeiten dieses Dienstes, das Shutdown-Verhalten der Prozesspriorität angeben Abhängigkeiten dieses Dienstes . Aber wir belassen alles als Standard und klicken auf Install Service, nachdem mir die Bestätigung gegeben wurde , dass Kibana-Dienste installiert sind, ich kann auf Okay klicken. Und das wird das Dialogfeld entfernen Status des Kibana-Dienstes schützen. Ich kann NASM, cmd.exe Space Status Kibana eingeben und dort Enter drücken, es heißt Service-Stock. Zuerst müssen wir den Dienst starten nsf dot EXE Space Stark Leertaste Taste und ich drücke Enter. Jetzt habe ich die Bestätigung, dass dieser Dienstvorgang erfolgreich abgeschlossen wurde. Also gehe ich zum MSC-Fenster meines Dienstes, aktualisiere es und gehe zu meinem Kibana-Dienst. Und ich sehe, dass die Kibana-Dienste laufen. Also öffne ich einen weiteren Browser-Tab und klicke auf Viruslasten aktualisieren und sichern . Es könnte wieder einige Zeit dauern. Ich werde das Video hier posten. Jetzt hat es ein paar Minuten gedauert bis mein Kibana-Weihrauch wieder auftauchte, aber jetzt kann ich selbst auf Explore klicken und an meiner Kibana-Benutzeroberfläche arbeiten. Bevor ich Sie nun als Nächstes loslasse, überprüfen Sie, dass sich unsere Kibana-Instanz bei der von ihnen angegebenen Protokolldatei anmeldet. Also gehe ich zu Dokumenten Kibana, Kibana, und dann gehe ich in Protokolle. Ich kann sehen, dass meine Kibana-Punkt-Log-Datei da ist und einige Rechenzentren hat. Öffne es. Und hier sehen Sie, dass Kibana X-Logdaten in diese Protokolldatei schreibt. Damit sind wir also zum Ende dieser Vorlesung gekommen. Ich habe dir gezeigt, wie man Elasticsearch und Kibana auf einem Windows Server installiert. Danke fürs Zuschauen. Wir sehen uns im nächsten. Tschüss. 12. 14: Hey Leute, In dieser Vorlesung werden wir erwartet Sicherheit auf unserem Elasticsearch Cluster konfigurieren . Zuerst werden wir Kibana im Elasticsearch-Service stoppen. Dann werden wir den Erwartungen ermöglichen, in diese Elastic Search-Konfigurationsdatei zu Tag zu gehen . Dann starten wir den Elasticsearch-Dienst. Danach richten wir Standardanmeldeinformationen für integrierte Benutzer von Elastic Search ein. Dann konfigurieren wir Kibana so, dass es die Passwortauthentifizierung verwendet , um eine Verbindung zu unserem Elasticsearch Cluster herzustellen. Und schließlich werden wir unseren Kibana-Service starten und die Konnektivität testen. Lasst uns anfangen. Hier auf dem Bildschirm habe ich meine Notizen, um die erwartete Sicherheit auf unserem Elasticsearch-Cluster und auf der rechten Seite meine SSH-Verbindung innerhalb meines ELL-gegebenen Rechners zu konfigurieren Sicherheit auf unserem Elasticsearch-Cluster und auf der rechten Seite . Dies ist ein ELK-Cluster mit einem einzigen Knoten , den wir auf einem DBN-Paket bereitgestellt haben. Also hier muss ich zuerst Kibana stoppen, eine elastische Suche. Also tippe ich System-CTL ein, stoppe Kibana und Systeme CTO stoppt die elastische Suche. Sobald ich zuerst starke Vorstandsdienste habe, muss ich das Erwarten innerhalb von Elastic Search aktivieren, schlug Yammer. Also gehen wir zu Elasticsearch. Und dann geben wir hier VI Elastic Search dot YAML ein. Und auf dieser Datei geht es direkt nach unten und ich gehe in den Einfügemodus. Und ganz unten füge ich hinzu, dass die Einstellung erwartet, dass die Sicherheit als wahr aktiviert ist. Also kopiere ich es und füge es hier ein. Und jetzt kann ich diese Datei speichern. Als nächstes muss ich meinen Elasticsearch-Cluster starten. Also tippe ich System-CTL ein und starte Elastic Search. Sobald die Elasticsearch-Dienste gestartet sind, schauen wir uns den Status an, indem wir den System-CTL-Status Elasticsearch eingeben , er ist aktiv und läuft. In unserem vorherigen Video haben wir den Befehl curl verwendet, um die Konnektivität zu diesem Cluster zu testen. Wenn ich nun ein Control R mache und Curl eintippe und wenn wir diesen Befehl erneut ausführen, schauen wir uns an, was passiert. Wir erhalten eine Sicherheitsausnahme, dass uns die Authentifizierungsanmeldeinformationen fehlen. Was wir jetzt tun müssen, ist, dass wir die Authentifizierungsanmeldeinformationen für unsere integrierten Benutzer generieren müssen. Also lösche ich den Bildschirm. Und um das zu tun, müssen wir zu usr gehen, Elastic Search teilen und dann bin. Und wenn ich hier ein LS mache, wirst du sehen, dass es viele Dienstprogramme in diesem Ordner gibt. Das, nach dem wir suchen, ist das Dienstprogramm für das Einrichten von Kennwörtern von Elastic S Also gebe ich Punktschrägstrich Elasticsearch Dash-Setup-Passwörter ein. Und hier habe ich zwei Modi. Ich kann entweder in den interaktiven Modus wechseln und jedes Passwort selbst festlegen. Lassen Sie mich Ihnen zeigen , dass ich zuerst interaktiv eintippe und drücke, und es heißt, das Einrichten des Passworts für reservierte Benutzer zu initiieren . Und es gibt einen Namen der Benutzer und es besagt, dass Sie im Laufe des Prozesses zur Eingabe von Passwörtern aufgefordert werden . Bitte bestätigen Sie, dass Sie fortfahren möchten. Ich tippe zuerst hier ein. Was ich gerne möchte, ist, Elastic Search automatisch Passwörter für mich generiert. Also machen wir das. Ich tippe auto ein und drücke Enter. Und jetzt heißt es noch einmal, aber dieses Mal heißt es, dass die Passwörter zufällig generiert und per Auto auf die Konsole gedruckt werden , die Passwörter werden automatisch generiert, während sie interaktiv sind vom Benutzer manuell eingegeben. Also geben wir ja ein, um meine Passwörter automatisch zu generieren. Ich habe das Passwort ist da, also kopiere ich all diese und bezahle in meine Notizen. Sobald ich das getan habe, lass mich das klären. Lass uns CD machen, um aus allem herauszukommen und klar zu sein. Lassen Sie uns jetzt noch einmal unseren curl-Befehl ausführen. Aber dieses Mal möchte ich die Option minus u verwenden , um den Benutzernamen und das Passwort direkt nach Carl anzugeben Benutzernamen und das Passwort direkt nach Carl Ich gebe minus u ein und gebe Elastic als Benutzernamen ein. Elastic ist ein Superuser im Elasticsearch-Cluster. Und dann gebe ich das Passwort für meinen elastischen Superuser an. Also kontrolliere ich C. Ich füge es hier ein und dann lege ich ein Leerzeichen ein. Und wenn ich jetzt die Eingabetaste drücke, werden Sie sehen, dass ich eine Cluster-Information abrufen kann. Auch dies bedeutet, dass unser Cluster korrekt eingerichtet ist und die Sicherheit und die Kennwortauthentifizierung erwartet. Als nächstes gibt uns die Ikebana-Instanz, wenn wir versuchen, sie jetzt zu starten, wenn wir versuchen, sie jetzt zu starten, einen Fehler aus, da sie keine Verbindung zu Elasticsearch herstellen kann. Daher müssen wir die Elastic Search-Anmeldeinformationen für meine Kibana-Instanz angeben , um eine Verbindung mit dem Elasticsearch-Cluster herzustellen. Um das zu tun, machen wir CD ADC, Kibana, und dann unter Kibana werden wir die Kibana-Punkt-YAML-Datei bearbeiten. Und in dieser Datei gehe ich in Insert und gehe in den Abschnitt, ich in Insert und gehe in in dem es heißt, dass Elasticsearch den Benutzernamen gelehrt hat und der integrierte Benutzername für diese Integration verwendet wird, Kibana-Unterstrichensystem ist. Das ist also Benutzername. Alles, was wir tun müssen, ist das Kennwort aufzuheben und den Standardwert zu entfernen und das Passwort für den Kibana-Systembenutzer zu kopieren und es hier einzufügen. Und sobald Sie das getan haben, können Sie diese Datei speichern. Und lasst uns den Kibana-Dienst starten. Ich bin CTO-Star Kibana. Lassen Sie uns nun einen Status erstellen und der Dienst ist aktiv und läuft. Wenn wir jetzt die Kibana-Webseite laden, sollten wir uns zur Authentifizierung auffordern. Also schließe ich diesen Tab. Ich kopiere die öffentliche IP-Adresse meines Rechners erneut und füge sie ein und tippe 5601 ein. Und mal sehen, was jetzt passiert, fragt es uns nach dem Benutzernamen und dem Passwort. Und hier unter Benutzername gebe ich elastisch ein und unter Passwort füge ich das Passwort für elastischen Superuser ein Login ein. Und jetzt können Sie sehen, dass ich in Kibana bin und mein integriertes User Elastic verwende , um alle Benutzerprofile dieser Kibana-Instanz zu betrachten . Sie können in die Verwaltung gehen und dann in die Stack-Verwaltung gehen und die Verwaltung verstehen. Sie können zu Benutzern gehen. Und von hier aus können Sie alle integrierten Benutzer sehen , die bei der Konfiguration erstellt wurden , und erwarten Sicherheit auf diesem System. Damit sind wir am Ende dieses Videos angekommen . Danke fürs Zuschauen. Wir sehen uns im nächsten. Tschüss. 13. Daten in unserem elk mit Kibana hinzufügen: Hey Leute, In den letzten Vorträgen haben wir unseren Elasticsearch-Cluster installiert. Jetzt ist es an der Zeit, ein paar Daten in unseren Cluster zu bringen. Zuerst werden wir Daten ohne Zeitreihen hochladen und dann Zeitreihendaten hochladen. Und dann zeige ich dir den Unterschied zwischen beiden. Also lasst uns die Hände schmutzig machen hier auf meinem Bildschirm. Ich habe meine Elasticsearch-Instanz. Also kopiere ich seine externe IP-Adresse, öffne einen anderen Browser-Tab, füge sie ein, und es gab 5601 und verbinde mich mit meiner Kibana-Instanz. Sobald ich auf der Homepage meiner Kibana-Instanz bin, gibt es ein Muster namens Datei hochladen, also klicke ich darauf und lade einige Daten hoch. Mit diesem Muster können Sie nun Dateien mit einer Größe von bis zu 100 MB hochladen und diese können im folgenden Format vorliegen. Es könnte eine durch Trennzeichen getrennte Textdatei wie CSV oder TSV oder eine getrennte JSON-Datei oder eine Protokolldatei mit einem gemeinsamen Format für den Zeitstempel sein. Für diese Vorlesung laden wir getrennte Textdateien hoch, die entweder CSV oder TSV sein könnten. Um nun einen Datensatz für dieses Tutorial zu erhalten, öffne ich einen weiteren Browser-Tab und gehe zu einer Website namens kaggle.com. Und auf Kaggle.com gehe ich zu Datensätzen. Also treffe ich Enter. Jetzt müssen Sie sich auf dieser Website registrieren oder sich auf dieser Website anmelden , um die Datensätze herunterzuladen. Und wenn Sie das aus dem linken Navigationsmenü tun, suchen Sie mit diesem Suchstatus die Schaltfläche „Beenden“ nach den Datensätzen. Jetzt können Sie auch nach den gewünschten Datensätzen filtern. Da ich zum Beispiel nur bis zu 100 MB Dateien hochladen kann , gebe ich hier 100 MB ein und tippe den Typ CSV ein. Und die anfängliche Dateigröße könnte zwischen 0 und b liegen und militärisch gelten. Nun klicke ich aus den Ergebnissen auf den Datensatz namens Netflix-Shows. Und hier sehe ich die Größe dieses Datensatzes, der etwa 90 KB beträgt. Wenn ich auf „kompakt“ klicke, sehe ich einige Beispieldaten im Datensatz. Und jetzt klicke ich auf Download , um diese Datei herunterzuladen. Diese Datei wird als Zip-Datei heruntergeladen. Also zeige ich im Finder und von einem Finder-Fenster aus, es ist in meinen Downloads. Also doppelklicke ich darauf, um diese Datei zu extrahieren. Und jetzt können Sie sehen, dass ich die Datei netflix dot csv auf meinem Computer habe, geht jetzt zurück zu Kibana. Ich kann diese Datei entweder per Drag & Drop ziehen, aber ich kann diese Datei hochladen. Also gehe ich hier zu meinen Downloads. Ich suche nach dieser Akte. Also netflix dot CSV, und ich klicke auf Öffnen. Was Kibana jetzt macht, ist, dass es die ersten tausend Zeilen dieser Datei analysiert die ersten tausend Zeilen dieser Datei und einige Daten über diese Datei gesammelt hat. Zum Beispiel hat es herausgefunden, dass es sich eine durch Trennzeichen getrennte Datei handelt und das Trennzeichen ein Komma ist, und es hat auch eine Kopfzeile. Jetzt können wir auf die Einstellung „Überschreiben“ klicken , um einige Einstellungen für diese Datei zu überschreiben. Oder ich schaue mir die Analyseerklärungen an, um herauszufinden, wie Kibana zu dieser Schlussfolgerung gekommen ist. Also klicke ich darauf und Sie können eine Erklärung dieser Analyse sehen , die ich jetzt am nächsten werde, Sie können auch einige Dateistarts sehen. Zum Beispiel gibt es 13 verschiedene Bewertungswerte in 999 Dokumenten. Sobald ich das alles durchgemacht habe, klicke ich auf Importieren, um diese Daten auf der nächsten Seite zu importieren und bittet mich , einen Index zu erstellen. Ich kann es entweder mit einer einfachen Methode oder einer erweiterten Methode für diese Demo tun , wir verwenden nur die einfache Methode und den Indexnamen. Ich muss den Namen des neuen Indexes angeben , der erstellt wird. Also nenne ich es Netflix-Index. Jetzt ist Index die Art und Weise, wie Sie Daten in Elasticsearch speichern. Die nächste Option besteht darin, ein Indexspektrum zu erstellen. Im Vergleich zu einem Index ist ein Indexmuster, wie Sie diese Daten in Kibana suchen und analysieren können , Index dient zur Speicherung von Daten in Elasticsearch, ein Indexmuster besteht darin, diese Daten zu analysieren. Und Kibana, ich möchte, dass ein Indexmuster erstellt wird weil ich diese Daten und Kibana visualisieren möchte. Also klicke ich auf Import. Dann können Sie sagen, dass es zuerst die Datei verarbeitet, dann den Index erstellt, eine Aufnahme-Pipeline erstellt und die Daten hochlädt und dann ein Indexmuster für diese Daten erstellt. Sobald dies erledigt ist, erhalten Sie eine vollständige Importnachricht. Sie können diese Daten entweder in einer Indexverwaltung entdeckt machen . Sie können beispielsweise angeben, wann diese Daten wieder aus dem Index usw., etc. Manager, Indexschaltfläche gelöscht werden . Und wir werden etwas später über File sprechen. Aber im Moment möchten wir diesen Index in unserer historischen Registerkarte entdecken, um zur Discover-Seite zu gelangen. Eine andere Möglichkeit besteht darin, diese drei Zeilen von oben links und dann unter Analytics anzuklicken diese drei Zeilen von oben links und dann und dann zu diskutieren Unter der entdeckten Seite auf der linken Seite ist die erste Information der Indexurin. Wenn Sie mehrere Indizes hatten, können Sie auf dieses Dropdown-Menü klicken und den Index auswählen, in dem Sie sich befinden möchten, dann haben Sie die verfügbaren Felder. Und wenn Sie beispielsweise mehr als ein paar Felder haben, einige Indizes 100 Meter oder mehr haben, können auch nach Feldnamen in diesem Feld suchen. Wenn ich sagen wollte, suche nach Bewertung und ich bekomme alle Felder, die das Wort „Rating Oil“ haben. Entferne das. Auf der rechten Seite ist die erste Information die Anzahl der Treffer oder die Anzahl der Dokumente in diesem Index. Wir haben also 1000 Dokumente und dann jedes einzelne Dokument, wenn ich das erweitere, können Sie alle Felder und ihre Werte sehen , die sich in diesem Dokument befinden. Jetzt sehen Sie gegen jedes Feld vier Knöpfe. Die erste Schaltfläche wird nach Wert gefiltert. Wenn ich das wollte, kann ich in meinem Indexfilter für alle Dokumente mit einer Bewertungsbeschreibung von 80 auf diesen Button klicken und es wird mein Filter oben links hier angezeigt. Und es filtert die Ergebnisse auf meinem entdeckten Tab, alle Ergebnisse, die zu meinem Filter passen. So können Sie von 1000 sehen, ich 15 Treffer habe, bei denen die Bewertungsbeschreibung 82 Entfernungsfilter war. Ich klicke einfach darauf. Xnor Schulden waren, wenn Sie nach einem bestimmten Wert filtern möchten , können Sie auch einen Wert herausfiltern. Zum Beispiel möchte ich dabei alle Filme, die 2004 nicht veröffentlicht wurden. Filtern Sie für das Release-Jahr 2004 heraus. Also klicke ich auf dieses Minus, und das wird mir alle Filme geben, in denen das Veröffentlichungsjahr nicht 2004 ist. Und wieder entferne ich das und experimentiere die Dokumente. Als nächstes werden Spalten in einer Tabelle umgeschaltet. In dieser Tabelle gibt es ab sofort keine Spalten, wenn Sie Spalten einführen möchten, damit Ihre Tabelle besser aussieht, nach denen Sie suchen können. Wenn ich zum Beispiel möchte, dass die erste Spalte Titel ist, käme ich gegen den Titel. Ich klicke auf Spalte in Tabelle umschalten. Und jetzt können Sie sehen, dass alle meine Dokumente nach Titel sortiert sind. Als Nächstes möchte ich, dass meine Kolumne Elisa ist. Ich klicke neben dem Veröffentlichungsjahr auf die Spalte Toggle in der Tabelle. Und als nächstes möchte ich, dass meine nächste Spalte die Benutzerbewertung ist. Und ich klicke auf Toggle Spalte in Tabelle , um auch die Bewertung der Benutzerbewertung einzubeziehen. Um keine der umgeschalteten Spalten zu entfernen, gehe ich einfach zu diesem Feld und entferne diese Spalte. Jetzt kann ich auch nach dieser Kolumne sortieren. Wenn ich zum Beispiel auf diesen Pfeil klicke, wird die Punktzahl der Benutzerbewertung aufsteigend sortiert. Lassen Sie mich das also minimieren. Und wenn ich darauf klicke, wird die Benutzerbewertung aufsteigend sortiert . Und wenn ich es auf absteigend verschieben möchte, klicke ich erneut darauf und es wird das jetzt durch Absteigend sortieren. Als Nächstes können Sie diese Suchleiste verwenden oder Ihren Datensatz mit der Kibana-Abfragesprache durchsuchen. Lassen Sie uns also zuerst alle Filme sehen, die im Jahr zweitausend aus meinen Feldern veröffentlicht wurden . Ich schaue mir an, welches Feld mich hier freigelassen habe. Das Feld heißt also tatsächlich Release-Jahr. Also tippe ich diese Elisa ein und jetzt kann ich ein paar Operatoren anwenden. Zum Beispiel bedeutet Doppelpunkt, dass diese Version hier gleich einem Wert kleiner ist als, gleich ist das Louisiana kleiner oder gleich Wert größer oder gleich was es vorschlägt, weniger als, größer als Doppelpunkt und ein Stern, um anzugeben, ob mein Datensatz ein Release-Jahr in irgendeiner Form enthält , die alle Dokumente herausfiltert , die für dieses bestimmte Feld null oder leere Werte haben . Sagen wir 2004. Und jetzt klicke ich auf Update. Und das zeigt mir alle Titel, die 2004 veröffentlicht wurden. Um dies noch einmal zu überprüfen, füge ich hier freigegeben hinzu, indem ich auch auf dieses Pluszeichen auf meinem Tisch klicke. Also plus, und jetzt kannst du es etwas einfacher sehen. Nehmen wir an, ich möchte meiner Suche noch ein Kriterium hinzufügen . Was ich tun kann ist, dass ich nach meiner ersten Suche ein Leerzeichen setzen kann und entweder ein UND oder ODER ADD machen kann, ist im Grunde beide Argumente müssen wahr sein. Also tippe ich N ein und in meinem Ergebnisset möchte ich diesmal nur die Filme einer Benutzerbewertung von 80 und höher haben. Also gebe ich den Benutzer und wähle den Wert für die Benutzerbewertung ausfüllen. Und ich möchte, dass der Wert 80 und höher ist, also größer als ein Gleichheitszeichen. Und dieses Mal tippe ich 80 ein und klicke auf Update. Von diesen ersten Versuchen haben wir nur diese vier Treffer. So können Sie also die Kibana-Abfragesprache verwenden , um nach Ihrem Datensatz zu suchen. Wenn Sie diese Abfrage speichern möchten, z. B. wenn diese Abfrage mehrmals wiederholt wird, können Sie diese speichern, indem Sie auf dieses Diskettensymbol klicken. Ich klicke darauf und klicke auf Aktuelle Abfrage speichern. Und ich werde meine Demo-Anfrage als Namen dieser Abfrage sagen. Da unser Datensatz kein Zeitstempelfeld hat, werde ich keinen Zeitfilter einschließen angeben, aber wenn es Filter in meinem Datensatz gibt, wenn ich sie einschließen wollte, kann ich das wie ja auswählen, es habe ich keinen Filter eingefügt, also entferne ich den und klicke auf Speichern und meine Abfrage wurde gespeichert. Wenn ich das nächste Mal meine gespeicherte Abfrage wiederverwenden möchte. Wenn ich all dies entferne, klicken Sie auf Aktualisieren, um zu meinem ursprünglichen Set zu gelangen, klicken Sie auf dieses Dropdown-Menü neben dem Diskettensymbol und klicken Sie auf meine Anfrage. Sie können sehen, dass ich dieselbe Abfrage schnell für meinen Datensatz erneut ausführen kann . Als nächstes laden Sie als Nächstes einige Zeitreihendaten herunter , die zu Kaggle zurückkehren Ich gehe zu Datensätzen, die unter Datensätzen liegen. Ich klicke erneut auf Filter. Die Dateigröße würde 0 bis 100 MB betragen. Und auf Tags tippe ich Zeitreihen ein, und dann klicke ich auf, Es ist jetzt außerhalb der Reserven. Ich klicke auf das erste Ergebnis, Omicron Daily Cases nach Ländern. Und wenn ich runtergehe, kann ich den Status sehen, ungefähr vier MB beträgt, und es gibt einen einzigen COVID-Varianzpunkt CSV. Und ich kann auf kompakt klicken, schauen Sie sich einige Beispieldaten an. Lasst uns diese Daten herunterladen. Sobald diese Datendatei heruntergeladen wurde, öffne ich den Finder erneut und extrahiere diese Datei. Jetzt habe ich die COVID-Varianzdatei. Also gehe ich zurück zu meiner Discover-Seite, gehe zur Homepage von Kibana. Ich kann auf eine Datei hochladen klicken. Hier. Ich zeige dir eine andere Methode , um das Gleiche zu tun. Also gehe ich hier und dann unter Leitung gehe ich zu Integrationen. Hier sehe ich, dass viele Standardintegrationen in Kibana integriert sind. Also gebe ich zuerst eine Integration ein wenn ich auf eine Datei hochladen klicke , um eine Dateiintegration hochzuladen. Wir werden in einer bevorstehenden Vorlesung über Integrationen sprechen. Auch hier wähle ich die Datei aus, also klicke ich auf Öffnen, damit meine Daten analysiert werden. Nun, nach der Analyse der ersten 11000 Zeilen, Es wird herausgefunden, dass die Daten durch ein Komma begrenzt sind. Es hat eine Kopfzeile und es hat auch einen Zeitstempel. Und das Format für das Zeitfeld ist ISO 8601. Jetzt klicke ich auf Importieren und verwende die einfache Methode erneut, um einen Index anzugeben , und ich gebe diesem Index des COVID-Unterstrich-Index einen Namen . Jetzt kann ich auf Importieren klicken. Sobald Sie die Meldung erhalten haben, dass der Import abgeschlossen ist, sehen wir uns diese Indizierungserkennung an. Wenn ich jetzt auf dieses Dropdown-Menü klicke, können Sie sehen, dass ich zwischen Index wechseln kann, indem ich mein Index-Dropdown-Menü verwende. Ich gehe zurück zum COVID-Index. Ich sehe alle verfügbaren Felder auf der linken Seite. Und was dieses Mal neu ist, ist dieses Zeitfilter. Im Grunde enthalten meine Daten Zeitfeldwerte zwischen dem 11. Mai 20252022. Ich kann damit grundsätzlich an einem bestimmten Datum eingegrenzt werden. Nehmen wir an, ich möchte nur zwischen dem ersten 20. Dezember, dem 21. Januar 2021 nach Daten suchen zwischen dem ersten 20. Dezember, dem 21. Januar 2021 nach Daten . Was ich tun kann, ist, dass ich auf diesen Button klicke , und hier muss ich ein Startdatum angeben. Also klicke ich vorerst auf „ absolut und klicke auf Dezember. Und ich möchte, dass dies der erste Dezember 2020 ist, und es kann bei 0 beginnen. Wenn ich darauf klicke, klicke ich als Nächstes auf Beendet. Und hier werde ich 2021 angeben. Ich kann das als Januar verlassen und klicke auf einen, der ein Freitag war. Jetzt kann ich ein anderes Mal angeben, aber die Daten nur bis zu 2330 oder 1130. Klicken Sie mit der rechten Maustaste darauf und ich klicke auf Aktualisieren. Es zeigt mir nur die Teilmenge der Daten, die zu diesem Zeitpunkt für Ihre Referenz übereinstimmen Dies ist der Unterschied zwischen Zeitreihendaten und Nicht-Zeitreihendaten. Wenn Sie sich Ihren Netflix-Index noch einmal ansehen, gab es keinen Zeitfilter, in dem Sie nach ihren Daten filtern konnten, da unsere Daten keinen Zeitstempel hatten. nun zum COVID-Index zurückkehren, können Sie auch relative Zeitrahmen angeben. Zum Beispiel können Sie Daten von, sagen wir, vor einem Monat angeben, wenn ich eines habe, und Sie können wenn ich eines habe, und Sie können eines der lateralen Felder angeben, z. B. 1 Sekunde , 1 ist eine Minute usw. etcetera. Also klick darauf. Und was hat geendet? Ich gehe wieder Relativ. Das heißt von vor einem Monat, vor zehn Tagen, von vor einem Monat bis vor zehn Tagen, und klicken Sie auf Update. Und das wird mir alle Daten von vor einem Monat bis vor zehn Tagen geben. Jetzt, statt vor zehn Tagen, kann ich jetzt auch angeben und das Enddatum und die Uhrzeit auf jetzt festlegen, und es wird mir unsere Daten für den letzten Monat geben. Dies ist also der Unterschied zwischen Zeitreihen- und Nicht-Zeitreihendaten. Sie haben keinen Zeitfilterwert in Daten ohne Zeitreihen. Damit sind wir am Ende dieser Vorlesung gekommen. Danke fürs Zuschauen. Wir sehen uns im nächsten. Tschüss. 14. Visualisierungen mit Kibana erstellen: Hey Leute, jetzt, da wir einige Daten in unserem Cluster haben und wir diese Daten über den Tab „Entdecken“ untersuchen können . Es ist an der Zeit, dass wir diese Daten visualisieren. Datenvisualisierungen ermöglichen es Ihren Geschäftsanwendern, große Datenmengen sehr einfach zu verstehen. Und hier kann man die Macht von Kibana wirklich sehen. Es gibt zwei Möglichkeiten, Visualisierungen in Kibana zu erstellen. Zunächst können Sie Dashboard-spezifische Visualisierungen erstellen oder die Visualisierungsbibliothek verwenden, oder die Visualisierungsbibliothek verwenden in Sie Visualisierungen hinzufügen können , die Sie für mehr als ein Element wie Dashboards benötigen oder Arbeitsunterlagen auf Leinwand. Jetzt gibt es einige Optionen, die Sie auswählen können, wenn Sie Ihre Visualisierungen erstellen. Erstens haben Sie ein Objektiv, das ein einfacher Drag-and-Drop-Editor ist. Dann haben wir TSV, das für erweiterte Analysen von Zeitreihendaten verwendet wird. Danach können Sie auch aggregationsbasierte verwenden, die für aggregationsbasierte Diagrammdaten verwendet wird. Sie können auch Karten auswählen, wenn Ihre Daten Geolokalisierungskoordinaten haben, Sie können auch benutzerdefinierte Visualisierungen mit der Vaguer-Syntax erstellen . Dies ist für diesen Kurs außer Spielraum. Wir werden nicht über diese Option sprechen. Jetzt lasst uns anfangen. In dieser Demo erstellen wir eine Visualisierung, die die durchschnittliche Filmbewertung nach dem Veröffentlichungsjahr anzeigt. Zuerst geht es links im Navigationsmenü und unter Analytics zur Visualisierung der Bibliothek. Von hier aus klicken wir auf Neue Visualisierung erstellen , um unsere erste Visualisierung zu erstellen. Und dann wählen wir Linse. Jetzt können Sie im Objektiv-Editor zuerst aus dem linken Menü den Index auswählen, zuerst aus dem linken Menü den Index auswählen, an dem Sie arbeiten möchten. Wenn ich zum Beispiel am COVID-Index arbeiten wollte , wähle ich den COVID-Index und er zeigt mir alle Felder an, die im COVID-Index verfügbar sind. Aber für diese Demo wähle ich den Netflix-Index in der Mitte, wo Ihr Diagramm angezeigt wird. Von hier aus können Sie den gewünschten Diagrammtyp auswählen. Wenn Sie beispielsweise eine Metriktyp-Visualisierung, eine Balkenvisualisierungslinie, Donut von usw. für diese Demo wünschen eine Balkenvisualisierungslinie, Donut von usw. , wählen wir einen vertikalen Balken aus. Auf der rechten Seite geben Sie an , welche Felder auf welchen Zugriff gelangen. Zuerst müssen wir eine horizontale Achse für unsere Entwürfe definieren , ich klicke auf Hinzufügen oder Drag-and-Drop ein Feld. Und von hier aus wähle ich das Dropdown-Feld für das Auswahlfeld aus und wähle hier Release. Jetzt kann ich hier die Granularität dieses Feldes erhöhen oder verringern, aber wir belassen es als Standard. Wir können den Anzeigenamen ändern, daher werde ich das erste Alphabet jedes Wortes groß schreiben. Sie können auch das Werteformat angeben. Ich belasse es als Standard und klicke auf Schließen. Als nächstes können wir die vertikale Achse wählen. Ich klicke erneut auf Hinzufügen oder Drag-and-Drop ein Feld. Und dann wähle ich aus dem Auswahlfeld die Benutzerbewertung aus. Und dann werde ich von der Selektorfunktion im Durchschnitt wählen, um die durchschnittliche Punktzahl anzuzeigen. Als Nächstes können Sie den Anzeigenamen erneut ändern damit ich das erste Alphabet erneut groß schreiben werde, Durchschnitt der Benutzerbewertung. Als Nächstes können Sie das Werteformat ändern. Wenn Sie beispielsweise möchten, dass das Format Prozentsätze anstelle von Zahlen sein soll , können Sie dies tun. Und dies zeigt Ihnen dann den Prozentsatz der Benutzerbewertung an. Ich belasse es vorerst als Standard. Jetzt können Sie auch die Serienfarbe ändern. Wenn ich zum Beispiel auf Ceres Farbe klicke und Blau wähle, wechselt das Diagramm zu Blau. Ich kann auch ändern, auf welcher Seite der Achse meine Daten anzeigen, wenn ich links klicke, was Standard ist. Wenn ich es wechseln wollte, kann ich es nach rechts ändern. Und dies zeigt die Daten auf der rechten Achse an. Wir belassen es als Standardwert und ich klicke auf Schließen. Jetzt, unter deiner Grafik, siehst du einige Vorschläge von Kibana. Wenn Sie beispielsweise ein Liniendiagramm ausgewählt hätten, wird Ihr Diagramm auf diese Weise angezeigt. Wenn Sie eine Metrik ausgewählt hätten, wird Ihre Visualisierung auf diese Weise angezeigt. Wir lassen es als das, was wir jetzt entworfen haben, Sie können diese Daten weiter filtern , indem Sie die Kibana-Abfragesprache verwenden. Nehmen wir zum Beispiel an, wir möchten nur Daten für Filme anzeigen , die nach 1984 veröffentlicht wurden. Was ich dann tun kann, ist, dass ich hier klicken kann und dann das Release-Jahr eingeben kann, und dann kann ich wählen, dass es größer oder gleich ist. Und dann kann ich 1984 tippen und auf Update klicken. Und jetzt zeigt unser Diagramm nur Daten für Filme, die nach 1984 veröffentlicht wurden. Als nächstes entfernen wir den Kuchen wird filtern, und dann kann er diese Visualisierung speichern. Zuerst müssen wir ihm einen Titel geben, also nenne ich es durchschnittliche Filmbewertung, indem ich hier veröffentlicht. Jetzt können wir eine Beschreibung geben. Diese Visualisierung zeigt also durchschnittliche Filmbewertung von Lavoisier auf Netflix. Als nächstes können wir es unserem Dashboard hinzufügen ein neues Dashboard für diese Visualisierung erstellen. Aber für diese Demo wählen wir einfach keine aus. Und Sie können sehen, dass das Kontrollkästchen Zur Bibliothek hinzufügen standardmäßig aktiviert wurde. Danach können Sie auch Tags verwenden, um Visualisierungen miteinander zu gruppieren. Jetzt klicken wir auf Tags und klicken auf Tag erstellen. Und ich werde ein Tag namens Netflix erstellen. Sie können die Farbe des Tags ändern, damit ich es in Blau ändern kann und auf Angriff klicke. Jetzt können Sie sehen, dass das Netflix-Tag hier aufgetaucht ist und wir können dann auf Speichern und Zur Bibliothek hinzufügen klicken. Sobald Sie dies getan haben zur Visualisierungsbibliothek zurückkehren, können Sie sehen, dass Ihre Visualisierung der Bibliothek hinzugefügt wurde. Bevor ich dich jetzt loslasse, möchte ich dir nur zeigen, wo Tags aus dem linken Navigationsmenü gespeichert werden , wenn du unter Verwaltung aufschreibst und dann Stack-Verwaltung hier unter Kibana Sie müssen Tags auswählen. Und hier können Sie alle Tags sehen , die Sie in Kibana erstellt haben. Damit sind wir am Ende dieser Vorlesung gekommen. Danke fürs Zuschauen. Wir sehen uns im nächsten. Tschüss. 15. Dashboard: Hey Leute, das Dashboard besteht aus mehreren Visualisierungen , die Ihren Geschäftsbenutzern eine gemeinsame Geschichte erzählen . Bevor Sie ein Dashboard erstellen können, benötigen Sie zwei Dinge. Erstens benötigen Sie ein klares Verständnis Ihrer Daten, und zweitens benötigen Sie klare Anforderungen an das, benötigen Sie klare Anforderungen an was Sie von Ihrem Dashboard aus erreichen möchten. Als ersten Schritt habe ich alle Felder auf dem Bildschirm aufgelistet, die im COVID-Unterstrich-Index verfügbar sind . Dies ist der Index, den wir für diese Demo verwenden werden und was in jedem Feld gespeichert ist. Das Standortfeld enthält beispielsweise den Namen des Landes, für das die Varianteninformationen bereitgestellt werden. Datum gibt das Datum der Dateneingabe an. Variant ist der Name der Variante , die dieser bestimmten Dateneingabe entspricht. Anzahl der Unterstrichsequenzen enthielten die Anzahl der Sequenzen Prozess und Prozentsequenzen enthalten einen Prozentsatz der Sequenzen aus der Gesamtzahl der Sequenzen. Und schließlich Num Sequenzen. Summe ist die Gesamtzahl der Sequenzen für das Enddatum dieser Ländervariante. Jetzt werden wir im Rahmen dieser Demo drei Visualisierungen in unserem Dashboard erstellen. Zunächst erstellen wir eine Reihe einzigartiger COVID-Fälle weltweit Visualisierung. Zweitens werden wir eine Visualisierung erstellen, die die Gesamtzahl der Sequenzen für die zehn wichtigsten Länder darstellt . Und schließlich erstellen wir eine Visualisierung , die Ihnen die Varianz nach Top-Ländern anzeigt. Also lasst uns anfangen. Hier auf der Kibana-Seite, um ein Dashboard zu erstellen , wird zuerst das linke Navigationsmenü aufgerufen. Dann gehen wir unter Analyseeffekte zum Dashboard. Und um ein Dashboard zu erstellen, klicken Sie zuerst auf Neues Dashboard erstellen. , Wenn Sie nun auf dieser Seite auf Visualisierung erstellen klicken um unsere erste Visualisierung zu erstellen, die Teil dieses Dashboards sein wird. Zuerst ändern wir den Datensatz von 15 Minuten auf vor 15 Wochen. Hey Leute, In dieser Vorlesung erstellen wir ein Kubernetes-Dashboard. Ein Dashboard besteht aus mehreren Visualisierungen , die Ihren Geschäftsbenutzern eine gemeinsame Geschichte erzählen . Bevor wir beginnen, benötigen wir zwei Dinge, um unser Dashboard zu erstellen. Erstens müssen wir ein klares Verständnis für unsere Daten haben. Und zweitens müssen wir ein klares Verständnis der Anforderungen haben , was wir im Grunde genommen von diesem Dashboard erreichen wollen. Als Teil der ersten Anforderung habe ich alle Felder aufgelistet, die im COVID-Unterstrich-Index verfügbar sind , und welche Daten jedes dieser Felder enthält. Das Standortfeld enthält beispielsweise den Namen des Landes, für das die Varianteninformationen bereitgestellt werden. Das Feld Num Unterstriche enthält die Anzahl der Sequenzen, die für dieses Land, diese Variante und das Datum usw. verarbeitet werden. Was wir in diesem Dashboard tun werden, ist, dass wir drei Visualisierungen haben werden. Zunächst haben wir die Visualisierung, die die Anzahl der einzigartigen COVID-Varianz weltweit darstellt . Zweitens werden wir eine Visualisierung haben, die die Gesamtzahl der Sequenzen für die zehn wichtigsten Länder darstellt . Und schließlich werden wir eine Visualisierung haben, die Varianten nach oben verteilten Ländern bietet. Lasst uns also anfangen, ein Dashboard von meiner Kibana-Homepage aus zu erstellen . Ich klicke auf das linke Navigationsmenü und klicke dann auf das Dashboard von der Dashboard-Seite Ich klicke auf Neues Dashboard erstellen von hier aus, ich werde zuerst Ketten, die die Daten statt vor drei Monaten sein werden, drei Jahren, dass wir nach allen Daten in diesem Index suchen und ich werde auf Update klicken. Sobald ich das getan habe, klicke ich auf Visualisierung erstellen. Jetzt ist die erste Visualisierung , die wir erstellen müssen, die Anzahl einzigartiger COVID-Varianz weltweit. Also wählen wir zuerst die Metrik aus. Dann klicke ich unter Metrik auf Hinzufügen oder Drag-and-Drop entfernt. Aus dem Auswahlfeld wähle ich eine Variante aus und klicke dann auf Flows. Aus dieser Visualisierung können wir den Wert der Anzahl der eindeutigen Varianz in unserer Datenbank ermitteln. Jetzt klicke ich auf Speichern und zurück. Danach klicke ich erneut auf Visualisierung erstellen. Und für meine zweite Visualisierung muss ich die Gesamtzahl der Sequenzen für die zehn besten Länder darstellen . Also gehe ich zurück zu meiner Kibana-Objektiv-Webseite. Jetzt werde ich hier den Diagrammtyp zwei Balken vertikal ändern, und dann wähle ich für die horizontale Achse die Feldposition und wähle Top Ten Werte aus. Und dann klicke ich auf Schließen. Jetzt werde ich für die vertikale Achse erneut anzeigen oder ziehen und ablegen. Und dann wähle ich das Feld Num Unterstrichensequenzen aus. Und dann klicke ich unter Selektorfunktion auf etwas. Dann klicke ich auf „Schließen“. Dies gibt mir die Gesamtzahl der Sequenzen für die zehn besten Länder. Dies sind alle Varianten von COVID für dieses bestimmte Land in diesem Datumsbereich. Also klicke ich danach erneut auf sieben zurück für unsere dritte Visualisierung, ich klicke auf Visualisierung erstellen. Und dieses Mal muss ich eine Variante erstellen, die nach Top-Ländern verteilt ist. Also werde ich den Diagrammtyp zwei Balken erneut vertikal ändern. Und für die horizontale Achse wähle ich den Standort und ändere ihn in die zehn wichtigsten Länder. Als Nächstes wähle ich die vertikale Achse, die Feldnummer-Unterstrichsequenzen. Und dieses Mal wähle ich das Funktions-Maximum aus und klicke auf Schließen. Danach werde ich diese Daten nach der Anzahl der Varianten aufschlüsseln . Also klicke ich auf ein Feld und eine Aufschlüsselung hinzufügen oder ablegen, und dann wähle ich eine Variante aus. Und von hier aus kann ich die Anzahl der Werte angeben , die ich zeigen wollte. Standardmäßig sind es drei, daher werden nur die ersten drei dargestellt. Da wir aber viel für die Gesamtvarianz haben, kann ich hier auch 20 Volt eingeben. Und dann wird es für jedes Land die Daten nach allen Varianten aufschlüsseln, die auf Schließen klicken und ich fahre mit dem Mauszeiger über die Daten für die Vereinigten Staaten, Sie können die Details sehen wie viele Fälle für jede einzelne Variante von COVID, Es kommt innerhalb eines bestimmten Datumsbereichs, der die letzten drei Jahre beträgt. Jetzt klicke ich auf Speichern und zurück. Und in diesem Dashboard können wir die drei verschiedenen Visualisierungen sehen . Was ich jetzt tun kann, ist, dass ich dieses Dashboard speichern kann . Ich kann ihm einen Namen geben. Also COVID-Dashboard und unter Tags klicke ich auf „Tag erstellen“, gebe ihm dann den Tag-Namen von COVID und klicke auf Tags erstellen. Ich kann auf Speichern klicken. Wenn Sie jetzt Zeit mit dem Dashboard speichern möchten, können Sie dies tun, aber ich belasse sie als Standard und klicke auf Speichern. Sobald das Dashboard gespeichert ist, können Sie zum Dashboard zurückkehren. Dieses Dashboard erneut, Sie klicken einfach darauf und um verschiedene Daten anzusehen, müssen Sie nur tun , wenn ich zum Beispiel von vor drei Jahren auf drei Wochen wechsele und auf Update klicke, Sie werden sehen, dass sich die Ergebnisse von selbst ändern. Oder wir hatten die letzten drei Wochen keine Daten . Deshalb zeigt es eine Bekanntmachung. Aber wenn ich sagen sollte, sagen wir drei Monaten und klicke auf Update, werde ich die Daten wieder sehen. So können Sie mit dieser Begrüßung am Ende dieser Vorlesung ein Kibana-Dashboard erstellen mit dieser Begrüßung am Ende dieser Vorlesung ein Kibana-Dashboard . Danke fürs Zuschauen. Wir sehen uns im nächsten Byte. 16. Zeichenfläche: Hey Leute, Gabbana Canvas ist ein Datenvisualisierungs - und Präsentationstool , mit dem Sie Live-Daten von Elasticsearch ablegen und sie dann mit Farben, Bildern und Lehrbüchern anreichern können Präsentationen für Ihre Geschäftsanwender. Jetzt verwendet Canvas Arbeitsblöcke, um Visualisierungen, Bilddecks usw. hinzuzufügen , um Ihre Präsentation zu erstellen. Lassen Sie uns also die Hände schmutzig machen, nicht von der Kibana-Homepage. Um zu Canvas zu gelangen, müssen Sie auf das linke Navigationsmenü klicken. Und dann müssen Sie unter Analytics auf Canvas klicken, um nicht unsere erste Arbeit zu erstellen, aber ich muss auf Arbeitsmappe erstellen klicken. Und von diesem Grün aus können Sie Ihr erstes Element hinzufügen, können Sie Ihr erstes Element hinzufügen indem Sie auf die Schaltfläche Element hinzufügen klicken. Das erste Element wird Texte verwenden. Jetzt können Sie dieses Element verwenden, um Ihrer Präsentation mithilfe der Markdown-Sprache Text hinzuzufügen um Ihrer Präsentation mithilfe der Markdown-Sprache Text . Also werde ich diesen Text per sagen Willkommen bei der Netflix-Index-Präsentation ändern . Ich werde diesen Text entfernen und ich werde sagen, hier ist die Übersicht der Daten im Netflix-Unterstrich-Index. Darunter sehen Sie, dass es sich auf einige Informationen in den Demodaten bezieht. Zum Beispiel gibt es Ihnen die Zeilenlänge und gibt Ihnen dann alle Spaltennamen mit jedem Spalten-Attribut . Es hat also alle Spaltennamen, aber dies spiegelt die Demodaten für dieses Element wider. Also klicke ich zuerst auf Bewerben. Und nachdem ich das getan habe, klicke ich auf Daten und ändere die Datenquelle von Demodaten in Elastic Search. Und dann stelle ich sicher, dass ich auf Netflix-Index bin und klicke auf Speichern. Und sobald ich auf Speichern klicke, sehen Sie, dass dieses Textfeld jetzt die Daten aus meinem Netflix-Index widerspiegelt. Nun, zum zweiten Element, Fügen wir die Visualisierung hinzu, die wir in unsere Visualisierungsbibliothek aufgenommen haben. Klicke auf Element hinzufügen und dann klicke ich auf Aus Kibana hinzufügen. Und dann wähle ich die Visualisierung , die wir in der Visualisierungsbibliothek gespeichert haben. Und als nächstes bewegen wir es auf die Seite. Jetzt können Sie den Zeitfilter ändern indem Sie auf die Uhrzeit klicken. Wenn ich zum Beispiel von den letzten 15 Minuten wechseln wollte, um uns sagen zu lassen, dass wir die letzten 30 Minuten sagen, kann das tun. Und dieses Panel wird die Änderung in der Zeit widerspiegeln. Als drittes Element erstelle ich ein Diagramm. Also klicke ich auf Element hinzufügen, klicke auf Diagramm und klicke dann auf Metrik, und dann verschiebe ich diese Metrik unter mein Visualisierungselement. nun für diese Metrik Lassen Sie uns nun für diese Metrik die Datenquelle erneut in Netflix-Index ändern. Und ich klicke für eine Minute auf Speichern. Dies wird uns einen Fehler geben, aber lassen Sie uns weiter zur Anzeige gehen. Jetzt brauchen wir für die Maßnahme einen eindeutigen Titelwert. Jetzt ist das Metrikformat nummeriert, aber wir müssen das Label ändern. Also ersetze ich Länder durch einzigartige Filmtitel. Dies ist die Anzahl der eindeutigen Filmtitel in unserem Netflix-Index. Als nächstes können wir auch die metrischen Texte ändern. Nehmen wir an, wir wollen, dass die Matrix rosa ist. Warum lassen Sie uns das nicht machen? Und wir können auch die Größe, Schriftart und Farbe unseres Etiketts ändern . Sagen wir, ich möchte, dass meine Schriftart Helvetica ist. Also klicke ich darauf und ändere die Größe ein wenig, also ändere ich sie auf 24. Und sagen wir, ich möchte, dass die Farbe grün ist, also wähle ich das aus. Eigentlich scheint das besser zu sein. Jetzt kann ich die Größe meiner Visualisierung anpassen. Wissen Sie als Nächstes, fügen wir ein Bild hinzu. Also klicke ich auf Limit bearbeiten. Ich klicke auf Bild und klicke dann erneut auf das Bild. Jetzt gibt uns das ein Standardbild. Also minimiere ich das für ein bisschen. Und ich kann ein Bild mithilfe der Schaltfläche Importieren importieren. Es kann einen Link zu einer Bild-URL bereitstellen. Vorerst klicke ich auf Import und klicke dann auf Auswählen oder Drag & Drop ein Bild. Jetzt wähle ich ein Bild aus meinem Download-Ordner aus. Und sagen wir, ich möchte mein Gesicht bei dieser Präsentation hier zeigen . Um diesen Arbeitsblock im Vollbildmodus anzuzeigen, müssen Sie nur auf diese Vollbild-Schaltfläche klicken und Sie werden alle Informationen im Vollbildmodus sehen. Ich werde vorerst aus dem Vollbildmodus verlassen. Jetzt wird dieser Rücklauf automatisch gespeichert. Wenn ich zu Canvas gehe und mein Buchbett hier sehen kann, kann ich auf die Arbeit klicken, aber wieder bekomme ich alle Datenelemente, die diese Arbeit teilen. Aber ich kann auf Teilen klicken und entweder einen PDF-Bericht erstellen , damit ich ein ganzseitiges Layout auswählen und auf PDF generieren klicken kann . Und jetzt heißt es, dass Ihre Basislizenz keine PDF-Berichterstattung unterstützt. Wenn Sie also eine Produktionslizenz hätten, können Sie den PDF-Bericht herunterladen. Klicken wir nun erneut auf Teilen. Wenn Sie nun auf einer Website auf Teilen klicken, erhalten Sie Anweisungen, wie Sie diese Leinwand auf der Website freigeben können. Als Nächstes können wir dies auch als JSON herunterladen. Also klicke ich auf Als JSON herunterladen und es wird das JSON für diese Arbeit herunterladen, schwer den Namen dieses Buches zu ändern, aber ich kann nach Ed-Einstellungen wie Ed-Einstellungen arbeiten und den Namen in Netflix ändern. Geh zurück. Jetzt kann ich einige Details wie die Auflösung ändern , wenn ich irgendwelche Variablen in dieser Arbeit habe , die globale CSS-Einstellungen tragen usw. Aber im Moment können Sie so eine Kibana-Leinwand erstellen, die damit besser funktioniert. Kommen Sie zum Ende dieser Vorlesung. Danke fürs Zuschauen. Wir sehen uns im nächsten. Tschüss. 17. Auth: Hey Leute, In dieser Vorlesung gebe ich Ihnen einen schnellen Überblick über Authentifizierungsrealms, die uns in Elastic Search zur Verfügung stehen. Authentifizierungsrealms werden verwendet, um Benutzer und Anwendungen gegen Elastic suchen, gibt es zwei Haupttypen von Authentifizierungsrealms. Die erste ist interne Authentifizierungsribs. Diese sind intern bis elastische Suche und es gibt keine Integration in ein externes System. Diese Art von Zimmer wird vollständig von Elastic Search verwaltet. Es kann nur maximal ein konfigurierter Realm sein, aber ein interner DLM-Typ. Schauen wir uns nun ein Beispiel für jeden internen Lehmtyp an. Der erste ist der native Authentifizierungsbereich. Und die native Authentifizierungskuppel ist der Ort, an dem Benutzer in einem dedizierten Elasticsearch-Index gespeichert werden. Dieser Bereich unterstützt und Authentifizierungstoken in Form von Benutzernamen und Passwort und ist standardmäßig verfügbar wenn Low Realms explizit konfiguriert sind. Denken Sie also daran, dass bei der Installation von Elasticsearch ein Skript verwendet wurde, um Passwörter für unsere elastischen und Kibana-Unterstrichen-Systembenutzer zurückzusetzen . Diese Benutzer werden unter nativer Authentifizierung konfiguriert. Dies allein ist auf der kostenlosen Lizenz verfügbar. Akte. Der Authentifizierungsbereich ist auch ein interner Authentifizierungsbereich, der kostenlosen Lizenz verfügbar ist. Dieser Bereich ist, dass sehr Benutzer in Dateien definiert sind , die auf jedem Knoten im Elasticsearch-Cluster gespeichert sind. Dieser Bereich unterstützt und Authentifizierungstoken in Form von Benutzernamen und Passwort und ist immer verfügbar. Werfen wir danach einen kurzen Blick auf die Außenbereiche. Externe Authentifizierung erfordert keine Interaktion mit Parteien und Komponenten, die außerhalb der elastischen Suche sind, wie Microsoft Active Directory oder einer anderen Anwendung der Unternehmensklasse. Wenn Sie einen Produktionsraster-Cluster betreiben, ist es sehr wahrscheinlich, dass Sie einen externen Bereich konfigurieren müssen. Unter Elasticsearch-Cluster können Sie beliebig viele externe, wenn Sie möchten, jeweils einen eigenen eindeutigen Namen und eine eigene Konfiguration haben beliebig viele externe, wenn Sie möchten, jeweils einen eigenen eindeutigen Namen und eine eigene Konfiguration Die Elastic Stack-Sicherheitsfunktion bietet die folgende externe Referenz typ. Also LDAP, Active Directory, PKI-Authentifizierungssymbol Kerberos oder IDC. Nein, Authentifizierungsbereich ist, verwendet einen externen Webserver, um seine Benutzer zu authentifizieren. Die Benutzer werden also auf einem externen Authentifizierungsserver gespeichert , und wir integrieren uns mit diesem Server, um Benutzer zu authentifizieren. Dieser Bereich unterstützt ein Authentifizierungstoken in Form eines Benutzernamens und Kennworts und erfordert eine explizite Konfiguration um verwendet zu werden. Als Nächstes haben wir den Active Directory-Authentifizierungsbereich. Diese Runde verwendet einen externen Active Directory-Server, der die Benutzer angibt, in denen Ihre Benutzer gespeichert sind. Beispielsweise werden Microsoft AD-Benutzer mit Benutzernamen authentifiziert und Passwörter wurden Realm authentifiziert Benutzer mit Public-Key-Infrastruktur, öffentlichem Schlüssel und privatem Schlüssel. Dieser Bereich arbeitet in Verbindung mit SSL und TLS und identifiziert den Benutzer durch seinen ausgezeichneten Namen oder die DNA des Clients, das 509-Zertifikat extrahiert. Wenn wir diese Zeile verwenden, benötigen Sie Zertifikate, die auf Benutzern installiert sind. Sam Hill erleichtert die Authentifizierung mit dem SAML 2 Web SSO-Protokoll. Dieser Bereich wurde entwickelt, um die Authentifizierung über Kibana zu unterstützen und ist nicht für die Verwendung in der restlichen API vorgesehen. Jetzt ist Kerberos, dass Realm den Benutzer mit Kerberos-Authentifizierung authentifiziert, Benutzer werden auf der Grundlage von Kerberos-Tickets authentifiziert oder IDC ist, das die Authentifizierung mit OpenID Connect erleichtert ermöglicht die elastische Suche als angehörige OpenID Connect Partei und bietet SSO-Unterstützung. In diesen Vorträgen werden wir nun die native Authentifizierung verwenden, werden wir nun die native Authentifizierung verwenden um eine Verbindung zu unserem Elasticsearch-Cluster herzustellen. Für Ihre Produktions-Cluster ist es sehr wahrscheinlich , dass Sie einen dieser externen Realms konfigurieren müssen . Was ich tun werde, ist, dass ich einige Links zu verschiedenen URLs bereitstelle einige Links zu verschiedenen URLs wie Sie jeden dieser Realms in Ihren Produktionsclustern konfigurieren können . Damit sind wir am Ende dieser kurzen Vorlesung gekommen. Danke fürs Zuschauen. Wir sehen uns im nächsten. Tschüss. 18. Benutzer und Rollen: Hey Leute, bisher haben wir in dieser Demo den elastischen Superuser benutzt, bisher haben wir in dieser Demo den elastischen Superuser benutzt um uns gegen unseren Cluster zu authentifizieren. Dies ist in Ordnung für unser Demo-Labor, aber in einer Produktionsumgebung haben Sie möglicherweise Hunderte von Menschen , die sich authentifizieren müssen, und Sie möchten das Passwort für Ihren Superuser nicht jedem teilen benutzer. Geben Sie nun Rollen ein. Rollen sind eine Sammlung von Berechtigungen, mit denen Sie Aktionen und Kibana und Elastic Search ausführen können. Diese Rollen geben Ihnen jetzt die Berechtigung, einige Aktionen gegen Ihren Kibana Elasticsearch-Index durchzuführen. Beispielsweise möchten einige Benutzer möglicherweise nur Dashboards erstellen können . Die anderen, die Sie möchten, dass sie Ihre Indizes weiter verwalten, Ihre Indizes weiter verwalten, möglicherweise gibt es eine Gruppe, die als Administrator Ihrer Kibana-Instanz fungieren muss . Was Sie tun müssen, ist, dass Sie erstellen Sie Rollen für jeden dieser verschiedenen Benutzertypen. Jede Rolle mit unterschiedlichen Zugriffsebenen, dann weisen Sie diese Rolle zu, jedem dieser Benutzer, Benutzern werden nicht direkt Berechtigungen gewährt, sondern stattdessen wird eine oder mehrere Regel zugewiesen , die beschreibt die gewünschte Zugriffsebene. Wie gesagt, kann wunderbar Benutzern nur Zugriff auf die Dashboards geben . Wenn Sie Benutzern jetzt mehrere Rollen zuweisen, erhält der Benutzer eine Vereinigung der Rollenberechtigungen. Nehmen wir an, Sie haben zwei Indizes, Index und Index b. Und Sie haben eine Rolle, die Zugriff auf Index eine Registrierung gewährt , wenn Sie einen Überschuss an Index B gewährt Jetzt nehmen wir an, Sie haben einen Benutzer und diesem Benutzer erhält diese Rollen Board zugewiesen. Da er diese beiden Rollen hat, wird die Vereinigung dieser beiden Rollen es ihm ermöglichen auf Daten sowohl aus Index als auch aus Index b zuzugreifen , auf Daten sowohl aus Index als auch aus Index b zuzugreifen. Zum Beispiel könnte das alle Beats-Unterstrichensystem den Zugang tanzen, der für die Strandsysteme, Metrik, Köder, Herzschlag, dateibasiert usw. erforderlich ist, um Daten auf Systemebene an Elastic Search zu senden. Kibana unterstreicht eine Systemregel , die für den Kibana-Systembenutzer keinen Überschuss erforderlich ist, von den Kibana-Indizes zu lesen und in sie zu schreiben. Und wenn Sie sich daran erinnern, dass wir bei Konfiguration des Elasticsearch - und Kibana-Systems das Passwort für diesen Benutzer in unserer Kibana-Dot-YAML-Datei konfiguriert haben . Jetzt verfügt Elastic Search auch mit einem Superuser-Elastic , das Zugriff auf alle Bereiche in Ihrem Cluster gewährt. Es ist also voller Systemzugriff. Als Sicherheitsmaßnahme möchten Sie sich jetzt nicht mit diesem Benutzer anmelden , nachdem Sie das System bereitgestellt haben. Und im Rahmen Ihrer Bereitstellung stellen Sie entweder Administrator- und Superbenutzer , die mit einer Person verknüpft werden können , die diese Rolle übernehmen wird . Und sobald Sie das getan haben, möchten Sie diese Super-User-Passwörter an einem sicheren Ort speichern diese Super-User-Passwörter an und nie wieder verwenden. wir zu unserer Kibana-Instanz zurück, um zu sehen, wie wir Rollen und Benutzer erstellen können, um keine benutzerdefinierte Rolle zu erstellen. Zuerst klicken wir auf Rolle erstellen, dann müssen wir einen Rollennamen für den Namen Rom angeben. Ich gebe administrative ein, da dies eine Administratorrolle ist , unter der wir konfigurieren Cluster-Privilegien, ich klicke auf Alle. Und dann kann ich ihnen unter Indexberechtigungen entweder Zugriff auf einen dieser Indizes gewähren oder da dies mein Administratorbenutzer ist, gebe ich hier Start ein, um ihnen Zugriff auf alle Indizes zu gewähren. Und dann klicke ich unter Privilegien auf Alle. Als Nächstes. Unter Kibana klicke ich zuerst auf Kibana-Privileg hinzufügen, wir müssen ihnen Zugriff auf alle Bereiche gewähren und dann können sie dieser Rolle entweder einen benutzerdefinierten Zugriff auf jedes Feature gewähren. Unter Analytics kann ich dieser Rolle beispielsweise Zugriff auf Dashboard usw. gewähren. Oder da es eine Admin-Rolle gibt, können wir ihr alle Privilegien erteilen und auf Globale Privilegien auf Stein erstellen klicken. Klicken wir auf Rolle erstellen. Lassen Sie uns nun als Nächstes eine Rolle erstellen, die nur Zugriff auf bestimmte Indizes hat . Also klicke ich auf Regel erstellen und nenne es COVID-Admin. Und wir werden den Rest der Einstellungen genauso belassen wie zuvor unter Indizes. Ich wähle den COVID-Index und gebe dieser Rolle Zugriff auf alle Privilegien. Und dann dasselbe für Kibana. Ich gebe ihm Zugriff auf alle Räume und alle Funktionen. Also klicke ich auf Globale Berechtigung erstellen und klicke auf Rolle erstellen. Lassen Sie uns als Nächstes drei Benutzer erstellen. Der erste wird ein Admin-Benutzer sein. Also klicke ich auf „Benutzer erstellen“. Ich gebe diesen Benutzernamen admin. Vollständiger Name wäre Admin One und E-Mail-Adressen Admin auf test.com. Und dann geben wir ein paar Passwörter an. Und danach müssen wir diesem Benutzer einige Regeln zuweisen. Im Moment weisen wir also eine Administratorrolle zu und weisen auch die Benutzerrolle für eine Administratorrolle zu und weisen auch die die Überwachung zu, da diese Rolle den Zugriff auf die Stack-Überwachungsfunktion benötigt wird. Und dann klicke ich auf Benutzer erstellen. Loggen wir uns nun von diesem Superuser-Konto ab und erstellen dann unseren neu erstellten Administrator um zuerst die weitere Bereitstellung durchzuführen, und wir geben den Benutzernamen und dann das Passwort für dieser Benutzer. Lassen Sie mich diese Warnung als nächstes stumm schalten Lassen Sie uns zuerst herausfinden und prüfen, ob Sie Zugriff auf beide Indizes haben , Netflix und Covered. So kann ich einige Daten im Netflix-Index sehen. Lasst uns nun zum Deckungsindex übergehen. Jetzt muss ich meine Zeitsuche erweitern. Also vor 1415 Wochen, und ich klicke auf Update, und ich kann sehen, dass ich auch Zugriff auf diesen Index habe. Gehen wir als Nächstes zu Dashboards. Ich sehe das von uns erstellte COVID-Dashboard. Lassen Sie uns als Nächstes erneut zu Management und Personalmanagement gehen . Und hier, Benutzer. Jetzt erstellen wir einen zweiten Benutzer. Klicken Sie auf Benutzer erstellen. Und dies ist ein Benutzer, der über Administratorzugriff verfügt. Es ist nur zum COVID-Index. Also nennen wir es COVID Unterstrich-Admin, und der Name wäre COVID-19 und E-Mail-Adresse COVID test.com. Dann gebe ich ihm jetzt ein Passwort für das Privileg, ich gebe ihm das Privileg von COVID Admin und klicke auf „ Benutzer erstellen“ gelernt. Lassen Sie mich von diesem Benutzer abmelden. Und hier gebe ich COVID-Unterstrich-Admin und gebe dann das Passwort für diesen Benutzer ein. Sobald Sie angemeldet sind, gehen wir zu unserer Registerkarte „Entdecken“, also nach Hause und entdecken Sie es dann. Und hier, wenn Sie Netflix-Index wählen, sehen Sie keine übereinstimmenden Indizes und keine Ergebnisse entsprechen Ihren Suchkriterien. Aber wenn ich den COVID-Index auswähle und dieses Datum von vor 15 Minuten ändere, ändern wir ihn auf 15 Wochen und klicken auf Update. Sieh mal, dass ich ein paar Daten sehen kann. Jetzt kann dieser Benutzer auch Benutzer erstellen. Wenn Sie also zu Stack Management und Benutzern gehen, kann ich einen Benutzer erstellen, aber ich zeige Ihnen eine andere Sache, da wir diesem Benutzerkonto nicht das Privileg zur Überwachung des Unterstrich-Benutzers gewährt haben. Wir haben keine verwaltete Stack-Überwachung für diesen Benutzer angezeigt. Dies ist also wichtig zu beachten, obwohl Sie alle Berechtigungen unter Kibana erteilen können, müssen Sie den Benutzern, die Sie erteilen möchten, gezielt die Benutzerrolle für Überwachungsunterstriche zuweisen Benutzerrolle für Überwachungsunterstriche die Sie erteilen möchten, gezielt die der Abschnitt zur privilegierten Überschuss-Stack-Überwachung unter Verwaltung. Als nächstes erstellen wir einen dritten Benutzer, der nur Zugriff auf Dashboards hat und festgestellt, dass wir dazu zuerst zu Rollen gehen und eine Rolle erstellen, und nennen wir diese Rolle COVID-Unterstrich-Reporting. Jetzt möchten wir diesem Benutzer keine Clusterberechtigungen erteilen , daher lassen wir diese leer. Wir möchten nur, dass dieser Benutzer Zugriff auf den COVID-Unterstrich-Index hat. Und das einzige Privileg, das wir für diesen Benutzer wünschen , ist, aus diesem Index lesen zu können. Als Nächstes müssen wir einige Kibana-Privilegien hinzufügen, damit wir ihm Zugriff auf alle Bereiche gewähren. Und als nächstes behalten wir es so an und gehen dann zu Analytics. Und dann geben wir ihnen den schreibgeschützten Zugriff auf Discover und schreibgeschützt im Dashboard. Und wir würden ihnen auch Zugriff auf Canvas gewähren und die Bibliothek visualisieren. Und dann klicken wir auf Globale Privilegien erstellen. Und dann klicken wir auf Rolle erstellen, um diese Rolle zu erstellen. Jetzt gehen wir zu Benutzern und klicken auf Benutzer erstellen. Und dieses Mal nennen wir diesen Benutzer COVID-Unterstrich-Reporting. Der Name würde den Benutzer melden, eine E-Mail würde einen test.com melden. Wir geben ihm ein Passwort. Also Passwort und dann unter Privilegien geben wir ihm das Berechtigungsrecht für COVID-19-Score, und klicken dann auf Benutzer erstellen. Danach melden wir uns ab und sehen den Überschuss für diesen Benutzernamen. Ich gebe COVID-Unterstrich-Berichte ein und geben Sie ein Passwort an. Sobald Sie drinnen sind, sehen Sie nur Analysen auf Ihrem Startbildschirm. Dies liegt daran, dass Ihr Benutzer nur Zugriff auf Analysefunktionen hat. Wenn Sie nun auf unser linkes Navigationsmenü klicken und unter Analytics herausfinden, dass wir einige Daten für den COVID-Unterstrich-Index haben . Wenn wir jedoch zu Netflix-Index wechseln, wird der Index eine Fehlermeldung erhalten , die besagt, dass keine Indizes mit einem besseren Netflix-Index übereinstimmen. Dies liegt daran, dass unser Benutzer unter Dashboard keinen Zugriff auf den Netflix-Index hat. Wenn ich einfach auf das COVID-Dashboard klicke, kann ich alle Daten für mein COVID-Dashboard sehen. Als nächstes, gehen Sie als Nächstes zu Canvas und öffnen Sie die Netflix-Arbeit inzwischen, da dieser Benutzer keinen Zugriff auf Daten im Netflix-Index hat, erhalte ich Fehler. Loggen wir uns nun von diesem Benutzer und melden wir uns wieder als Admin-Benutzer, Admin und Passwort an. Klicken wir nun auf das linke Navigationsmenü und gehen direkt zur Stack-Verwaltung. Und dann gehen wir jetzt von diesem Bildschirm zu den Benutzern, wenn Sie den Benutzer löschen möchten, zum Beispiel wenn ich meinen COVID-Unterstrich-Berichtsbenutzer löschen möchte, kann ich diesen Benutzer einfach auswählen und auf klicken lösche einen Benutzer und klicke auf Löschen. Aber ich werde das jetzt nicht tun, wenn ich das Passwort für diesen Benutzer ändern möchte, klicke ich darauf, gehe runter und klicke auf Passwort ändern. Und hier kann ich das Passwort für diesen Benutzer aktualisieren. Soul bricht dies auch wenn ich diesen Benutzer deaktivieren möchte, also behalten Sie diesen Benutzer auf dem System, aber verhindern Sie, dass Benutzer darauf zugreifen. Ich kann auf Benutzer deaktivieren klicken. Und wenn ich Privilegien für diesen Benutzer ändern möchte, kann ich hierher kommen und ihm eine andere Rolle zuweisen. Auf diese Weise können Sie Benutzer und Rollen verwenden, um rollenbasierte Zugriffssteuerungen für Ihren Elasticsearch-Cluster bereitzustellen . Damit sind wir am Ende dieser Vorlesung gekommen. Danke fürs Zuschauen. Wir sehen uns im nächsten. Tschüss. 19. Bereiche: Hey Leute, und dann Enterprise. Es wird mehrere Teams , die Zugang zu Kibana benötigen. Beispielsweise benötigt das Marketingteam möglicherweise Zugriff auf Marketing-Dashboards. Das Betriebsteam benötigt Zugriff auf Betriebs-Dashboards. Jetzt kann dies die Dinge sehr schnell überladen , um Ihnen bei dieser Situation zu helfen Kibana hat eine Funktion namens Spaces. Sie können Ihre gespeicherten Objekte wie Dashboards in aussagekräftige Kategorien organisieren . Aus unserem Beispiel erstellen Sie einen Raum für Marketing und diese erstellen alle ihre Dashboards in diesem Bereich. Ebenso erstellen Sie einen Raum für Operationen und sie werden ihre Dashboards innerhalb des IT-Space-Marketings löschen ihre Dashboards innerhalb des IT-Space-Marketings , um nicht zu sehen, was sich im Betrieb befindet oder sogar bemerken , dass ein Operationsraum ist vorhanden. Ebenso wird der Betrieb nichts über Marketingflächen Bescheid wissen. Damit ein Benutzer nun ein Leerzeichen sehen kann, müssen Sie diesem Benutzer gezielt Überschuss mit diesem Speicherplatz zuweisen . Zum Beispiel erhält jeder im Marketingteam Zugang zu Marketingflächen. Jeder im Betriebsteam erhält Zugang zum Operationsbereich. Und wenn jemand Zugriff auf Marketing und Betrieb benötigt , weisen Sie ihm Zugriff auf beide Bereiche zu. Jetzt erstellt Kibana einen Standardplatz für Sie und alle unsere Objekte , die wir bisher in diesem Kurs erstellt haben , wurden im Standardbereich des Decks erstellt. Und schließlich, um Räume zu verwalten, benötigen Sie Kibana-Unterstrich-Admin-Rolle gleichwertig. Jetzt knacken wir auf meiner Kibana-Webseite. Ich habe mich mit meinem Admin-Konto angemeldet, Admin One, um Bereiche zu konfigurieren, ich muss auf das linke Navigationsmenü klicken und dann direkt zur verwalteten Stack-Verwaltung gehen . Also klicke ich drauf. Und die Konfiguration von Räumen finden Sie unter Kibana und Spaces. Jetzt können Sie sehen, dass ich gerade meinen Standardspeicherplatz habe. Wir schaffen hier einen neuen Raum. Also klicke ich auf Platz erstellen und nenne diesen COVID-Unterstrich-Bereich. Als Nächstes kann ich einen Avatar erstellen. Standardmäßig ist es auf Initialen eingestellt, aber Sie können auch ein Bild für Ihren Avatar hochladen, belassen es als Standardinitiaten, aber ich ändere die Hintergrundfarbe in Grün. Jetzt können wir unter Features angeben, welche Funktionen unter dem Space verfügbar sind. Also werde ich alles außer Analytics entfernen, weil ich nur auf Analysefunktionen zugreifen möchte, die diesen Bereich nutzen. Und dann klicke ich auf Platz erstellen. Jetzt, sobald ich den Raum bewertet habe, brauchen wir einige Objekte in diesem Bereich. Jetzt befinden sich alle unsere Objekte standardmäßig im Standardbereich. Im Moment kopieren wir den COVID-Index und das COVID-Dashboard in den COVID-Unterstrich-Bereich. Um das zu tun, muss ich zu gespeichert gehen und dann muss ich COVID und das Score-Dashboard finden. Und von diesen drei Schaltflächen ganz links von dieser Zeile muss ich darauf klicken und auf Leerzeichen kopieren klicken. Dort angekommen kann ich Aktionen kopieren wählen. Erstellen Sie beispielsweise neue Objekte mit Zufalls-IDs werden auf vorhandene Objekte überprüft. Ich belasse es als Standard , weil ich weiß, dass es keine Objekte in meinem COVID-Unterstrich-Bereich gibt. Und dann muss ich auf den COVID-Unterstrich unter Leerzeichen auswählen klicken und dann auf In ein Leerzeichen kopieren klicken. Sobald das Kopieren abgeschlossen ist, wird angezeigt, wie viele Objekte kopiert werden sollen, und Sie können auf Fertig stellen klicken. Ebenso muss ich den COVID-Unterstrich-Index kopieren, um darauf zu klicken und dann auch auf In Leerzeichen kopieren zu klicken. Dann klicke ich auf COVID, unterstreiche es und klicke dann auf Unternehmen oder einen Bereich. Wenn es irgendwelche Fehler gibt, werden Sie diese hier sehen. Vorerst klicke ich auf Fertig stellen. Nachdem die Objekte in diesen Bereich verschoben wurden, wurde begonnen, diesen Raum einer Rolle zuzuweisen. Lasst uns also zur Sicherheit punkten und dann rollen und herausfinden, dass COVID-Unterstrich alle gemeldet hat. Sobald wir drinnen sind , müssen wir direkt nach Kibana gehen und dann auf dieses Stiftsymbol klicken. Und aus Räumen, in denen alle Leerzeichen aufgeführt sind, müssen wir das entfernen und dann den COVID-Unterstrich-Raum auswählen. Sobald Sie dies getan haben , können Sie auf Bereichsberechtigungen aktualisieren klicken . Diese Regel kann also nur jetzt Zugriff auf COVID-Raum gewähren. Und dann können Sie auf Update-Regel klicken. Sobald Sie das getan haben, melden wir uns von diesem Admin-Benutzer und melden Sie sich wieder mit dem berichtenden Benutzer an. In diesem Bildschirm gebe ich den Benutzernamen COVID und die Punkteberichterstattung ein und gebe mein Passwort ein und klicke auf Login. Jetzt können Sie sofort feststellen, dass ich mich nicht mehr im Standardbereich befinde. Und jetzt klicke ich auf das linke Navigationsmenü. Und zuerst gehen wir zu unserem Discover-Tab. Jetzt können Sie standardmäßig sehen, dass ich mich im COVID-Index befinde, aber Auswirkungen auf das Dropdown-Menü klicken. Ich sehe nicht mal den Netflix-Index. Das liegt daran, dass es diesem Bereich nicht zugewiesen ist. Um Daten anzuzeigen, muss ich die Zeitsuche vor 15 Wochen ändern und klicke auf Update. Und du siehst, dass ich Zugriff auf Daten habe. Lassen Sie uns als Nächstes sehen, ob unser Dashboard noch funktioniert. Also klicke ich auf Dashboard und klicke auf das COVID-Dashboard. Und Sie können sehen, dass ich auch Daten in meinem Dashboard habe. Wenn jemand über diesen Fehler geht, wenn ich jetzt zu Canvas gehe, können Sie sehen, dass ich das Netflix Wordpad nicht einmal mehr sehe . Spaces ist also eine gute Möglichkeit, Ihre Objekte für verschiedene Kategorien zu organisieren. Zum Beispiel kann Marketing nur auf ihre Dashboards zugreifen und so weiter. Wenn Sie nun ein neues Objekt in diesem Bereich erstellen , wird es diesem Bereich automatisch zugewiesen und nicht dem Standardspeicherplatz. Wenn ich also auf das linke Navigationsmenü klicke und auf Bibliothek visualisieren klicke. Und wenn ich auf „ Neue Visualisierung erstellen“ klicke, wähle ich Objektiv. Angenommen, ich möchte die Gesamtzahl der Länder in meiner Datenbank. Also klicke ich auf Metrik, Analytisch vor Ort. Jetzt habe ich eine einzigartige Art von Ort, der 64 ist. Jetzt kann ich dies nicht speichern, da mein Benutzer Benutzer meldet, keine richtigen Berechtigungen für diese Datenbank hat. Aber wenn ich mich auslogge und mich wieder als Admin-Benutzer anmelde, wähle ich hier den COVID-Unterstrich-Bereich aus. Und Sie können sehen, dass ich, obwohl mein Benutzer viel mehr Privilegien hat, mein Benutzer viel mehr Privilegien hat, nur sehen kann, was meinem Speicherplatz zugewiesen ist. Ich erhalte also nicht alle Such - und Verfügbarkeitsfunktionen usw. Ich erhalte nur Analytics und Stack-Management. Jetzt klicke ich von hier aus auf Bibliothek visualisieren. Ich klicke auf Neue Visualisierung und Objektiv erstellen. Und dann ändere ich den Visualisierungstyp der Metrik und ändere das Datum auf 15 Wochen. Und von hier ziehe ich den Standort wieder, sehe, dass eine eindeutige Anzahl des Standorts 64. Und jetzt habe ich wieder den Save-Button. Also klicke ich auf Speichern und nenne es einzigartige Länder. Und ich verschiebe es auf das vorhandene Dashboard, das COVID-19-Score-Dashboard ist. Und ich klicke auf Speichern und Gehe zu Dashboard. Und hier habe ich das vierte Element zu meinem Dashboard für eindeutige Länder hinzugefügt oder klicke auf Speichern, um die Änderungen an diesem Dashboard zu speichern. Und wenn ich jetzt zu meinem Berichtsbenutzer zurückkehre , der unter der Score-Berichterstattung behandelt wird, und ich auf das COVID-Dashboard klicke und das Datum auf vor Wochen ändere, kann ich auch die neue Visualisierung sehen. Auf diese Weise können Sie Leerzeichen verwenden, um Ihre Objekte in Kibana zu kategorisieren. Damit sind wir am Ende dieser Vorlesung gekommen . Danke fürs Zuschauen. Wir sehen uns im nächsten Kampf. 20. Einführung in Logstash: Hey Leute, reden wir über Log-Sitzung. In diesem Abschnitt, Log Stash, können Sie Ihre Daten aus verschiedenen Quellen aggregieren, transformieren und dann an die elastische Suche oder eine andere Anwendung Ihrer Wahl senden . Wenn Sie beispielsweise die Daten analysieren möchten, können Sie sie an Elastic Search oder MongoDB senden. Wenn Sie die Daten jedoch nur speichern möchten, können Sie sie an etwas senden, wie Amazon S3 in einer Datei in Ihrem lokalen Dateisystem gespeichert sind. von Ihrem Anwendungsfall gibt es viele Ziele Abhängig von Ihrem Anwendungsfall gibt es viele Ziele. Und ich habe einen Link zu einem Artikel angehängt, in dem Sie weitere Informationen zu den Zielen und Log Stash finden . Bevor wir jetzt mehr über Protokollsuchen und Details auf niedrigerer Ebene wissen , ist es immer eine gute Idee, einige Anwendungsfälle zu verstehen. Der erste Anwendungsfall von Log Stash sind also Protokolle und Metriken. Manchmal gibt es keine Standardmethode , Ihre Protokollierungsdaten zu verstehen. In diesen Szenarien kann Log Stash Ihnen helfen, Logik zu definieren , damit Sie Ihre Logdaten transformieren und verstehen können . Als Nächstes können Sie auch Daten aus dem HTTP-Webdienst verbrauchen oder Ereignisse durch Pooling und HTTP-Endpunkt generieren, z. B. können Sie Twitter abrufen und mithilfe von Log Stash einige Daten von Twitter abrufen. Sie können auch Protokollstatuen verwenden, um die relationalen oder nicht relationalen Daten zu transformieren und zu verstehen die relationalen oder nicht relationalen Daten , die in Ihren Datenbanken gespeichert sind. Und schließlich ist Log Stash ein häufiges Rückgrat zur Ereignissammlung für Aufnahme von Datenversand von Mobilgeräten, intelligenten Häusern, vernetzten Fahrzeugen, Gesundheitssensoren und vielen anderen Branchen, spezifische IoT-Anwendungen. Jetzt hat die Log Stash-Pipeline drei Phasen. Es hat eine Eingabe von Filter und dann ausgegeben. Zum Beispiel haben Sie einige Daten in Ihrem Datenspeicher. Es könnte ein IoT-Datenspeicher sein oder es könnte eine Anwendung oder eine Datenbank sein, alles, was Sie an Log Stash senden. In dieser englischen Pipeline müssten Sie zuerst eine Eingabe definieren. Und das sagen Sie Log Stash, wie Sie diese Daten erhalten werden. Zum Beispiel könnten Sie es aus einer Datei abrufen. Sie könnten es auch an einem TCP- oder UDP-Port bekommen. Es könnten auch Sys-Protokolldaten sein. Sie definieren also alle Schulden im Input Next. Sobald Sie diese Daten haben, müssen Sie sie verarbeiten. Und diese Verarbeitungslogik ist in Filterfiltern konfiguriert oder wie Sie Ihre Daten transformieren können. Sie können auch Bedingungen innerhalb des Filters verwenden , um einige Transformationen nur durchzuführen , wenn sie mit bestimmten Kriterien übereinstimmen. Jetzt sind einige häufig verwendete Filter Grok Crop hat etwa 120 Muster, die es Ihnen ermöglichen, unstrukturierte Daten zu übergeben. Wir werden uns Grok in einem bevorstehenden Vortrag etwas genauer ansehen. Mutate führt allgemeine Transformationen einem Ereignisfeld durch. Sie können Dinge wie das Entfernungsfeld aus Ihren Daten umbenennen und ein Feld ersetzen und Felder in ihren Ereignissen ändern. Abgelegt ermöglicht es Ihnen , ein Ereignis vollständig zu löschen und das Klonen ermöglicht es Ihnen, ein Ereignis zu duplizieren. Jetzt ist die Ausgabe Sobald Sie die Daten durch Ihre Eingabe erhalten haben, haben Sie eine Transformation vorgenommen. Sie müssen definieren, wohin diese Daten weiter gehen müssen. Ausgabe ist also, wie Sie ein Ereignis an ein oder mehrere Ziele weitergeben . Jetzt ist dies am häufigsten eine elastische Suche. Wenn Sie die Protokollsuche verwenden, möchten Sie sich in Elastic Search integrieren. Es können aber auch Dinge wie eine Dateiausgabe sein oder Sie können sie an eine Kafka-Warteschlange senden. Es liegt an Ihnen, im Grunde das nächste Ziel von Daten, sobald es die Log Search-Pipeline verlässt unter Ausgabe konfiguriert ist. Bevor wir jetzt mit Konfiguration von Elasticsearch-Pipelines beginnen, müssen Sie noch eine Sache verstehen, nämlich Codecs. Codecs sind Stream-Filter, die als Teil der Ein- oder Ausgabe arbeiten können . Ein Codec ermöglicht es Ihnen, den Transport Ihrer Nachricht einfach vom Serialisierungsprozess zu trennen den Transport Ihrer Nachricht . Nehmen Sie im Grunde ein Beispiel für einen mehrzeiligen Codec. Denken Sie nun an ein Anwendungsprotokoll, das standardmäßig über mehrere Zeilen verteilt ist, was die Locks-Suche versuchen wird. Es wird versuchen, jede Zeile in ein und Log Stash-Ereignis zu verwandeln. Jetzt können Sie diese Protokolldatei möglicherweise nicht verstehen , wenn sie über mehrere Ereignisse verteilt ist. Sie möchten also, dass all das in eine einzige Veranstaltung eingeht. In diesem Fall verwenden Sie den mehrzeiligen Codec. Wenn Sie Ihre Daten in JSON codieren oder dekodieren möchten , verwenden Sie den anständigen Codec. Codecs sind also Filter , die Ihnen helfen, den Transport Ihrer Nachricht vom Sterilisationsprozess von Log Stash zu trennen den Transport Ihrer Nachricht vom . Damit sind wir am Ende dieser Vorlesung gekommen. Danke fürs Zuschauen. sehen uns im nächsten. Tschüss. 21. Einführung und Transformieren von CSV-Daten mit Logstash und Transformation: Hey Leute, In dieser Vorlesung werden wir CSV-Daten mit Log Stash transformieren. Wir erstellen eine Pipeline-Konfigurationsdatei mit drei Phasen. Eine Eingabephase mit einer Dateieingabe hilft uns, eine CSV-Datei aufzunehmen. Dann verwenden wir eine Filterphase und verwenden den CSV-Filter, um unsere CSV-Daten zu transformieren. Und schließlich werden wir in der Ausgangsphase zwei Ausgänge verwenden. Standardausgabe wird während der Testphase verwendet. Eine elastische Suchausgabe wird verwendet, um die Daten endgültig in unserem Elasticsearch-Cluster zu speichern. Sobald wir mit der Pipeline-Konfigurationsdatei fertig sind , testen wir sie, indem wir Log Stash ausführen. Lasst uns anfangen. Hier auf dem Bildschirm. Mein Elasticsearch-Cluster mit einem einzigen Knoten. Was ich zuerst mache, ist, dass ich zwei SSH-Verbindungen erstelle, und dann kopiere ich die externe IP-Adresse und versuche zu sehen, ob ich eine Verbindung zu meiner Kibana-Instanz herstellen kann. Ich kann mich mit meiner Kibana-Instanz auf Port 5601 verbinden. Jetzt kehren wir zu unserer SSH-Instanz zurück und klicke dann oben auf das Einstellungen-Symbol und klicke dann auf Datei hochladen. Und von hier aus lade meine Downloads die Wettkampf-Rankings hoch, den ESV, und ich klicke auf Öffnen. Sobald die Datei mit dem Hochladen fertig ist, kann ich ls in mein Home-Verzeichnis eingeben , um sicherzustellen, dass die Datei vorhanden ist. Bevor wir nun mit der Transformation dieser Daten beginnen können, müssen wir diese Daten zunächst verstehen. Also tippe ich Katze, Wettkampf-Rankings ein, starte CSV und drücke Enter. Es gibt also ungefähr fünftausend Datensätze in dieser Akte. Jetzt werde ich es klären und wir werden einen Chef-Wettkampf-Ranking-Punkt CSV machen einen Chef-Wettkampf-Ranking-Punkt , um uns die ersten Rekorde anzusehen. Die erste Zeile ist also die Kopfzeile, und diese Zeile erklärt jede Spalte. Zum Beispiel wird die erste Spalte eingestuft, die zweite Spalte ist Ebene, die dritte Spalte ist Benutzername und jede Spalte ist durch ein Semikolon getrennt, Fünftausend Datensätze, und jede Spalte ist getrennt durch ein Semikolon. Jetzt können wir anfangen unsere Pipeline-Konfigurationsdatei zu schreiben. Um das zu tun, werde ich in Schrägstrich, ETC slash Log Stash. Und dann mache ich hier ein Ls. Jetzt gibt es in Log Stash ein Verzeichnis namens dot t. Was passiert ist, gibt es in Log Stash ein Verzeichnis namens dot t. Was wenn Sie Log Slash als Dienst ausführen. Was es tut, ist, dass es alle Konfigurationsdateien von innerhalb des Konstrukts aufnimmt alle Konfigurationsdateien von innerhalb des d. Also schreiben wir unsere Konfigurationsdateien in dieses Verzeichnis. Es gibt eine andere Konfigurationsdatei namens Locke's —sample.com. Und diese Datei ist eine Beispielkonfigurationsdatei , die Ihnen Kunststoff zur Verfügung stellt. Es gibt also Trend in dieser Akte. Wir werden einen kurzen Blick werfen. Jetzt hat diese Datei eine Eingabe, die einige Daten an einem Port und dann ohne Transformation akzeptiert einige Daten an einem Port und dann ohne Transformation Es sind Volkszählungsdaten oder zeigen auf elastische Suche. Lassen Sie uns also kalt für D gehen und schreiben wir unsere Pipeline-Konfigurationsdatei. Also werde ich alles klären. Ich mache ein Ls. Dieses Verzeichnis ist leer. Ich werde sudo touch machen und wir rufen unsere Konfigurationsdatei CSV data.com auf. Und dann tippe ich Sudo über CSV data.com ein. Und ich werde das schließen und hier einen Einsatz machen. Jetzt müssen wir in unserer Pipeline zuerst eine Eingangsphase definieren. Also gebe ich Eingabe und dann geschweifte Klammern ein, und dann verschiebe ich die geschweifte Klammer nach unten. Und hier müssen wir eine Dateieingabe angeben , da wir Daten aus einer Datei aufnehmen. Also mache ich wieder geschweifte Klammern und mache etwas Formatierung. Jetzt müssen wir unter der Dateieingabe einige Einstellungen angeben. Was ich tun werde, ist, dass ich eine weitere Registerkarte öffne und die Dateieingabe Log Stash eintippe, und wir gehen in die Dokumentation des Dateieingabe-Plug-Ins ein. Jetzt können Sie in dieser Dokumentation nachlesen, wie dieses Plug-In funktioniert. Was sind zum Beispiel die verschiedenen Modi? Es gibt einen Tale-Modus , der nicht abgelegt werden kann, und es gibt einen Lesemodus. Sie können verstehen, wie diese Eingabe die aktuelle Position in der Datei nachverfolgt , die sie ansieht. Was uns jedoch interessiert, sind die Eingabekonfigurationsoptionen. Unter Eingabekonfigurationsoptionen sehen Sie alle Einstellungen, die für diese Eingabe konfiguriert werden können. Und Sie können auch sehen, welche Einstellungen für diese Eingabe erforderlich sind. Im Moment ist die einzige Einstellung, die erforderlich ist, die Pfadeinstellung. Und diese Teileeinstellung ist ein Array. Diese Teileeinstellung ist also erforderlich, um den Pfad der Datei anzugeben , die Sie lesen möchten. Für uns. Lassen Sie mich die SSH-Instanz öffnen. Und hier mache ich ein Ls und dann mache ich eine PWD. Das ist also mein Pfad und dies ist der Dateiname, den wir für diese Eingabe angeben müssen. Ich gehe zurück zu meiner Pipeline-Konfiguration. Ich tippe ein, aber dann ist gleich und dann Pfeil. Und hier gebe ich den Pfad an. Also gebe ich doppelte Anführungszeichen ein und kopiere dann die Handlung und füge diesen Teil hier ein, und dann setze ich einen Schrägstrich, und dann kopiere ich den Namen meiner Datei, und dann füge ich ihn hier ein auch. Schauen wir uns danach noch ein paar weitere Einstellungen an. Die nächste Einstellung ist die Startposition, und es ist eine Zeichenfolge, und es kann einmalig sein, oder n. Was wir herausfinden müssen, ist der Standardwert dieser Einstellung? Also klicke ich auf diese URL und es heißt, der Standardwert ist. Und so wird es im Grunde genommen anfangen, die Datei von unten zu lesen, wenn Sie sie so konfigurieren möchten , dass die Datei von oben gelesen wird, was wir tun möchten. Wir müssen es als Anfang konfigurieren. Lass uns zurückgehen. Hier. Ich gebe die Startunterstrich-Position und der Wert würde beginnen. Danach möchte ich dir einen anderen Wert zeigen. Also gehe ich wieder hoch. Jetzt gibt es einen Wert, der als sensibler Pfad bezeichnet wird. Was seit db ist, ist es eine Datenbankdatei , die verfolgt , wie viel von der Datei von Log Stash gelesen wird. Wenn Ihre Datei über 100 Datensätze verfügt und der Log-Schrägstrich 50 davon gelesen hat, wird dieser Wert in einer Sensitivitätsdatei gespeichert. Da der db-Pfad Ihnen nun den Teil der sinc-TB-Datei enthält, ist der Standardpfad Pfad-Punkt-Daten-Slash-Plug-Ins Slash-Eingaben. Eine Datei in unserem Fall, weil wir gerade eine einzige Datei haben und dieselbe Datei weiter lesen möchten , da wir verschiedene Optionen testen werden. Was ich tun muss, ist, dass ich den Empfindlichkeitsteil als Slash Dev-Schrägstrich null konfigurieren muss . Das heißt, da db in keines schreiben wird, und dies ermöglicht es uns, diese Datei weiter zu lesen. Also gebe ich seit dem db-Unterstrichenpfad ein und konfiguriere den Pfadwert als Slash Dev-Schrägstrich null. Sobald ich das gemacht habe, bin ich mit meiner Dateieingabe fertig. Als Nächstes muss ich den Filter angeben und unsere Daten transformieren. Also geben wir Filter und geschweifte Klammern ein. Unter Filter muss ich jetzt einen CSV-Filter angeben. CSV und geschweifte Klammern müssen also wieder unter CSV einige Einstellungen angeben. Werfen wir einen Blick auf die Dokumentation. Csv, Obst und Log Stash. Und ich öffne den Link für die Dokumentation. Und hier gehe ich auf Konfigurationsoptionen ein. Zuerst können wir entweder Spaltennamen automatisch erkennen oder Spaltennamen angeben. Was ich also tun werde, ist, dass ich die Spaltennamen hier manuell angeben möchte . Also muss ich eine Einstellung namens Columns angeben , und es ist ein Array. Also gehe ich zurück zu meinem Filter und hier gebe ich Spalten an. Und dann tippe ich eckige Klammern ein, weil dies ein Array ist. Um nun Spaltennamen zu erhalten, gehe ich zur zweiten SSH-Instanz zurück. Und hier gebe ich den Kopf Wettbewerb Ranking sort csv ein, und ich kopiere die Spaltennamen von hier. Dann bin ich zurückgegangen und füge sie ein. Jetzt muss ich etwas formatieren. Im Grunde muss ich zuerst alle diese Spalten in doppelten Anführungszeichen wie diesem machen zuerst alle diese Spalten . Und dann muss ich das Semikolon ins Koma verwandeln. Das mache ich jetzt. Sobald ich damit fertig bin, möchte ich als Nächstes angeben was das Zeichen ist, das meine Spalten trennt. Gehen wir also zurück zur Dokumentation. Und was wir angeben müssen, ist eine Einstellung namens Separator, und es ist eine Zeichenfolge. Also gehe ich zurück und drücke Enter. Und hier tippe ich ein Trennzeichen ist gleich Pfeil. Innerhalb der Gerichte wird Semikolon angeben , da unsere Daten durch Semikolon getrennt sind. Sobald ich das gemacht habe, möchte ich Ihnen zwei weitere Einstellungen zeigen. Zuerst können wir leere Spalten überspringen und leere Zeilen überspringen. Zur Demonstration gebe ich leere Spalten überspringen an. Wir können auch das Header-Feld überspringen. Wenn Sie sich also unsere Daten ansehen, ist die erste Zeile eine Kopfzeile. Mithilfe dieser Einstellung „Header überspringen können sie Log Stash anweisen, die erste Zeile zu überspringen. Jetzt gibt es einen Vorbehalt. Sie müssen sicherstellen , dass Ihre Spaltennamen genau mit der ersten Zeile Ihrer Daten übereinstimmen. Wenn nicht, überspringt Log, Stash die Header nicht. Was auch immer in dieser Zeile ist, die Spaltennamen müssen genau mit dem übereinstimmen, was Sie als Spaltennamen angeben , damit die Einstellung „ Überspringen“ funktioniert. Also lasst uns das konfigurieren. Überspringe leere Spalten als wahr. Und auch Überspringen Header ist wahr. Jetzt können Sie mithilfe des Hash-Symbols Kommentare in Ihre Pipeline-Konfigurationsdatei hinzufügen Ihre Pipeline-Konfigurationsdatei . Also tippe ich Hash ein. Hash ermöglicht es Ihnen, die erste Zeile in der Quelldatei zu überspringen . Spaltennamen müssen genau übereinstimmen. Jetzt sind wir bereit, die Ausgabe anzugeben. Zu Beginn verwenden wir eine Standardausgabe als Ausgabe. Eine andere Art in der Ausgabe, geschweifte Klammern. Und ich schiebe das nach unten. Und hier gebe ich STD als Ausgabe ein. Und darin tippe ich Kodak ein und Kodak wäre Ruby-Debug. Und jetzt sind wir bereit , diese Pipeline zu betreiben. Ich speichere diese Datei. Und um eine Pipeline auszuführen, müssen Sie Sudo Slash, usr Slash Share Slash Log Stash eingeben . Und dann gab es einen Einblick, wenn es ein Dienstprogramm namens Log Stash gibt , das wir verwenden werden. Dieses Dienstprogramm ist der vollständige Pfad zu Ihrer Pipeline-Konfigurationsdatei. Da wir uns jedoch im selben Verzeichnis dem sich die Pipeline-Konfigurationsdatei befindet, können wir einfach einen relativen Pfad angeben. Also CSV data.com und drücken Sie Enter. Wenn Ihre Pipeline richtig konfiguriert wurde, erhalten Sie ein Ergebnis wie dieses. Dann werden Ihre Daten in verschiedene Felder aufgeteilt. Zum Beispiel geht es in ein Feld namens Join-Datum, die Anzahl der Probleme, Metalle usw. Es gibt einige vom System generierte Felder. Es gibt ein Nachrichtenfeld, bei dem es sich um ein vom System generiertes Feld handelt, das jeden einzelnen Zeitstempel der Zeilenversion enthält . Dieses Zeitstempelfeld ist die Zeit, zu der Log Stash diese Datendatei aufgenommen hat. Und wir werden dieses Feld verwenden, um unsere Daten in Kibana zu suchen und zu untersuchen. Damit können wir jetzt angeben, die Elastic Search es mithilfe von Steuerelement C herausgibt, wodurch die Pipeline gestoppt wird. Jetzt werde ich meine Pipeline-Konfigurationsdatei erneut bearbeiten oder fertig. Ich kann entweder die STD entfernen oder ich kann einfach eine weitere Ausgabe hinzufügen. Also gehe ich in den Einfügemodus und möchte einfach eine weitere Ausgabe hinzufügen. Also geben wir Elastic Search und geschweifte Klammern ein. Beweg diesen Stein. Unter der Ausgabe von Elasticsearch ist die erste Einstellung, die ich bereitstellen muss, eine Liste von Hosts, an die ich diese Daten senden wollte. Eingabe von Hosts entspricht einem Pfeil, und diese Einstellung benötigt ein Array. Also setze ich doppelte Anführungszeichen und http localhost und dann 90 bis 100, weil ich die Log-Suche lokal auf demselben Computer ausführe lokal auf demselben Computer dem sich mein Elasticsearch-Cluster befindet. Als Nächstes kann ich auch einen Index für Elastic Search angeben einen Index für Elastic Search , in den diese Daten geschrieben werden. Also geben wir den Index ein und ich gebe ihm dann den Namen des Index, den CSV-Unterstrich-Index. Nun ist eine Sache zu beachten: Wenn ich zuerst keinen Index für Elastic Search erstelle, erstellt dies automatisch den Index in meinem Elasticsearch-Cluster für mich. Probieren wir das zuerst aus, ich speichere diese Datei und dann führe ich meine Pipeline erneut aus. Und während das läuft, wenn man sich meine Kibana anschaut und wenn ich in Indexmanagement und Personalmanagement und dann Indexmanagement gehe in Indexmanagement und Personalmanagement , gibt es hier keinen Index. Um dies zu beenden, keine Stimmen, die die Pipeline dort geschrieben hat. Es scheint, als gäbe es einige Schwierigkeiten, sich mit der elastischen Suche zu verbinden , weil ich eine Nachricht habe, die „elastisch“ sagt , dass ein Steuerelement C ausgeführt wird , um diese Pipeline herunterzufahren. Es sieht also so aus, als würden die elastischen Suchdienste laufen. Werfen wir also noch einmal einen Blick auf unsere Konfigurationsdatei. Nun, der Grund, warum es fehlgeschlagen ist, war, dass es einen Tippfehler gibt, also muss Altcoin eingefügt werden und ich werde meinen Tippfehler localhost 9200 reparieren , und dann werde ich diese Datei speichern und die Pipeline erneut ausführen. Sobald die Pipeline mit der Verarbeitung unserer Daten fertig ist, ihre Punktzahl zur Indexverwaltung nicht auf einer Seite belegt und lassen Sie uns Indizes neu laden. Hier. Sie können den CSV-Index sehen. Es wurde automatisch erstellt, also werde ich entlassen und es hat fünftausend Dokumente. Versuchen wir nun, diese Daten auf unserer Registerkarte „Entdecken“ zu untersuchen. Also klicke ich von oben links auf diese drei Zeilen und dann werde ich es entdecken. Aber hier können Sie keine Daten sehen da Sie eine Indexschaltfläche erstellen müssen, um Daten und Kibana zu visualisieren und zu untersuchen . Werfen wir einen Blick darauf, was ein Indexmuster ist. Wenn Sie sich an frühere Vorlesungen erinnern, ist ein Index die Entität auf höchster Ebene , die Sie für eine elastische Suche abfragen können. Durch die Verwendung unserer Log Search Pipeline werden unsere Daten in einem Index gespeichert. Mithilfe von Elastic Search Rest-APIs können wir die Daten für diesen Index abfragen. Ein Indexmuster identifiziert jedoch einen oder mehrere elastische Suchindizes , die Sie mit Kibana erforschen möchten. Um diese Daten und Kibana zu untersuchen, müssen wir ein Indexmuster erstellen. Was Kibana tut, sucht nach Indexnamen, die mit einer bestimmten Schaltfläche übereinstimmen. Ein Asterix ist beispielsweise ein Platzhalter, der 0 oder mehr Zeichen entspricht. Wenn wir zum Beispiel auf einen CSV-Dash-Stern setzen, stimmt er mit allen Indexnamen überein, die CSV Strich eins, CSV Dash T2- oder CSV-Daten usw. sind . Lassen Sie uns ein Indexmuster auf unserer Kibana erstellen. Hier auf der Kibana muss ich ins Stack-Management gehen. Also klicke ich hier unter Verwaltung und innerhalb des Stack-Managements und muss unter Kibana in Indexschaltflächen gehen. Jetzt muss ich einen Index-Button erstellen. Jetzt war unser Index, wenn ich in meine Pipeline und Control C gehe und meine Konfigurationsdatei oder Indizes öffne CSV-Unterstrich-Index. Was ich also mache, ist, dass ich ein Indexmuster mit CSV erstelle. Und auf der rechten Seite sehen Sie, dass diese Indexschaltfläche mit einem Quellindex übereinstimmt , nämlich CSV und Discord in Tagen. Wenn wir nun den globalen Zeitfilter verwenden möchten, müssen wir einen Zeitstempel angeben wie ich es Ihnen zuvor gezeigt habe. Wann immer lass mich das einfach aussteigen. Immer wenn die Log Stash-Pipeline ausgeführt wird, erstellt sie automatisch ein Zeitstempelfeld namens Zeitstempel hinzufügen, das den Zeitpunkt enthält, zu dem die Datei aufgenommen wurde. Da unsere Daten kein natives Zeitstempelfeld haben, verwenden wir dieses Feld als Zeitfilterfeld. Also gehe ich zu Indexmuster und wähle Zeitstempel hinzufügen aus, und dann erstelle ich mein Indexspektrum. Sobald die Indexschaltfläche erstellt wurde, können Sie alle Felder in diesem Indexmuster sehen. Jetzt stellt diese Uhr dar, dass dieses Zeitstempelfeld das Zeitfeld ist , das zum Filtern verwendet wird. Gehen wir nun zurück zu unserem Tab „Entdecken“ und sehen, ob wir diese Daten untersuchen können. Wie Sie sehen können, können wir jetzt nach diesen Daten suchen, nachdem wir ein Indexmuster für diesen Index erstellt haben. Denken Sie also daran, dass Sie mit einem Index diese Daten gegen Elastic Search abfragen können, während Sie mit einer Indexschaltfläche diese Daten mithilfe von Kibana untersuchen können. Sobald wir damit fertig sind, möchte ich Ihnen zeigen, wie Sie eine Indexschaltfläche und einen Index löschen können. Also gehen wir in Management und Personalmanagement ein. Zuerst gehe ich zum Indexmanagement. Wählen Sie meinen Index aus, klicken Sie auf Index verwalten und löschen Sie dann den Index. Dann gehe ich zu Indexschaltflächen, klicke auf CSV und lösche diese. Jetzt wollte ich Ihnen zeigen, wie Sie einen Index und eine Elastic Search erstellen. Dafür klicken wir erneut auf diese Symbole und gehen dann zur Verwaltung und dann zu DevTools. Jetzt können wir DevTools verwenden, um einige API-Aufrufe gegen unseren Elasticsearch-Cluster auszuführen . Und dieses Mal verwende ich die PUT-Methode um einen Index namens CSV-Unterstrich-Index zu erstellen. Und die Anzahl der Diagramme in diesem Index wäre eins. Also kann ich einige Einstellungen konfigurieren. Und hier gebe ich alle Felder ein, die ich in diesem Index haben möchte. Klicken Sie auf diesen Pfeil, um diesen Index zu löschen. Jetzt können wir zu unserer Pipeline zurückkehren und zuerst müssen wir sicherstellen, dass dieser Indexname, die Indexeinstellung, genau mit dem Index übereinstimmt, den wir gerade erstellt haben. Andernfalls erstellt Sasha, wenn es ein anderes Protokoll hat , einen anderen Index und Sie erhalten die Daten nicht, die in Ihrem Index gespeichert sind. Also haben sie sichergestellt, dass dieser Name der gleiche ist, wie dieser aus dieser Datei herauskommt , und wir führen unsere Pipeline aus. Sobald die Pipeline mit der Verarbeitung fertig ist, kehren wir zurück zu unserer Kibana. Und hier gehe ich zuerst in Stack-Management und Indexmanagement ein, du kannst sehen, dass ich einen Index habe. Es gibt eine gewisse Speichergröße, aber die Dokumentspalte sagt 0. Also müssen wir auf Indexpatente eingehen und ein Indexmuster erstellen. Und wieder wird es CSV sein und dies wird mit unserem Index übereinstimmen. Und ich verwende das Zeitstempelfeld und erstelle das Indexmuster. Und sobald diese Schaltfläche „Es ist“ erstellt wurde. Wenn ich unter Indexmanagement nachschaue, kann ich jetzt sehen, dass das Dokument plus 5 Tausend läuft. Und wieder können wir unsere Daten über den Tab „Entdecken“ untersuchen. Ich minimiere diese Nachricht und es gibt fünftausend Treffer. Lassen Sie uns jetzt prüfen, ob unser Header-Rover übersprungen ist. Also gehe ich in meine zweite notwendige Verbindung und suche im Feld Benutzername nach einem Wert-Benutzernamen. Was ich mache, ist, dass ich herausfinden werde und einen Benutzernamen schreibe. Ich werde diese Nachricht abweisen, Benutzername. Und ich wollte, dass dies der gleiche Benutzername ist. Und ich werde aktualisieren , welche Knotenergebnisse Ihren Kriterien entsprechen. Wählen wir nun einen gültigen Benutzernamen aus. Zum Beispiel, BSI, entdecke, ich entferne das. Sie tippen PSI und ich werde auf Update klicken. Und Sie können sehen, dass die gültigen Werte oder alle richtigen Daten in meinem Elasticsearch-Cluster gespeichert wurden. Und die älteren Header-Zeilen werden übersprungen. Der Schlüssel dazu war sicherzustellen, dass die von Ihnen definierten Spalten genau mit den Spalten in Ihrer CSV-Datei übereinstimmen. Bevor ich dich jetzt loslasse, wollte ich Ihnen eine letzte Sache zeigen, nämlich wie Sie Daten von Log Stash an eine Elasticsearch-Instanz senden an eine Elasticsearch-Instanz auf der die Passwortauthentifizierung eingerichtet ist. Für diese Demo habe ich einen separaten ELK erstellt. Ein Computer würde eine Sicherheitseinrichtung für die Kennwortauthentifizierung erwarten . Wenn ich die externe IP-Adresse dieser Instanz kopiere und auf meine Kibana-Webseite gehe. Ich werde aufgefordert, meinen Benutzernamen und mein Passwort anzugeben. Jetzt habe ich einen integrierten Benutzernamen und ein Passwort namens elastisch, das ist das Superuser-Konto. Ich benutze diesen Login bei meiner Kibana. Jetzt, sobald ich in Kibana bin, klicke ich von oben links auf diese drei Zeilen und gehe dann zu Stack Management. Und dann finde ich unter Sicherheit und Benutzern alle Benutzernamen , die auf diesem System konfiguriert wurden. Dies sind alles integrierte Benutzernamen. Was wir also tun werden, ist, dass wir Elastic verwenden werden, um unseren Log Stash in die Elasticsearch-Instanz auf ELK zu integrieren . Also klicke ich auf SSH auf ELK T2, um eine SSH-Verbindung zu öffnen. Sobald ich die SSH-Verbindung in jedem Typ in Sudo, V-Schrägstrich usw. geöffnet habe, schrägstrich Log Stash slash d. Und dann bearbeiten wir unsere Konfigurationsdatei namens CSV-Daten. Und in dieser Datei, um die Ausgabe so zu konfigurieren , dass sie auf ELK 1 zur elastischen Suche wechselt. Zuerst werde ich den Hostwert von der internen IP-Adresse des lokalen Hosts Buddha von ELK 1 ändern . Entschuldigung, bearbeite das alles , füge 192 Punkt 168 Punkt einen Punkt F5 ein und tippe ein. Und jetzt muss ich den Benutzernamen und das Passwort angeben , mit dem ich mich authentifizieren werde. Also gebe ich den Benutzer ein, und hier setze ich doppelte Anführungszeichen ein und tippe elastisch ein, und dann gebe ich das Passwort ein. Und was ich mache, ist, dass ich doppelte Anführungszeichen einfüge und das Passwort aus meinen Notizen kopiere. Sobald ich das Passwort kopiert habe, können wir diese Datei speichern und jetzt können wir unsere Pipeline ausführen. Also tippe ich Sudo-Schrägstrich, Schrägstrich , Log Slash Bin und Log Stash und minus F. Und ich werde das alles kopieren. Ich füge es hier ein und drücke Enter. Und sobald die Pipeline mit der Verarbeitung fertig ist, gehen Sie zu unserer Kibana-Instanz und verstehen Sie das Management. Wir können zur Indexverwaltung gehen und Sie können sehen, dass ein Index namens CSV-Unterstrich-Index mit 5 Tausend Dokumenten erstellt wurde. Und wieder muss ich ein Indexmuster erstellen. Klicken Sie auf Indexmuster erstellen. Ich gebe CSV ein und es ist mit meinem Index übereinstimmt und ich verwende das Zeitstempelfeld und klicke auf Indexspektrum erstellen. Um meine Daten zu untersuchen, gehe ich zu Analytics und entdecke es. Und hier muss ich den Index von Logs beginnen zu CSV Star ändern . Und damit sollten Sie in der Lage sein, Ihre Daten zu untersuchen. Aber das, wir sind am Ende dieser Vorlesung gekommen. Danke fürs Zuschauen. Tschüss. 22. Installieren von Apache Webserver: Hey Leute, In diesem Video zeige ich euch, wie man den Apache-Webserver auf der GCP VM-Instanz installiert . Zuerst werden wir die Software installieren und dann die neue Datei index.html bereitstellen. Danach starten wir den Apache-Webserver und testen schließlich Zugriff auf unsere zusammengestellte Website. Also lasst uns anfangen. Hier auf dem Bildschirm. Ich habe die VM-Instanzen Konsole für meine GCP-Plattform eingerichtet. Dann wähle ich einen neuen Vitamin Sense aus Template. Und danach wähle ich die Webserver-Vorlage aus , die wir zuvor erstellt haben. Als Nächstes klicke ich auf Weiter. Danach ändere ich die Region in US West One nächstes Video, gehe runter und klicke auf Networking. Unter Netzwerk stellen wir sicher, dem Netzwerk-Tag um Webserver handelt, und dann müssen wir die Netzwerkschnittstelle im Webdienstnetzwerk ändern . Also ändere ich das von der Überwachung auf Webserver. Und danach gehe ich runter und klicke auf Erstellen. Dadurch wird unsere VM-Instanz erstellt, die wir für einen Webserver verwenden werden. Sobald die VM in Betrieb ist , können wir zu Visual Studio Code wechseln. Jetzt habe ich hier auf der Visual Studio-Code-Konsole die Hinweise, um einen Webserver auf der linken Seite zu installieren , und auf der rechten Seite habe ich meine SSH-Verbindung in diesen Webserver. Also werden wir zuerst unser System aktualisieren. Also sudo APT bekomme Update minus y. Jetzt lasst uns als nächstes klarieren, ich tippe sudo apt-get install Apache zwei minus y ein und drücke Enter. Als Nächstes. Ich werde das klären und dann kopiere ich diesen Befehl, um eine neue Datei index.html zu erstellen und Beispielcode darin einzufügen, um unsere Website zu erstellen. Fügen Sie es hier ein und drücken Sie Enter. Sobald dies erledigt ist, kann ich meinen Apache-Dienst starten. Also Pseudosystem CTL startet Apache zwei und drücke Enter. Jetzt lasst uns nach Status suchen. Also Pseudosystem CTL, Status Apache zu seinem aktiven und laufenden Status. Und jetzt gehen wir zurück zu unserer GCP Console. Und hier kopiere ich die externe IP dieses Rechners und füge sie hier ein und drücke Enter. Wie Sie sehen können, haben wir unsere Beispiel-Webseite hochgestellt. So können Sie einen Webserver auf der GCP VM-Instanz installieren . Danke fürs Zuschauen. Wir sehen uns im nächsten. Tschüss. 23. Install installieren und konfigurieren: Hey Leute, wir haben unseren Elasticsearch Cluster ihn an die Arbeit angehängt. Jetzt ist es an der Zeit, den Cluster zu verwenden. In dieser Demo sammeln wir Systemüberwachungsdaten wie CPU- und Speicherauslastung, Protokolldaten wie Systemprotokolle, löschte einige coole Dashboards wie dieses wiederum Einblicke in unsere IP-Systeme. Jetzt verwendet Elastic Search leichtgewichtige Versender , die Beats genannt werden, die auf den Zielcomputern installiert sind und Betriebsdaten an den Elasticsearch-Cluster senden. Und wir können diese Betriebsdaten verwenden , um Berichte und Dashboards zu erstellen. Einer der häufigsten Anwendungsfälle besteht darin, Systemmetrikdaten in Elastic Search einzufügen und damit Dinge wie CPU- oder Speicherauslastung, Festplatte usw. zu überwachen . besteht darin, Systemmetrikdaten in Elastic Search einzufügen und damit Dinge wie CPU- oder Speicherauslastung, Festplatte usw. zu überwachen. faktorelastische Suche mit einem Beat namens Metric , der leicht und billiger ist, Sie auf Ihrem Server installieren können. Sammeln Sie regelmäßig Metriken vom Betriebssystem und von den darauf ausgeführten Diensten. Es braucht also diese Metriken und Statistiken und verschiebt sie auf die Ausgabe Ihrer Wahl Beispiel, es könnte Log Stash oder Elastic Search sein . Um Ihnen ein Beispiel zu nennen, möchten wir an, dass sie ein Intervall Ihres Linux-Rechners für unsere Systemmetrikdaten wie CPU- und Speicherauslastung usw. Was müssen Sie tun müssen installieren Sie metrische Gewicht auf dem Server und aktivieren Modulsystem, das alle diese Informationen und Chip-SEQ für Elastic Search sammelt . Mit diesem Modul können Sie viele Dinge überwachen , die ich auf dem Bildschirm aufgeführt habe. Jedes dieser Elemente wird einzeln als Matrix bezeichnet. Sie können entweder aktivieren. All dies sind nur diejenigen , an denen Sie interessiert sind. Diejenigen, an denen Sie nicht interessiert sind, müssen wir aus Ihrer Konfigurationsdatei herauskommentiert werden. Theoretisch findet es daher ein Magnetperlenmodul die grundlegende Logik für das Sammeln von Daten von einem bestimmten Dienst wie dem Apache-HTTP-Webserver. Das Modul gibt Details über den Service an, einschließlich der Verbindung zu diesem Service, wie oft Metriken gesammelt werden sollen und welche Metriken erfasst werden sollen. Jedes Modul hat eine oder mehrere Matrix. Es ist eine Matrix, die der Teil des Moleküls ist , der die Daten berührt und strukturiert. Es gibt viele Modelle, die Sie in metrischem Köder in der Beschreibung dieses Videos in einer URL aus der Elasticsearch-Dokumentation nach oben aktivieren können in metrischem Köder in der Beschreibung dieses Videos in einer URL aus der Elasticsearch-Dokumentation nach oben aktivieren dieses Videos in einer URL aus der Elasticsearch-Dokumentation nach oben . Und Sie können es durchsuchen, um sich alle verfügbaren Module anzusehen . Und Sie können die auswählen , die Sie benötigen, basierend auf Ihren Systemanforderungen. Schauen wir uns als Nächstes an, wie metrisch, welcher Service funktioniert? metrische Perle arbeitet in vier Schritten. Zuerst werden die auf dem Zielcomputer installierten und konfigurierten Dienste auf dem Zielcomputer installierten und konfigurierten und erfasst Überwachungsinformationen basierend auf den aktivierten Modulen und Metriken konfiguriert. Diese Daten werden in der Elastic Search gespeichert und indiziert. Und schließlich können wir mithilfe der Kibana-Benutzeroberfläche coole Berichte und Dashboards zu diesen Daten erstellen . Sie können auch die Standard-Dashboards verwenden dieser Nachfolge bereitgestellt werden. Wir hoffen, das Metrikgebot für diese Demo auf dem Apache-Webserver zu konfigurieren , wird das Apache-Modul aktivieren, das den Status für den Apache-Webserver bereitstellt. Wir werden auch das Systemmodul aktivieren, das Systemmetriken bereitstellt. Schließlich hatten wir auch das Beats erwartungsmodul aktiviert. Dieses Mohr Buret wird uns helfen, den Apache-Dienst auf dem ELK-Server zu überwachen den Apache-Dienst auf dem , um das elastische Sucherwartungsmodul zu ermöglichen, das uns hilft, Elasticsearch selbst zu überwachen, wird auch das Kibana erwartungsmodul ermöglichen was uns helfen wird, Kibana zu überwachen. Aktiviert das Bit-Expertenmodul, das uns hilft, andere Bits zu aktivieren , die auf ihrem Dienst installiert sind. Nun ist eine Sache zu beachten , dass wir dieselbe Metrik mit Weihrauch verwenden werden , um sich selbst zu überwachen. Dies ist nicht das, was Sie in einer Produktionsumgebung sehen werden . Ihr Produktionscluster könnte eher so aussehen, wo Sie einen separaten Produktionscluster und einen separaten Überwachungscluster haben . Da im Falle eines Ausfalls im Überwachungscluster möglicherweise die Produktionsservices weiterhin über den Produktionscluster überwacht werden. Und wenn der Produktionscluster stirbt, können Sie auch beheben, warum er mit dem Überwachungscluster fehlgeschlagen ist . Lasst uns nun zu unserem Laborsystem übergehen. Installiertes metrisches Gebot. Nach der Metrik, wo es installiert ist müssen wir zuerst die Überwachung des Elasticsearch-Clusters aktivieren. Was wir also tun werden, ist zu Elasticsearch zu gehen, EML-Dateien zu schlagen, damit ich Nano-Schrägstrich usw. sudo und Elasticsearch schrägst. Elasticsearch beginnt im Jemen. Er drückte gehen bis zum Ende dieser Akte. Wie kann man jedoch einen Kommentar für einen neuen Abschnitt abgeben. Und ich nenne es erwarten Monitoring. Und am Ende erwarten Sie eine Überwachung. Ich kopiere diese beiden Einstellungen. Erwarten Sie, dass die Überwachung als wahr aktiviert ist , und erwarten Sie Überwachung. aktivierte elastische Suchsammlung ist wahr. Diese beiden Einstellungen ermöglichen die Überwachung unseres Clusters. Kopiere das und füge es hier ein. Sagen wir jetzt mein Finale. Danach starte ich meinen Elasticsearch-Dienst, das System CTL, neu, starte die elastische Suche neu. Sobald IT-Assets wie AP, können wir eine Metrik installieren und konfigurieren, sudo Nano-Schrägstrich ETC prototypisieren, slashen und Metriken slashen. Hier ist das erste Setting Out Configure Library load. Oder die Einstellung sucht nach der Modulkonfigurationsdatei unter diesem Teil. Und wenn es Änderungen an dieser Konfigurationsdatei gibt, wird sie automatisch neu geladen ohne dass der Metrik-Beats-Dienst neu gestartet werden muss. Ich ändere das in „wahr“. Willkommen und Notenzeitraum neu laden. Nun, eine Agenda und ein Name, können wir einen benutzerdefinierten Namen für den Versender angeben. Standardmäßig nimmt das Metrik-Bit den Hostnamen des Rechners an, auf dem der Versender ausgeführt wird. Ich kann ELK Dash eins und die Eier eingeben. Ich gebe an, dass dies die ELK-Maschine ist, also werde ich all dieses angegebene Tag namens ELK loswerden. Unter Dashboards. Wir können entweder standardmäßige Kibana-Dashboards für das Metrikgebot für den Versender einrichten, dies jedoch nicht kommentieren und dies auf wahr setzen. Oder wir können das Dashboard verwenden ist Kumar. Was ich tun werde, ist, dass ich das hier auf wahr setze. Aber wenn wir den Webserver machen und Ihnen zeigen, wie es über den Befehl geht. Jetzt muss Kibana Gastgeber auskommentieren, aber wir können es als lokale Krankenhäuser belassen, der Versender läuft auf derselben Maschine wie Kibana. Gleiches gilt für Elastic Search, damit wir es als lokaler Host belassen können. Und das Protokoll, lassen Sie uns das auskommentieren und von STDEV.S zu Azure DB ändern. Unter Benutzername müssen wir den Elastic user und das Passwort angeben. Sie müssen das Passwort für den Elastic Benutzer angeben. Als nächstes müssen wir die Protokollierung angeben. Wir gehen zu dem Abschnitt , der Protokollierung heißt. Und hier müssen wir die Protokollierungsstufe auskommentieren, aber wir werden sie als Standard belassen und Protokollierungsselektoren auskommentieren. Also belassen wir es als Standardpulswähler. Danach müssen wir diese Einstellungen kopieren. Die erste Einstellung konfiguriert die Protokollierung so, dass sie zu Datei wechselt. Und danach geben wir einen Bot für die Logging-Datei an. Und wir geben den Namen der Logging-Datei an. Danach geben wir an, wie viele Dateien wir befolgen müssen , worauf wir die Berechtigungen für die Protokollierung angeben müssen. Ich kopiere das alles einfach und füge es hier ein. Jetzt müssen wir endlich das Monitoring für unsere metrische Beat-Instanz einrichten . Daher empfehle ich, dass die Überwachung aktiviert ist. Und jetzt fügen wir das zu wahr hinzu. Das wird nach unten gehen, wo Punkt Elastic Search überwachen und kommentieren. Diese Einstellung von niemand ist, dass sie alles aufnimmt, was wir in Ausgaben für Elastic Search als Ausgabe angegeben haben , es wird die Ausgabe von hier aufnehmen. Wir können diese Datei speichern und Metric Big Service starten. Also Pseudosystem CTL, starte. Und wir können Sudo-System CTL aktivieren Metriken, aktivierte metrische Köder auch eingeben . Nun danach müssen wir ein paar Module aktivieren. Wenn ich also zu ETC Slash-Metriken gehe. Wenn ich hier ein ls mache, wirst du sehen, dass es ein Verzeichnis namens Module gibt. Ich gehe in Module oder D, mach ein ls. Sie werden sehen, dass alle Module in diesem Verzeichnis vorhanden sind, aber alle außer dem Systemmodul deaktiviert sind. jetzt für ELK Server Lassen Sie mich jetzt für ELK Server das Außer noch einmal klären. Für ELK Solver müssen wir nun die elastische Suche ermöglichen, Modul erwarten, Kibana Modul und deaktiviertes System erwarten oder tun. Also lasst uns das zuerst machen. So aktivierte Pseudometrikgebot Elastic Search Strich erwarten. Danach können wir Kibana erwarten lassen. Jetzt müssen wir auch Beta-Erwartungen aktivieren. Dieses Modul wird verwendet , um andere Versender zu überwachen , die wir auf dem Server installiert haben. Es wäre zu erwarten. Wenn wir dies wünschen, können wir das System deaktivieren oder deaktivieren. Jetzt konfigurieren wir zuerst elasticsearch erwarte. Sudo nano Elastic Search Dash erwarten. Hier müssen wir den Benutzernamen und das Passwort für unseren Remoteüberwachungsbenutzer für Elastic Search angeben Passwort für unseren Remoteüberwachungsbenutzer . Ich komme beides und gehe zu meinen Dateien, gehe zu Ansible und unter den Anmeldeinformationen TM. Nun, natürlich alle Anmeldeinformationen. Sie kopieren zuerst den Benutzernamen und das Passwort in die Reihenfolge, in der er verwendet werden soll. Lasst es uns einfach speichern. Und jetzt ändern wir einfach Kibana erwarten und dasselbe tun. Jetzt können wir das Trinkgeld geben. Ich habe gerade bemerkt, dass ich die Beta-Erwartung deaktiviert habe , anstatt das System zu deaktivieren. Was ich also tun werde, ist, dass ich damit rechnen werde das Systemmodell zuerst deaktiviert wurde. Lassen Sie mich jetzt konfigurieren, was wir erwarten würden. Jetzt müssen wir den Beat-Systembenutzer, den Benutzernamen, angeben. Also kopiere ich die Verwendung einer Info für B-Systembenutzer. Also Beta-Unterstrichensystem. Lassen Sie mich das loben und ich füge das ein, und ich speichere diese Datei. Jetzt sollte das Metrikgebot auf meinem ELK-Server konfiguriert werden. Also kann ich zur GCP Console gehen die öffentliche IP-Adresse meines ELK-Servers kopieren. Den Browser mit 45601 anweisen. Von der Kibana-Homepage. Ich kann von oben links auf das Menü klicken. Lass mich einfach meinen Doc geklopft. Ich kann in die Stack-Überwachung gehen und wenn ich den Metric Beat richtig konfiguriert habe, sollte ich anfangen, einige andere Dinge zu sehen. Stapelt auf meinem Stack. Hier muss ich auf Demo ELK klicken. Und wie Sie sehen können, habe ich Überwachungsinformationen für meine Elasticsearch, Kibana und Beats. Klicken wir also auf Beat und klicken Sie auf ELK One. Du siehst, dass ich meine Event-Raten habe. Jetzt kann ich zur Demo ELK gehen und unter meiner Elastic Search auf Übersicht klicken unter meiner Elastic Search auf Übersicht um den Zustand meines Elastic Search-Index betrachten. Ich kann mir Sättigungen, solche Latenz, Indizierungslatenz und Raten ansehen. Ich kann auf Knoten klicken, mir meine Notizen ansehen, OneNote-Pitches im grünen Status übernehmen, ich kann mir die CPU-Last und den diskreten Speicherplatz für diesen Knoten ansehen . Ich kann mir auch meine Indizes ansehen. Habe gerade einen Index namens metrisches Gebot bekommen. Jetzt kann ich zu Kibana gehen und auf Übersicht klicken. Sieh dir Kibana an. So wie hier kann ich mir Anlagenanfragen und Reaktionszeit ansehen . Die Erinnerung. Wie viele Fälle maximaler Reaktionszeit? Wenn ich auf Instanzen klicke, kann ich mir auch die Instanzen von Kibana ansehen , die ich habe. Dies ist das Setup für unseren ELK-Server. Als Nächstes müssen wir einen Webserver konfigurieren. Was ich mache, ist von der GCP-Konsole aus, ich kopiere die öffentliche IP-Adresse meines Webservers. Ich eröffne ein neues Terminal basierend auf der öffentlichen IP-Adresse. Auf der linken Seite werden nun Installations - und Konfigurationsanweisungen für einen Webserver genannt . Auf der rechten Seite habe ich meine SSH-Verbindung zum Webserver. Der erste Schritt besteht also darin, den öffentlichen Signaturschlüssel für Elasticsearch zu installieren den öffentlichen Signaturschlüssel für . Also lasst uns das machen. Danach kontrollieren wir den Transport einfach als UDP-Paket. Danach müssen wir die Verzeichnisdefinitionen speichern . Jetzt können wir ein Update machen, eine Metrik des Installationsprogramms schlägt. Also sudo apt-get update, sudo apt-get install metric, nicht-metrische Betas und gespeichert. Also lasst uns zuerst den Bildschirm löschen. Jetzt können wir sie davon abhalten , metrische Perlen zu finden. Jetzt würde diese Konfiguration dem ähneln , was wir für ELK Summer getan haben. Lassen Sie uns das Laden der Bibliothek konfigurieren. Vorname wäre Webserver. Ich wurde angeklopft, um die standardmäßigen Kibana-Dashboards einzurichten weil ich Ihnen zeigen möchte , wie das über die Befehlszeile geht. Als Host für Kibana muss ich die interne IP-Adresse der Instanz eingeben. Also geht es zur GCP Console, kopiere es und füge es hier ein. Gleiches gilt für Elastic Search. Jetzt können wir die Protokollierung aktivieren. Danach. Lassen Sie uns die Überwachung aktivieren. Schließlich können wir den Monitorpunkt Elastic Search auskommentieren und unsere Datei speichern. Starten wir nun den Metrik-Beats-Dienst. So aktivieren Sie das Pseudosystem CTL den Dienst. Werfen wir nun einen Blick auf den Status des laufenden Dienstes. Als Nächstes werden wir anfangen, Module zu aktivieren. Das erste Modul wird hierfür aktiviert , ist das Apache-Modul. Danach haben wir den Beat aktiviert. Erwarte mehr tun. Werfen wir nun einen Blick auf die Liste der Enable more Module auf diesem Computer. Sie können das tun, indem Sie Pseudo eingeben. Ein bisschen. More do's List Unity , die drei Module aufzeichnet, die auf diesem Computer aktiviert sind. Apache Beta erwartet , dass wir gerade aktiviert und System oder Verzögerungen standardmäßig aktiviert haben. Werfen wir einen Blick auf die Modulkonfigurationen. Es ist klar, dieser erste Sudo-Nano-Schrägstrich, ETC Slash-Metrik-Bit, verzerrter d Slash Apache. Hier entkommentieren wir Matrix-Sets Status. Wir müssen den Benutzernamen und das Passwort nicht eingeben da unser Standard-Webserver keine Authentifizierungen hat. Was ich empfehlen würde, ist, dass wir den Wert unter Host von 127001 auf die IP-Adresse oder den Domainnamen unseres Webservers geändert den Wert unter Host von 127001 auf die IP-Adresse haben. Dies würde uns helfen, diesen Webserver in unserem Dashboard zu identifizieren . Also was ich tun werde, ist, dass ich das alles entfernen werde. Ich kopiere die interne IP-Adresse meines Webservers. Geh zurück zum Terminal und ich füge es hier ein. Jetzt kann ich diese Datei speichern. Werfen wir einen Blick auf die Konfiguration von Beat-Experten. Hier. Wir müssen den Benutzernamen und das Passwort angeben , damit wir uns gegen die Beats authentifizieren können. Dies wäre der Benutzer des Strandsystems. Dies wäre das Passwort für den V8-Systembenutzer. Jetzt wird dieses Bit verwendet, um andere Hintern im System zu überwachen. Da wir jedoch noch nichts auf dem System installiert haben , wird dies nichts bewirken. Also lass uns einfach aus dieser Akte raus. Ich habe es vorhin versprochen. Jetzt zeige ich Ihnen, wie Sie Dashboards über die Befehlszeile konfigurieren. Um dies zu tun, müssen Sie Sudo-Metrik-Gebotseinrichtung, Bindestrich, Dashboard eingeben . Sobald die Dashboards geladen sind, wird eine Meldung angezeigt, die besagt, dass geladene Dashboards angezeigt werden. Gehen wir nun zurück zu unserer Kibana-Instanz. Hier. Gehen wir zuerst zu Clustern und Demo ELK verstehen Monitoring. Lass uns einfach zu Rüben gehen. Sie können sehen, dass wir zwei Bits haben, ELK eins und der andere sollte ein Beobachter sein. Diese Daten stammen also von der internen Überwachung über dem Strand selbst. Um Informationen über den Vorort zu erhalten, müssen Sie zur Matrix gehen. Hier. Sie werden sehen, dass wir begonnen haben, Metriken und Details zu unseren Webservern zu erhalten . Also klicken wir darauf und klicken auf Host-Matrix. Sie können sehen, dass wir alle Details über unsere Webserver zusammen begonnen haben . Aber danach gehen wir zu Dashboards unter Kibana. Schauen Sie sich ein Muster-Dashboard an, das von metrischem Köder für einen Apache-Server hergestellt wurde. Hier unter dem Suchfeld des Dashboards gebe ich Apache ein. Dann öffne ich das Dashboard namens Metric mit Apache Übersicht ECS. Jetzt ist dies ein Beispiel-Dashboard. Wir können Dinge wie die Hostnamen in unserer Umgebung, Verfügbarkeit unserer Server, vollständige Zugriffsbytes, beschäftigte und ungenutzte Mitarbeiter, verschiedene Arten von Verbindungen, CPU-Lappen, Netzwerkknoten usw. erhalten. Jetzt lasse ich euch einen Webserver konfigurieren, damit wir das Ende dieses Videos erreicht haben. Danke fürs Zuschauen. Wir sehen uns im nächsten. 24. Filebeat: Hey Leute, lasst uns die Datei in dieser Vorlesung installieren und konfigurieren. File Beat ist ein leichter, billiger für die Weiterleitung und Verlockung protokollierter Daten. Es wird als Agent auf Ihren Servern installiert und überwacht Protokolldateien sind Orte, die Sie angeben, sammelt Protokollereignisse von diesen Dateien sind Speicherorte und leitet sie entweder an Elastic Search oder Log Stash weiter. Es besteht aus zwei Komponenten. Der erste heißt Harvester und der zweite ist ein Input. Ein Harvester ist dafür verantwortlich , den Inhalt einer einzelnen Datei zu lesen. Zeile für Zeile. Input ist verantwortlich für die Verwaltung der Erntemaschinen und das Auffinden aller Quellen, aus denen Protokolldaten gelesen werden sollen. Lassen Sie uns nun einen Blick darauf werfen , wie File Beat funktioniert. Sobald Sie die Datei starten und welchen Dienst starten, startet sie eine oder mehrere Eingaben , die sich mit dem Speicherort befassen , den Sie für Protokolldaten angeben. Geben Sie zum Beispiel eins ein, wir schauen uns Pech und jede Protokolldatei in Verilog an. Jetzt startet es für jede Protokolldatei, die sie an diesem Speicherort entdeckt hat, einen neuen Ester. Dieser Harvester ist dafür verantwortlich , die Protokolldatei zeilenweise zu lesen und sendet diese Daten an eine Flüssigkeit. Jetzt aggregiert dieses Lipid die Ereignisse und da die aggregierten Daten beispielsweise zu der von Ihnen angegebenen Ausgabe verwendet werden, kann es die Daten an Log Stash Elastic Search senden . In dieser Demo konfigurieren wir zuerst File Beat auf unserem ELK-Server. Es gibt sechs Schritte. Zuerst überprüfen wir, ob die Protokolle auf dem ELK-Server korrekt eingerichtet sind. Danach installieren und konfigurieren wir den Datei-Boot-Dienst. Danach konfigurieren wir Metriken, um unsere Datei zu überwachen, welchen Service. Wir haben also auch eine Art Überwachung. Dann starten wir einen aktivierten File Beat-Dienst. Und schließlich aktivieren und konfigurieren wir die ELK-Module in unserem Cluster für File Beat. Elasticsearch, Kibana und System werden es jetzt tun. Zweitens konfigurieren wir File Beat für unsere Webserver. Die Schritte sind ähnlich. Der einzige Unterschied besteht darin, dass die Module auf dem 5-Bit-Dienst für Webserver konfiguriert werden dem 5-Bit-Dienst für Webserver konfiguriert werden Apache sein und das System lässt uns loslegen. Jetzt hier in meinem Labor. Und da ich die Schritte zum Installieren und Konfigurieren der Datei habe Britton Hill Case auf der linken Seite und die SSH-Verbindung in mein IELTS auf der rechten Seite. Was ich tun werde, ist, dass ich diese Schritte an die Beschreibung dieses Videos anfüge, damit ihr auch auf dieses Dokument zugreifen könnt . Jetzt, wenn der EMACS beendet ist, der erste Schritt darin, zu überprüfen, dass die Protokollierung für elastische Suchinstanzen konfiguriert ist . Also tippe ich Sudo Nano-Schrägstrich ETC ein, schrägstrich Elastic Search Slash Elastic Search dot YAML. In diesem Dokument werde ich nun zu Pfaden gehen und überprüfen, werde ich nun zu Pfaden gehen und überprüfen gekaufte Punktprotokolle auf var log Elastic Search eingestellt sind. Und es ist nicht kommentiert. Wenn dies für Sie auskommentiert wird, müssen Sie es auskommentieren und sicherstellen dass Pfad-Punkt-Protokolle eingerichtet sind. Nachdem wir bestätigt haben, dass wir das verlassen können. Gehen wir als Nächstes zu unserer Kibana-Instanz. Also sudo nano slash TTC Slash Kibana Slash Keep on sie kennen Tiamat. Jetzt müssen wir hier runter zum Logging gehen. Jetzt sehen Sie standardmäßig, dass Kibana sich bei der Standardausgabe anmeldet. Was wir also tun müssen, ist, dass wir das ändern müssen. Ich schaffe hier Platz. Kopieren Sie all dies und fügen Sie es auf der rechten Seite ein. Was diese Einstellungen tun, ist, dass sie zuerst das Protokollierungspunktziel so konfigurieren , dass es sich unter schlechtem Protokoll befindet, und dann die Kibana-Datei. Dann haben wir die Protokollrotation aktiviert und wir haben das System ausgeteilt, dass wir jemand Logfiles behalten möchten. Nachdem wir das getan haben, können wir diese Datei speichern und eingeben. Ein Problem mit Kibana ist die Konfiguration , dass die Datei Kibana unter Verilog nicht erstellt werden kann. Was wir also tun werden, ist, dass wir einen Slash Slash Log Slash Kibana machen Slash Slash Log Slash Kibana eine neue Datei namens Kibana Underbar Law erstellen. Lass mich das einfach mit dem Sudo machen. Danach haben wir den Besitz dieser Protokolldatei geändert , die Kibana im Besitz des Kibana-Benutzers und der Gruppe sudo C-H auf Kibana ist. Kibana Slash Slash Lappen. Vor allem. Jetzt ist diese Datei Eigentum an den Benutzer Kibana und die Gruppe Kibana. Nachdem wir das getan haben, können wir den Kibana-Dienst neu starten. Also Pseudosystem CTL, Coupon neu starten. Werfen wir einen Blick auf den Status von Kibana. Sehen wir uns nun an, ob die Kibana-Datei , die Sie gerade im var-Protokoll erstellt haben , protokollierte Daten von der Kibana-Instanz erhalten hat . Lass uns einen Schwanz minus f Schrägbett machen. Englisches Recht, besonders wie Sie sehen können, dass wir angefangen haben, protokollierte Daten in unsere Protokolldatei für Kibana zu bekommen . Lasst uns das aussteigen. Lassen Sie mich von hier aus klären. Das nächste Bit von ELK Stack, das den Server installiert, sind metrische Beats. Lassen Sie uns also noch einmal prüfen , ob metrischer Köder mit der Protokollierung sudo nano slash abc slash metric main.xml konfiguriert ist mit der Protokollierung sudo nano slash abc slash metric main.xml konfiguriert . Diese Datei gehen wir zum Logging-Bereich. Jetzt konfigurieren wir das Loggen in dieser Datei. Kopiere das alles basierend hier. danach auch diese Datei als Nächstes Speichern Sie danach auch diese Datei als Nächstes. Lassen Sie uns die Metrik neu starten. Welcher Service? Also Pseudosystem CTL, Stack-Metrik. Werfen wir einen Blick auf den Status des laufenden metrischen Angebots. Jetzt haben wir die Protokollierung in unserem ELK-Cluster konfiguriert. Was wir danach tun können, ist, dass wir jetzt Datei welcher Dienst installieren können ? Also sudo apt-get install. Sobald es installiert ist, können wir zur Dateipunkt-YAML-Datei wechseln und den Hybrid-Dienst konfigurieren. das zu tun, tippen wir Sudo, ETC Slash Slash Phobic Dot YAML ein. Jetzt hier in dieser Datei werden wir zuerst runtergehen und das Laden der Bibliothek konfigurieren. Unter Datei-Bit-Modulen werden wir also den Punkt aktiviert neu laden und den Wert von false auf true ändern. Wir werden den Kommentar auskommentieren, die Punktperiode neu laden und sie als Standardeinstellung zehn Sekunden belassen. Jetzt gehen wir in den Geschlechterbereich und geben ihm ein Tag. Da es sich also um einen ELK-Cluster handelt, geben Sie ihm einfach einen Tag ELK. Gehen wir nun zu Dashboards und aktivierter Datei, welche Dashboards? Ich werde dieses Setup-Punkt-Dashboard auskommentieren, startete Aktivieren und ändere den Wert auf „true“. Danach befehle ich im Kibana-Bereich die Kibana-Host-URL, und ich lasse sie als lokal oder Überschuss 01 liegen, da dieser Faser-Weihrauch lokal gestartet wird. Sehr Kibana-Instanz ist alles, um sie zu installieren. Danach wird als Elastic Search ausgegeben. Und ich verlasse den Host-Bereich als localhost 9200. Ich ändere das Protokoll, um GDB zu verwenden. Ändern Sie das Passwort in das Elastic User-Passwort, und ich werde sowohl den Benutzernamen als auch das Passwort auskommentieren. Danach gehe ich zum Anmeldebereich und konfiguriere die Protokollierung für die gelesene, nicht festgeschriebene Protokollierungspunktebene. Und ich belasse es als Standard-Debug. Und ich werde das Kommentieren der Logging-Punktselektoren auskommentieren und belasse sie als Standardstern. Kopiere das alles, füge es hier ein. Jetzt kann ich endlich Überwachung über meine-Attribut einrichten, auf diese Datei gehen. Und ich kopiere, wenn gdb dot einen Ester-DB-Punkt-Port aktiviert hat. Was dies bedeutet, ist, dass Metriken den Dateiüberfall über STDP überwachen können . Basiere das hier. Jetzt kann ich diese Datei speichern. Nachdem wir die metrische Köderüberwachung über Port 5067 x plus aktiviert haben über Port 5067 x plus prüfen Sie, ob das Beaterwartungs-Modul im metrischen Gebot aktiviert ist oder nicht. Um dies zu tun, überprüfen wir zuerst die Sudo Electric-Gebotsliste, listen Sie alle Module und diejenigen auf, die aktiviert sind. Wenn Sie sehen können, dass das Beta erwartungsmodul nicht aktiviert ist. Lassen Sie uns also zuerst dieses Modul aktivieren , da dieses Modul verwendet wird, um andere auf dem Server installierte Bits zu überwachen , um sich zu matrikulieren. Pseudo-Metrik-Gebotsmodule aktiviert. Wir würden erwarten, dass dieses Modul aktiviert ist. Wir müssen dieses Modul so konfigurieren, dass es Port 5067 ansieht. Lassen Sie mich dazu zuerst alles klären. Dann tippe ich Sudo Nano-Schrägstrich ein, dc Slash Slash Slash Bead erwartet. In dieser Datei müssen wir zuerst die URL unter Hosts vom lokalen Überschuss 6625067 ändern , da dies der Port ist, in den die Datei Daten exportiert. Jetzt müssen wir unter Benutzername und Passwort den Benutzernamen und das Passwort des Strandsystems verwenden. Das hab ich nicht bewegt. Ändern Sie den Benutzernamen. Unterstrichensystem. Und ändern Sie das Passwort, um das Benutzerpasswort des Systems zu unterstreichen. Und lass mich diese Datei speichern. Überprüfen Sie abschließend die Metrik , welche Dienste Sudo-System CTL Statusrhetorik ausführen . Jetzt können wir den Datei-Boot-Dienst starten. Also Pseudosystem CTL. Werfen wir nun einen Blick auf den Status der Datei, welcher Dienst? Jetzt läuft der Dienst. Als Nächstes müssen wir die Module auf dieser Oberfläche aktivieren. Lassen Sie mich zuerst alles klären. Lass mich eintauchen. Pseudo. Module können die elastische Suche aktivieren, um das Elastic Search-Modul zu aktivieren. Danach lassen Sie mich Pseudo-5-Bit-Module aktiviert haben , Kibana, aktivieren Sie die Kibana-Module. Und zuletzt werden wir sudo vibrationsmodule aktiviertes System durchführen, um das System zu ermöglichen. Jetzt müssen wir all diese drei Module konfigurieren. Gehen wir zu sudo, nano dash abc slash, slash star d slash Elasticsearch Ottoman. In diesem Modul sehen Sie, dass es einige Teile hat. Standardmäßig x die Bots basierend auf Ihrer Distribution. Da wir diese Teile also nicht in benutzerdefinierte Pfade geändert haben, müssen wir hier nichts bearbeiten. Wenn Sie jedoch den Pass in Ihrer Installation in benutzerdefinierte Teile geändert haben , müssen Sie hierher kommen und diese Konfigurationsänderungen vornehmen. Ich komme aus dieser Akte raus. Ähnlich für Gibbon Rhodamin-System, basierend auf der Verteilung , werden alle Standardteile übernommen. Wenn Sie die Teile geändert haben, müssen Sie hierher kommen und die Änderungen vornehmen. Gehen wir jetzt zu unserer Kibana-Instanz. Ich kopiere die öffentliche IP-Adresse 5601 den Namen des Elastic Benutzers und das Passwort ein. Nun, wenn das Gebot korrekt überwacht wird, sollten wir in der Lage sein, diese Dateizucht unter Stack-Überwachung, CO2-Menü, zu sehen . Gehe zu Schrittüberwachung. Hier klicken wir auf Demo-Bewässerung und gehen wir runter. Du siehst, dass wir zwei Bits haben. Sie haben FIB unter dem Namen EL gegeben. Lasst uns darauf klicken. Dies ist unsere Datei, bevor Sie richtig überwacht werden und feststellen , dass Sie einige Ereignisraten haben usw. Wenn Sie nun zwei Cluster haben, Demo und schauen Sie sich den Abschnitt unter Logs, Sie können sehen, dass wir angefangen haben, Protokolle zu sammeln. Wir haben also viele Informationen und Protokolle und Anwendungen erwärmen Lappen auf unserer Elastic Search. Dies bedeutet also, dass unser Service Protokolle aus dem ELK-Cluster erfassen kann . Nun gehen wir weiter zum nominalen Ausgang von hier K. Und gehen Sie weiter zum Webserver. Hallo, kopiere die IP-Adresse des Webservers eins, cohere, SSH, füge die IP-Adresse ein. Als Nächstes schließe ich es in Abschnitten für ***** über Albert-Installation. Und ich öffne die für den Webserver. Und ich schaue sie im Vorschaumodus an. Jetzt auf unserer Website. Aber zuerst müssen wir überprüfen, dass die Protokollierung für die Matrix konfiguriert ist. Lassen Sie uns also Sudo, Nano-Schrägstrich, ETC-Schrägstrich vorhersagen, dass Bit-Schrägstrich flüssigen Punkt YAML sein könnte. Jetzt müssen wir hier runter zum Logging-Bereich gehen. Wir entkommentieren die Protokollierungsstufe hat Debuggen und Stern auswählen. Wir belassen sie beide als Standard. Kopieren Sie diesen Abschnitt. Also Control C, kontrolliere V. Danach speichern wir diese Datei. Lasst uns das MATLAB-Bit neu starten. Sobald die Metrik welcher Dienst angezeigt wird, können wir zuerst ein Dateiobjekt für den Status auf dem großen Metrikdienst installieren , lassen Sie uns einen klaren Bildschirm machen. Und hier kann ich sudo apt-get install eingeben. Danach können wir unseren Vibrationsservice konfigurieren. Lassen Sie mich also zuerst klarstellen. Geben Sie Sudo Nano DC Schrägstrich ein, Schrägstrich fünf. Jetzt sind die Schritte identisch, also gehen wir zuerst mit der konfigurierten Library Load nach unten. Als Nächstes fügen wir einfach ein Tag hinzu. Behalten Sie das Tag als Webebene bei, da es sich um einen Webserver handelt. Setup-Dashboard. Setup-Punkt-Dashboard startet als wahr aktiviert. Lassen Sie uns danach den Kibana-Gastgeber untergraben. für das UFO tun werden, Was wir für das UFO tun werden, ist, dass wir die interne IP-Adresse unseres Kibana-Servers verwenden . Also kopiere ich dies und ändere den lokalen Host in die interne IP-Adresse unseres ersten Quartals. Ich gehe zum Ausgabebereich Elastic Search. Tun Sie das Gleiche auch für die Host-URL hier. Ändern Sie die Protokollinformationen tief. Geben Sie das Passwort für elastischen Superuser ein. Jetzt gehe ich zum Protokollierungsbereich und stelle sicher, dass die Protokollierung konfiguriert ist. Jetzt gehe ich endlich nach unten und aktiviere Metrik, um diesen Service zu überwachen. Speichern Sie diese Datei und fügen Sie einen Checkup-Vx-Quadratmodul hinzu, der für das Metrikgebot aktiviert ist oder nicht. Also pseudometrisches Bit. Weitere Beiträge aktiviert. Fedex zurück. Ich kann dieses Modul konfigurieren. Also sudo, Nano, besonders ETC, Slash Slash Slash Slash, den wir erwarten würden. In dieser Datei. Ich habe das Host-Board auf 5067 geändert das Host-Board auf 5067 da dies die fünfte Datei ist, die Peter konfiguriert ist. Ich verliere den Benutzernamen und das Passwort des Beat-Systems. Ich kann diese Akte sagen. Lassen Sie uns jetzt einfach einen Status für Metrik machen. Metrik welche Dienste funktionieren. Jetzt fangen wir an, dateibasiert. Also Pseudosystem CTL-Datei. Danach können wir zuerst den Fiber-Service in den Status bringen, um zu überprüfen , ob er tatsächlich gestartet wurde. Nachdem wir nun überprüft haben, dass der Dienst gestartet wurde, können wir alles löschen und das Modul aktivieren. Pseudo. Schlagen. Modelle aktivieren, aktivieren das Apache-Modul. Dann aktivieren wir dies als zwei Modelle. Sobald dies erledigt ist, können wir zu unserer Kibana-Instanz zurückkehren. Hier. Lassen Sie uns einfach etwas auf einer Kibana-Instanz aktualisieren . Wenn wir untergehen, werden wir sehen, dass Sie jetzt vier Beats haben, also klicken wir auf Bits. Und wie Sie sehen können, haben wir auch das 5-Bit für unseren Webserver zur Verfügung. Wir können den Status dieses Feeds überprüfen , indem wir auf den Webserver klicken. Und es sollte uns Ereignisrate, Durchsatzausfallraten usw. geben . Jetzt können wir uns eines der Beispiel-Dashboards für einen Apache-Webserver ansehen . Lassen Sie uns dazu zum Menü und dann zum Dashboard gehen. Suchen wir hier unter dem Dashboard nach Apache. Und klicken wir auf Datei mit Apache-Exzess und analogem ECS. Jetzt ist dies ein Beispiel-Dashboard, das FileReader mithilfe des Überschusses erstellt und Protokolle von einem Apache-Dienst bearbeitet. Sie können dies verwenden, um eindeutige IP-Adressen zu betrachten , die mit diesen Antwortcodes auf sich selbst zugreifen mit diesen Antwortcodes auf . Dies ist eine einmalige Browser-Aufschlüsselung usw. So können Sie die Datei installieren und konfigurieren ein E- und K-Server und ein Webserver. Was ich möchte, dass Sie tun, ist, dass Sie irgendwo im Internet die Datei installieren und konfigurieren. Was Sie erwarten sollten , ist, dass Sie, sobald Sie dies tun, nicht in der Lage sein sollten, solche Informationen für das Absolute zu erhalten. Und wenn du zu Schritt 100 gehst, hast du sechs Beats. Eine Metrik ist eine Datei für Ihren zweiten Webserver. Kommen Sie damit zum Ende dieses Videos. Danke fürs Zuschauen. Wir sehen uns im nächsten. Tschüss. 25. Heartbeat 7: Hey Leute, Lektion installiere und konfiguriere Heartbeat. In diesem Video können Sie mit Heartbeat regelmäßig den Status Ihrer Dienste überprüfen und feststellen, ob sie verfügbar sind oder nicht. zum Beispiel daran, Denken Sie zum Beispiel daran, dass Sie einen Webserver haben. Und wenn Sie sich bei der Konsole ihres Webservers anmelden und einen Service überprüfen Sie den HTTP-Dienst. Der Dienst wird wieder ausgeführt oder Sie versuchen, die Webseite zu laden, das webbasierte wird nicht geladen, Sie erhalten einen Editor auf der Webseite, was bedeutet, dass Ihre Benutzer auf unserem Tisch Ihre Website verwenden können wofür auch immer sie es benutzen wollten. Jetzt können Sie Heartbeat verwenden, um diese Art von Szenarien zu überwachen. Wo das Cockpit reicht, ist, dass es von seinem Webserver nach einem Statuscode sucht. Und wenn es seinen Statuscode nicht zurückerhält, es wirklich gezeigt, dass Web Services nicht reagiert oder herunterfällt. Jetzt gibt es drei verschiedene Arten von Monitoren, die Sie innerhalb von Heartbeat konfigurieren können. Zunächst können Sie einen ICMP-Ping-Monitor konfigurieren. Es denkt im Grunde genommen diesen bestimmten IP-Adressen-Port-Hostnamen. Und wenn es einen erfolgreichen Ping bekommt, zeigt es ihn wie oben an. Und wenn es nicht erfolgreich ist, zeigt es diesen Monitorstein. Als Nächstes können Sie sich TCP vorstellen. Mit diesem Monitor können Sie über PCP eine Verbindung zu einem bestimmten Endpunkt herstellen. Und Sie können diesen Monitor auch ändern, um zu überprüfen, ob der Endpunkt um die ähnliche benutzerdefinierte Nutzlast von diesem Endpunkt aus aufsteigt . Drittens können Sie nun auch ein überwachtes HTTP konfigurieren, um eine Verbindung über HTTP mit Ihren Endpunkten herzustellen. Dieser Monitor kann optional auch so konfiguriert werden, Ihren Endpunkten nach bestimmten Antworten von Ihren Endpunkten nach bestimmten Antworten oder Statuspunkten sucht. Als nächstes gibt es fünf Schritte, um Heartbeat zu installieren. Zuerst müssten Sie das Heartbeat Dash elastisches Paket installieren . Danach konfigurieren wir den Hybriddienst. Es wird metrische Köder konfigurieren, um unsere Heartbeat-Instanz zu überwachen. Viertens konfigurieren wir Monitore, nämlich SERDP, ICMP, TCP-Monitor. Schließlich haben wir begonnen, den Hybriddienst zu aktivieren. Lasst uns also nach links gehen. Nun, hier im Laborsystem, gemäß Anweisungen zum Installieren und Konfigurieren eines Heartbeat auf ALEKS auf der linken Seite. Und ich habe meine SSH-Verbindung und mache meinen ELK-Server auf der rechten Seite. Nun ist eine Sache zu beachten, dass wir Heartbeat in dieser Demo nur auf ALEKS installieren werden . Installiere Heartbeat. Das ist ein Typ in sudo apt-get update. Sudo apt-get install heartbeat. Sie sind tatsächlich elastisch und treffen Enter. Sobald Heartbeat installiert ist, konfigurieren wir den Heartbeat-Dienst. Wir müssen Sudo Nano-Schrägstrich, ETC Slash Heartbeat Slash Heartbeat oder PMA eingeben . In dieser YAML-Datei. Lassen Sie uns zuerst unten live konfigurieren. Ändern Sie das Lord-Punkt-Integral und wir belassen den standardmäßigen Nachladezeitraum auf fünf Sekunden. Danach. Lassen Sie uns zuerst alle Inline-Monitore auskommentieren. Weil Sie den Monitorspot verwenden um diese Monitore zu konfigurieren. Der Pfad ist Schrägstrich, ETC Slash Heartbeat Slash-Monitore in Richtung D und NAM und Datei innerhalb der Stelle. Sobald Sie alle Inline-Monitore aus dieser Heartbeat-Punkt-YAML-Datei kommentiert alle Inline-Monitore haben. Lass uns zu Taschen und Theatertasche gehen. Er hatte das Ziel als ELK angeben. Danach gehen wir weiter nach Kibana. Und im Kibana-Abschnitt werden wir den Host-Teil auskommentieren, aber wir belassen den standardmäßigen localhost 5601. Gehen wir nun zur Elastic Search-Ausgabe über und wir belassen den URLS-Standard localhost 90 auf 100, ändern das Protokoll STDP und geben die Authentifizierungsdetails an. nun nach der nächsten Aktion zum Logging-Bereich fort. Wir implementieren die Protokollierungsstufe. Heben Sie auch die Kommentarprotokollierungsselektoren auf, behalten Sie jedoch die Standardwerte für beide bei. Wissen Sie, ich kopiere diese Konfiguration aus meinen Anweisungen und geben Sie die Anmeldung an, um zu einer Datei zu wechseln. Dies ist konfiguriert, wir können jetzt als GDB-Überwachung für unseren Heartbeat Räucherstäbchen konfigurieren . Ich kopiere diese beiden Werte. Wenn Sie bemerken, dass wir Port 5069 für die Überwachung unserer Heartbeat-Instance verwenden , wird dieses Board danach in unsere Beta-erwarte-Konfigurationsdatei aufnehmen. Also lasst uns diese Akte vorerst. Lasst uns zuerst zu unserem Beat gehen. Schlagen. Oder sortierst du D? Und wir würden erwarten, dass AutoML-Lüfter die Überwachung auf Port 5069 konfiguriert. Er hatte ein Leiterkomma. Jetzt habe ich die URL http localhost 5069 gelernt. Ich kann diese Datei speichern. Jetzt zuerst Check Matrix, es läuft. Also Pseudosystem CTL, Status. Es wiederhole es. Atemberaubend. Nicht, lassen Sie uns auch noch einmal prüfen , ob wir erwarten würden, dass es aktiviert ist. Also Pseudoliste und Sie können sehen, dass Beta erwartet aktiviert ist. Das ist also alles gut. Lassen Sie uns jetzt alles klären und wir können mit Heartbeat unsensibel beginnen . Also Pseudosystem CTL, beginne Herzschlag elastisch. Lassen Sie uns zuerst den Status des Dienstes prüfen. Stellen Sie sicher, dass es läuft. Und jetzt ist es an der Zeit, Monitore zu konfigurieren. Um das zu tun. Gehen wir zuerst zu ATC, Hybrid-Monitor gespeichert. Hier. Sie werden sehen, dass einige Beispielüberwachungsdateien verfügbar sind. Benutze dies und passe sie an. Wer erstellt unsere eigenen Monitordateien? Zuerst tippe ich Sudo-Kopie ein, Beispiel, ICMP-Punkt-Yammer-Punkt deaktiviert, kopiere zwei Pi Sinus PWM. Jetzt mache ich einen Nano auf ICMP-Punkt YAML, um ICMP überwacht zu konfigurieren. Jetzt müssen Sie für unseren ICMP-Monitor zuerst die ID und den Namen ändern. Für Ausweis. Ich verwende den ICMP-Dash-Status als Name. Ich verwende die ICMP-Statusüberprüfung. Lassen Sie uns dies auskommentieren , um den Monitor zu aktivieren. Jetzt belassen wir den Zeitplan alle fünf Sekunden als Standard , damit unsere Hosts, die wir unter dem Hosts-Array angeben. Alle fünf Sekunden. Wir müssten hier eine Liste von Hosts angeben. Was ich jetzt mache, ist, dass ich zuerst die interne IP-Adresse unseres Webservers angeben werde. Dann nur um an der externen IP-Adresse unseres Webservers 193,68 Punkt auf Punkt neun zu demonstrieren , was die interne IP-Adresse meiner Hüften über einem Koma-Raum ist . Und ich kopiere die IP-Adresse meines Webservers nach hier. Was ich jetzt auch tun werde, ist, dass ich einfach eine öffentlich zugängliche externe IP-Adresse hinzufüge . Und diese Hybridisierung eines Punkt-Punkt-Treffers ist immer hoch nicht als nächstes entlastet den Modus als Standard, Sie können jetzt von IPV6 deaktiviert werden, aber lassen Sie es uns als Standard belassen. Sie können auch einen Diamanten angeben oder eine Rate wird in den Abschnitt Tag weiter gehen und DAG namens web aggregieren. Und jetzt können wir diese Datei speichern. Sobald dies erledigt ist, wir weiter und konfigurieren unseren PCP. Um Deck zu machen, kopieren wir einfach die Beispiel-TCP-Monitordatei. Pseudokopie gesampelter TCP-Punkt-Gmail-Punkt ist auf TCP-Punkt YAML deaktiviert. Und jetzt ändern wir dieses PC-Boot-RPM. Jetzt hier. Erstens müssten wir die Idee noch einmal angeben. Beginnen wir also, weil wir diesen Monitor verwenden, um den Status der SSH-Verbindung zu überprüfen und unter Name und Eingabe der SS-Statusüberprüfung. Nachdem dies aktiviert ist, belässt der Monitor seinen Zeitplan als Standardeinstellung fünf Sekunden. Und die Hosts habe ich die interne IP-Adresse meines Webservers angegeben. Erstens, geben Sie den Port an, also ist der SSH-Port 22. Jetzt kann ich entweder den Port hier angeben, Port eine Liste von Boards angeben. Wenn der Host unter der Option Ports keine Portnummer enthält . Dies sind also die beiden Stellen, an denen Sie Ports angeben können. Wir belassen alle anderen Werte als Standard. Eine Sache, die Sie beachten sollten, ist, dass Sie benutzerdefinierte Maler mit Scheck gesendet und empfangen verwenden können . Wir gehen zum Tag-Bereich über und fügen das Tag für europäisch hinzu. Und ich speichere diese Datei jetzt. Als Nächstes lassen Sie uns das Pseudobeispiel für den TV-Monitor kopieren. Http-Punkt YAML sind für Esther db.json deaktiviert SGD goo.gl, sudo nano dot YAML-Datei hier, ID Ich gebe Webstatus und Name an könnte Webdienstprüfung aktiviert sein Monitor. Und unter Hosts füge ich meine elastische und meine Kibana-URL hinzu. Danach muss ich eine Indikation angeben, da Sie erwarten auf unserem System konfiguriert haben . Ich war der Benutzername und das Passwort, elastisch und das Passwort für den Elastic Benutzer. Jetzt können wir die anderen Einstellungen verwenden, um eine benutzerdefinierte Statusüberprüfung oder eine benutzerdefinierte, auf diese Anfrage gemalt zu setzen. Aber wir belassen diese als Standard und gehen zum Tag-Teil über, geben an, dass sich die DAG angepasst hat, und wir heben dies auf. Und jetzt können wir diese Datei auch speichern. Bevor wir fortfahren, prüfen wir den Status unseres Heartbeat-Dienstes. Wieder einmal läuft es. Lasst uns jetzt zu unserer Kibana gehen, dieser Seite. Das erste, was zu überprüfen ist , wäre , dass Heartbeat als Stack-Überwachung erscheint. Also lass uns nach Hause gehen. Dann Stack-Überwachung. Klicken wir hier auf Demo und gehen wir zu Beats. Und wie Sie sehen können, haben wir einen Herzschlag und ein bisschen. Wir können auf Beat und dann auf Heartbeat klicken , um den Status unserer Hartholz-Instanz zu überprüfen . Jetzt müssen wir für die eigentlichen Monitore auf unsere Homepage gehen und uns dann unter Beobachtbarkeit bewerben. Hier können Sie nach allen Monitoren suchen, die nach oben oder unten sind. So wie es aussieht, sind alle unsere Monitore jetzt aufrecht. Sie können den Filter nach oben und unten verwenden , um nach einem bestimmten Status zu filtern, den Sie möchten. Oben rechts können Sie die Uhrzeit angeben. So können Sie beispielsweise angeben, ob Sie ihre Daten vor 15 Minuten oder 15 Tagen oder Stunden wünschen , Sie können auch die Zeitspanne angeben. Wie kann man ein absolut angeben. Jetzt können Sie auch nach Booten suchen. Wir haben drei Ports von 90 bis 22560001 konfiguriert. Für unsere Schecks. Sie können das Schema, ICMP oder UDP oder TCP angeben, um die Endpunkte herauszufiltern. Oder du suchst nach Tags. Wir haben ELK und Web-Tier-Tag. Es gibt also einen Klick auf die Webebene. Wenn Sie dies tun, sehen Sie nur die Monitore, die für dieses bestimmte Tag spezifisch sind. Damit kommst du zum Ende dieses Videos. Danke fürs Zuschauen. Wir sehen uns im nächsten. 26. Auditbeat: Hey Leute, In diesem Video installieren und konfigurieren wir Audit V8. Audit-Bit ermöglicht es Ihnen, Benutzeraktivitäten und -prozesse in Ihrem Linux-System zu überwachen Benutzeraktivitäten und -prozesse in Ihrem Linux-System kommuniziert direkt mit dem Linux-Audit-Framework. Und seit den Daten, die es für die elastische Suche in Echtzeit gesammelt hat . Das sind vier Schritte zur Installation und Konfiguration unseres Lastschriftendienstes. Zuerst installieren wir das Audit-Bit. zweite Woche hat ein wenig konfiguriert und die drei Modelle konfiguriert , die im Audit V8-Dienst verfügbar sind. Derzeit sind diese Module Audit D, Dateiintegrität und System oder do. Danach konfigurieren wir die Metrik, um das Audit zu überwachen, welcher Dienst? Schließlich starten und aktivieren wir den Audit Beach Service. Nun ist eine Sache zu beachten, dass es keine Option zum Laden der Bibliothek gibt, um sich zu treffen. Bevor wir zum Laborsystem wechseln, schauen wir uns jedes dieser Module einzeln an. Und zuerst schauen wir uns das Kuriositätsmodul an. Das Modul erhält Audit-Ereignisse aus dem Linux-Audit-Framework, das Teil des Linux-Kernels ist. Was es tut, ist, dass es ein Abonnement die Ecke erstellt, um Audit-Ereignisse zu erhalten, während sie auftreten. Eine Sache zu beachten ist , dass Sie möglicherweise andere Dienste beenden müssen , die auf Ihrem System ausgeführt werden , z. B. Und im Allgemeinen gibt es zwei verschiedene Arten von Regeln, die Sie innerhalb des Moduls konfigurieren können, damit dieses Modell funktioniert gibt es zwei verschiedene Arten von Regeln, die Sie innerhalb des Moduls konfigurieren können, damit . Die erste Regel ist ein Dateisystem. Was diese Regel bewirkt, ist, dass sie den Zugriff auf eine bestimmte Datei oder ein Verzeichnis überwacht . Stellen Sie sich vor, dass Sie diese bestimmte Datei beobachten . Sie werden also benachrichtigt , wenn auf die Datei zugegriffen oder geändert wird. Die Syntax dieser Regel ist minus W-Pfad zu der Datei, die Sie benötigen, um die Uhr auf minus p zu setzen . Welche Berechtigungen wie Lesen, Schreiben, Ausführen, minus kx, ky name. Der nächste Regeltyp, den Sie konfigurieren können , ist ein System namens Regel. Was diese Regel bewirkt, ermöglicht es die Protokollierung von Systemkosten, die jedes bestimmte Programm macht. Die Syntax dieser Regel ist minus eine Aktion, die immer oder nie sein könnte. Dies wäre Aufgabe außer Benutzer oder Ausschluss, gefolgt von einem Systemaufruf, der durch seinen Namen angegeben wird. Und schließlich können Sie Feld und Wert verwenden, um die Regel weiter so zu ändern , dass sie Ereignissen basierend auf bestimmten Dingen wie Architektur, Gruppe ist die Prozess-ID usw. übereinstimmt bestimmten Dingen wie Architektur, . Dateiintegritätsmodul und dem Integritätsmodul erkennen Ereignisse wenn eine Datei geändert wird, was bedeutet, wenn eine Datei erstellt oder aktualisiert oder auf der Festplatte gelöscht wird . Dies geschieht, indem Sie ein Abonnement mit dem Betriebssystem erstellen , um Benachrichtigungen über Änderungen an bestimmten Dateien oder Verzeichnissen zu erhalten. Nun, wenn Sie dieses Modul zum ersten Mal starten, führt es einen ersten Scan aller von Ihnen konfigurierten Pfade durch. Und dann überwacht es diese Pfade, um Änderungen zu erkennen , seit Sie das Ausführen dieses Moduls verloren haben. Es verwendet lokal persierende Daten, um nur Ereignisse für neue oder geänderte Dateien zu senden . Werfen wir danach einen Blick auf das System oder das duale System oder sammeln verschiedene sicherheitsrelevante Informationen über ein System. Datensätze senden sowohl periodische Informationen, z. B. einen Status der aktuell laufenden Prozesse als auch Echtzeitänderungen. Wenn beispielsweise ein Prozess jeden Datensatz startet oder stoppt, werden Statusinformationen regelmäßig gesendet und auf dem Systemstart gestartet und können gesteuert durch Verwendung einer Konfiguration namens State DOT-Periode. Ereignisinformationen werden gesendet, wenn das Ereignis eintritt. Zum Beispiel, wenn Sie einen Prozess starten oder beenden. für Ereignisinformationen oder Verwenden Sie für Ereignisinformationen oder Datasets das Bone-Modell, um diese Daten abzurufen. Die Häufigkeit der Umfragen kann durch den Parameter der Periodenkonfiguration gesteuert werden . Lasst uns nun zum Laborsystem übergehen. Hier auf meinem Laborsystem habe ich die Anweisungen zum Installieren und Konfigurieren Audit Big auf EHS auf der linken Seite. Und auf der rechten Seite habe ich meine SSH-Verbindung zum EHS, unsere erste müssten wir Audit-Leute installieren, um das zu tun. Geben wir sudo apt-get ein, installieren Sie es besser. Nun sollten Sie sich daran erinnern , dass wir dies tun können , weil wir alle Voraussetzungen erfüllt haben, um ein elastisches Suchrepository, den Signaturschlüssel und den Apigee-Transport als GTPase hinzuzufügen den Signaturschlüssel und den Apigee-Transport als Paket auf diesem System bereits, als wir die Installation der elastischen Suche durchgeführt haben. Wenn Sie das nicht getan haben, können Sie diesen Schritt nicht ausführen. Sie müssten also zu dem Schritt zurückkehren, in dem wir Elastic Search installiert haben , und diese Voraussetzungen auf diesem Computer tragen. Jetzt, nachdem die Auditability installiert ist, können sie Sudo Nano-Schrägstrich ETC eingeben. Slash-Audit V8 Slash-Audit mit Dot Yammer. Öffnen Sie die Konfigurationsdatei für das Prüfgebot. Jetzt werden wir in dieser Datei als erstes die Module konfigurieren. Also werden wir zuerst das Modul konfigurieren. Gehen wir runter und Sie werden sehen, dass es einen Abschnitt namens Identitätsänderungen gibt. In diesem Abschnitt können Sie Firewall-Regeln einführen, die Dateien wie die Gruppe nach WD und G Shadow File ansehen. Sie können entweder, ich komme dies, um diese Regeln zu aktivieren, fügen wir eine benutzerdefinierte Regel hinzu, um unsere Elasticsearch- und Kibana-Konfigurationsdateien zu beobachten . Ich hab die Regel hier. Minus w FASTA-Datei ist Plots auf die Elasticsearch Kurzdurchmesser fünf minus b für Berechtigungen und dann sind Berechtigungen WA, und dann ist der Schlüssel Änderungen. Kopieren wir einfach diese beiden und fügen sie hier ein. Für Schlüssel. Es sei denn, es ist auch aktiviert diese Regeln. Jetzt können wir auch auf unbefugte Zugriffsversuche auf unser System achten . Verwenden wir dazu also eine Standardregeln. Als Nächstes konfigurieren wir das Motiv der Dateiintegrität. Jetzt werden Sie unter Dateiintegrität sehen, dass es einige Pfade gibt die bereits konfiguriert sind, z. B. verwendet wurden, sbin oder cetera sind. Fügen wir nun unsere benutzerdefinierten Teile für Elasticsearch und Kibana hinzu. Kopieren Sie also Einfügen. Danach möchte ich Ihnen als Nächstes zeigen dass sie möglicherweise schnell sind, dass Sie den Pfad, den Sie unter dem Modul Dateiintegrität angeben, nicht überwachen möchten den Pfad, den Sie unter dem Modul Dateiintegrität angeben, nicht überwachen . Sie können diese Dateien ausschließen, indem Sie die ausgeschlossene Unterstrich-Datei verwenden. Zweitens kopiere ich diese Einstellung einfach und füge sie in diese Datei ein. Was diese Einstellung jetzt tut, ist, dass sie nach einem Dateinamen oder einem Back-End für diesen Dateinamen sucht einem Back-End für diesen Dateinamen und diese Dateien vom Waschen ausschließt. Ich habe ein Experiment verwendet , das die Referenzdateien ausschließt. Daher wird die Elasticsearch-Kurz-Referenz- oder Metrik-Referenzdatei überwacht. Werfen wir als Nächstes einen Blick auf dieses Systemmodul. Es gibt zwei Arten von Informationen, denen Sie Daten vom System abrufen oder tun können. Erstens sind die Ereignisinformationen. Dies könnte etwa sein , welches Paket bereits auf Ihrem System installiert oder entfernt oder aktualisiert wurde. Die Häufigkeit des Monitors, diese Entzündung kann mithilfe der Einstellung Perioden geändert werden . Derzeit ist der Standardwert auf zwei Minuten eingestellt, lassen Sie es uns also dabei belassen. Zweitens können die Informationen zur Statusinformationsstufe standardmäßig auf Dinge wie Host-Anmeldung, Prozess, Socket und Benutzer überwacht werden . Und diese Entzündung kann standardmäßig für eine Häufigkeit von 12 Stunden gesammelt werden, aber dies kann geändert werden, indem der Wert der State Dark Periode geändert wird, wo dies der Fall wäre, aber wir belassen sie als Standard bei groß. Jetzt leben wir den Rest der Einstellungen als Standard und gehen zu den allgemeinen Einstellungen fort. Zuerst. Konfiguriert, eine DAG. Also Eier, ich werde es auskommentieren und ein Tag namens ELK hinzufügen. Als Nächstes. Unter Dashboards aktiviere ich die Standard-Dashboards. Danach. Gehen wir weiter zur Sektion Kibana. Er hatte die Host-URL nicht festgeschrieben gelassen. Danach gehen wir zur Elasticsearch-Ausgabe über. Und ich komme Protokoll und ändere den Protokollwert so, dass er als UDP ist. Als Nächstes fügen wir Authentifizierungsdetails der Elastic Benutzer hinzu. Danach konfigurieren wir die Protokollierung. Also werde ich das Kommentieren der Protokollierungspunktebene auskommentieren, belasse sie aber als Standard-Debug-Befehl , der Punktselektoren protokolliert, und belasse sie wieder als ganze Selektoren als Standard. Jetzt konfigurieren wir die Protokollierung als Datei. Kopieren Sie diesen Abschnitt und fügen Sie ihn hier ein. Jetzt, nach diesem Testergebnis heruntergefahren und das HTTP-Monitoring konfigurieren. Kopieren wir diese Einstellungen. Stdev-Punkt aktivierte einen zusätzlichen Grad-Punkt-Anschluss. Für den Audit-Beat konfigurieren wir den Monitoring-Port auf 5068, denn wenn Sie sich erinnern, wird 5067 von File Beat in dieser Demo verwendet. Jetzt können wir diese Datei danach nicht speichern. Überprüfen wir zuerst, ob wir erwarten würden, dass das Modell in meinem Attribut aktiviert ist. Also sudo-Pip-Liste. Sie können sehen, dass BTEX back aktiviert ist. Die Oper lässt mich einfach alles klären. Jetzt. Es wurde die modulare Redex-Konfigurationsdatei bearbeitet. So Sudo Nano Slash ETC Schrägstrich, Slash-Modul-Sort D Schrägstrich erwartet werden oder TML. nun in dieser Datei Fügen wir nun in dieser Datei das Marketing für den Host hinzu. Nach dem Ausmaß der Entzündung für die Datei tippe ich http, localhost 68 ein. Jetzt speichern wir das einfach. Danach können wir geordnete Bit-Pseudosystem CTL, Start oder Deadbeat starten. Lassen Sie uns nun nach dem Status was wir als Servicestatus hatten. Jetzt ist dies aus irgendeinem Grund gescheitert. Lassen Sie uns also zuerst eine gute Vorstellung davon untersuchen, was wir uns die eingegebenen Informationen ansehen und sicherstellen , dass die Syntax korrekt ist. Also sudo, nano, ETC slash Audit Bit Slash Audit Beat oder GVO. Jetzt sieht es so aus, als würden falsch konfigurierte Dateien ausgeschlossen werden. Lassen Sie uns also einfach ein paar Leerzeichen setzen , die dem Shamatha-Index folgen. Es gibt einfach diese Datei speichern. Und lassen Sie uns einfach versuchen , unser Audit neu zu starten. Welcher Service? Also Pseudosystem CTL, starte Beat. Lassen Sie uns jetzt einfach noch einmal einen Status machen, um zu sehen, ob er aufgetaucht ist. Jetzt sieht es so aus, als wäre das Problem und ungeordnet welcher Dienst läuft nicht? Gehen wir zu unserer Kibana-Instanz über , um einige Dashboards zu sehen , die sie standardmäßig für uns erstellt hat. Lassen Sie uns nun zuerst zur Stack-Überwachung wechseln , Demo ELK. Lass uns zu Beats gehen. Und Sie können sehen, dass wir hier ein Audit mit Service haben. Jetzt. Wir können auf Weizen klicken und dann auf den bestellten Zimmerservice klicken. Suchen Sie nach einigen Informationen zum Audit V8. Wir können zu Home und dann zu Dashboard gehen. Jetzt können wir hier eines dieser Audit-Bit-Dashboards öffnen. Öffnen wir einfach das Dashboard für die Dateiintegrität. Jetzt ist dies ein Beispiel-Dashboard , das wir aus dem Audit V8 herausholen können. Sie können sehen, dass die anfängliche Scananzahl 1043 betrug. Sie können sehen, wann der erste Scan durchgeführt wurde. Besitzer und Gruppen für unsere Dateien, die Datei, die durch die Dateianzahl am meisten geändert wurde, einige Dateiereignisse von jemandem. Lassen Sie uns danach weitermachen und schnell das Audit konfigurieren. Warte auf unseren Webserver. Jetzt habe ich hier im Laborsystem die SSH-Verbindung in meinen Webserver. Also tippe ich sudo apt-get install ein. Lassen Sie uns danach schnell konfigurieren. So sudo nano slash Slash Audit Slash Audit Slash Audit mit Punkt YAML. Jetzt fügen wir die Datei-Watches hinzu, nicht auf dem Webserver. Was wir tun werden, ist, dass wir keine Modifikationen von Elasticsearch und Kibana haben. Also habe ich diese Regel gerade kopiert. Dann. Ich ändere es für meine metrischen Beat - und Datei-Beta-KML-Dateien, speichere es hier. Und ich habe die Vergangenheit in Datei von Elastic Search zu ETC geändert . Schrägstrich. Der Schlüssel wurde geändert, um Änderungen zu sein. Ich kann das kopieren und hier einfügen und Änderungen an Datei-Videokameras ändern. Also Slash Slash Slash Slash Datei bessere Kamera. Da es sich um eine wichtige Datei handelt, die Sie vielleicht auf diesem Silber ansehen möchten , wäre Ihr Apache-Web. Mehrere Dateien können wir dasselbe kopieren und den Pfadschrägstrich ändern den Pfadschrägstrich www dot slash HTML Slash index.html. Und wir ändern den Schlüssel Bu Epsilon. Danach. Gehen wir zum Dateiintegritätsmodul über. Hier. Ich wollte diesen WWW-Schrägstrich HTML. Jetzt müssen wir keine Änderungen am System vornehmen oder tun. Lasst uns nun zu Eiern und Agenda übergehen. Hier entkommentieren x Einstellung. Und lassen Sie uns das Tag für Web-Ebene hinzufügen , aktiviert die Standard-Dashboards. Gehen wir nun die Hosts herunter und fügen die IP-Adresse meines AKS hinzu, unseren 192 Punkt 0,68 Punkt ein Punkt 34. Und lasst uns das Gleiche für Kunststoffe testen. Eine solche Ausgabe hat das Protokoll oder Jüdisch oder DB geändert. Und fügen wir das Passwort hinzu, gehen Sie weiter nach unten und fügen Sie die Protokollierung hinzu. Lassen Sie uns schließlich konfigurieren, erwarten Sie eine wunderbare Sache. Speichern Sie diese Datei nicht unbedingt und fügen Sie nicht als nächstes die überwachende Entzündung hinzu, die wir erwarten würden. So Sudo Nano Slash Slash Slash Slash, verzerrter d Slash b zu erwarten. Diese Datei erneut, Kommageraum http localhost 5068. Jetzt können wir diese Datei auch speichern. Jetzt fangen wir an. Also Pseudosystem CTL. Stammbaum beginnen. Lassen Sie uns nach dem Status eines Neustartservers suchen. Also Pseudosystem CTL-Status oder sie wurden ausgeführt. Gehen wir zurück zu unserer Kibana-Instanz. Jetzt hier, ihre Punktzahl, um einen zu stapeln oder zuerst zu bekommen, und klicken wir darauf. Und hier sehen Sie, dass wir Gewichte prüfen müssen. Sie können jetzt auch zum Dashboard gehen und dieses Mal ein anderes Dashboard auswählen. Wählen wir einfach das Dashboard für die Systemübersicht aus. Dieses Dashboard gibt Ihnen einen Überblick über Ihre Umgebungen wie Anzahl der Hosts in Ihrer Umgebung, Anmeldeanzahl, Anmeldeaktionen, Benutzeränderungen nach der Verteilung, Prozessstarts und Stopps, Sockets, geöffnet und geschlossen, Paketänderungen usw. Sie können Ihre Systemereignisse auch unten rechts auflisten . Nun, was ich möchte, dass Sie danach das Audit Beat auf dem Webserver installieren , um auch andere verfügbare Dashboards und Dashboards für Audit Beat zu erkunden andere verfügbare Dashboards und Dashboards für Audit , um zu sehen, welche Art von Informationen, die Sie aus diesem Service abrufen können. Damit kommen wir zum Ende dieses Videos. Danke fürs Zuschauen. Wir sehen uns im nächsten. 27. Packetbeat 7: Lassen Sie uns in diesem Video besprechen, wie Sie Paket-Bit installieren und konfigurieren können , um den Netzwerkverkehr zwischen Ihren Anwendungen zu überwachen . Packet ist ein Echtzeit-Netzwerkpaketanalysator , den Sie mit Elastic Search verwenden können , um ein Anwendungsüberwachungs- und Performance-Analysesystem bereitzustellen ein Anwendungsüberwachungs- und . Es erfasst den Netzwerkverkehr zwischen Anwendungsservern. Und es dekodiert die Anwendungsschicht-Protokolle wie HTTP, MySQL usw. Sie können es wieder auf demselben Server bereitstellen, auf dem sich Ihre Anwendungen befinden, oder ungeklärter jemandem in einer Cloud-Umgebung weil sie unterstrichen haben, dass Netzwerkgeräte Ihnen nicht ausgesetzt sind. Es ist schwer, Packet Break Hunderte für jemanden bereitzustellen. In dieser Demo werden wir die Paketrate auf unserem Webserver bereitstellen und unseren HTTP-Datenverkehr mithilfe der Paketrate überwachen. Es gibt vier Schritte, die wir wieder bereitstellen müssen, und zuerst werden wir Packet Week installieren. Zweite Woche konfigurieren Sie die Paketrate und konfigurieren Sie Traffic Sniffer und Desktop-Flows für unser Bucket-Repository. Wir werden die Metrik konfigurieren. Wir haben das Paket überwacht. Und schließlich starten und aktivieren wir das Paket. Lasst uns zu unserem Laborsystem übergehen. Hier auf der linken Seite habe ich die Anweisungen zum Installieren und Konfigurieren Paketbits auf dem Epsilon, auf der rechten Seite habe ich meine SSH-Verbindung und morgen 1. Oktober, nächstes Installationspaket bewerten. So können wir sudo apt-get install package eingeben und Enter drücken. Sobald das Paket installiert ist, können Sie es auf die nächste erste CD konfigurieren und den Schrägstrich, das ETC-Schrägpaketbit drucken . Wenn ich hier ein ls mache, werden Sie sehen, dass ich mein Paket habe, lese die Referenzdatei, lese die Referenzdatei, die ich verweisen kann, wenn ich meine Paketinstallationskonfigurationsdatei konfiguriere, die Paket ist mit Punkt YAML. Lass uns Sudo machen. Zahl. Könnte schmutzig sein Emma. In dieser Datei muss ich als erstes die Netzwerkschnittstelle konfigurieren , von der ich Daten schnüffeln möchte. Linux-Maschinen. Habe einen Wert von irgendeinem, was bedeutet, diesen Datenverkehr von der gesamten verbundenen Schnittstelle zu schnüffeln. Oder Sie können eine bestimmte Netzwerkschnittstelle angeben , um nur auf dieser Schnittstelle perfekt auf das Netzwerk abzielen zu können. Jetzt belassen wir es als Standard und es ist als nächstes bei Paketflüssen standardmäßig aktiviert. Für deaktivierte Flows können Sie aktiviert als false und Flow-Konfiguration festlegen , um sie zu deaktivieren, aber wir lassen es aktiviert. Und jetzt ist es an der Zeit, die Protokolle zu konfigurieren , für die wir Netzwerkflüsse überwachen möchten. Jetzt steht das unter den Paket-Bedard-Protokollen. Jetzt werden wir hier Netzwerktools für ICMP, IPv4, DNS, ein deaktiviertes HTTP überwachen . Der Rest der Flows muss sie kommentieren. Das mache ich jetzt. Nun ist zu beachten, dass der Sportplatz verwendet wird , um die Ports zu konfigurieren, für die Sie die Flussinformationen für Ihren Webserver überwachen möchten möglicherweise auf einem anderen Porttest ausgeführt werden von einem dieser Standardports aus. Beispielsweise läuft Ihr Webserver möglicherweise auf Port 8.001. Flow für Ihr Webserver-Indexszenario müssen Sie entweder hierher kommen und Ihr spezifisches Board wie folgt hinzufügen und auch den Rest löschen. Da wir auf Port 80 laufen, bewegen sie alle anderen Ports. Und ich gehe jetzt zum nächsten Abschnitt über, der Geschlecht ist. Hier. Ungewöhnliche Schlagworte. Und ich lasse die Tags erscheinen. Danach richten wir ein paar Dashboards ein. Konfiguriert, Setup-Punkt-Dashboard Sortierung ist als wahr aktiviert. Lassen Sie mich das also zuerst auskommentieren und dies auf wahr setzen. Aktiviert Standard-Dashboards für Paket mit Kibana-Instanz. Danach müssen wir Kommentar nach der Sitzung für Kibana aufheben und die URL korrigieren. Dies ist die interne IP-Adresse unserer Standardinstanz. Wenn Sie 168 Punkt mp4 machen. Danach gehen wir mit der Ausgabe über. Und die Ausgabe, als erstes müssen wir die URL für meine elastische Ausgabe korrigieren , Abschnitt 921681 Punkt 34, die interne IP meiner ELK-Instanz ist. Als Nächstes konfigurieren wir unter Protokoll das Protokoll als STDP. Danach müssen wir Authentifizierung, Elastic User und Passwort einrichten . Lassen Sie uns als Nächstes die Protokollierung einrichten, Protokollierungsstufe aufheben, aber lassen Sie es wie zuvor, debuggen Sie die Logging-Selektoren, aber belassen Sie sie als Standardstern, was bedeutet, dass alles Es gibt gewisse Google-Datei. Ich muss diese Konfiguration kopieren und hier einfügen. Was diese Konfiguration macht, ist, dass sie die Protokollierung ermöglicht an eine Datei gesendet wird. Dann geben wir die Parameter für die Datei an, die verwendet werden muss, z. B. den Pfad der Datei, die Anzahl der zu behaltenden Dateien und die Berechtigungen für diese Datei. Nach dieser Vorlesung sollte das Setup durch metrische Perle überwacht werden. Kopiere diese beiden Chirurgen und füge sie hier ein. Jetzt ermöglicht die erste Einstellung, dass HTTP trinken möchte, und die zweite Einstellung. Das könnte sein, welchen Port es für zentrale Überwachungsdaten benötigt. Was wir tun werden, ist, dass wir diesen Port in unserer Beat erwarteten Datei konfigurieren werden, ist begrenzt. Also lasst uns diese Datei speichern. Danach. Lassen Sie uns unsere Expertenfonds bearbeiten. So erwarten Sudo, Nano Slash, ETC Slash Retributive Modelle sicherlich. In dieser Datei und im Host-Bereich müssen wir die URL für unser Paket hinzufügen, das militärische Komma Space Anführungszeichen http localhost liest . Im Cortex Teil 070. Ich kann das retten. wir danach zuerst, Überprüfen wir danach zuerst, ob das metrische Gewicht läuft. Also Pseudosystem CTL-Status. Jetzt läuft das. Beginnen wir jetzt unser Paket mit einer Instanz. Also beginnt das Pseudosystem CTL. Lassen Sie uns einen Status für Paketbits machen. Status der Pseudozyste zu CTL läuft also reibungslos. Kibana UI, um einige der Leute anzusehen , sind Dashboards , die durch Paket erstellt werden. Von der Homepage meiner Kibana-Benutzeroberfläche. Ich gehe zuerst zur Speisekarte. Ich stempel es auf. Er war unrein. Gehe zu Abschnitt vier Beats. Und ich kann sehen, dass es ein Beat-Board-Paket mit gibt, damit ich auf Beats klicken kann. Klicken wir auf das Optimale. Ich könnte lesen. Sie können sehen, dass es einige Daten empfangen hat. Zu unserer Backend-Instanz. Schauen Sie sich einige Dashboards an, die von Paket für uns erstellt wurden von Paket für uns erstellt wurden in unserem Experten-Dashboard für Kibana UI. Hier. Tippen wir ein Paket ein. Dann klicken wir auf das Dashboard, das besagt, dass ich lesen könnte, wie das BIP ist, ja. Dieses Dashboard bietet Ihnen jetzt die STDP-Transaktionen, z. B. Anzahl der Transaktionen, Schichten, Scores und Berichte, Doktrin-Verlauf, DB-Anfragen usw. Ebenso können Sie sich auch das Netz ansehen ärzte. Und hier können Sie Verbindungen im Laufe der Zeit von Beiträgen sehen , die Traffic, Posts, Empfangen von Datenverkehr und Netzwerkverkehr zwischen Hosts erstellen . Dns voller Ansicht, Sie können einige DNS-bezogene Daten abrufen. Zum Beispiel fragt DNS-Abfrage von jemandem in seinen Anfragen im Laufe der Zeit, die Fragetypen in seinen Client- und Server-IPs, häufig Fragen für DNS. Als Nächstes können Sie sich auch ansehen, ob CPS-Transaktionen. Sie können Hals- und Rückgangszahlen, Transaktionsanzahl, leere Spalten, Datenübertragung, Streifen sehen, einfach im Laufe der Zeit eingeben. Jetzt ist dies der Pol Ihres Armaturenbretts. Kann sich Kunden ansehen , die versuchen, bei ihren Transaktionen auf Ihre Websites zuzugreifen. Transaktionen, Transaktionstypen, Reaktion im Laufe der Zeit, Perzentile der Reaktionszeit, Fehler im Vergleich zu erfolgreichen Transaktionen Bedingungen, die sie nicht gesucht haben usw. , Bedingungen, die sie nicht gesucht haben usw. Was ich möchte, dass Sie danach tun möchten, dass Sie um sie auf dem Webserver bereitzustellen. Das wird zum Ende dieses Videos kommen und du siehst dir an, wir sehen uns im nächsten. 28. So bereitest du einen multi ein: Hey Leute, In dieser Vorlesung erstellen wir einen 3-Node-Elasticsearch-Cluster mit zwei Knoten Master berechtigt sind, um unsere Kibana-Anwendung auch auf eine eigene Instanz zu trennen . Die Kommunikation zwischen elastischen Suchknoten wird über SSL erfolgen und die Kommunikation zwischen Kibana und unserem Elasticsearch-Cluster wird über HTTPS erfolgen. Nun, hier sind ein paar Schritte. Zuerst werden wir drei Elasticsearch-Knoten auf unserem GCP-Testkonto erstellen . Dann erstellen wir auch eine Kibana-VM auf unserem GCP-Testkonto. Danach installieren wir Elastic Search, alle drei Elasticsearch-Knoten und installieren Kibana auf eigener Last. Dann generieren wir eine elastische Suchzertifizierungsstelle und erstellen alle Zertifikate. Dies liegt daran, dass wir selbstsignierte Zertifikate verwenden werden. Wenn Sie dies nicht möchten, können Sie Anfragen zur Zertifikatsignierung generieren und die Zertifizierungsstelle Ihres Unternehmens oder eine öffentliche Zertifizierungsstelle erhalten Ihres Unternehmens oder eine öffentliche Zertifizierungsstelle , um Ihnen die Zertifikate für Ihren Cluster zu geben. Sobald Sie die Zertifikate haben, werden diese Zertifikate an alle Knoten verteilt. Dann konfigurieren wir Elasticsearch und Kibana. Und schließlich stellen wir sicher, dass Elasticsearch-Knoten dem Elasticsearch-Cluster beitreten und der Kibana-Knoten über HTTPS mit Elastic Search kommunizieren kann . Lasst uns also anfangen. Wie ihr sehen könnt, befinde ich mich auf meiner Compute Engine-VM-Instanzen Seite. Hier. Ich klicke auf Instanz erstellen. Ich klicke auf Neue Frauen aus Vorlage, wähle ELK-Vorlage aus und klicke auf Weiter. Ich ändere die Region in US West One. Ich behalte den Namen als ELK One. Und ich gehe zum Netzwerkbereich, erweitere dies und erweitere es dann. Ich werde sicherstellen, dass diese VM eine elastische Such-VPC ist und das Subnetz überwacht. Und danach klicke ich auf Create. Sobald diese VM erstellt wurde, kann ich zwei weitere erstellen. Sobald ich die drei elastischen Suchinstanzen erstellt habe, klicke ich erneut auf die Schaltfläche „Instanz erstellen “, um endlich meine Kamera-Instanz zu erstellen Ich klicke auf VM-Instanz aus Vorlage und verwende erneut meine ELK-Vorlage und klicke hier weiter, ich ändere den Namen in Kibana, ändere die Region erneut in Networking. Stellen Sie sicher, dass es sich im Überwachungssubnetz befindet, und klicken Sie auf Erstellen. Schließlich habe ich meine drei Elasticsearch-Instanzen und meinen Kibana-Räucherstäbchen bereit als nächstes testen wir die Konnektivität zu allen von ihnen. Was ich mache, ist, dass ich zuerst auf diese drei Zeilen klicke , um die Spaltenanzeige zu ändern. Ich will keine Zonen, weil ich den ganzen Zonensatz kenne. Ich möchte keine Empfehlungen verwenden, und ich klicke auf Okay, jetzt ändere ich die Größe meines Browserfensters, um mein Terminal aufzurufen. Jetzt habe ich mein GCP-Testkonto, die linke Seite und mein Terminal für Mac auf meiner rechten Seite. Und ich überprüfe die Konnektivität von meinem Mac zur externen IP-Adresse meiner GCP-Instanzen. Also tippe ich SSH-Bereich ein, labriere es unter und kopiere dann die externe IP und füge ein und drücke Enter es. Ja, ich kann mich bei der ersten Instanz anmelden . Dann öffne ich einen neuen Tab mit Profilbasic. Hier tippe ich das SSH-Labor ein, dann das zusätzliche Licht, das wir haben die zweite Instanz und es tritt ein, ja, dasselbe. Ich füge einen weiteren Tab hinzu, SSH , labriere es unter und kopiere dann die IP-Adresse der nächsten Instanz. Ja. Schließlich kopiere ich die externe IP der Mikrobiologie-Instanz, öffne einen neuen Tab und mache SSH-Labor Bit und füge es hier ein. Es hat Jahre gedauert und jetzt kann ich mich mit allen verbinden. Also minimiere ich das und wir beginnen mit der Konfiguration unserer Instanzen. Zuerst müssen wir Elastic Search auf allen R3, drei Elasticsearch-Instanzen, installieren . Also mach bitte weiter und du kannst die gleichen Schritte ausführen, die ich dir in einer Bereitstellung mit einem einzigen Knoten gezeigt habe . Konfigurieren Sie den Elastic Search Dot YAML noch nicht, installieren Sie ihn einfach und kommen zurück und ich mache dasselbe für diese Instanzen. Nachdem Sie Elastic Search auf allen drei Elasticsearch-Notizen installiert haben , ist es an der Zeit, Kibana auf dem Kibana-Knoten zu installieren. Ich habe den öffentlichen Signaturschlüssel bereits installiert und speichere diese Verzeichnisdefinition. Alles, was wir auf dieser Instanz tun müssen, ist sudo APT Update und End zu bekommen. Sudo APT holt Kibana installieren und Enter drücken. Wie Sie sehen können, wurde Kibana erfolgreich auf diesem Computer installiert, nachdem Gibbon nicht gespeichert wurde. Was ich mache, ist, dass ich zum Visual Studio Terminal gehe , damit ich meine Notizen referenzieren kann während ich die Dienste konfiguriere. Hier auf dem Bildschirm habe ich mein Visual Studio-Code-Fenster geöffnet mit meinen Notizen auf der linken Seite und dem Terminal auf der rechten Seite und oben. Ich habe dieses Plus-Symbol verwendet, um vier Registerkarten zu erstellen jeder in meine individuelle Ladung des GCP-Kontos. Also beginnen wir zuerst mit der Konfiguration der ELK One Maschine. Hier. Ich werde sudo VI Slash, ETC, Slash Elastic Search Schrägstrich elastisch search.html machen. Vernichten Sie ein. Ich gehe in Insert. Und das erste, was ich tun muss, ist, dass ich einen Namen für meinen Cluster einrichten muss. Dies muss auf allen meinen letzten Anstrengungsknoten gleich sein oder den Demo-Unterstrich ELK einschränken. Als Nächstes gebe ich diesem Knoten einen Namen. Ich nenne diesen Knoten ELK eins. Wir können den Pfad zu Daten und Log-Verzeichnis gleich behalten , das ist in Ordnung. Als nächstes gehe ich ins Netzwerk und ändere den Netzwerkpunkt-Host-Wert auf 0. Punkt 0 ist 0. Als Nächstes werde ich STDP-Punkt-Port auskommentieren. Als Nächstes müssen wir die Seed-Hosts für unseren Cluster angeben . Dies sind die ersten Hosts. Was hier unseren Cluster bilden wird, gebe ich die private IP-Adresse aller meiner Elastic Search-Knoten ein. Wenn ich in meine GCP-Konsole gehe, sind die privaten IPs 192.6781681. Also das gehen wir hier rein. Nachdem wir Seed-Hosts bereitgestellt haben, müssen wir angeben, welche Knoten berechtigt beherrscht werden können. Wir möchten, dass ELK Wonder Neil K2 für den Meister berechtigt ist. Also das gehen wir hier rein. Ich tippe EL k1 und k2 ein. Das ist alles für diese Akte. Im Moment kann ich ihm ein blaues Ausrufezeichen speichern. Sobald ich das getan habe, muss ich zur Benutzerfreigabe von Elastic Search gehen und jetzt einmal im Bin bin, wir können ein ls machen und Sie werden sehen, dass es ein Dienstprogramm namens Elastic Search gibt dash 30 Hotel. Wir werden damit zuerst eine CA erstellen und dann einige Zertifikate für eine Replikation generieren Diese Zertifikate sind selbstsignierte Zertifikate. Also lasst uns zuerst anfangen, wir müssen einen Seher generieren. Tun Sie das, wir geben Sudo-Punkt-Schrägstrich Elastic Search Dash sagittal ein. Und um einen Seher zu generieren, lautet der Befehl C und wir drücken Enter. Wir können die Standardeinstellungen und kein Passwort für den CEO beibehalten. Dieser Dateipunkt p12 ist zum Teil die Benutzerfreigabe Elastic Search. Also mache ich hier ein LS, um sicherzustellen , dass diese Datei da ist, da ist sie. Jetzt wird CFI IS generiert. Wir müssen jetzt die SSL-Zertifikate generieren , die von Elasticsearch-Lasten verwendet werden sollen. Was wir tun werden, ist, dass wir wieder hineingehen und ich drücke den Pfeil nach oben , um zu meinem Elastic Search Utility-Befehl zu gehen , entfernt CA, und dieses Mal gebe ich Insert ein, weil ich generieren wollte zertifikate. Und um die Zertifikate zu generieren, muss ich eine CA bereitstellen, ich gebe Dash, Dash C ein, und wir kopieren den Namen unserer CAP 12-Datei und legen sie hierher, da die Datei für den Speicherort bleibt. Wir müssen keinen vollqualifizierten Weg in Richtung angeben und ich drücke Enter, wenn es nach einem Passwort für ca fragt Wir haben bei der Generierung des CS keines angegeben, also ist es in Ordnung, wir können Enter drücken. Jetzt akzeptieren wir auch Standardwerte für die Zertifikatsdatei oder das Passwort. Jetzt sollte sich diese Datei auch in der Benutzerfreigabe Elastic Search befinden. Also gehe ich in dieses Verzeichnis und mache ein ls. Und das ist unsere Elastic Search-Zertifikatsdatei. Das ist für die SSL. Wenn wir also zu unserem PowerPoint zurückkehren, ist dies für die Kommunikation zwischen den Elasticsearch-Knoten. Für die Kibana-Kommunikation müssen wir ein STDP-Zertifikat erstellen. Um das zu tun, können wir es jetzt aufnehmen. Dieses Mal tippe ich sudo dot slash elastische Suche Sergio Tabelle ein. Und hier gebe ich STDP ein, regeneriere die SGD wird Zertifikate sein. Ich möchte keine CSR generieren, also gebe ich jetzt ein . Dies ist die Option, die Sie verwenden, wenn Sie eine Zertifizierungsstelle eines Drittanbieters verwenden, z. B. die CA Ihres Unternehmens, die öffentliche CA. Da wir jedoch die selbstsignierten Zertifikate verwenden, tippe ich 0 ein und drücke Enter. Ja, wir möchten ein vorhandenes CS verwenden, also tippe ich ja ein, als nächstes will es den Pfad zu meiner CASB T12-Datei. Also kopiere ich den Pfad, der die Benutzerfreigabe Elastic Search ist. Ich kopiere es hier ist Elastic Search ca dot p12. Also kopiere ich das auch hier und drücke Enter. Jetzt gibt es kein Passwort für diese SCF-Datei. Als nächstes fragt ich, wie lange ich möchte, dass die Zertifikate gültig sind. Jetzt möchte ich den Standardwert, also behalte ich ihn als fünf Jahre als nächstes, wenn Sie ein Zertifikat pro Ladung in einem Produktions-Setup generieren möchten, könnten Sie es wenn Sie ein Zertifikat pro Ladung in einem Produktions-Setup generieren möchten tun. Also gehst du ja hier, aber im Moment klicke ich auf Nein und drücke Enter. Jetzt will es die Hostnamen für alle Knoten oder wir können Platzhalter bereitstellen. Jetzt zeig ich dir für eine Minute was. Es wird zu einer anderen Instanz gehen. Jetzt machen wir hier Sudo V Slash, ETC, Slash-Hosts, um meine Host-Datei zu öffnen. Jetzt haben alle GCP-Instanzen ein internes DNS, das so aussieht. Angenommen, der Hostname, den Sie während der Einrichtung angegeben haben, die Region dort m Punkt c und dann das Projekt, in dem sie sich befinden, und dann punktintern. Was wir tun werden, ist, dass wir ein Zertifikat mit internem Star Dot generieren . Dritter Typ in Stern, um alles von Hostnamen, Punktregion-Punkt-Projekt abzudecken . Und dann tippe ich intern ein und drücke Enter und drücke dann erneut die Eingabetaste, ich gehe ja, das ist richtig. Jetzt möchte es, dass wir die IP-Adressen aller meiner Knoten angeben . Also mache ich das. 92 Punkt 168 Punkt ein Punkt 6190 Punkt 168 Punkt 168 Punkt ein Punkt 7192 Punkt 168 Punkt ein Punkt acht. Bitte beachten Sie, dass dies für Sie natürlich anders sein wird. Was Sie also tun müssen, ist, dass Sie zu Ihrer GCP-Konsole gehen und sich die internen IPs ansehen und diese an dieser Stelle bereitstellen müssen Ihrer GCP-Konsole gehen und sich die internen IPs ansehen . Wenn diese nicht korrekt sind, treten Ihre Knoten dem Cluster nicht bei. Also tippe ich erneut Enter ein, um rauszukommen. Ja, die sind richtig. Ich möchte keine Optionen ändern. Ich klicke auf Nein, ich möchte kein Passwort angeben. Klicken Sie auf Enter und ich akzeptiere alle Standardeinstellungen. Und dies sollte eine Zip-Datei in meiner Benutzerfreigabe für Elastic Search erstellen . Also lasst uns eine Ebene über einem klaren gehen und ein ls machen. Jetzt haben wir eine Datei, ein Zertifikat für Elasticsearch-Knoten und eine ZIP-Datei generiert . Mal sehen, was sich in der Zip-Datei befindet. Also tippe ich entpacken Elastic Search Dot zip ein. Es kann den Unzip nicht finden. Das ist also eine einfache Lösung. Ich tippe sudo apt-get install ein, entpacken, weiß, was das Entpacken installiert ist. Wir führen den gleichen Befehl aus und fügen Pseudounakte klar an, um sie zu analysieren. Jetzt müssen wir in diesen Ordner gehen. Also mache ich CD Elastic Search. Und es sei denn, es hat die STDEV-Punkt-p12-Datei. Lassen Sie uns nun eine Ebene oben gehen und erneut analysieren, es gab auch einen Kibana-Ordner. Also lasst uns da reingehen. Und wann immer es eine elastische Suche gibt, CA Him Datei. Es gibt also eine HTTP-Punkt-P12-Datei und eine ca-Punkt-VM-Datei, die darin erstellt wurde . Jetzt werden wir all diese relevanten Dateien in mein temporäres Slash-Verzeichnis verschieben , damit ich es herunterladen kann all dies und verteilte sie dann auf die Kredite. Also gehe ich zuerst eine Ebene über klar, wenn Alice, kopiere ich elastische Dash-Zertifikate um zuerst die Zertifikatsdatei zu kopieren, um TMP zu schrägen, und ich muss ein Pseudo hinzufügen. Als nächstes muss ich meinen CFL Elastic Stack kopieren, ca Punkt p12 Schrägstrich TMP Schrägstrich. Als nächstes muss ich eine Sudo-Kopie machen Elastic Search die STDP-Datei im Elastic Search-Ordner, auch tmp. Und schließlich muss ich eine Sudo-Kopie Kibana und die Elastic Search ca dot PEM-Datei in diesem Kibana-Ordner machen, um TMP zu schrägen. Sobald ich das gemacht habe, muss ich in den Slash-TMP-Ordner gehen. Und was ich mache, ist, dass ich einen CH-Mod mache und allen in diesen Dateien volle Berechtigungen erteile. So elastischer Stern, und ich mache es mit Sudo und schließlich Pseudo CH mod 777. Ich mache das für meine STDEV.P 12-Datei wenn ich minus l bin, um sicherzustellen, dass das erledigt ist, es sieht so aus, als wäre es so. Bevor wir diese herunterladen, werden die relevanten Zertifikatsdateien für diesen bestimmten Knoten direkt in den Konflikt verschoben . Lasst uns ins ETC gehen. Slash Elastic Such geben Sie sudo SU ein. Zuerst gehen wir auf CD, ETC, Elastic Search. Hier erstellen wir ein Verzeichnis namens search. Sobald dies erledigt ist, kopieren wir das SSL-Zertifikat für unsere Elastic Search, das ist dieses Zertifikat in elastischen Suche der Benutzerfreigabe in den Suchordner, das ist dieses Zertifikat in der elastischen Suche der Benutzerfreigabe in den Suchordner, kopieren den Schrägstrich der Benutzer Elastic Search. Und das Zertifikat ist ein elastisches Zertifikat, das B12 gespeichert ist. Und wir kopieren das Zertifikat in den Quellordner, suchen nach Schrägstrich, wir drücken die Eingabetaste, lassen uns dann eine CD in diesen Suchordner machen, stellen Sie sicher, dass das Zertifikat ordnungsgemäß kopiert wurde , das ist erledigt. Nun, was wir tun müssen ist, uns hier eine Ebene oben gehen zu lassen wieder unsere Elastic Search Dot YAML-Datei bearbeiten. Also mache ich eine VI elastische search.html. Und in dieser Datei muss man direkt in die Sicherheit gehen und unter Sicherheit werden einige Sicherheitseinstellungen aus meinen Notizen kopiert . Erwartet also, dass Sicherheit aktiviert true ermöglicht die erwartete Sicherheit erwartet Sicherheitstransport SSL aktivieren true ermöglicht das SSL auf dem Transport, wir verwenden das SSL-Verifizierungsmodus I Zertifikat und wir stellen sicher, dass es zwingend erforderlich ist , dass die Kunden authentifiziert werden. Und schließlich müssen wir den KeyStore und Vertrauen oder Teil für unsere elastische Zertifikat-Pupillendatei bereitstellen , die wir gerade in den Quellordner in Della kopiert haben, direkt in den Quellordner in Della kopiert haben. Aber bevor wir das tun, müssen wir, weil wir in den dritten Ordner wechseln, den FQDN dieses Teils bereitstellen. Also geben wir einen Schrägstrich ein, ETC Schrägstrich Elastic Search Slash Suchstrich elastischer Zertifikatspeicher beendet. Nun, wir kopieren das und fügen es auch hier ein. Und jetzt können wir all diese Einstellungen kopieren und hier einfügen. Bevor wir fortfahren, müssen wir dafür auch die HTTPS-Kommunikation oder einen anderen Cluster aktivieren , wir müssen zuerst als GDB, einen anderen Cluster, aktivieren, und dann müssen wir der SGD P einen Pot zur Verfügung stellen . volve-Datei enthält. Wie wir es zuvor getan haben. Ich werde den FQDN zur Verfügung stellen, weil Sie den Pot ADC Elastic Search Slash Slash SRB Dot Py-Datei geändert haben ADC Elastic Search Slash Slash SRB Dot Py-Datei und diese beiden Einstellungen an den unteren Rand meiner YAML-Datei für Elastic Search Dot kopiert haben. Und jetzt kann ich diese Datei speichern. Sobald wir das getan haben, kopiere ich diese Datei auch in meinen Temp-Ordner. Und wieder mache ich ein CH mehr. So und so und so weiter. Auf meiner Elastic Search-Punkt-YAML-Datei in ihnen befinden sich diese und drücken Sie Enter und es gibt Kopie unseres Zertifikats Introducer sesshaft. Kopieren Sie also Schrägstrich, usr Slash Share-Schrägstrich Elasticsearch, elasticsearch slash STDP-Punkt py verweilen in ATC elastische Suchsuche. Und gehen wir in den Quellordner , um sicherzustellen, dass diese Datei vorhanden ist. Gehen wir nun zurück zu unserem GCP-Konsolenfenster, um all diese Dateien herunterzuladen. Jetzt klicke ich auf der Konsole für GCP neben meiner ELK One Instance auf SSH. Dies öffnet den SSH für diese Instanz in einer neuen Browser-Registerkarte. Sobald die SSH-Verbindungen fertig sind, klicken Sie oben rechts auf die Schaltfläche Einstellungen und klicken Sie auf Datei herunterladen und geben Sie von hier aus den FQDN. Schrägen Sie also temp Slash elastische Zertifikate Punkt p12 und klicken Sie auf Download. Wir haben das erste Zertifikat heruntergeladen. Als Nächstes müssen wir unsere STDEV dot p12 Datei herunterladen. Slash Begriffe slash std p.volve ist also das einmal heruntergeladen. Klicken Sie dann erneut auf die Download-Datei. Dieses Mal laden wir die Punkt-PEM-Datei herunter. Um den Namen zu erhalten, gehe ich in mein temporäres Verzeichnis, um den Namen meiner Punkt-PEM-Datei zu analysieren und zu erhalten. Hier. Das habe ich heruntergeladen. Jetzt. Als Nächstes müssen wir unsere Elasticsearch kurze YAML-Datei herunterladen . Also klicke ich auf Datei herunterladen und die Begriffe slash Elastic Search dot YAML und klicke auf Herunterladen. Sobald das erledigt ist, kann ich diesen SSH-Tab schließen und einen neuen Tab für mein ELL k2 öffnen. Sobald der SH2 GLP-2 geöffnet ist, klicken wir erneut auf die Schaltfläche Einstellungen, wir klicken auf Datei hochladen und gehen zu dem Speicherort, an dem wir die Zertifikate heruntergeladen haben. Und die erste Datei, eine ist das elastische Suchzertifikat. Und ich klicke auf Öffnen, und dies wird diese Datei zu Home Slash aufwändigen Training drei hochladen . Und die nächste Datei, die ich hier möchte, ist die HTTP-Datei. Also klicke ich erneut auf Hochladen und lade den SGD p.Volve an denselben Ort hoch. Und schließlich lade ich meine elastische search.html hoch, diese Datei. Sobald wir das getan haben, müssen wir diese drei Dateien auch auf die dritte Elasticsearch-Instanz hochladen . Also mache ich das jetzt. Sobald Sie die Dateien auf ELL K3 hochgeladen haben, müssen wir zur Kibana-Instanz gehen, dasselbe tun, aber dieses Mal müssen wir nur die Elastic Search ca dot vm-Datei hochladen. Also klicke ich auf die Schaltfläche Einstellungen, klicke auf Datei hochladen und die Punkt-PEM-Datei für Elastic Search und klicke auf Öffnen. Nachdem Sie alle diese Dateien hochgeladen haben, wurden sie alle in das Home-Verzeichnis des Laborbenutzers oder Ihres einzelnen Benutzers auf Ihren Linux-Computern hochgeladen das Home-Verzeichnis des Laborbenutzers oder Ihres einzelnen Benutzers auf Ihren . Wir müssen sie in den richtigen Teil kopieren. Lasst uns zuerst hier zu ELL K2 gehen. Lassen Sie uns zuerst zu Hause Slash Lab IT-Training drei übergehen. Und Sie können sehen, ob Sie eine Elastic Search-Punkt-YAML-Datei und zwei Zertifikatsdateien haben eine Elastic Search-Punkt-YAML-Datei . Zuerst, um SU zu sudo, um root zu werden. Dann gehen wir in unser elastisches Suchverzeichnis, hier erstellen wir ein neues Verzeichnis namens search kopieren unsere Zertifikate in dieses neue Verzeichnis. Also STDEV Punkt p12 in einen dritten Schrägstrich. Und als nächstes kommt das Elastic Search-Zertifikat. So elastisches Zertifikat Dot Py Tool und um zu suchen, gehen wir nun in den dritten Selektor, um sicherzustellen, dass sie kopiert wurden und hier Analysen durchführen, das ist in Ordnung. Jetzt müssen wir unsere vorhandene Elastic Search Dot YAML-Datei durch die neue Datei ersetzen unsere vorhandene Elastic Search Dot YAML-Datei , die wir gerade kopiert haben. Kopieren Sie also Slash Home Slash Labor mit drei Schrägstrichen elastische search.html in den ETC-Schrägstrich Elastic Search. Und lasst uns eine Ebene oben gehen und ein ls minus l machen. Und hier müssen wir ein paar Einstellungen in dieser Elastic Search Dot YAML-Datei ändern . Also muss sudo nano elastic search.html zu unserem Knotenpunktnamen gehen, und wir müssen dies in ELL K2, ec2 ändern , und das sollte es sein. Jetzt sieht es so aus, als hätte ich einen Tippfehler gemacht und einen Punktnamen geladen. Wir brauchen das, um ELK Dash, die Lastnummer 12 oder drei zu sein . Lassen Sie mich also einfach überprüfen, was ich auf echtem k1 gemacht habe , hier auf meinem ELK One. Also gehe ich zu ETC, Elastic Search und ich mache ein Nano nur das Letzte, search.html. Und ich ändere das auch in einen Dash. Und ich speichere das jetzt, wo wir gesammelt haben, speichern wir diese Datei auch und fahren mit ELK a3 fort. Also müssen wir das Gleiche tun. Also Pseudokopie Slash Home Slash Bibliothek Training drei Schrägstrich http Punkt Slash elastisch search.html zu Schrägstrich, ETC. Slash Elastic Search hat den Ordner erstellt und alle richtigen Zertifikate in seinen Pfad kopiert . Was wir jetzt tun können, ist, dass wir eine Nano- oder nicht elastische Datei search.html machen können und den Ladennamen ändern können. Wir können diese Datei speichern. Lasst uns nun zu unserer Kibana-Instanz übergehen. Auf Kibana gab es nur eine Datei, also ausgearbeitetes Training drei nach der Anbieterliste. Es gibt nur eine Elastic Search, Punkt PM. Also machen wir eine Sudo SU, es ist Co2, ETC. Slash Kibana, erstelle hier ein neues Verzeichnis namens search und kopiere die Elasticsearch ca dot vm-Datei aus unserem Level Training Verzeichnis, um zu suchen. Und jetzt machen wir hier einen Nano auf der Tastatur AutoML, das erste, was wir tun müssen, ist, dass wir Server-Punkt-Port auskommentieren müssen. Dann müssen wir die Server-Punkt-Hosts auf 0 ändern. Und hier, wo Server Public Base URL steht, müssen wir die URL angeben, diesen Desk Kibana-Dienst Goneril, nein, wir werden HTTPS für unsere Kibana-GUI-Schnittstelle nicht tun. Was ich mache, ist, dass ich den Http-Schrägstrich eintippe. Ich gehe zu VM-Instanzen, kopiere die interne IP der Microbiota-Instanz, füge sie hier ein und konfiguriere Kibana so, dass sie auf 5601 läuft. Also gebe ich ein, dass diejenigen, die das getan haben, was wir zuerst angeben müssen, mehrere nach Kibana benannt sind. Also werde ich diesen Rollentyp in Demo Kibana hier und hier auskommentieren , müssen wir alle Elastic Search-Instanzen für unsere Anfragen angeben . Wenn Sie also nur möchten, dass Ihre Abfragen auf einer einzelnen Elasticsearch-Instanz ausgeführt werden, müssen Sie die IP-Adresse dieser Inzidenz angeben. Aber weil wir möchten, dass sie auf allen unseren Instanzen ausgeführt werden, werde ich hier alle Elasticsearch-Instanzen liefern. Ich gehe zurück zu meinen Notizen und kopiere diese Zeichenfolge von hier, und ich entferne sie und füge sie ein, und ich korrigiere die Diapedese. Die eine ist, dass ich das gemacht habe. Das nächste, was wir tun müssen, ist, dass wir den Pfad der Punkt-BM-Datei angeben müssen. Um dies zu tun, müssen wir zu den SSL-Zertifikatsbehörden von Elastic Search Dot gehen , und das werde ich abkommentieren. Und hier links, um die Teile zu meiner ca dot vm-Datei zu liefern . Also entferne ich all das und tippe ETC-Schrägstrich ein Kibana Slash Slash Slash Slash Slash den Namen unseres Elasticsearch-Suchpunkt-VM-Datei-Schrägstrichs Elasticsearch ca dot pm. Und sobald ich das getan habe, kann ich diese Datei speichern. Jetzt ist es an der Zeit, unseren Elasticsearch-Cluster zu starten. Jetzt gehe ich zu meiner ertragsgegebenen Maschine. Ich tippe System-CTL ein, starte Elastic Search und gehe dann zu meinem Computer. Sie Elastic Search, starten Sie Elastic Search und geben Sie sudo vor. Und dann gehe ich zu meiner dritten Maschine, aber das Gleiche. Also Pseudosystem CTL startet Elastic Search und es wurde eingegeben, mal sehen, ob das erste Elasticsearch-Instanzspiel von gut aussieht, als gäbe es ein Problem. Um Probleme zu beheben wenn Sie allgemeine CTL minus u und dann den Dienstnamen verwenden können minus u . Also schauen wir uns mal an. Es ist fair, den Service zu starten. Ein anderer Ort, an dem Sie suchen können ist Unterwäsche Log Elastic Search. Wenn wir ein ls machen, wird es eine Punkt-Log-Datei geben. Also lasst uns eine Katze darauf machen. Es heißt eine überschüssige Nacht zur Zertifikatsdatei. Gehen wir also zurück zu unserem Elastic Search-Ordner. Lass mich hier alles klären. Lassen Sie uns einen ls minus l r Zertifikatordner ist unhöflich Elastic Search Ergebnis. Legen Sie dort ein und machen Sie ein, lassen Sie mich S minus L. Unser Elasticsearch-Zertifikat hat die Berechtigungen r, w und dann nichts für die Gruppe. Jetzt müssen wir das vielleicht ändern, also machen wir den CH-Modus. Und im Moment gebe ich nur 777 und Elastic Search Zertifikat Punkt p12 ein. Und ich mache das Gleiche für mein HTTP. Oder um es für eine Produktionsbereitstellung herauszufinden, müssen Sie sich möglicherweise die Berechtigungen für das Zertifikat ansehen , aber im Moment versuchen wir einfach, den Dienst mit diesen Berechtigungen zu starten. Es sieht so aus, als hätte es dieses Mal angefangen zu finden. Lassen Sie uns also ein System CTL machen, Status Elastic Search. Beachten Sie, dass das erledigt ist. Wir können zur anderen Instanz und zu diesen CDC Elastic Search gehen diesen CDC Elastic Search um SU hier zu sudo Lassen Sie uns ETC, Elastic Search zeichnen und dann ls minus l und schauen uns den Quellordner an, sofern dies nicht übereinstimmt. Schauen wir uns jetzt die Berechtigungen für das Zertifikat an und schauen uns den Status auf diesem Computer an. Dieser läuft also. Werfen wir einen Blick auf die Daten auf dem dritten Computer. Wie Sie sehen können, , wenn es ein Berechtigungsproblem Ihr Dienst möglicherweise nicht angezeigt, wenn es ein Berechtigungsproblem gibt. Wenn ich zu meiner ersten Instanz zurückkehre, müssen Sie nur , wenn Sie Probleme beim Starten dieses Elastic Search-Dienstes haben, können Sie dorthin gehen, wo die Logs Elasticsearch protokolliert , um diese Datei zu analysieren und anzusehen . Und wie ich bereits gezeigt habe, es Ihnen einen Hinweis darauf, wo der Fehler vorerst aufgetreten ist. Ich habe Ihnen auch gezeigt, wie Sie Berechtigungen für verschiedene Dateien ändern können, um Probleme zu beheben. Wie Sie sehen können, mit einer Erlaubnis von 755 dieses Zertifikat mit einer Erlaubnis von 755 korrekt geladen. Was wir also tun müssen, ist zu ATC Elastic Search zu gehen und auf die Suche zu gehen, die Berechtigungen auch für dieses Elastic Search-Zertifikat auf 755 zu ändern . Und lasst uns versuchen, dasselbe für unser STDP-Bidwell-Zertifikat zu tun , es sei denn, versuchen Sie, die Service-Dollars auf einen CTL-Status des Systems neu zu starten , Plastiksuche läuft. Lassen Sie uns das nicht klären. Als Nächstes müssen wir die Anmeldeinformationen für unseren Elasticsearch-Cluster generieren . Wir gehen Benutzerfreigabe Elastic Search und waren in der Benefit-Analyse, es gibt eine Setup-Passwort-Datei, also werden wir Elasticsearch Passwörter slash. Und ich werde automatisch alle meine Passwörter generieren. Geh, ja, und es hat das Passwort für diesen Cluster für mich generiert, ich kopiere diese in Dateien. Ich hab das. Bevor ich etwas mache, muss ich zu meiner Kibera-Instanz gehen und dann meine Tastatur ohne Punkt YAML-Datei vierteln. Ich mache Sudo SU Kibana Akte. Und hier lerne ich über Kibana Rhodamin. Und in dieser Datei gebe ich die Anmeldeinformationen für meinen Kibana-Systembenutzer an. Auf diese Weise verwenden wir die Passwortauthentifizierung für unsere Kibana, um mit Elastic Search zu kommunizieren. Kopieren Sie dies und speichern Sie diese Datei. Und fangen wir einfach mit Kibana an. Lassen Sie uns einen Status in diesem Dienst als Vektor machen. Jetzt können wir zu unserer Elasticsearch-Instanz zurückkehren, gelb angegeben, und lassen Sie uns zu unserer Elasticsearch-Instanz zurückkehren, gelb angegeben, den Status dieses Clusters abrufen , um sicherzustellen, dass alle drei Knoten verbunden sind. Illustrator. Also gehe ich zu meinen Notizen, kopiere den curl-Befehl und füge den Benutzernamen und das Passwort für den Elastic user zu diesem Befehl minus u elastisch hinzu und gebe dann das Passwort für diesen Benutzerbereich ein. Und ich drücke Enter und ändere die STDP in HTTPS. Und ich habe diesen Fehler beim Versuch, über curl eine Verbindung herzustellen , festgestellt, dass es ein selbstsigniertes Zertifikat und eine Zertifikatkette gibt. Alles, was Sie tun müssen, ist, dass Sie curl sagen müssen, dass es ein selbstsigniertes Zertifikat ignoriert , das direkt nach Carl und nach Carl und minus k geht und Enter drücken. Und hier sehen Sie, dass unser Cluster drei Knoten hat, Demo ELK heißt und der Status dieses Clusters grün ist. Dies ist eine positive Reaktion. Was wir also tun werden, ist, dass wir stattdessen die öffentliche IP-Adresse unserer Kibera kopieren und sehen, ob sie auf die Kibana-Benutzeroberfläche gelangen können , indem dies eine ausübt und die Kibana-Benutzeroberfläche geladen ist. Was wir als Nächstes tun werden, ist, dass wir versuchen zu sehen, ob wir uns mit dem elastischen Benutzer anmelden können. Kopieren Sie das Passwort. Gummiband hier das Passwort oder was auch immer angegeben. Klicken Sie jetzt selbst auf Erkunden. Wie Sie sehen können, war die Lösung nicht erfolgreich. So können Sie einen Multimode-ELK-Cluster erstellen. Damit sind wir am Ende dieser Vorlesung gekommen. Danke fürs Zuschauen. Wir sehen uns im nächsten. Tschüss. 29. elasticsearch: Hey Leute, in diesem Vortrag, schauen wir uns einen Elasticsearch-Cluster ein bisschen genauer an. Und Elasticsearch-Cluster ist eine Gruppe von einer oder mehreren Knoteninstanzen , die miteinander verbunden sind. Was ist das Elastic Search and Load? Ein elastischer Suchknoten ist ein einzelner Server, der Teil eines Clusters ist. Und das bedeutet, dass alle diese Knoten in der elastischen oder kurzen YAML-Konfigurationsdatei dieselbe Einstellung für den Cluster-Punktnamen haben. Alle Knoten, die dieselbe Einstellung für den Cluster-Punktnamen haben, können also dieselbe Einstellung für den Cluster-Punktnamen einen Cluster bilden. Ein Knoten speichert Daten und nimmt an den Indexierungs- und Suchfunktionen der Cluster teil, wenn ein Knoten einem Cluster beitritt oder verlässt. Der Cluster organisiert sich automatisch um, um die Daten gleichmäßig zu die Daten gleichmäßig über alle verfügbaren Knoten in diesem Cluster hinweg. Im Falle des Verlustes eines Knotens verlieren Sie die Daten nicht und sie sind auf allen anderen Knoten verfügbar. Wenn Sie nun eine einzelne Instanz von Elastic Search ausführen , ist dieser Clustertyp voll funktionsfähig, aber falls Sie Ihren Knoten verlieren, verlieren Sie alle Ihre Daten. Wenn Sie also Hochverfügbarkeits - oder Fehlertoleranzanforderungen haben , sind Sie mit dem Cluster besser dran. Jetzt können Knoten in einem Elasticsearch-Cluster mehrere Rollen haben. Dies wird durch die Zieleinstellung von Node.js in Ihrer YAML-Datei für die elastische Suchstrategie festgelegt Zieleinstellung von Node.js . Jetzt hier auf dem Bildschirm habe ich Ihnen eine kurze Zusammenfassung aller Knotenrollen gegeben , die in Elastic Search verfügbar sind. Und jetzt schauen wir uns jeden einzelnen von ihnen an. wir zunächst einen Blick auf gemeisterte berechtigte Knoten sind Master-Knoten in einem Elasticsearch-Cluster ist verantwortlich für leichtgewichtige clusterweite Aktionen wie das Erstellen oder Löschen eines Indexes, Nachverfolgung welche -Knoten sind Teil des Clusters und entscheiden, welche Diagramme welchen Knoten zugewiesen werden sollen. Im Grunde genommen, welche Daten auf welchem Knoten gespeichert werden , ist es wichtig , dass der Clusterzustand einen stabilen Master-Knoten hat, da der Muskelknoten alle Clusterverwaltungsaktivitäten durchführt . Und wenn Ihr Master-Knoten stabiler ist, kann Ihr Cluster nicht herausfinden, was los ist. Jetzt gibt es zwei Arten von Master-berechtigten Knoten. Sie können einen dedizierten Master oder einen nur abstimmenden Master haben , der jetzt dedizierte Master-Knoten ist, wie der Name schon sagt, wie der Name schon sagt, ein dedizierter Knoten, als Master-Knoten für diesen Cluster fungiert. Jetzt ist diese Art der Einrichtung von Vorteil, wenn Sie einen sehr großen Cluster haben und Ihre Clusterverwaltungsaufgaben so groß sind, dass Sie eine dedizierte Muskelnorm für kleinere Cluster bereitstellen müssen für kleinere Cluster Sie benötigen wahrscheinlich keinen dedizierten Master-Knoten. Sie geben an, welcher Knoten ein dedizierter Master ist, indem Sie nur den Wertemaster im Wert der Knotenpunktrollen angeben. Dieser Knoten fungiert nicht wie ein anderer Knoten. Jetzt kann eine zweite Art von Master-berechtigter Last ein nur abstimmender Master-Knoten sein. Jetzt kann dieser Knotentyp einer Master-Wahl teilnehmen, aber es kann niemals ein Master-Knoten sein. Es kann also angeben, dass es sich lohnt wenn ein Master gewählt wird, aber es wird seinen Namen niemals als Master-Knoten werfen. Lassen Sie uns nun als Nächstes einen Blick auf die Datennormen werfen. Datanodes enthalten die Hemden, die die Dokumente enthalten , die Sie indiziert haben. Sie enthalten also eine Datenmenge , die Sie in Ihrem Cluster gespeichert haben. Datanodes behandelten datenbezogene Vorgänge wie Erstellen, Lesen, Aktualisieren und Löschen von Vorgängen wie Aggregationsvorgängen. Diese Vorgänge sind Input-Output-, CPU- und speicherintensiv. Es ist also immer eine gute Idee, diese Ressourcen auf diesen Datenknoten zu überwachen. Und wenn sie überlastet werden, um Ihrem Cluster weitere Datenknoten hinzuzufügen , um die Last auszugleichen. Jetzt können Sie einen Content DataNode haben , der vom Benutzer erstellte Inhalte aufnehmen kann. Und sie können potente Operationen wie Grad entwickeln oder solche Aggregationen in Ihrem Cluster erstellen , lesen, aktualisieren und löschen , lesen, aktualisieren und löschen. Jetzt können Datenknoten in verschiedenen Ebenen konfiguriert werden. Werfen wir also einen Blick auf jeden einzelnen von ihnen. Nehmen wir an, um Ihnen ein Beispiel zu nennen, Ihre Daten sind kürzlich in Ihrem Cluster angekommen. Nehmen wir an, Sie haben einige CRM-Daten, die in den Cluster fließen und es kommt gerade. Offensichtlich alle Ihre Vertriebspartner oder andere Personen, die diese CRM-Daten benötigen. Wir werden uns diese Daten ansehen, sobald sie eingehen. Sie erwarten also eine hohe Häufigkeit der Suche nach dieser Art von Daten. Sie lagern es in der heißen Stufe. Das sind also Daten, die gerade reingekommen sind und häufig durchsucht werden. Lassen Sie uns als Nächstes sagen, dass die Daten wahrscheinlich drei Monate alt geworden sind, sodass Ihre Kundenliste etwas abgestanden ist. Möglicherweise müssen Sie einige Suchen durchführen da die Daten gerade eingegeben wurden, Sie werden diese Art von Daten in der warmen Stufe speichern. Danach hast du hier Gleichheit. Dies ist der Zeitpunkt, an dem die Daten älter werden und selten so unterstützt wurden. Sie speichern diese Art von Daten in der kalten Stufe. Und schließlich, wenn die Daten, also alle Tage nur einmal in einer Blue Moon Art von Suchen, dann sollten Sie diese Art von Daten in der eingefrorenen Stufe speichern . Eine Sache der gefrorenen Stufe ist, dass Sie nur teilweise gemountete Indizes in der gefrorenen Stufe speichern können. Was also im Grunde passiert, ist, dass die Daten in dieser Stufe nicht im lokalen Cache gespeichert werden. Es gibt eine gemeinsame Geisha im Cluster, und diese Art von Daten wird in diesem freigegebenen Cache gespeichert. Offensichtlich werden die Suchanfragen langsamer. Jetzt ist der Hauptgrund für diese Art von Architektur, dass Sie beispielsweise für wichtige Knoten mehr Ressourcen, mehr CPU, mehr Speicher usw. bereitstellen können , mehr CPU, mehr Speicher usw. . aber ein Ein-Knoten wird mehr Ressourcen haben als ein kalter Knoten und weniger Ressourcen als ein Herzknoten. Und ebenso wird der Knoten immer noch einen lokalen Cache haben, aber dies ist wahrscheinlich ein langsameres System als ein bekanntes. Auf diese Weise können Sie billigere Ressourcen für die Stufen angeben , wenn Ihre Daten altern. Nun, um jede dieser Datenebenen anzugeben. Um beispielsweise einen Knoten als auf der heißen Ebene anzugeben, geben Sie unter Naught Dot-Rollen den Wert des Datenunterstriches Volume an. Und für Ihren Freiwilligen und Höfling geben Sie Daten an, die Frauendaten unterstreichen , die kalt unterstreichen. Werfen wir nun als nächstes einen Blick auf den Ingest-Knoten. Und Ingest Node kann Vorverarbeitungspipelines ausführen, die aus einem oder mehreren Ingest-Prozessoren bestehen. Danach haben wir koordinierende Knoten. Jetzt verhalten sich koordinierende Knoten wie intelligente Load Balancer. Was diese Knoten tun, ist sagen wir, Sie haben einen großen Cluster und Sie haben eine große Menge an Daten, die in Ihren Cluster gelangen. Diese Knoten können als Load Balancer fungieren und dem Cluster zugute kommen, indem den Koordinationsteil der Aufgabe auf einige bestimmte Knoten auslagern, sodass Ihre Datenknoten nicht überlastet werden. Als Nächstes haben Sie Remote-berechtigte Lappen. Was diese Knoten tun können, ist zum Beispiel, dass Sie Cluster eins und dann unseren Remote-Cluster namens gruppiert haben . Jetzt können Sie die Cross-Clustersuche zwischen diesen beiden Clustern aktivieren . Und Sie können einen Knoten als Remote-berechtigte Last definieren. Die Abfragen , die diesen Knoten treffen, können also eine Suche im Remote-Cluster durchführen. Auf diese Weise können Sie die Daten in zwei Clustern kombinieren, aber die Suchen in einem Remote-Cluster werden langsamer sein. Als Nächstes haben Sie Knoten für maschinelles Lernen. Jetzt führen diese Knoten Jobs aus und behandeln API-Anfragen für maschinelles Lernen. Und Sie können diesen Knoten angeben indem Sie die Knotenregel als ML konfigurieren. Und schließlich haben Sie Knoten transformiert, die Transformations-API-Anfragen transformieren und bearbeiten. Sie können diese „Bye“ konfigurierende Load Dot-Rolle als Transformation konfigurieren. Dies sind also die Arten von Knoten, die Sie in Ihrem Elasticsearch-Cluster konfigurieren können . Damit sind wir am Ende dieser Vorlesung gekommen. In dieser Vorlesung habe ich versucht, Ihnen einen Überblick über verschiedene Knotentypen in einem Elasticsearch-Cluster zu geben. Wo auch immer es geht, ist, dass ich einige Links in die Beschreibung dieses Videos anhängen werde . So können Sie etwas mehr über die verschiedenen Arten von Knoten in einem Elasticsearch-Cluster studieren . Danke fürs Zuschauen und wir sehen uns im nächsten. Tschüss. 30. Elasticsearch 8x: Hey Leute, elastic.co, die Muttergesellschaft von Elastic Search, hat kürzlich die allgemeine Verfügbarkeit von Elasticsearch Version acht Punkt x angekündigt . Version die Muttergesellschaft von Elastic Search, hat kürzlich die allgemeine Verfügbarkeit von Elasticsearch Version acht Punkt x angekündigt. Installationsschritte sind auch ein bisschen anders. Werfen wir einen Blick auf die jetzt. Hier auf dem Bildschirm habe ich die neue Seite aus der Elasticsearch-Dokumentation geöffnet. Zunächst werden mehrere Änderungen an Elastic Search-Rest-APIs eingeführt . Aber was sie getan haben, ist die 7-X-Kompatibilität zulässig , die Ihnen genügend Zeit geben sollte, sich auf ein Upgrade vorzubereiten. Als Nächstes werden Sicherheitsfunktionen standardmäßig aktiviert und konfiguriert. Wenn Sie Elastic Search installieren, sollte es bereits einige selbstsignierte Zertifikate erstellen und einige Sicherheitseinstellungen in Ihre Elasticsearch-Strich-YAML-Datei enthalten . Danach ist die Sicherheit auf Systemindizes. In Version acht Punkt 0 selbst der elastische Superuser keinen nativen Zugriff auf Systemindizes. Um Zugriff auf Systemindizes zu gewähren, müssen Sie die Berechtigung für einen bestimmten Benutzer konfigurieren, Unterstriche zulassen, eingeschränkte Unterstrich-Indizes auf True zulassen. Danach gibt es einige Verbesserungen bei der Suche, Speicherung, Indexierung und Verarbeitung natürlicher Sprache. Werfen wir als Nächstes einen Blick auf die Versionshinweise. Jetzt sehen Sie auf der Release-Notice-Seite einige bekannte Probleme, die im Grunde ungewiss sind. Linux-Plattformen, das Elastic Benutzerpasswort und das Kabinett-Registrierungstoken nicht automatisch generiert, aber es gibt Ihnen eine Liste von Befehlen, die Sie ausführen können, um diese nach dem installation. Dann listet es alle brechenden Änderungen in dieser Version auf. Wenn Sie jetzt bereits einen Produktionscluster unterstützen, empfehle ich Ihnen, sich jede dieser Änderungen anzusehen , um sicherzustellen dass es nach dem Upgrade keine Überraschungen gibt. Damit können wir mit der Installation von Elasticsearch acht Punkt 0 auf unseren VMs fortfahren . Jetzt bin ich in meiner GCP-Plattform und VM-Instanzen, ich habe einen ELK-Computer, auf dem wir Elasticsearch np.zeros installieren werden. Ich kopiere die externe IP-Adresse dieses Rechners. Und dann habe ich auf meinem Visual Studio-Code einige Schritte auf der linken Seite und mein Terminal auf der rechten Seite. Also gebe ich SSH-Speicherplatz ein, labriere es unter und dann die externe IP-Adresse. Und ich klicke hier auf Enter und gib ja ein. Und sobald ich in der Maschine bin, tippe ich sudo apt-get update ein , um das System zu aktualisieren. Dann lösche ich das und tippe sudo apt-get install ein W um Duplikat auf diesem Computer zu installieren. Sobald WIR geschlossen und gespeichert sind, können wir mit der Installation von ELK Stack beginnen. Zuerst lade ich den öffentlichen Signaturschlüssel herunter und installiere ihn. Also kopiere ich den Befehl und füge ihn in mein Terminal ein und drücke Enter. Was ich jetzt tun werde, ist, dass ich all diese Befehle in die Beschreibung dieses Videos aufnehmen werde . Ihr könnt also auch Zugriff auf diese Befehle haben. Als Nächstes installieren wir das HTTPS-Paket sbt transport. Danach lösche ich meinen Bildschirm und als nächstes speichern wir die Verzeichnisdefinition. Eine wichtige Sache, die zu beachten ist, ist, dass, wenn an dieser Stelle acht Punkt x für 7,6 Pakete angegeben wird, sieben Punkt x angezeigt werden. Die URL enthält nichts Wichtiges. Nur eine kleine Änderung von sieben auf acht und füge sie hier ein. Und dies sollte die Elastic Search Adx-Repository-Definitionen auf diesen Computer herunterladen . Als nächstes bin ich bereit, meinen ELK Stack auf diesem Computer zu installieren. Also kopiere ich diesen Befehl und füge ihn hier ein und drücke Enter. Während der Installation sehen Sie unter Informationen zur automatischen Sicherheitskonfiguration einige Informationen. Unter dieser Überschrift sehen Sie das integrierte Superuser Elastic Passwort. Unter dieser Zeile, die ein Passwort für den elastischen integrierten Superuser generiert hat, ist dies. Sie müssen dieses Passwort speichern , da wir dieses später verwenden werden. Ich gehe in meine Notizen runter. Ich hebe es hier auf. Nachdem alles installiert ist, lösche ich meinen Bildschirm. Jetzt konfigurieren wir von hier aus zuerst unsere Elastic Search. Also pseudo via slash ATC, Slash Elasticsearch, elasticsearch starten ML. Jetzt ändern wir in dieser Datei zuerst den Clusternamen. Ich nenne es Demo ALK. Dann ändere ich den Knotennamen , den ich ELK one nennen werde. Als nächstes gehe ich zum Netzwerk-Punkt-Host und ändere den Wert vom Standardwert auf 0 Punkt 0000. Danach werde ich den Port auskommentieren, aber ich belasse ihn als Standard 90 bis 100. Da es sich um einen Cluster mit einem einzelnen Knoten handelt, müssen wir bis zum HTTP-Punkt-Port nichts unter Discovery tun . Die Konfiguration ähnelte dem, was wir für 7 x von einem Scheitelpunkt an tun mussten für 7 x von einem Scheitelpunkt an tun Sie werden einen Abschnitt namens Pickin-Sicherheits-Auto-Konfiguration in der kurzen YAML-Datei Elasticsearch sehen . Dies liegt daran, dass Elasticsearch, wie ich Ihnen bereits sagte , standardmäßig einige Sicherheitsoptionen enthält. Wenn Sie hier sehen können, erwartet, dass Sicherheit standardmäßig aktiviert ist. Sicherheitsregistrierung ist ebenfalls standardmäßig aktiviert. Es hat einen KeyStore-Pfad für die HTTP-Kommunikation erstellt und behauptet , und die Datei ist http dot p12. Es hat auch gegenseitige Authentifizierung, Keystone und terrestrisch geschaffen . Jetzt belassen wir alle Einstellungen als Standard und speichern diese. Jetzt hier, wenn ich hineingehe. Mein Elasticsearch-Verzeichnis. Also sudo SU, und wenn ich hier ein LS mache, wirst du sehen, dass es ein Verzeichnis namens certs gibt. Und wenn ich auf die Suche gehe und eine Liste mache, sehen Sie die C-Behauptung, nämlich STDP-Unterstrich CA dot CRD, das Transportzertifikat unter Transportpunkt p12 und das HTTPS-Zertifikat unter http dot py 12. Jetzt können wir das Elasticsearch-Servicesystem CTL starten, Elastic Search starten. Jetzt, sobald der Dienst gestartet ist, versuche ich eine Locke zu machen, genau wie ich es früher für 7 x System getan habe. Also curl minus x GET http localhost oder 9200 Unterstrichen-Cluster und hielt hübsch. Und wenn ich hier eintrete, erhalte ich einen Fehler, da sich ein Cluster tatsächlich auf HTTPS befindet. Also muss ich zuerst von HTTP auf HTTPS wechseln. Aber selbst wenn ich das ausführe, sollte ich einen Fehler bekommen. Es heißt SSL-Zertifikatproblem, selbstsignierte Zertifikate und Zertifikat chin. Um dies zu überwinden, drücke ich den Pfeil nach oben und kurz bevor x bekommt, tippe ich minus k ein und drücke Enter. Und dieses Mal habe ich die fehlenden Authentifizierungsanmeldeinformationen. Jetzt haben wir die Kennwörter für den Building User auf diesem Computer noch nicht eingerichtet, aber standardmäßig hat Elastic aber standardmäßig hat Elastic das Passwort des elastischen Benutzers für uns eingerichtet. Also kopiere ich dieses Passwort und drücke den Pfeil nach oben. Und nach der Option minus p, die die Zelle ignorieren sollte , senden Sie Zertifikate jeden Typ in minus u space elastisch und dann Doppelpunkt, und dann werde ich das Passwort angeben Elastic user. Und wenn ich jetzt Enter drücke, sollte ich den Gesundheitshaufen bekommen. Wie Sie sehen können, ist der Status des Clusters grün. Bei den selbstsignierten Zertifikaten müssen Sie standardmäßig die Option minus K verwenden. Jetzt müssen Sie den Elastic user verwenden, um den Clusterzustand zum ersten Mal zu erhalten. Sobald Sie das getan haben, lassen Sie uns den Bildschirm verlassen. Bevor wir Kibana konfigurieren, müssen wir das Passwort für Kibana Unterstrichen-Systembenutzer einrichten . Also werde ich zuerst in usr gehen, Elastic Search teilen, und ich mache ein LS aus diesem Fach, ich werde das Elastic Search Setup-Passwort-Dienstprogramm verwenden. Von hier aus verwende ich das Dienstprogramm zum Zurücksetzen des Passworts für Elastic Search Also gebe ich Punktschrägstrich ein Elastic Search Reset Passwort. Und ich gebe minus u group dem System mit, welches Passwort zurückgesetzt wurde. Und ich tippe das Kibana-Unterstrichensystem ein und drücke Enter und tippe hier nie in der Nähe ein. Und ich habe das Passwort für meinen Kibana-Unterstrichen-Systembenutzer. Es wird das kopieren und ich füge das auch hier ein. Sobald ich das gemacht habe, kann ich jetzt Kibana konfigurieren. Also Pseudo VA ATC Kibana, Kibana-Punkt YAML. Und wieder werde ich den Silberpunkt-Port auskommentieren, mehrere Punkt-Hosts auskommentieren und vom lokalen Host oder den Nullen 000 wechseln. Und als nächstes kommentieren Sidebar Dot Public Base URL. Und hier gebe ich http ein, und jetzt brauchen wir die interne IP-Adresse unserer Kibana-Instanz. Ich kopiere die hier eingefügte interne IP und stelle den Port bereit. Dann können wir den self.name konfigurieren. Und hier tippe ich Demo-Banner ein, staubiges Banner. Als Nächstes gehen wir zum System Elastic Search. Und dort gebe ich den Wert für Elastic Search Benutzernamen an. Bleiben Sie standardmäßig auf dem Unterstrichensystem. Und dann müssen wir das Passwort angeben, das wir gerade generiert haben. Kopiere das hier und füge es ein. Und wenn Sie jetzt unter System elastisch gehen, so optional, weil wir selbstsignierte Zertifikate für diese Demo verwenden, werde ich den SSL-Verifizierungsmodus für den Elastic Search Dot auskommentieren und den Wert ändern von voll bis gar nicht. Dies ignoriert alle Warnungen für selbstsignierte Zertifikate. Eine andere Sache zu beachten ist, dass ab Version acht Punkt X Kibana ab Version acht Punkt X standardmäßig protokolliert Es meldet sich bei einer Datei an. In einigen früheren Versionen die Protokolle für Kibana standardmäßig, aber nur bei Standardausgabe verfügbar. Das ist also auch eine nette Abwechslung. Jetzt speichern wir diese Datei und starten wir Kibana. Also sudo system CTL, starte Kibana. Lasst uns jetzt diesen Status bekommen. Es ist aktiv und läuft. wir zu unserer Instanz zurück, kopieren Sie die öffentliche IP-Adresse, fügen Sie sie in einen Browser ein und geben Sie dann den Port 5601 an. Jetzt bekomme ich einen Kibana-Server ist nicht bereit Fehler. Also gehe ich zurück zu meinem Einsatz. Und hier öffne ich meine YAML-Datei wieder und suche nach Fehlern. Jetzt habe ich in meiner Gibbon- oder DML-Datei vergessen, den Hostwert für die elastische Suche nach Version Punkt acht einzugeben . Was Sie tun müssen, ist, dass Sie hierher kommen und von HTTP auf HTTPS wechseln müssen. Jetzt speichere ich diese Datei erneut und starte Kibana neu. Nachdem der Dienst neu gestartet wurde, überprüfen wir den Status aktiv und läuft. Wir haben die Meldung, dass HTTP-Server Anzeigen Nullen, Nullen 005601 ausführt. Gehen wir nun zurück zum Browser. Lass es mich auffrischen. Jetzt. Wir haben die Anmeldeseite für Kibana. Also tippe ich hier elastisch ein und kopiere das Passwort für meinen elastischen Superuser, gehe zurück und lege das Passwort ein und klicke auf Login. Klicken Sie nie, und wir sind dabei. So können Sie Elasticsearch Version acht Punkt 0 installieren . Die Schritte unterscheiden sich ein bisschen von Elasticsearch Version 7 x, unterscheiden sich aber nicht so. Die meisten Einstellungen besagen: Wenn Sie vorsichtig sind, bin ich mir ziemlich sicher, dass Sie sich darauf verlassen können hier am wenigsten Ihre eigenen Cluster einrichten, wir sind am Ende dieser Vorlesung gekommen. Wir sehen uns im nächsten. Tschüss. 31. Einsetzen von elastic-agent und Analyse von apache: Hey Leute, es gibt zwei Möglichkeiten, Daten von deinen Servern an die elastische Suche zu senden . Erstens können Sie Beats verwenden, bei denen es sich um leichte Datenversender handelt, die für jeden Anwendungsfall Daten an einen Elasticsearch-Cluster senden für jeden Anwendungsfall Daten an einen Elasticsearch-Cluster Es gibt ein bestimmtes Gebot. Für Matrixdaten verwenden Sie beispielsweise ein Metrikgebot für Dateidaten wie Protokolldateien, Sie verwenden FileReader. Dies macht die Verwaltung etwas umständlich , da Sie je nach Anwendungsfall möglicherweise mehrere Bits auf derselben VM installieren müssen. Jetzt ist die zweite Methode elastisches Mittel. Elastic Agent ist ein einziger Agent für Protokolle, Metriken, Sicherheits- und Bedrohungsschutzdaten. Da es sich um einen einzelnen Agent handelt, ist es einfacher und schneller, die Überwachung in Ihrer Umgebung bereitzustellen. Elastic Agent nutzt Integrationen und Kibana, die eine einfache Möglichkeit bieten, Elastic Search mit externen Systemen und Diensten zu verbinden . Wenn Sie beispielsweise Protokolle vom Apache-Webserver sammeln müssen , weisen Sie den Elastic Agent mithilfe der Apache-Integration an , diese Daten von einem Apache-Server zu sammeln. Diese Integrationen werden über die Kibana-Benutzeroberfläche verwaltet. Jetzt erfolgt die gesamte Kommunikation zwischen den elastischen Agenten und Elastic Search über den Flottenserver. Jetzt ist dieser Flottenserver eine Komponente, die verwendet wird, um alle elastischen Agenten zentral zu verwalten. So funktioniert es. Wenn Sie eine Richtlinie in Kibana erstellen, wird diese bei jedem Erstellen dieser Richtlinie in Elastic Search gespeichert. Der Elastic Agent generiert einen Authentifizierungsschlüssel oder einen Registrierungsschlüssel, dem er sich gegen den Fruit-Server authentifiziert. Sobald dies der Fall ist, wird der Hochwasserserver nach einer Richtlinie gefragt. Jetzt erhält dieser gekippte Server diese Richtlinie von Elastic Search und stellt sie dann dem Elastic Agent zur Verfügung. So funktioniert es, wenn neue Agent-Richtlinien in Kibana erstellt werden , auf Elasticsearch gespeichert werden. Um sich für die Richtlinie anzumelden, senden Elastic Agents eine Anfrage mit dem für die Authentifizierung generierten Registrierungsschlüssel an den Flottenserver . Fluid Server empfängt diese Anfrage dann und ruft die Agent-Richtlinie von der elastischen Suche ab. Und dann verschiebt es diese Richtlinie auf alle Agenten, die für diese Richtlinie registriert sind. Der Elastic Agent verwendet dann Konfigurationsinformationen, die in dieser Richtlinie gespeichert sind, um Daten zu sammeln und an Elastic Search zu senden. Nehmen Sie jetzt ein Beispiel. Angenommen, Sie haben Apache auf diesem Agenten installiert und MySQL auf diesem Agenten hier in Kibana installiert, Sie weisen eine Richtlinie von Apache zu. Dieser Agent wird sich für diese Richtlinie beim Solar Flare-Server der Flotte registrieren diese Richtlinie beim Solar Flare-Server der Flotte diese Richtlinie dann an diesen Agenten senden, der ihm auffordert , Apache-Serverprotokolle zu sammeln. Sobald es die Richtlinie hat, kann es diese Protokolle und andere Daten an Elasticsearch senden. Nun, dieser Agent, der MySQL enthält, wird nicht in die Schuldenpolitik eingeschrieben. Sie weisen diesem Agenten eine andere Richtlinie zu. Auf diese Weise können verschiedene Server verschiedene Datenschichten Elasticsearch Cluster senden . Als Nächstes gibt es zwei Methoden, um Elastic Agents bereitzustellen. Erstens können Sie sie von einer Flotte verwalten. Auf diese Weise können Agent-Richtlinien und Lebenszyklen zentral verwaltet werden. In Kibana gibt es eine weitere Option selbstverwaltete elastische Zeitalter, was ein fortgeschrittener Anwendungsfall ist, in dem Sie jeden Agenten manuell verwalten müssen . Für diese Vorlesung werden wir Flottenmanagement-Agenten verwenden. Jetzt sind hier die Konfigurationsschritte. Zuerst konfigurieren Sie elasticsearch short YAML installieren dann einen Fruchtserver. Danach installieren Sie einen Elastic Agent. Nachdem Sie den Agenten auf den Servern installiert haben, konfigurieren Sie eine Agentrichtlinie. Und schließlich bestätigen Sie, dass die Daten korrekt gesendet wurden , indem Sie sich Dashboards und andere Metriken ansehen. Also lasst uns anfangen. Jetzt hier auf dem Bildschirm habe ich meinen elastischen Server mit einem einzelnen Knoten. Also muss ich zuerst einen gebratenen Server erstellen. Also klicke ich auf Instanz erstellen, dann klicke ich auf Neu und VM-Instanz aus Vorlage wählen ELK und fahre dann fort. Ich werde den Namen ändern, um den Flip Server die Region in US West One zu ändern und dann unter Netzwerk zu gehen. Ich werde sicherstellen, dass ich mich in der elastischen Such-VPC und dem Überwachungssubnetz befinde, und klicke dann auf Erstellen. Während diese Früchte erstellt werden oder erstellt werden, klicken wir erneut auf Instanz erstellen , um unseren Webserver zu erstellen. Also klicke ich auf die neue VM-Instanz aus der Vorlage, wähle die Beobachter aus und klicke auf Weiter. Hier werde ich die Region auf US West One umstellen. Sie können den Namen so behalten, wie er ist, und ich gehe zum Networking. Und bei der Vernetzung werde ich die Netzwerkschnittstelle von der Überwachung zum Webserver-Subnetz ändern die Netzwerkschnittstelle von . Dann klicke ich auf Create. Sobald wir die drei virtuellen Maschinen bereit haben, können wir mit der Installation beginnen. Jetzt gehe ich zu meinem Visual Studio-Code über. Jetzt habe ich in meinem Visual Studio-Code meine Notizen, um den Elastic Agent auf dem Flood Server und auf dem Webserver auf der linken Seite zu installieren . Und ich habe mein Terminal in alle drei Maschinen auf der rechten Seite. Also Terminal eins ist EL gegeben, Terminal zwei ist Webserver und Terminal drei ist mein Obstserver. Also lasst uns zuerst anfangen, wir müssen zum ELK-Server gehen. Also gehe ich weiter zum Terminal eins. Und auf dem ELK-Server müssen wir diese beiden Einstellungen in unsere von Elasticsearch getroffenen YAML-Konfigurationsdateien hinzufügen diese beiden Einstellungen in unsere von Elasticsearch getroffenen , mehrere tippen Sudo VI Slash, ETC, Schrägstrich Elastic Search Elastic Suche Punkt YAML und drücke Enter. Jetzt in dieser Datei sehen Sie, dass die erste Einstellung erwartet oder der aktivierte Sicherheitspunkt wahr ist. Ich gehe in den Einfügemodus. Und hier, direkt unter dem erwarteten Sicherheitspunkt aktiviert, füge ich die Einstellung für den erwarteten Sicherheitspunkt ein, Punkt-API-Schlüssel ist als wahr aktiviert. Also kopiert es das und fügt es hier ein. Und sobald ich das gemacht habe, kann ich diese Datei speichern. Also entkomme und ich schreibe in diese Datei, und jetzt kann ich meine Elastic Search starten. Also Pseudosystem CTL, starte Elastic Search neu. Sobald der Dienst neu gestartet wurde, fangen wir als Dienst an. Also Pseudosystem, CTL, Status, Elastic Search, stellen Sie sicher, dass der Dienst aktiv ist und ausgeführt wird. Und nun gehen wir zu unserem Feldserver über, der sich auf Terminal drei befindet. Ich werde zuerst zu einem flüssigen Server auf diesem Computer wechseln , wir müssen den Elastic Agent herunterladen. Also kopiere ich den curl-Befehl und füge ihn auf das Terminal ein, um Elastic Agent herunterzuladen. Nachdem die elastische Agent-Anwendung heruntergeladen wurde, müssen wir die TAR-Datei extrahieren, diesen Stern minus Z F-Befehl kopieren und auf das Terminal einfügen und die Eingabetaste drücken. Als Nächstes gehen wir zur Kibana-Webseite über. Also habe ich die Kibana-Webseite hier oben vom linken Navigationsmenü. Ich werde unter die Leitung gehen. Ich klicke auf Flotte und gehe dann zu Einstellungen. Jetzt klicke ich hier auf Aktionen und die Ausgaben belassen den Namen als Standard und der Typ wäre elastische Suche, da wir flüssige Serverausgaben an Elastic Search und den Host senden möchten flüssige Serverausgaben an Elastic Search und den Host Ich wechsle von HTTP zu HTTPS. Und dann ersetze ich den lokalen Hostwert durch die private IP-Adresse meiner ELK-Instanz. Also kopiere ich es von hier und ersetze es. Als nächstes müssen wir zu unserem Visual Studio-Code zurückkehren, und dann müssen wir zu Elastic Search gehen. Und auf der Elasticsearch-Instanz muss ich zuerst sudo SU und dann CD EDC, Elastic Search machen und dann suchen. Wenn ich nun ein ls in diesem Verzeichnis mache, wirst du sehen, dass es meine CSRP hat. Also lasst uns dieses Zertifikat holen. Holen Sie sich also einen DB-Unterstrich CA dot CRT. Sobald Sie die Ausgabe des cat-Befehls für das CA-Zertifikat erhalten haben, müssen wir das CA-Zertifikat unter der erweiterten YAML-Konfiguration aktualisieren . Auf diese Weise teilen wir dem System mit, dass wir dieses CA-Zertifikat verwenden , um Vertrauen zwischen unserem Fluid-Server und dem Elasticsearch-Server herzustellen . Sie können es auf zwei Arten machen. Sie können entweder den vertrauenswürdigen Fingerabdruck der Zertifizierungsstelle verwenden oder das CA-Zertifikat für diese Demo einfügen, wir fügen das CA-Zertifikat ein. So wie Sie es tun, verwenden Sie eine Einstellung namens SSL-Zertifizierungsstellen, fügen Sie dann dem ESC ein Zertifikat ein und lassen Sie es mich einfach erweitern. Dies ist also ein Beispiel für den Bildschirm. Zertifikat unter SSL-Zertifizierungsstellen Kopieren Sie dieses Zertifikat unter SSL-Zertifizierungsstellen für Ihren Computer, das sich von dem unterscheidet, was auf meinem angezeigt wird. Kopieren wir einfach all das und ich ersetze dieses und ich füge es hier ein. Jetzt müssen Sie die Formatierung möglicherweise ein wenig aktualisieren. Kopieren wir einfach diesen ganzen Befehl und gehen zu unserer erweiterten YAML-Konfiguration auf meiner Kibana-Seite und fügen Sie diesen hier ein. Sobald Sie das getan haben, können wir dies speichern, Einstellungen speichern und anwenden und sieben bereitstellen. Danach müssen wir zu Agenten gehen. Auf der Seite des Agenten wird angezeigt, dass Umkehrungen erforderlich sind, bevor wir mit der Registrierung von Agenten beginnen können. Also machen wir das jetzt. Jetzt wird unter Adafruit-Server die Agent-Richtlinie als Standard belassen. Wir haben den Fluid-Server bereits auf unsere Flottenserver-VM heruntergeladen , damit wir das überspringen können. Unter Bereitstellungsmodus auswählen verwenden wir QuickStart für diese Demo. Dies ermöglicht es dem Fluid-Server, selbstsignierte Zertifikate für Ihr Produktionssystem zu generieren für Ihr Produktionssystem Sie müssen die Produktion auswählen und Ihr eigenes Zertifikat in Ihrer Flüssigkeit vorlegen Serverkonfiguration. Als nächstes müssen wir in Schritt vier die URL unseres Fluid-Server-Hosts angeben. HTTPS, jetzt müssen wir zu VM-Instanzen gehen und die interne IP-Adresse unseres Fruits-Servers kopieren und ihn hier einfügen und den Port als Standard Etudes 0 für diese Demo entlasten und auf Host hinzufügen klicken. Sobald Sie den Host hinzugefügt haben, müssen wir auf Service-Token generieren klicken. Nun, danach, in Schritt sechs, gibt es uns den Befehl, unsere Flips zu starten. Es kopiert diesen Befehl und wechselt zurück zu unserem Visual Studio-Code. Und ich bin auf den Flotten, unserem Terminal. Bevor wir diesen Befehl jedoch einfügen können, müssen wir einige Änderungen vornehmen. Jetzt habe ich den Beispielbefehl, der funktioniert. Also füge ich den Befehl ein, den wir aus der Kibana-Instanz kopiert haben. Von diesem Befehl nehmen wir die ES-URL des Flood Servers und ich werde dafür den Wert „Flips over ES“ ändern . Jetzt müssen wir für die URL die private IP-Adresse unseres Flottenservers angeben. Also gehe ich zu VM-Instanzen, kopiere diese private IP-Adresse des Fluid-Servers, gehe zurück und dann ändern wir den Wert des privaten IP-Flood-Servers die tatsächliche IP-Adresse des Flood-Servers. Als Nächstes müssen wir das Service-Token liefern , das wir gerade generiert haben. Es kopiert all dies und ändert das Wert-Service-Token mit dem neuen Wert der Flottenserverrichtlinie, nicht für Ihr System. Dies könnte anders sein, und danach müssen wir zwei weitere Werte hinzufügen. Flottenserver ES ist unsicher Dieser Befehl wird benötigt da unser Elasticsearch-Server selbstsignierte Zertifikate verwendet. Und das letzte Unsichere ist auch, dass unser geflippter Server auch selbstsignierte Zertifikate verwendet. jetzt in Ihrer Produktionsbereitstellung Da Sie jetzt in Ihrer Produktionsbereitstellung keine selbstsignierten Zertifikate verwenden, benötigen Sie diese letzten beiden Befehle nicht. Jetzt auf der anderen Seite, unserem Terminal, lass es mich einfach ein bisschen erweitern. Wenn ich ein ls mache, werden Sie sehen, dass es ein Verzeichnis für Elastic Agent gibt. Ich werde in dieses Verzeichnis schreiben. Jetzt gebe ich hier sudo dot slash elastische Agent-Installation und minus F ein, und dann verwende ich das Escape-Zeichen. Jetzt geben wir zuerst die URL unseres Fluid-Servers an. Also kopiere ich es aus den Notizen, füge es hier ein und drücke Enter. Als Nächstes gebe ich die ES-URL des Flottenservers an. Also die URL mein Elasticsearch-Server eine Verbindung herstellen kann, und er wurde eingegeben. Als Nächstes gebe ich das Service-Token an, kopiere es, füge es hier ein und es wurde eingegeben. Danach geben wir die Richtlinie an, unter der wir diesen Fluid-Server registrieren werden, die Standardrichtlinie ist, die er eingegeben hat. Als nächstes liefern wir den Befehl ES unsecure, bei dem es sich um selbstsignierte Zertifikate auf Elastic Search handelt. Und schließlich werden wir den unsicheren Befehl liefern, bei dem sich um selbstsignierte Zertifikate auf dem Flottenserver handelt. Jetzt drücke ich die Eingabetaste und dies sollte die Bereitstellung für unseren Elastic Agent auf meinem Fluid-Server starten . erste Protokoll sagt Ihnen, dass es selbstsignierte Zertifikate für Fluid-Server generiert. Als nächstes versucht es, den Fluid-Server zu starten. Dann können Sie sehen, dass die SSL-, TLS-Überprüfung deaktiviert wurde weil wir den unsicheren Modus verwenden. Und schließlich haben Sie, dass der elastische Agent erfolgreich registriert wurde. Was wir jetzt tun können ist, dass wir die Kibana-Seite rückwärts bewegen können, und Sie sollten sehen können , dass der Hochwasserserver verbunden war und ich auf Weiter klicke. Wenn Sie nun sind, dass der Fluid-Server erfolgreich verbunden wurde und ordnungsgemäß konfiguriert wurde, sollten Sie den Status als gesund sehen. Und wenn Sie darauf klicken, können Sie einige Details sehen. Und als nächstes müssen wir prüfen, ob es Protokolle an Elastic Search senden kann , was es kann. Wenn Sie bei der Bereitstellung dieses Flottenservers auf Probleme stoßen , können Sie dies tun, wenn ich zu meinem Visual Studio-Code zurückkehre und alles erledige, können Sie das Sudo-System CTL eingeben der elastische Agent der Daten, schauen Sie sich die Protokolle an und Sie sollten die Protokolle hier sehen können. Abgesehen davon, wenn Sie den Fluid Server Agent bereitgestellt haben, aber aus irgendeinem Grund keine Verbindung hergestellt wird und Sie ihn deinstallieren müssen. Wenn Sie das tun, gehen Sie in den Benutzerfach und dann den elastischen Agent. Und hier, wenn ich ein Minus h mache, muss ich Pseudo hinzufügen. Sie sollten in der Lage sein, die verschiedenen Befehle zu sehen , die mit dem Elastic Agents Skript verfügbar sind . Es gibt einen Android-Befehl, wenn Sie Agenten für diese Flotte registrieren möchten , der installierte Befehl ist, dem wir gerade den Fluid Server Agent installiert haben. Sie können den Dämon neu starten, den Dämon ausführen, den Dämon statusieren und diesen Elastic Agent deinstallieren. Es könnte also einige Szenarien geben, in denen Sie den Dämon deinstallieren und neu installieren müssen. So kannst du es schaffen. Im Grunde genommen gehen Sie einfach zum Benutzer bin elastische Agent und geben Sie jetzt die Deinstallation von Exit aus ihm ein und löschen Sie den Bildschirm. Da der klassische Agent installiert und gesund ist, können wir nun installiert und gesund ist, können wir den Elastic Agent auf unserem Webserver installieren. Um das zu tun, gehen wir zu unserem Terminal auf dem Webserver. Jetzt müssen wir zuerst auf dem Webserver Elastic Agent herunterladen. Also kopiere ich all dies aus unseren Notizen und füge den Befehl auf das Terminal ein und drücke Enter. Sobald die Datei heruntergeladen wurde, können wir diesen Punktstern minus Z F Plastikmittel extrahieren und Enter drücken. Sobald Sie das getan haben, gehen wir zurück zu unserer Kibana-Seite und gehen dann zur Flotte. Jetzt gibt es eine Schaltfläche zum Hinzufügen eines Agenten. Wenn ich auf Agent hinzufügen klicke, wird die Standardrichtlinie des Agenten belassen. Jetzt haben wir den Elastic Agent bereits heruntergeladen. Als nächstes gibt es uns einen Befehl. Also lasst uns das kopieren und zurück zu unserem Terminal gehen. Ich füge diesen Befehl ein, füge ihn aber nicht aus. Aber ich muss das tun, dass ich minus anhängen muss, abzüglich unsicher für diesen Befehl weil wir selbstsignierte Zertifikate verwenden. Auch hier müssen Sie dies für Ihre Produktionsbereitstellung nicht hinzufügen. Wenn ich jetzt Enter drücke, habe ich jetzt vergessen, zuerst ins elastische Agent-Verzeichnis zu gehen und ein ls zu machen. Und von hier aus müssen wir dieses Skript ausführen. Ich drücke den Pfeil nach oben, bis ich den Befehl bekomme und jetzt führe ich ihn aus und tippe ein. Ja, und ich habe Elastic Agent erfolgreich installiert. Also gehe ich zurück zu meiner Kibana und schließe den Agent wurde richtig installiert. Ich sollte es auf dieser Seite sehen können. Jetzt können Sie sehen, ich den Webserver sehen kann. Also klicken wir noch einmal auf diesen Webserver. Wir stellen sicher, dass wir auch Logs vom Webserver haben, den wir haben. Bevor ich dich jetzt gehen lasse, möchte ich dir noch eine Sache zeigen. Jetzt nutzt Elastic Agent Integrationen. Da unser Webserver nun ein Apache-Webserver ist, können wir die Überwachung für den Apache-Server verbessern. Was wir tun werden, ist, dass wir zur Flotte zurückkehren. Und was wir dann tun müssen, ist, dass wir eine Agentenrichtlinie hinzufügen müssen. Also werden wir die Agent-Richtlinie erstellen und diese Richtlinie für den Namen des Richtliniennamens beibehalten. Jetzt fügen wir eine Beschreibung hinzu. Diese Richtlinie wird verwendet, um Apache-Metriken und -Protokolle zu sammeln. Wir belassen alles als Standard und ich klicke auf Agentenrichtlinie erstellen. Jetzt wird diese Richtlinie erstellt. Was wir tun müssen, ist, dass wir dieser Richtlinie einige Integrationen hinzufügen müssen . Ich klicke auf das linke Navigationsmenü, und das geht zu Integrationen. Unter Management-Integrationen können wir hier die verschiedenen verfügbaren Integrationen sehen . Vorerst. Wir interessieren uns für Apache, Apache HTTP-Server, also klicke ich darauf. Jetzt gibt Ihnen diese Seite einen Überblick über die Apache HTTP Server Integration. Was wir tun werden, ist, dass wir auf Apache HTTP-Server hinzufügen klicken. Jetzt können wir ihm von configure Integration Speech einen Namen geben, also belassen wir ihn als Standard Apache eins. Als Nächstes behalten wir die Sammlungsprotokolle von der Apache-Instanz auf. Ich möchte die experimentelle Funktion nicht einschalten und wir lassen auch die Collect-Metriken von Apache und Sensoren eingeschaltet. Als nächstes müssen wir eine Richtlinie angeben, auf die diese Integration angewendet werden soll. Also klicken wir auf das Dropdown-Menü und wählen dann die Webserverrichtlinie aus , die wir gerade erstellt haben. Dann klicken wir auf Speichern und Fortfahren. Und jetzt heißt es in der Meldung, dass Sie Ihrem Host Elastic Agent hinzufügen, um Daten zu sammeln. Und ich klicke später einfach auf Elastikmittel hinzufügen. Was wir jetzt tun müssen, ist, dass wir zu unserer Flotte zurückkehren müssen , Flotte. Wir müssen zum Webserver eins gehen. Darauf klicke ich also. Und hier klicke ich auf Aktionen und klicke auf eine neue Richtlinie zugewiesen. Dann wähle ich die Webserver-Richtlinie und klicke dann auf Richtlinie zuweisen. Bevor ich das tue, heißt es die ausgewählte Agent-Richtlinie, aber sie sammelt Daten von zwei Integrationen, System, das Standard ist, und der Apache-HTTP-Server-Integration , die wir gerade machen konfiguriert. Also klicke ich auf Richtlinie zuweisen. Sobald wir das getan haben, klicken Sie darauf und es die Eingaben für diese Integration, unsere Protokolle und Metriken aus unserer Apache-Instanz angezeigt. Und die Systemintegration sammelt Protokolle bei Protokollen und Metriken von unserem Betriebssystem. Gehen wir nun als nächstes zum linken Navigationsmenü und gehen wir dann zu Dashboards. Jetzt werden Sie sehen, dass Ihnen noch ein paar Dashboards zur Verfügung stehen. Was wir tun werden, ist, dass wir jetzt Apache eingeben , um zu überprüfen, ob wir Apache-Protokolle erhalten Wir können auf Access - und Fehlerprotokolle klicken. Und im linken Dropdown-Menü unter Hostname wählen wir unseren Webserver aus. Wenn Ihre Integration ordnungsgemäß eingerichtet ist, sollten Sie einige Daten wie hier sehen. Ich sehe alle Response Scores. Jetzt. Als Nächstes überprüfen wir ein anderes Dashboard. Also gehe ich zum Dashboard und klicke auf Apache, tippe Apache erneut ein. Und dieses Mal klicke ich auf Metriken, Apache-Übersicht, um zu sehen, ob Sie Metrikdaten von unserem Apache-Server erhalten oder nicht. Jetzt können Sie unter Anfragen pro Sekunde sehen, dass einige Daten durchfließen. Auf diese Weise können Sie einen Flottenserver installieren und dann Ihre Webserver oder andere Anwendungsserver für Ihre Flotte registrieren . Und dann können Sie mithilfe von Integrationen einige aussagekräftige Daten von Ihren Anwendungen oder Webservern sammeln einige aussagekräftige Daten von . Damit sind wir am Ende dieser Vorlesung gekommen. Danke fürs Zuschauen. Wir sehen uns im nächsten. Tschüss.