ElasticSearch 101 : Un guide pour les débutants en matière de pile élastique | Vikas Yadav | Skillshare

Vitesse de lecture


1.0x


  • 0.5x
  • 0.75x
  • 1 x (normale)
  • 1.25x
  • 1.5x
  • 1.75x
  • 2x

ElasticSearch 101 : Un guide pour les débutants en matière de pile élastique

teacher avatar Vikas Yadav

Regardez ce cours et des milliers d'autres

Bénéficiez d'un accès illimité à tous les cours
Suivez des cours enseignés par des leaders de l'industrie et des professionnels
Explorez divers sujets comme l'illustration, le graphisme, la photographie et bien d'autres

Regardez ce cours et des milliers d'autres

Bénéficiez d'un accès illimité à tous les cours
Suivez des cours enseignés par des leaders de l'industrie et des professionnels
Explorez divers sujets comme l'illustration, le graphisme, la photographie et bien d'autres

Leçons de ce cours

    • 1.

      Bienvenue

      0:54

    • 2.

      Introduction à la recherche élastique 101

      2:27

    • 3.

      Aperçu des données

      2:17

    • 4.

      Différence entre bases de données relationnelles et non relationnelles

      4:24

    • 5.

      Aperçu de JSON

      1:52

    • 6.

      Aperçu de l'API Rest

      6:07

    • 7.

      Introduction à la recherche élastique

      4:29

    • 8.

      Pile élastique - une vue d'oeil d'oiseaux

      3:43

    • 9.

      Comment installer elasticsearch sur un Linux Debian

      8:24

    • 10.

      Comment installer elasticsearch sur un Linux RPM

      8:29

    • 11.

      Comment installer ELK sur un serveur Windows

      14:39

    • 12.

      Sécuriser votre cluster en utilisant la sécurité du pack X-pack

      5:22

    • 13.

      Ajouter des données à notre cluster d'élans en utilisant Kibana

      12:56

    • 14.

      Créer des visualisations avec Kibana

      4:47

    • 15.

      Raconter une histoire à l'aide de tableaux de bord Kibana

      6:23

    • 16.

      Présentations en temps réel utilisant la toile Kibana

      4:55

    • 17.

      Aperçu des royaumes d'authentification de recherche élastique

      3:56

    • 18.

      Comprendre les contrôles d'accès basés sur les rôles Kibana

      9:39

    • 19.

      Catégoriser vos tableaux de bord en utilisant des espaces Kibana

      6:43

    • 20.

      Introduction à Logstash

      4:32

    • 21.

      Ingérer et transformer les données CSV en utilisant le logstash

      22:10

    • 22.

      Installation d'un serveur Web Apache

      1:58

    • 23.

      Installez et configurez Metricbeat

      20:15

    • 24.

      Installez et configurez Filebeat

      22:13

    • 25.

      Installez et configurez Heartbeat

      11:35

    • 26.

      Installez et configurez Auditbeat

      16:47

    • 27.

      Installez et configurez Packetbeat

      9:12

    • 28.

      Comment déployer un cluster de nœuds multiples

      26:23

    • 29.

      Aperçu des nœuds de recherche élastique

      7:45

    • 30.

      Whats installation nouvelle et élastique v8.x

      10:19

    • 31.

      Installation de cartons d'apache et analyse

      18:08

  • --
  • Niveau débutant
  • Niveau intermédiaire
  • Niveau avancé
  • Tous niveaux

Généré par la communauté

Le niveau est déterminé par l'opinion majoritaire des apprenants qui ont évalué ce cours. La recommandation de l'enseignant est affichée jusqu'à ce qu'au moins 5 réponses d'apprenants soient collectées.

125

apprenants

--

projets

À propos de ce cours

Salut

Bienvenue dans mon cours ELASTICSEARCH 101, un guide pour débutants de la pile élastique, c'est un cours mains sur lequel se concentrent sur le déploiement et la gestion de la pile élastique.

Ce cours adopte une approche commune vers l'apprentissage et se concentre sur

  • Des professionnels DevOps qui seront responsables de déployer et de gérer des clusters de recherche élastique

  • Des ingénieurs d'assistance informatique qui seront chargés de soutenir les déploiements de piles élastiques

  • et cela pourrait être bénéfique aux développeurs de logiciels s'ils ont besoin de comprendre comment les clusters Elasticsearch sont déployés et gérés

Dans ce cours, nous commencerons par quelques bases de base, telles que les différents types de données que vous rencontrerez dans un environnement d'entreprise et nous examinerons ensuite la différence entre les bases de données relationnelles et non relationnelles avant de nous permettre de mieux comprendre les API JSON et Re.

Après avoir les connaissances préalables qui sont essentielles si vous souhaitez travailler sur la recherche élastique, nous examinerons la recherche élastique et la pile élastique à partir d'une vue sur les yeux d'oiseaux et il est temps de se salir les mains, d'abord nous allons configurer notre environnement de laboratoire et ensuite nous allons examiner comment vous pouvez fournir un cluster de recherche élastique de différentes manières, nous allons le suivre en ajoutant quelques données dans notre cluster par l'intermédiaire d'intégrations de kibana et avoir une sensation générale de kibana. Ensuite, nous examinerons Logstash un composant essentiel de la pile élastique si vous souhaitez transformer vos données et ingérer certaines données csv en utilisant des pipelines Logstash.

Dans la section finale, nous examinerons ce qui a changé dans la version 8 what's puis nous we un cluster v8 sur un seul noeud.

Enfin, nous installerons un agent élastique qui est un seul agent nécessaire pour expédier tout type de journaux de vos serveurs d'applications à Elasticsearch.

Fichiers de cours

documentation de recherche élastique

Rencontrez votre enseignant·e

Teacher Profile Image

Vikas Yadav

Enseignant·e

Hi Everyone, 

I have been an IT engineer for over 11 years now, during this time i have worked in a many fields like networking , systems engineering, virtualization , unified communications and more recently cyber security. I lover tweaking around with systems , deploying and configuring enterprise infrastructure and applications. 

On a personal level, i love reading about historical events and characters and have been trying to learn how to surf (to no avail ;)). 

thanks

Vikas

Voir le profil complet

Level: Beginner

Notes attribuées au cours

Les attentes sont-elles satisfaites ?
    Dépassées !
  • 0%
  • Oui
  • 0%
  • En partie
  • 0%
  • Pas vraiment
  • 0%

Pourquoi s'inscrire à Skillshare ?

Suivez des cours Skillshare Original primés

Chaque cours comprend de courtes leçons et des travaux pratiques

Votre abonnement soutient les enseignants Skillshare

Apprenez, où que vous soyez

Suivez des cours où que vous soyez avec l'application Skillshare. Suivez-les en streaming ou téléchargez-les pour les regarder dans l'avion, dans le métro ou tout autre endroit où vous aimez apprendre.

Transcription

1. Bienvenue: Bienvenue dans mon cours la semaine dernière. Un tel guide en tête-à-tête, un guide pour débutant sur Elastic Stack. Il s'agit d'un cours pratique axé sur le déploiement et la gestion d'Elastic Stack. m'appelle Ricardo et je suis architecte principal de solutions, avec plus de 15 ans d' expérience en informatique. Je travaille actuellement dans une multinationale que j'ai conçue et déployée Elastic Stack dans un environnement de production. J'ai enseigné plus de 3400 enfants sur Udemy et j' ai une note moyenne de 4,4 dans tous mes cours. Il s'agit d'un cours pratique, axé sur l'apprentissage pratique. Dans ce cours, vous allez déployer Elastic Stack, puis ajouter des données à votre cluster. Deux méthodes différentes telles que les intégrations Log Stretch et Kibana. Et vous allez également transformer ces données afin d'en extraire une certaine signification. Enfin, vous allez déployer Elastic Agent qui extrait facilement les données matricielles et journalisées de vos serveurs d'applications et stocke et analysera ces données dans Elasticsearch. Alors, joignez-vous à moi dans ce voyage pour apprendre Elastic Stack. 2. Introduction à elasticsearch 101: Salut les gars, bienvenue dans mes partitions débutantes sur Elastic Stack. Je suis ravi que vous m'ayez donné l'occasion de vous guider sur la voie de devenir un professionnel de la recherche élastique. Ce cours adopte une approche pratique de l'apprentissage et est axé sur apprentissage et est axé professionnels DevOps qui seront responsables du déploiement et de la gestion des clusters Elasticsearch. Il prend en charge le personnel responsable de la prise en charge des déploiements Elastic Stack. Et cela pourrait être avantageux pour les développeurs de logiciels s'ils ont besoin d'une compréhension de la façon dont les clusters Elasticsearch sont diploïdes, veuillez noter qu'il s' agit d'un score débutant, donc j'éviterai de plonger en profondeur dans n'importe lequel des sujets de ce cours. Nous commencerons par quelques éléments de base, tels que les différents types de données que vous rencontrerez dans un environnement d' entreprise. Ensuite, nous examinerons la différence entre les bases de données relationnelles et non relationnelles avant passer à une compréhension des API JSON et Rest une fois que vous aurez les connaissances préalables requises, ce qui est essentiel si vous souhaitez travailler sur Elastic Search, nous examinerons Elastic Search et Elastic Stack d' un point de vue d'ensemble, puis il est temps de vous salir les mains. abord, nous allons configurer notre environnement de laboratoire , puis nous examinerons comment vous pouvez fournir la recherche élastique de différentes manières. Et nous allons suivre cela en ajoutant des données à notre cluster via des intégrations Kibana. Ensuite, je vous aiderai à créer votre première visualisation Kibana. Ensuite, nous allons mettre en place des tableaux de bord. Après cela, je vous aiderai à organiser vos tableaux de bord en différentes catégories telles que le marketing, opérations, etc., en utilisant les espaces Kibana. Ensuite, je vais vous donner un aperçu de la gestion des utilisateurs dans Elastic Search. Nous examinerons également Elastic Search, les utilisateurs intégrés, les rôles intégrés et la façon dont vous pouvez utiliser les utilisateurs et les rôles qui créent des contrôles d'accès basés sur pour votre cluster Elasticsearch. Ensuite, nous examinerons Log Stash, qui est un composant essentiel d' Elastic Stack si vous souhaitez transformer vos données. Ensuite, nous allons ingérer des données CSV en utilisant des pipelines obliques de journal. Dans la section suivante, je vais vous aider à comprendre les agents beats et différents cas d'utilisation que vous pouvez résoudre en utilisant différents beats. Il indique que vous devez utiliser le Btu métrique ingérer des données de mesure dans votre cluster Elasticsearch. Vous devez également utiliser 5 bits pour ingérer données de journal basées sur des fichiers dans votre cluster Elasticsearch. Après cela, nous déploierons un cluster Elasticsearch multimode. Et je vais vous donner un aperçu des différents nœuds de l'environnement Elastic Search. Dans la dernière section, nous examinerons ce qui a changé dans Elasticsearch version huit , puis déploierons un cluster de version huit sur un seul nœud. Enfin, il installera Elastic Agent, qui est un agent unique nécessaire pour expédier un nouveau type de journaux de vos serveurs d'applications à Elastic Search. Commençons donc. 3. Aperçu des données: Hé les gars, si vous travaillez sur Elastic Search, nous travaillons principalement sur les données. Il est donc important de comprendre les différents types de données disponibles. Parlons tout d'abord des données structurées. Les données structurées sont hautement organisées et correctement formatées. Il s'agit du type de données pouvant être stockées dans une feuille de calcul. Base de données relationnelle telle que SQL. Les chiffres de ventes trimestriels d'une entreprise ou d'un employé sont un exemple de données structurées trimestriels d'une entreprise ou d'un employé sont un exemple , telles que l'ID d'employé, nom de l' employé et le salaire. Ce type de données est plus facile à stocker et à rechercher, car comme son nom l'indique, il a une structure. Examinons ensuite les données non structurées. Les données non structurées sont plus difficiles à rechercher. Il s'agit de données qui ne sont ni organisées ni formatées. Un exemple de ce type de données est celui des fichiers texte, des fichiers vidéo ou audio, des mentions J'aime et des commentaires sur les réseaux sociaux. Ces données représentent près de 80 % du dossier de données dans le monde réel. Et comme son nom l'indique, il n'est pas structuré. Il est donc plus complexe de stocker ce type de données et de rechercher. Examinons maintenant les données semi-structurées. Les données semi-structurées sont mélangées entre données structurées et non structurées. Ce sont des données qui ne peuvent pas être organisées dans une base de données relationnelle, mais qui ont toujours une structure lâche. Par exemple, des données qui peuvent être organisées autour d'un sujet. de messagerie constituent un bon exemple de ce type de données. Puisque les e-mails peuvent être organisés à travers des champs tels que l'objet, le message, le corps, etc. Ensuite, les données numériques sont essentiellement des données exprimées en chiffres plutôt que en textes, par exemple, capteurs, température, âge, etc. Un autre type de données que vous pourriez rencontrer est celui des données géospatiales. Les données géospatiales sont les données relatives à un objet sur Terre. Il contient des éléments tels que l'emplacement, qui est la longitude et la latitude, la taille et la forme d'un objet. Avec cela, nous sommes arrivés à la fin de cette conférence, un aperçu des différents types de données que vous verrez sur le terrain lorsque vous travaillez sur n'importe quel outil de transformation ou d'analyse de traitement des données . J'espère que ça vous a plu et je vous verrai dans le prochain. 4. Différence entre les bases de données relationnelles et non relationnelles: Hé les gars, il existe différents types de bases de données que vous rencontrerez dans chacune offre ses propres avantages uniques. Ceux-ci peuvent être principalement classés dans Sequel, bases de données relationnelles et NoSQL ou bases de données non relationnelles. Tout d'abord, jetons un coup d'œil à une base de données relationnelle. La base de données relationnelle est un type de base de données qui stocke des données dans des tables. Dans une base de données relationnelle, chaque ligne de la table est un enregistrement avec un identifiant unique appelé clé. Les colonnes de la table contiennent des attributs des données et chaque enregistrement a généralement une valeur pour chaque attribut, ce qui facilite l' établissement de relations entre les points de données, et donc le nom relationnel système de gestion de bases de données ou SGBDR. Ce type de base de données ne peut fonctionner que sur des données structurées et des langages de programmation structurés tels que SQL Il peut être utilisé efficacement pour insérer, rechercher, mettre à jour ou supprimer des enregistrements de base de données. Certains exemples courants de SGBDR sont Oracle, MySQL, Microsoft SQL Server et Postgres SQL. Voici maintenant un exemple de ce à quoi ressemble une base de données relationnelle. Supposons que vous ayez une table dont la source utilise des détails. Et disons que cette table s'appelle utilisateurs. La table de cet utilisateur contient désormais des détails tels que l'ID utilisateur, prénom de l'utilisateur, nom de famille de l' utilisateur et son âge. Voyons maintenant qu'il existe un autre tableau qui stocke les diplômes éducatifs des utilisateurs. Il peut également être lié à la table des utilisateurs à l'aide de la colonne ID utilisateur. Comme vous pouvez le constater, ce type de données est structuré et stocké dans des tables, et il peut être lié les unes aux autres à l'aide de colonnes, la colonne ID utilisateur dans cet exemple. Parlons maintenant des bases de données non relationnelles. La base de données non relationnelle est une base de données qui fonctionne sur des données semi-structurées ou non structurées. Elle est également appelée base de données NoSQL et possède un schéma dynamique pour le stockage de données non structurées. Ces données peuvent être stockées de plusieurs façons, ce qui signifie qu'elles peuvent être orientées documents, orientées colonnes, basées sur des graphiques ou un magasin de valeur clé. Cette flexibilité signifie que la base de données peut être créée sans avoir de structure définie au préalable. Maintenant, si vous comparez cela avec des bases de données relationnelles, vous devez toujours prédéfinir la structure et adhérer à cette structure pendant toute la durée de vie de la base de données. bases de données Nosql stockent des données dans documents constitués de paires clé-valeur. La syntaxe varie d'une base de données à l'autre, et vous pouvez ajouter des champs au fur et à mesure. La plupart des bases de données égales fournissent un modèle de données flexible avec la possibilité de stocker et de combiner facilement les données de n'importe quelle structure sans avoir à modifier le schéma. Par conséquent, il convient aux Big Data et aux applications Web en temps réel. Elastic Search est un type de base de données NoSQL qui stocke des données sous forme de document JSON joint à un lien provenant du blog Elastic Search. Si vous souhaitez en savoir plus à ce sujet, regardons maintenant un exemple de base de données NoSQL. Ici, à l'écran, j'ai une base de données NoSQL composée de deux documents. Comme vous pouvez le constater, la structure des deux documents diffère. Par exemple, le document numéro deux comporte une paire clé-valeur pour l'éducation, qui n'est pas présente dans le document numéro un. De plus, si vous regardez les passe-temps, il y a un passe-temps supplémentaire de natation pour notre utilisateur. Cette flexibilité permet désormais utiliser des bases de données NoSQL pour les applications Big Data. Il existe maintenant une autre différence entre les bases de données NoSQL et SQL, c'est-à-dire la façon dont elles évoluent. bases de données relationnelles évoluent verticalement et bases de données NoSQL ou non relationnelles évoluent horizontalement. Cela signifie que lorsque vous devez augmenter la capacité de votre base de données, la seule façon de le faire dans un modèle de base de données relationnelle est d'avoir une machine plus grande. Maintenant, cela signifie que les temps d'arrêt sont nécessaires pour augmenter la capacité et la tâche de maintenance afin d'éviter d'avoir un temps d' arrêt ultérieurement, c'est de préprovisionner la capacité. Cependant, le revers est que toute cette capacité serait essentiellement gaspillée jusqu'à ce qu'elle soit nécessaire. bases de données non relationnelles ou NoSQL résolvent ce problème en effectuant une mise à l'échelle horizontale. Cela signifie que chaque fois que vous avez besoin de capacité, vous pouvez ajouter davantage de capacités en ajoutant simplement plus de machines à votre cluster. De cette façon, vous n' avez pas besoin de pré-provisionner capacités et vous n'avez pas besoin de temps d'arrêt non plus. Avec cela, nous sommes arrivés à la fin de cette conférence. Merci d'avoir regardé, et je vous verrai dans le prochain. Au revoir. 5. Aperçu de JSON: Hé les gars, Elasticsearch stocke les données sous forme de documents JSON. Il serait donc judicieux d' avoir un aperçu de JSON. notation d' objet Json ou JavaScript est un format d' échange de données basé sur le texte. Et le mot clé ici est l'échange de données. Puisque JSON est principalement utilisé pour partager des données, JSON repose sur deux structures. abord, un objet, qui est une collection non ordonnée de valeur de nom ou une paire clé-valeur. Deuxièmement, une liste ordonnée de valeurs, également appelée tableau. Voyons maintenant un exemple de données JSON. Nous avons ici un objet JSON. Comme je l'ai déjà dit, un objet est un ensemble non ordonné de paires valeur-clé-valeur. Il commence par une accolade gauche bouclée et se termine par l'accolade droite, chaque nom ou clé, et sa valeur est séparée par paires deux-points et nom-valeur. Par exemple, le nom John et 29 ans est séparé par une virgule. Notre exemple contient également un tableau qui est constitué tableaux de contacts commençant par un crochet carré gauche et se terminant par un crochet carré droit. Désormais, les objets JSON peuvent comporter sept types de valeurs différents. Une chaîne est une séquence de 0 caractères ou plus encapsulés entre guillemets doubles. Par exemple, Mon nom est John, voici une chaîne, un nombre, par exemple, 1234 ou une clé JSON peut également avoir un autre objet JSON comme valeur. Il peut également s'agir d'un tableau, et il peut également être booléen, ce qui est vrai ou faux. Enfin, la valeur adjacente peut également être nulle. Si vous souhaitez en savoir plus sur JSON, j'ai inclus quelques liens avec la description de cette conférence afin que vous puissiez mieux comprendre. Étant donné qu'avec Elastic Search, il travaillera principalement avec des documents JSON pour accompagner la fin de cette conférence. Merci d'avoir regardé. Je vous verrai dans le prochain. Au revoir. 6. Aperçu de l'API Rest: Hé les gars, dans cette conférence, Jetons un coup d' œil aux API RESTful, qui est une méthode populaire pour communiquer entre les applications informatiques. Api est un acronyme pour Application Programming Interface Editor n'est qu'un ensemble de définitions et de protocoles pour création et l'intégration de logiciels d'application. Par exemple, vous pouvez utiliser une API dans laquelle un utilisateur peut fournir un ID d'étudiant et votre API répondra avec raisons d'examen de cet étudiant, l'avantage de l'utilisation d'API est que votre application le logiciel n' a pas besoin de savoir comment le logiciel de l'application cliente est implémenté. Rest est un acronyme de transfert d'état représentatif. Cela signifie qu'il transfère une représentation de l' état de la ressource. Et cette représentation n' est pas un élément de données dont vous avez besoin auprès de votre application. Rest fonctionne sur le modèle client-serveur. Cela signifie que la ressource solaire détient ces données. Un client demande cet élément de données à l'aide de l'opération grossir, créer, lire, mettre à jour ou supprimer. Et pour faire cette demande, il utilise des méthodes HTTP uniques. Une fois que cette demande a été effectuée par le client, le serveur répond avec la donnée qu'il détient sur une représentation de l' élément de données dont dispose le serveur. Examinons maintenant certaines des méthodes STDP. Post vous permet de créer une nouvelle ressource sur le port du serveur, vous permet de mettre à jour une ressource existante sur le serveur, get vous permet de récupérer une ressource existante et de supprimer, vous permet de supprimer une ressource existante. Voici quelques-uns des exemples des méthodes que vous pouvez implémenter à l'aide d'API Rest. Une autre chose à noter est que les demandes d' API Rest sont sans état. Cela signifie que toutes les demandes des clients sont traitées comme de nouvelles demandes et aucun historique de session n'est stocké sur le serveur. Maintenant, avant de passer à autre chose, regardons un exemple ici à l'écran. J'ai un exemple d'appel d'API utilisé pour vérifier l'état d' un cluster Elasticsearch. Nous avons d'abord la méthode qui pourrait être GET, PUT, post ou delete. Dans notre cas, nous utilisons GET et ceci teste le serveur que nous voulons récupérer certaines informations. Après cela, nous avons spécifié le point de terminaison sur le serveur que nous voulons envoyer une demande d'ajout. C'est http localhost sur le port 9000. Cela est important car nous pouvons avoir plusieurs serveurs et notre environnement et chaque serveur peut exécuter plusieurs services. Par exemple, le même serveur peut également exécuter un serveur Web sur le port 80, mais nous voulons nous connecter à un service exécuté sur le port 9200 sur un hôte local. Une fois que nous avons spécifié le point de terminaison, nous devons spécifier la ressource sur ce point de terminaison à laquelle nous voulons nous connecter dans notre exemple que l'intégrité du cluster de ressources. Maintenant, chaque point de terminaison peut exécuter plusieurs ressources dans notre cas parce que nous voulions obtenir la santé du cluster. Nous utilisons des points de terminaison d' intégrité du cluster pour vous connecter et obtenir l'état. Enfin, nous pouvons spécifier un paramètre. Par exemple, dans cet exemple, nous voulons que le serveur réponde avec les informations dans un format lisible par l'homme ou qu'il soit prêt pour nous une fois cette demande soumise, le serveur répond ensuite par un réponse. Dans cet exemple, l' été a répondu avec l'état de santé du cluster au format JSON. Vous pouvez également obtenir cette réponse dans plusieurs autres formats, par exemple HTML, XML ou texte brut, etc. Plusieurs outils sont disponibles pour vous salir les mains lors des appels d'API. Vous pouvez utiliser des outils spécialisés tels que les postiers, les swagger, etc. Ou vous pouvez utiliser la commande plane ou curl depuis votre terminal Linux ou Mac. Enfin, vous pouvez également créer une API appelée par programmation à partir de votre code en fonction d'une logique. Maintenant, avant de passer à autre chose, faisons un peu de pratique. J'ai la fenêtre du terminal de mon macOS. Et à partir de là, nous allons essayer d' invoquer une API publique pour des blagues. D'abord, je dois taper bouclé. Après cela, j'avais besoin des points de terminaison. Donc HTTPS, nous faisons l'API de blague point, la profondeur de point et ensuite je dois fournir la ressource sur le point de terminaison. Donc je vais taper une barre oblique, blague barre oblique et appuyer sur Entrée. Comme vous pouvez le constater, le serveur de blagues a répondu par une blague. Vous pouvez désormais utiliser cette API pour créer une section blague sur votre site Web si vous le souhaitez. Ou vous pouvez simplement lire ces blagues ou à votre entreprise à vous de décider. Avant de passer à autre chose, je voulais vous montrer comment faire exactement la même chose à l'aide d'un outil appelé Postman. Maintenant, j'ai l'entretien de cet outil pour créer une demande d'API, je vais cliquer sur plus. Cela ouvrira le formulaire API ici, je peux choisir la méthode dont j'ai besoin. Dans ce cas, j'ai besoin d'obtenir, puis je dois spécifier les points de terminaison. Donc HTTPS, nous faisons de la blague API dot dev. Et puis je dois taper la ressource qui est une blague slash. Et pour exécuter cela, je n'ai qu'à cliquer sur envoyer. Et vous pouvez voir que j' ai de nouveau reçu une réponse du serveur. Il s'agit maintenant d'un exemple très basique, mais comme il ne s'agit pas d'un cours d'API STI, je vais vous laisser le soin de vous renseigner sur ce sujet si vous ne le connaissez pas déjà. J'ai ajouté quelques ressources dans la description de cette conférence, afin que vous puissiez l'utiliser comme point de départ de vos études ultérieures. Maintenant, avant de passer à la façon de couvrir une dernière chose, ce code d'état. Maintenant, si vous voyez ici, vous verrez le statut 200, d'accord, et si vous survolez ce dernier, vous obtiendrez une explication des scores de statut. Désormais, chaque fois que vous faites une demande au serveur, il renvoie un code au client, ce qui vous indique l' état de la demande. Maintenant, à l'écran, j'ai différents types de réponses que vous pouvez attendre du serveur. Une réponse qui commence par 22 chiffres après cela signifie généralement que la demande a été couronnée de succès. Par exemple, comme nous l'avons vu chez les facteurs, nous avons obtenu 200 OK, qui signifie que tout va bien. Et il répond par trois ou quatre, ce qui signifie que le client peut utiliser la version mise en cache de la ressource demandée. N'importe quoi. Pour XXX, c'est-à-dire quatre et deux chiffres après cela, ou cinq, XX signifiant cinq, puis deux chiffres après cela signifie qu'une erreur pour XX signifie un autre côté client, ce qui signifie qu'il y a quelque chose qui ne va pas sur le client. Phi de x. X signifie qu'il s'agit d'une erreur côté serveur, ce qui signifie qu'il y a des problèmes avec le serveur. Il s'agissait donc d'une introduction rapide aux appels d'API Rest. Il y a un peu plus à cela et je veux que vous soyez 100% confiants car vous l'utiliserez pour gestion et l'administration d'Elastic Search. Veuillez parcourir les liens que j'ai joints avec la description de cette vidéo. C'est ainsi que nous sommes arrivés à la fin de cette conférence. Je vous verrai dans le prochain. Au revoir. 7. Introduction à la recherche élastique: Hé les gars, Elastic Search est un moteur de recherche et d'analyse distribué, qui est au cœur d'Elastic Stack ou du moteur de recherche distribué, est un moteur où la tâche d'indexation et de traitement des requêtes est distribué entre plusieurs ordinateurs au lieu d'un seul superordinateur qui gère tout. Il est construit sur Apache Lucene et est développé en Java. Il vous permet de stocker, de rechercher et d'analyser d'énormes volumes de données rapidement et presque en temps réel et de donner des réponses en millisecondes requêtes qui prennent normalement dix secondes ou plus renvoie les résultats en moins dix millisecondes dans Elastic Search utilisant le même matériel, Elastic Search peut gérer tous les types de données, par exemple, un demi-cercle structuré, etc. des cas d'utilisation pour Elastic Search. Par exemple, vous pouvez ajouter une zone de recherche à une application ou à un site Web pour effectuer une recherche rapide dans votre catalogue. Vous pouvez également stocker et analyser les journaux, les mesures et les données d'événements de sécurité. Vous pouvez également utiliser l'apprentissage automatique pour modéliser automatiquement le comportement de vos données en temps réel. Elastic Search fournit une API Rest pour gérer votre cluster, indexer et rechercher des capacités de recherche informatique dans vos données capacités de recherche informatique Elasticsearch prend en charge trois types de requêtes. requêtes structurées vous permettent de rechercher des données structurées et sont exactement comme les requêtes SQL pour les requêtes textuelles vous permettent de rechercher champs de texte d' analyse tels que le corps d'un e-mail vous allez faire. des éléments tels que la recherche d'un mot particulier dans un paragraphe des requêtes complexes, la combinaison de requêtes structurées et de requêtes en texte intégral. Passons maintenant aux documents et aux index dans Elastic Search, la plus petite unité de données est appelée champ. Chaque champ possède un type de données défini et contient un élément de données spécifique. Par exemple, le nom John, non, les documents constituent l'unité de stockage de base dans Elastic Search. Ou le document est constitué de plusieurs champs dans le monde de base de données relationnelle ou le document sera équivalent à une ligne d'une table. Les données d'un document sont stockées sous forme champs qui sont des paires nom-valeur, et il y a des aliments réservés dans notre document. Maintenant, à l'écran, j'ai un exemple de données stockées dans un document. Dans cet exemple, ID est l'identificateur unique du document. Type est le type d'index. Ce document fait partie d'un index, c'est le nom de cet index. Par exemple, l' analyse de documents représente un article d'encyclopédie ou des entrées de journal provenant d'un serveur Web. Dans cet exemple, nous faisons référence à quelque chose appelé index. Jetons donc un coup d'œil à ce que c'est. Un index est un ensemble de documents logiquement liés qui présentent des caractéristiques similaires. Par exemple, vous pouvez avoir un index pour les utilisateurs, un index pour les produits et un autre pour les commandes, etc. Il s'agit de l'entité de plus haut niveau laquelle vous pouvez interroger. Une recherche élastique est similaire à celle d'une base de données relationnelle. Dans Elastic Search, c'est en fait ce qu'on appelle un index inversé. Et l'index inversé est un mécanisme par lequel tous les moteurs de recherche fonctionnent. Fondamentalement, cet index consiste en une liste de mots uniques étranges qui apparaissent dans chaque document. Et pour chaque mot, il s'agit d'une liste de tous les documents dans lesquels ce mot apparaît. Maintenant, jetons un coup d'œil aux phrases suivantes que chaque code conteneur de la série télévisée Game of Thrones, hiver arrive dans notre système, et le choix vous appartient. Nous allons maintenant créer notre index en ordre. Nous allons donc d'abord écrire les termes dans les trois documents dans une colonne, puis nous écrirons la fréquence telle qu'elle apparaît dans les trois centres, dans la deuxième colonne. Ensuite, dans la troisième colonne , écrivez le document dans lequel ce terme apparaît sur le point de prendre un exemple, l' hiver n'apparaît qu'une seule fois dans les trois phrases et n'est pas une police de document, alors qu'il s'agit de la seconde le terme dans le document 1 vient en fait trois fois et apparaît dans les trois documents. On en a donc 123 ici. De même, cela apparaît deux fois dans le document deux et dans l'arborescence de documents comme celui-ci, nous pouvons construire notre index inversé, une combinaison de termes et une fréquence est appelée dictionnaire. Si nous revenons en arrière, et que la fréquence est appelée dictionnaire et que le nombre de documents ou de termes particuliers apparaît s'appelle des publications. Donc ce sera un dictionnaire et ce sera des publications en utilisant cette façon. Si vous voulez faire une recherche rapide pour n'importe quel terme, disons que Fury Elasticsearch regardera son index inversé et trouvera cette fureur une PS1 et apparaît sur le document pour donc, un index term est la plus petite unité de recherche dans Elastic Search, c'est l' astuce qu'Elasticsearch utilise pour effectuer des recherches rapides. J'ai également inclus un lien vers un blog Elastic Search qui peut vous aider à mieux comprendre fonctionnement de la recherche dans Elastic Search. C'est ainsi que nous sommes arrivés à la fin de cette conférence. Je vous verrai dans le prochain. Au revoir. 8. Pile élastique - une vue à l'oeil des oiseaux: Avant de commencer le déploiement, j'aimerais vous donner un bref aperçu de chacun de ces produits Elastic Search que nous déploierons dans cet atelier, Elasticsearch est une liste open source pour un distribué un tel moteur d' analyse dépendant Apache Lucene Log Stash est un pipeline de traitement de données open source côté serveur qui ingère des données provenant de plusieurs sources, les transforme, puis les envoie. à Elasticsearch. Kibana est un tableau de bord de visualisation de données open source pour Elasticsearch. En termes simples, supposons que vous disposez des données du journal des applications provenant de serveurs d'applications. Désormais, si vous n'avez pas besoin traiter ces données, vous pouvez les envoyer directement à Elastic Search pour les restaurer. Toutefois, si vous devez effectuer traitement personnalisé, par exemple, vous devrez peut-être ajouter un identifiant client qui est un événement enregistré afin de pouvoir lier un journal particulier, un événement de journalisation à un client particulier. Vous devrez d'abord envoyer ces données à Log Stash, Buddha traitement ou transformation, puis les envoyer à Elastic Search pour être stockées. Une fois les données stockées et indexées dans Elasticsearch, vous pouvez utiliser Kibana qui crée des visualisations en plus de leurs données. Parlons maintenant du côté bead, essentiellement comme des agents très spécialement conçus qui ont acquis des données puis les alimentent à Elastic Search beats ou battus sur un framework de bits éclairé. Et cela facilite la création bits personnalisés pour n'importe quel type de données Si vous souhaitez envoyer à Elasticsearch, Beats avait des récifs standard disponibles, que j'ai répertoriés à l'écran. Si l'un de ces beats ne fait pas le travail, vous pouvez utiliser le framework lipidique pour créer votre vitesse personnalisée. Parlons donc de certains des battements standards. abord, il y a quelque chose qui se battrait, nous trouverions que beat est léger moins cher pour transférer et centraliser les données de journal. Au début, en tant qu'agent sur l'été cible, combattez de grands moniteurs. Les fichiers journaux sont des emplacements que vous avez spécifiés, que vous collectez, consignez les événements et les transfère à Elasticsearch sont des recherches de journaux pour indexation ou deadbeat. Est-ce probablement moins cher que vous puissiez installer sur vos serveurs pour auditer les activités des utilisateurs et des processus sur votre système ? Par exemple, vous pouvez utiliser l'audit V8, la version gauche et centralisée ou les événements à partir de Linux, mais une offre de mesure différente est légèrement moins chère que vous pouvez l'installer sur vos serveurs pour collecter périodiquement des mesures. à partir du système d'exploitation et des services exécutés sur la métrique Silver, Big X, les mesures et statistiques qu'elle collecte et déplace la sortie vers la recherche Elastic pour Log Stash. Heartbeat est un démon léger que vous installez sur un serveur distant. Vérifiez périodiquement l'état de vos services et déterminez s'ils sont disponibles. La différence entre les liquides et les battements cardiaques est que cette mesure vous indique uniquement si vos serveurs sont en hausse ou en panne. Attendu que Heartbeat, savoir si vos services sont disponibles. Par exemple, il est dit que vous avez installé Apache sur un liquide Southern make vous indiquera si le serveur est en marche ou en panne. Heartbeat vous indiquera si votre site Web est terminé. Packet Beat est un analyseur de paquets en temps réel que vous pouvez utiliser avec Elastic Search. Fournissez un système de surveillance des applications et d'analyse des performances qui pourrait battre et offre une visibilité sur les communications entre les serveurs de votre réseau. En général, Beat est un expéditeur léger pour transférer et centraliser les données de journal à partir du système lu par les journalistes. Il s'agit également d'installer un agent sur vos serveurs et il surveille les emplacements généraux que vous spécifiez, collectez les événements de journal, puis transférez ces événements à Elastic Search sur Log Stash, ce ne sont pas des betteraves. jetons. Les journaux des événements Windows sont enregistrés dans Elastic Search ou Log Stash. Il est installé en tant que fonction de service Windows Beat est un élastique que vous déployez en tant fonction dans votre environnement sans serveur pour collecter des données à partir des services Cloud et l' expédier. Avec cela, nous sommes arrivés à la fin de cette conférence. Merci d'avoir regardé. Je vous verrai dans le prochain. Au revoir. 9. 11: Hé les gars, Dans cette vidéo, nous allons installer et configurer Elasticsearch et Kibana sur un système Linux basé sur un seul nœud DBN. Les étapes de cette conférence sont d'abord, nous allons installer la clé de signature publique Elastic Search. Ensuite, nous installerons le package HTTPS de transport APT. Après cela, nous sauvegarderons définitions du référentiel Elastic Search sur notre système Linux. Ensuite, nous effectuerons une mise à jour du système, puis installerons Elasticsearch et Kibana. Une fois les trois applications installées, nous allons configurer Elasticsearch et Kibana. Je vais consacrer une conférence distincte à Log Stash. Enfin, nous allons tester la connectivité à nos services. Commençons donc. Ici, à l'écran, je suis dans mon compte GCP et sur la page Instances VM, nous utiliserons cette page pour créer notre système Linux à nœud unique. Nous allons cliquer sur Create Instance. Ensuite, je cliquerai sur une nouvelle instance de VM à partir du modèle, puis je choisirai le modèle ELK et je cliquerai sur Continuer. Maintenant, à partir de cet écran, je peux conserver le nom ELK One, mais je vais changer la région en US West One. Et puis je laisserai tout reste par défaut et je vais au réseautage. Et dans le cadre du réseautage, je vais m' assurer qu'il a la bonne étiquette, Kibana. Et je m' assurerai également qu'il est sous le VPC Elasticsearch et le sous-réseau de surveillance. Une fois ces éléments validés, je cliquerai sur Créer pour créer mon instance Linux. Maintenant, une fois cette machine en marche, je vais accéder à mon code Visual Studio ici. Sur le côté gauche, j'ai les remarques pour installer ELK Stack sur une machine Linux. Et sur le côté droit, j'ai mon terminal ici. Je vais d'abord accéder à la page Instances de VM et à partir de là, je copierai l' adresse IP externe de mon instance Linux. Et puis à l'intérieur du terminal de code VS, je taperai SSH, élaborer, et je collerai l'adresse IP de mon instance Linux et je cliquerai sur Entrée. Ici, je vais taper oui, comme vous pouvez le voir, j'ai pu me connecter avec succès à mon instance Linux. Maintenant, je vais d'abord taper en clair, et maintenant nous pouvons commencer à installer nos applications. Tout d'abord, je vais faire une mise à jour sudo apt-get. Alors sudo APT se met à jour et appuie sur Entrée. Et maintenant, une fois le système mis à jour, je vais d'abord effacer l'écran. Ensuite, je dois installer W gate s'il n'est pas déjà installé sur le système. Je vais donc le faire maintenant. Maintenant, une fois ces conditions préalables terminées, je peux installer la clé de signature publique pour Elastic Search Je vais donc copier tout cela et coller sur le terminal et appuyer sur Entrée. Une fois que j'ai reçu le message correct, je peux installer le package HTTPS de transport APT. Donc je vais copier cette commande sudo apt-get install épithélial transport, STDEV.S et le oui et appuyez sur Entrée. Une fois cela fait, j' effacerai à nouveau mon écran. Et maintenant, nous devons enregistrer les définitions de répertoires. Je vais donc copier tout cela à partir de mes notes et le coller sur le terminal, et je cliquerai sur Entrée. Une fois les définitions de répertoires enregistrées, nous pouvons maintenant installer Kibana session Elastic Search Log. Donc, la commande est sudo apt-get update, mettez à jour le système en premier. Ensuite, nous installerons Elastic Search, Log Stash et Kibana. Je vais donc copier tout cela et je le collerai ici, et je cliquerai sur Entrée. Une fois les trois applications installées, il est maintenant temps de configurer nos applications. Je vais d'abord m'en sortir. Ensuite, je ferai sudo SU et ensuite je vais céder dans le premier ATC Elastic Search pour configurer mon service Elasticsearch. Maintenant, dans le répertoire de configuration d'Elastic Search, si je fais un LS, il y a un fichier appelé Elastic Search dot YAML, qui est le fichier de configuration principal appelé Elastic Search. Donc, tapez pivot dans sudo, le point YAML Elastic Search pour configurer ce fichier. Dans ce fichier, la première chose à modifier est le nom du point en cluster. Je vais donc d'abord entrer dans Insertion, puis décommenter le nom du point du cluster. Ce paramètre permet de définir un nom descriptif pour votre cluster. Je vais donc appeler le tableau de démonstration de mon cluster ELK. Maintenant, le prochain paramètre que je veux changer est le nom du point de nœud. Ce paramètre permet de configurer un nom descriptif pour ce nœud sur le cluster. Je vais donc appeler ça le noeud 1. Maintenant, une fois que j'ai fait cela, je peux laisser les valeurs par défaut pour les données de points chemin et les journaux de points de chemin et je devrai entrer en réseau. Sous paramètre réseau, je souhaite modifier l'hôte de point réseau. Par défaut, Elasticsearch n'est accessible que sur l'hôte local. Nous devons changer cela, donc nous allons modifier cette valeur, passe à 0. Maintenant, nous allons décommenter le port http dot, mais nous le laisserons tel quel dans un environnement de production. Si vous souhaitez modifier le port par défaut sur lequel Elastic Searches est accessible, vous allez modifier cette valeur. Maintenant, nous allons laisser la découverte telle quelle, car c'est un cluster à nœud unique qui va descendre et vers le bas, ce que nous allons faire, c'est que nous allons mettre dans un paramètre appelé type de point de découverte. Je vais donc taper le type de point de découverte. Et la valeur de ce paramètre est nœud unique car il s' agit d'un serveur à nœud unique. Il va vérifier cela dans mes notes. Type de point découvert sur un seul nœud. Nous pouvons donc maintenant enregistrer ce fichier. Je vais faire WQ et appuyer sur Entrée. Et pour démarrer Elasticsearch Service, je vais taper le système CTL, démarrer Elastic Search et appuyer sur Entrée. Une fois le service démarré, nous pouvons d'abord vérifier l'état du service par système de dactylographie CTL. Un état Elastic Search et le statut indique l'exécution active. Je vais donc contrôler C, puis moins tester la connectivité à notre cluster ALK, type de sol en fille moins x obtenir comme PIB, puis localhost puis le port que la recherche élastique fonctionne sur 90 à 100. Et puis pour vérifier l' état de la grappe, je vais devoir taper du plâtre de soulignement puis maintenu. Et je veux que la sortie soit dans un format lisible par l'homme. Je vais donc taper jolie et appuyer sur Entrée. Maintenant, le statut est revenu en vert et il y a un seul nœud sur ce cluster, ce que nous voulions. Le service Elastic est donc installé et configuré. Je vais me débarrasser de tout et il est temps de configurer Kibana. J'irai donc dans CD, ATC, puis Kibana et je frapperai Entrée. Maintenant, si je fais un ls, vous verrez qu'il y a un fichier Kibana dot YAML similaire que nous devons configurer. Je vais donc taper sudo VI Kibana point YAML et appuyer sur Entrée. Maintenant, à l'intérieur du fichier YAML Kubernetes va d'abord dans Insertion, puis accédera au port de point d'été, puis non commenté, mais laissez le paramètre tel quel. C'est le port que Kibana et ainsi de suite. Dans un paramètre de production, possible que vous souhaitiez le remplacer de 5601. Ensuite, nous allons passer de l'hôte à plusieurs points, le décommenter et le changer de l'hôte local à 0 ou 0 vers 0. Cela permettra à Kibana d'être accessible par le monde extérieur. J'ai changé ça. Maintenant, prochain paramètre que nous voulons modifier une URL de base publique de points d'été. Je ne commenterai donc pas cela. Et ensuite, ce que je dois faire, c'est de taper http, puis l'adresse IP privée de mon instance Kibana. Passons donc à notre page Instances VM, et à partir de là, je copierai l'adresse IP interne. Maintenant, je vais taper http, puis je vais coller l'adresse IP interne de mon instance Kibana, puis je spécifierai le port 5601. Ensuite, je dois spécifier un nom descriptif pour mon instance Kibana. Je vais donc décommenter le nom du point du serveur, et ici je vais taper le tableau de bord de démo Kibana. Ensuite, je dois spécifier l'URL où l' hôte Elastic Search est accessible. Donc, sous Elasticsearch enseigné aux hôtes, je laisserai la valeur par défaut car elle s' exécute sur le même serveur où Elastic Searches s'exécute. Nous pouvons donc le laisser tel quel, nous pouvons enregistrer ce fichier et maintenant il est temps de démarrer Kibana. Donc, système CTL, démarrez Kibana et je vais appuyer sur Entrée. On dirait que j'ai fait un système de fautes de frappe CTL démarre Kibana et je frapperai Entrée. Maintenant, une fois que le service reviendra, je ferai un statut CTL système Kibana et l' activité des services en cours d'exécution. Revenons donc à nos instances de machines virtuelles. À partir de là, je vais copier l'adresse IP externe de mon instance. Je vais ouvrir un nouvel onglet de navigateur, le coller ici, puis spécifier le port sur lequel Kibana est en cours d'exécution. Donc 5601 et moi allons appuyer sur Entrée si Kibana est installé et configuré avec succès, vous commencerez à voir charger Elastic en premier. Maintenant, une fois que Kibana est correctement chargé, vous verrez la bienvenue dans Elastic. Et si vous cliquez sur Explore seul, vous accéderez à l'interface utilisateur de Kibana. Maintenant, il y a une dernière chose que je voulais vous montrer avant de vous laisser partir, si vous voulez que votre application Elasticsearch et Kibana démarre automatiquement lorsque vous redémarrez votre système, ce que vous devrez faire, c'est que vous devrez taper dans le système CTL activer recherche élastique et le système CTL activer Kibana, un autel déplace le point. Et avec cela, nous sommes arrivés à la fin de cette conférence. Merci d'avoir regardé. Je vous verrai dans le prochain. Au revoir. 10. 12: Hé les gars, Dans cette conférence, nous allons installer et configurer session de journal Elasticsearch Kibana sur un système Linux basé sur RPM. Pour ce faire, nous devrons d'abord installer la clé Elastic Search GPG, puis configurer nos référentiels Kibana de session Elastic Search Logs sur le système RPM. Après cela, nous installerons nos applications. Ensuite, nous allons configurer Elasticsearch et Kibana. Et une fois la configuration terminée , nous pouvons démarrer le service Elasticsearch et Kibana et tester la connectivité. Commençons donc. Maintenant à l'écran, je suis dans mon compte GCP. Et sous les instances VMI, vous pouvez déjà voir le système Linux basé sur Debian sur lequel nous avons installé notre système de recherche Elastic à nœud unique plus tôt dans les conférences précédentes. Ici, je cliquerai sur Create Instance, puis je cliquerai sur une nouvelle instance de VM à partir du modèle, puis je choisirai ELK. Ensuite, je vais appuyer sur Continue. Nous laisserons le nom ELK T2, mais nous changerons la région en US West One. Ensuite, je vais descendre et sous le disque de démarrage, je cliquerai sur le changement. Ici. Sous système d'exploitation, nous allons cliquer sur le menu déroulant, et ici nous choisirons Red Hat Enterprise Linux. Nous pouvons maintenant modifier la version de Linux souhaitée pour cette machine. Je le laisse par défaut et je cliquerai sur Sélectionner. Une fois que j'aurai fait cela, je vais passer au réseautage. Et sous la mise en réseau, je vais m' assurer d'avoir la balise réseau correcte, Kibana, et que je suis dans le VPC Elastic Search et que je suis sous le sous-réseau de surveillance. Ensuite, je cliquerai sur Créer. Une fois que mes deux instances ELK sont en cours d'exécution, je copierai l'adresse IP externe , puis je vais accéder à mon code Visual Studio. Et sur mon code Visual Studio, à gauche, j'ai les notes pour installer Elastic Search sur un système RPM. Et sur le côté droit, j'ai une fenêtre de terminal sous type de terminal en SSH, puis je l'ai laborieuse. Ensuite, je collerai l'adresse IP externe et j'appuierai sur Entrée. Cliquez sur Oui. Maintenant que je me suis connecté à cette instance, je clique sur Effacer et nous sommes maintenant prêts à commencer à installer nos services. Nous devons d'abord importer clé Elasticsearch GPG sur ce système. Je vais donc copier tout cela et je le collerai sur mon système et je cliquerai sur Entrée. C'est. Impossible d'ouvrir l'index à l'aide des indications d'autorisation V5. Ce que je vais faire, c'est que j'exécuterai la même commande en utilisant sudo, sudo et j'appuierai sur Entrée et une fois que la clé est correctement importée, je commencerai à installer les référentiels RPM. Donc, d'abord, je devrai créer trois fichiers, Elastic Search dot repo, Kibera, repo et log Slashdot repo dans ma jeune fille repost ou D. Donc je copierai la commande première touche et appuyez sur Entrée. Je dois d'abord taper du sudo. Maintenant, je vais passer à Sudo SU. Ensuite, je copierai la deuxième commande tactile, puis je copierai la troisième commande tactile. Donc maintenant, si je vais chez ma jeune fille, reposte ou D, le néphron fait un ls. J'ai mes trois fichiers, Elasticsearch, dépôt court, des journaux, une artère gestuelle Po et un rapport de points Kibana. Ensuite, nous devrons configurer les fichiers. Nous allons donc d'abord faire VI sur Elastic Search short repo, et je vais aller dans Insertion , puis je devrai configurer ces paramètres dans le profil Marie. Je cliquerai donc sur coller et je vais faire un formatage. Maintenant, cette définition du référentiel n'est rien, mais nous avons d' abord le nom de ce paramètre de configuration, puis nous avons l'URL d' où obtenir le package. Gpt vérifie si la clé GPG est activée ou non et le type. Maintenant, je vais enregistrer ce fichier. Prochaine. Nous ferons un VI sur Kibana Dot Repo, et ils iront dans l' insertion et je copierai tous les paramètres de mon clavier ou de mes trois profils. Je les colle ici. Et encore une fois, je vais devoir faire du formatage. Et maintenant, je peux également enregistrer ce fichier. Enfin, je vais devoir modifier mon profil d'artère étirée. Je vais insérer une copie paramètres pour le journal étiré ou triple, et je vais enregistrer ce fichier. Vous n'avez plus à vous soucier de ces paramètres de configuration. Ce que je ferai, c'est que je joins mes notes et le lien de description de cette vidéo afin que vous puissiez y accéder également. Une fois que nous avons configuré nos trois postes de repos, nous pouvons tout installer. Nous devons donc d'abord installer Elastic Search et la commande est sudo yum install enabled repo. Il fait ensuite référence au rapport Elastic Search que vous venez de configurer. Ensuite, le nom du service est Elastic Search. Je vais donc le copier, je le collerai ici et je cliquerai sur Entrée. Si l'assureur vous demande de télécharger un package Elastic Search, dites simplement oui et passez à autre chose. Maintenant, une fois Elastic Search et stocké, nous pouvons installer Kibana et Log Stash In type dans sudo yum installer Kibana pour installer Kibana et appuyer sur Entrée, je vais cliquer sur oui ici. Maintenant, une fois que Kibana est installé, vous pouvez taper sudo yum installer Log Stash pour installer Log Stash NAL head, oui. Maintenant, une fois que les recherches de journaux sont également installées, il est temps de configurer nos services. Cela ressemblerait à ce que nous avons fait pour notre système basé sur le DBN. Si vous l'avez déjà fait, vous pouvez probablement les configurer vous-même si ce n'est pas le cas, veuillez suivre cette conférence. Tout d'abord, nous allons configurer Elasticsearch. Donc, CD, ETC slash Elash Elastic Search. Ici, si je fais un ls, je verrai qu'il y a un fichier appelé Elastic Search si je le suis, et c'est le fichier de configuration pour Elastic Search. Nous allons donc modifier cela. Je vais donc taper VI Elastic Search point YAML et appuyer sur Entrée. Maintenant, dans ce fichier, je vais d'abord entrer dans Insert. Et le premier paramètre que je dois modifier est le nom du point en cluster. Je vais changer cela pour démo Dash ELK. Ensuite, je voulais changer le paramètre du nom du point de nœud, donc nous allons changer cela en ELK dash one. Après cela, je peux laisser le chemin vers données et le paramètre du journal des points du chemin tel quel, je devrai passer sous le réseau et à l'intérieur réseau. Ce que je vais faire, c'est d' aller à l'hôte de point réseau, pas commenter cela et modifiez cette valeur à 0$ ou 0 vers 0. Désormais, ce qui se passe, c'est par défaut, Elastic Search n'est accessible qu'à partir de localhost en la changeant sur 0, 0 ou 000. Nous exposons cela à n'importe qui dans le monde. Ensuite, nous allons décommenter le port point STDP, mais nous laisserons le port comme port 9200 par défaut. Si vous exécutez un cluster de production, vous voudrez peut-être le modifier par un autre port, mais nous le laisserons tel quel. Enfin, je vais aller juste au bas de ce dossier. Et ici, je vais taper un décor pour le doctype de découverte. Maintenant, cette valeur de paramètres serait une charge unique car nous configurons un cluster Elasticsearch à un seul nœud ou un type de point de découverte. Et la valeur est un nœud de tiret unique. Et maintenant, je peux enregistrer mon YAML frappé par Elasticsearch, donc je vais appuyer sur Entrée maintenant je peux démarrer mon service Elasticsearch. Ainsi, le système CTL démarre Elastic Search. Une fois que le service est activé, il peut vérifier l'état du service. Il est actif et en cours d'exécution. Maintenant, pour vérifier la connectivité à notre cluster, nous allons saisir moins x, obtenir STDP, puis localhost, puis le port exécuté par Elastic Search sur 90 à 100. Ensuite, nous nous connecterons à l'API du cluster et au service de santé de cette API. Et ce que nous voulons, c'est que nous voulons la sortie dans un format lisible par l'homme. Nous allons donc taper jolie et appuyer sur Entrée. Et comme vous pouvez le constater, le statut de notre cluster est vert et le nombre de nœuds est amusant. Nous pouvons maintenant commencer à configurer notre Kibana. Je vais donc entrer dans la barre oblique, ETC, barre oblique Kibana, et je vais effacer tout et faire un ls à l'intérieur de ce dossier donné ou, il y a un fichier appelé clavier AutoML, qui est le fichier de configuration pour Kibana. Je vais donc faire VI Kibana Dot YAML. Maintenant, je vais d'abord entrer dans Insert. Le premier paramètre que je veux modifier est notre diagramme de points, mais je laisserai cette valeur telle quelle, car il s'agit d'un système de démonstration. Si vous étiez dans un système de production, vous voudrez peut-être modifier cette valeur par autre chose. Ensuite, je vais décommenter l'hôte point du serveur, puis je le remplacerai de localhost à $0 point 0. Encore une fois, cela le rend accessible au monde extérieur. Désormais, l'URL de base publique de plusieurs points est l'URL sur laquelle Kibana est accessible. Pour obtenir la valeur ce paramètre, vous devrez accéder à nos instances de VM. Ensuite, sous IHL k2, je copierai l' adresse IP interne et je taperai http, et je collerai l'adresse IP interne, et je vais fournir le port qui a 5601. Ensuite, nous allons changer le nom du serveur, mais je vais entrer dans self.name, décommenter et lui donner le nom demo dash Kibana. Ensuite, je vais voir les hôtes courts d'Elastic Search. Et je peux laisser la valeur par défaut car ces instances Kibana s'exécutent sur le même serveur que les services Elasticsearch exécutés. Et une fois que j'ai fait cela, je peux enregistrer mon fichier de configuration. Et maintenant, je peux commencer Kibana. Une fois que Gibbon j'ai démarré, je peux faire le statut CTL du système Kibana et le service est actif et en cours d'exécution. Ensuite, je vais aller sur mes instances de machine virtuelle, copier l'adresse IP publique de mon instance Kibana, en la basant sur l'onglet du navigateur et taper 5601 pour me connecter au service Kibana sur le serveur sera en mesure d'accéder à l'interface utilisateur de Kibana. Maintenant, une fois que vous arrivez à cet écran, vous cliquez sur Exploré tout seul et ils devraient vous emmener à l'interface utilisateur de Kibana. Avant de vous laisser partir, je veux vous montrer une dernière chose. Maintenant, si vous souhaitez que vos services Elasticsearch et Kibana reviennent automatiquement après le redémarrage du système, vous devez saisir CTL système, activer Elastic Search, activer le service Elasticsearch et système CTL activer Kibana, activer le service Kibana. C'est ainsi que nous sommes arrivés à la fin de cette conférence. Merci d'avoir regardé. Je vous verrai dans le prochain. Au revoir. 11. Installer ELK sur le serveur Windows: Hé les gars, dans cette conférence, nous allons installer Elastic Search sur un serveur Windows. Pour commencer, nous allons télécharger quelques logiciels. Nous allons donc d'abord télécharger Elasticsearch et Kibana. Après cela, nous allons l' installer appelé NSSS est un gestionnaire de service non suceur. Cet outil vous aide à installer une application en tant que service. La raison pour laquelle nous avons besoin de cet outil est que Kibana n'est pas fourni avec l'utilitaire de package gratuit qui peut nous aider à installer Kibana en tant que service. Nous utiliserons donc NSSA pour Elastic Search. Nous avons un utilitaire appelé Elastic Search Dans cet obscurité, dans le fichier zip Elastic Search, qui sera utilisé pour installer une ressource telle qu'un Service sur Windows Server. Maintenant, après avoir téléchargé NSSS, nous allons télécharger et installer 7-Zip. Une fois les téléchargements terminés, nous allons configurer Elasticsearch et, compte tenu de nos applications, nous les exécuterons en tant que service. Et une fois qu'ils auront démarré avec succès, nous testerons la connectivité à notre cluster Elasticsearch et à d'autres instances Kibana dans votre esquisse commencée ici. J'ai ma fenêtre quelque part, où que j'installe Elasticsearch et Kibana sur ce serveur, j' ouvrirai d' abord un onglet de navigateur. Et sur le navigateur, je vais taper dans la recherche classique Windows télécharger et appuyer sur Entrée. Et à partir de là, j'irai sur l'URL qui indique élastique. Il télécharge une recherche élastique. Je vais donc cliquer sur ce lien. Et une fois que je serai sur ce lien, je m'assurerai d'être sur l'onglet de sortie de l'AG. Et à partir de la première étape, nous allons télécharger classique, comme si Windows, je cliquerai sur ce bouton Télécharger. Et pendant que cela a été téléchargé, j'ouvrirai un autre onglet et je vais taper Kibana windows télécharger. Et ici aussi, je vais accéder à l'URL de téléchargement de Kibana. Et à partir de cette URL également, je vais passer à la première étape, télécharger et décompresser Kibana. Je vais m'assurer que la mousse noire est choisie comme Windows, et je cliquerai sur le bouton de téléchargement pour Windows. Et cela devrait également commencer le téléchargement pour mon processus Kibana. Maintenant, pendant le téléchargement, je vais ouvrir un autre onglet et je vais taper téléchargement et SSM et appuyer sur Entrée. Et à partir des résultats, il choisit le lien pour un point SSM cc et les téléchargements. Et à partir de cette page Web, je vais passer sous la dernière version de la section. Vous n'avez pas cliqué sur l' utilitaire et SSM 2.24. Je vais donc cliquer dessus et maintenant je vais ouvrir un autre onglet et je vais taper téléchargement 7-Zip et il entrera. Et depuis la page de téléchargement 7-Zip DOT ORG, je cliquerai sur le lien pour télécharger l'utilitaire pour Windows 64 bits. Je vais donc cliquer sur ce lien de téléchargement ici. Maintenant, une fois tous les fichiers téléchargés, je cliquerai d'abord sur 7-Zip installé, 7-Zip sur le système. la boîte de dialogue du programme d'installation, je cliquerai sur Exécuter, et à partir de là, je choisirai le dossier de destination par défaut et je cliquerai sur Installer. Et une fois que l'adresse IP de quelqu'un est installée, je peux cliquer sur. Et maintenant, je vais ouvrir mon dossier de téléchargements. Une fois dans le dossier de téléchargement, vous pouvez maintenant cliquer avec le bouton droit sur Elasticsearch zip et utiliser 7-Zip pour extraire les fichiers. Je vais donc cliquer sur Extraire les fichiers. Et à partir de là, vous pouvez choisir le chemin d'accès où vous souhaitez extraire ces fichiers. Ce que j'ai fait pour cette conférence, c'est que j'ai déjà accepté ces fichiers dans mon dossier de documents. J'irai dans le dossier Mes documents et comme vous pouvez le voir, j'ai un dossier de recherche élastique ici, et j'ai également un dossier Kibana. Commençons donc à les configurer. Je vais ouvrir le dossier Elastic Search, et à partir de là, je choisirai Elastic Search. Une fois encore. Je vais entrer en conflit. Dans le dossier de conflit, nous devons modifier le fichier YAML court Elasticsearch. Je vais donc cliquer avec le bouton droit de la souris sur ce fichier et j'utiliserai VS Code pour modifier ce fichier. Vous pouvez utiliser l'éditeur de votre choix. N'hésitez donc pas à ouvrir et à modifier ce fichier. Maintenant, une fois que j'ai ouvert le fichier YAML court Elasticsearch, ce que je ferai, c'est que le premier paramètre que je dois changer est en cluster ou en nom. Et je vais changer cela pour démo Dash ELK. Ensuite, je dois changer le nom du nœud. Je vais donc changer cela pour ELK Dash One. Après cela, je n'ai pas besoin de spécifier un chemin d'accès à mon répertoire de données ou à mon répertoire de journaux car il s' agit d'une instance de démonstration. Donc je vais le garder, il est dit par défaut. Maintenant, je vais aller dans la section Réseau et décommenter l'hôte de point réseau. Et je vais changer cette valeur à 0. Après cela, je ne commenterai pas http dot porc, mais je garderai le port par défaut. Enfin, j'irai vers le bas de ce dossier. Et ici, je vais taper le type de point de découverte, et je donnerai la valeur du tableau de bord unique car il s'agit d'une seule solution Norton. Maintenant, je peux enregistrer ce fichier et une fois que je l'ai fait, je peux démarrer mon service Elasticsearch. Pour ce faire, je vais entrer dans ma zone de recherche et je vais taper PowerShell, et ici je vais choisir l'application de bureau Windows PowerShell. suis maintenant allé dans ma console PowerShell. Je vais taper cd si je dois aller dans Documents, puis je dois aller dossier Elasticsearch, puis Elasticsearch à nouveau, puis être dans le bac si je fais un ls. Maintenant, vous verrez qu' il existe un fichier appelé Elastic Search service dot Ph.D. Maintenant, nous devons exécuter ce fichier. Je vais tout d'abord sortir de mon écran. Et à partir de là, je vais taper dans barre oblique Elastic Search, tiret, point de service. Et ici, je dois taper des installateurs. Donc, la barre oblique Elasticsearch service dot TVA installe l'espace, et je cliquerai sur Entrée. Maintenant, cela devrait commencer l'installation d'un actif tel qu'un service. Une fois cela terminé, ce que vous pouvez faire, c'est que vous pouvez accéder aux services dot MSC à partir de votre champ de recherche. Ici, vous trouverez le service Elasticsearch et vous pouvez maintenant démarrer le service. Mais tout d'abord, nous allons changer le type de démarrage du service de manuel à automatique afin que le service démarre une fois que les démarrages cellulaires entrent automatiquement dans les propriétés. Nous allons passer au type de démarrage et le modifier en automatique et cliquer sur Appliquer. Une fois cela fait, vous pouvez cliquer sur Démarrer pour commencer. Le service va cliquer sur OK. Et vous pouvez voir que les services sont en cours d'exécution. Maintenant, permettez-moi de maximiser ma publication. Maintenant, vous pouvez également utiliser le même utilitaire pour gérer ce service. Laissez-moi vous montrer l'utilisation. Si j'avais mis en barre oblique service de recherche classique stocké la TVA et appuyez sur Entrée. Vous pouvez maintenant voir l'utilisation. Vous pouvez installer un service de suppression de service, démarrer l'arrêt et gérer un service. Maintenant, essayons d' arrêter ce service l'aide de ces utilitaires pour que je puisse entrer en stock et appuyer sur Entrée. J'ai maintenant reçu le message indiquant que ce service Elasticsearch a été arrêté. Et je peux valider qu'en entrant dans mon point de services MSC et en cliquant sur le bouton Exécuter cette actualisation, vous pouvez voir que le service a été arrêté. Commençons maintenant le service et appuyez sur Entrée, et nous avons le message indiquant que les services ont démarré. Nous allons donc le valider encore une fois. Je clique donc sur Actualiser et vous pouvez voir que le service était exécution pour tester la connectivité à notre instance Elasticsearch. Ce que nous devons faire, c'est que vous devez ouvrir la fenêtre Chrome. Et depuis Chrome, ouvrons un autre onglet. Et ici, tapons http slash slash hôte local , puis acheté 90 à 100 et appuyez sur Enter nervosa services. Vous verrez des informations provenant de votre cluster. Maintenant, ce que vous pouvez également faire c'est que vous pouvez examiner l'état de santé du cluster. Pour ce faire, vous entrerez une barre oblique après l' URL et soulignerez une autre barre oblique et une autre tête , puis un point d'interrogation, puis assez liquide la tête du cluster. Vous pouvez maintenant voir que le statut du cluster est vert et que le nombre de nœuds est un. Voici donc comment installer Elastic Search sur une machine Windows. Ensuite, nous allons configurer notre instance Kibana. Maintenant, pour configurer notre Kibana, je vais ouvrir l'explorateur de fichiers. Et à partir de là, j' irai dans Documents. Et je vais ouvrir mon dossier Kibana. Et puis le dossier Kibana à nouveau, puis config. Et dans Config, je vais devoir modifier le financement Kibera TML, donc je clique dessus avec le bouton droit de la souris et je clique sur Ouvrir pour ouvrir ce fichier dans un éditeur. Maintenant, dans ce fichier, je vais décommenter solver.py, mais le laisser par défaut. Ensuite, je vais décommenter l'hôte point du serveur et modifier la valeur de l'hôte local à 0 point 000. Ensuite, je vais modifier l'URL de base publique à plusieurs points, donc je ne commenterai pas cela. Et pour obtenir sa valeur, vous devez passer aux paramètres Netflix suivants. Et à partir de là, je cliquerai à nouveau sur Réseau pour obtenir l' adresse IP de cette machine, qui est standard de 0 point à point 15. Ainsi, l'URL de base publique sera STDP 10 points 0 point 15. Et puis le livre a pris le 601. C'est donc l'URL sur laquelle donner honneur sera accessible. Je vais descendre un peu. Ensuite, je changerai plusieurs noms de points et je changerai le nom descriptif de mon instance Kibana à partir du tableau de bord de démonstration amélioré de votre hôte Kibana. Ensuite, je vais décommenter les hôtes de points Elastic Search. Mais je peux laisser cela par défaut car cette instance Kibana est installée localement sur le même serveur avec des recherches élastiques. Maintenant, par défaut, Kibana se connecte, il se connecte à STD out. Nous voulons changer cela et nous voulons configurer notre Kibana ou enregistrer ses journaux sur le journal sanguin quelque part. Pour ce faire, nous devons descendre et trouver la ligne qui indique login dot t ESD. Il est en ligne 97, je ne commenterai pas cela. Et avant de modifier sa valeur, j'ouvrirai mon explorateur de fichiers et je vais monter d'un niveau. Et ici, je vais créer un nouveau dossier appelé journaux. Et je vais ouvrir ça. Ensuite, je cliquerai avec le bouton droit de la souris sur les journaux dans la barre supérieure. Et je vais copier des textes d'adresses, et maintenant je vais remplacer l' estradiol par ce texte. Ici, je vais faire une autre barre oblique et je suis allé appeler mon fichier journal Kibana dark low. Ainsi, Kibana va écrire les journaux dans ce fichier. Maintenant, nous pouvons également décommenter le point de journalisation silencieuse et la journalisation des points silencieux, mais nous garderons ces valeurs comme fausses. Maintenant, si vous voulez une journalisation détaillée, vous pouvez annuler les commentaires et modifier sa valeur de false à true. Cela vous donnera des détails de niveau granulaire sur Kibana est verrouillé. Maintenant, nous pouvons enregistrer ce fichier. Avant d'utiliser un SSM pour démarrer Kibana en tant que service, je veux vous montrer comment démarrer Kibana manuellement. Je vais donc aller dans mon PowerShell et à partir d' ici et taper le CD et les documents, j'irai dans Kibana puis Kibana à nouveau. Et puis, de l'intérieur, Kibana va se plier cette fois. Et ici, si je fais un ls, vous verrez qu'il y a un fichier appelé Kibana dot dot. Nous devons exécuter ce fichier. D'abord. Je vais m'en débarrasser, puis je taperai Kibana barre oblique, et je frapperai Enter. Après cela, passons à la fenêtre de notre navigateur et tapez un point oblique http, point à point 15 et recevons un port 5601 et je vais appuyer sur Entrée. Et cela devrait me prendre ma page Kibana, sans dépendre de la puissance de votre serveur Windows. Le chargement de Kibana peut prendre un certain temps , alors donnez-lui un peu de temps. Après cela, voyons comment installer Kibana en tant que service. Tout d'abord, je vais ouvrir PowerShell et j'arrêterai cette instance. Appuyez sur Control C et il entrez et gérez la toile de fond de minute système que je peux taper, oui, je vais dominer cela. Et une fois que je ne serai plus là, je sortirai de Kibana, ouvrira mon explorateur de fichiers qui télécharge, extrait un SSM. Donc 7-Zip. Si les fichiers, et je choisirai les documents et cliquez sur OK, puis à nouveau OK. Et une fois qu'un FSM est à l'intérieur de mes documents, je peux revenir sur PowerShell, CD et SSM et faire un LS ici. Maintenant, il y a un autre dossier appelé SSM, donc nous allons y faire un CD et faire un LS à partir d'ici. J'ai besoin d'entrer dans quand 64 parce que ma machine est jamais connue 64 machine. Si vous utilisez une machine Windows 32 bits, vous devez accéder à ce répertoire. J'entrerai quand 60 quarts, donc CD en 64. Si je fais un LS ici, il y aura un fichier EXE appelé SSM dot EXE. Je vais donc faire des barres obliques et SSM dot EXE. Et pour vous montrer l'usage, je vais finir ici. Maintenant, l'utilisation est inutile, l' une des options, puis quelques arguments. Installez un service, nous devons utiliser une installation SSM. Donc ici, nous allons taper dans la barre oblique de points et l'espace SSM EXE en magasin. Et maintenant, nous devons donner le nom du service. Alors Kibana et frappez Entrée. Une fois que vous avez appuyé sur Entrée, une boîte de dialogue s'ouvre. Et dans cette boîte de dialogue de l' onglet Application, nous devons spécifier le chemin du fichier batch pour Kibana. Je vais cliquer sur ce bouton ici. Ensuite, nous allons voir Documents, Kibana, Kibana, puis bin. Et à partir de là, je spécifierai garder notre fichier batch et cliquer sur Ouvrir maintenant et ouvrir l'étape détaillée. Je peux taper quelques détails, donc je vais taper Kibana et la description sera également Kibana. Vous pouvez spécifier que le type de démarrage peut être automatique, automatique, retardé, manuel ou désactivé. Nous allons laisser ça automatique. Vous pouvez spécifier ici la connexion en tant qu'informations, les dépendances de ce service, le comportement d' arrêt de la priorité du processus. Mais nous laissons tout par défaut et cliquons sur le service d'installation après que j'ai reçu une confirmation que les services Kibana sont installés, je peux cliquer sur OK. Et cela supprimera la boîte de dialogue, protégera l'état du service Kibana. Je peux taper NASM, cmd.exe statut de l'espace Kibana, et appuyer sur Entrée, il est indiqué Stock de service. abord, nous devons démarrer le service nsf dot EXE Space Stark Space key bouton et j'appuie sur Entrée. J'ai maintenant la confirmation que cette opération de service s'est terminée avec succès. Je vais donc aller à la fenêtre MSC de mes services, rafraîchir ça, et je vais aller à mon service Kibana. Et je vois que les services Kibana fonctionnent. Je vais donc ouvrir un autre onglet du navigateur et cliquer sur Actualiser et sécuriser les charges virales. Cela pourrait prendre encore un certain temps. Je vais poster la vidéo ici. Maintenant, il a fallu quelques minutes pour mon encens Kibana remonte, mais je peux maintenant cliquer sur Explore seul et commencer à travailler sur mon interface utilisateur Kibana. Maintenant, avant de vous laisser passer ensuite, vérifiez que notre instance Kibana se connecte au fichier journal qu'elle spécifie. Je vais donc documenter Kibana, Kibana, puis j'irai dans les journaux. Je peux voir que mon fichier journal de points Kibana est là et qu'il possède des centres de données. Ouvrez-le. Et ici, vous pouvez voir que Kibana écrit des données x log dans ce fichier journal. C'est ainsi que nous sommes arrivés à la fin de cette conférence. Je vous ai montré comment installer Elasticsearch et Kibana sur Windows Server. Merci d'avoir regardé. Je vous verrai dans le prochain. Au revoir. 12. 14: Hé les gars, dans cette conférence, nous allons configurer les attentes de sécurité sur notre cluster Elasticsearch. Tout d'abord, nous arrêterons Kibana dans le service Elasticsearch. Ensuite, nous allons activer les attentes à l'intérieur de ce fichier de configuration Elastic Search. Ensuite, nous lancerons le service Elasticsearch. Après cela, nous allons configurer informations d'identification par défaut pour les utilisateurs intégrés à Elastic Search. Nous allons ensuite configurer Kibana pour qu'il utilise l' authentification par mot de passe pour se connecter à notre cluster Elasticsearch. Enfin, nous allons lancer notre service Kibana et tester la connectivité. Commençons. Ici, à l'écran, j'ai mes notes à configurer sur notre cluster Elasticsearch et sur le côté droit, ma connexion SSH à l'intérieur de ma machine ELL donnée. Il s'agit d'un cluster ELK à nœud unique que nous avons déployé sur un package DBN. Donc ici, d'abord, je dois arrêter Kibana, une recherche élastique. Je vais donc taper le système CTL, arrêter Kibana et le directeur technique des systèmes arrêtera la recherche élastique. Une fois que j'aurai d'abord des services de conseil d'administration solides, je devrai permettre d'attendre à l'intérieur d'Elastic Search frappé Yammer. Nous allons donc passer à Elasticsearch. Et puis ici, nous allons taper VI Elastic Search point YAML. Et sur ce fichier va descendre en bas, et je passerai en mode insertion. Et vers le bas, j'ajouterai que le paramètre attend que la sécurité soit activée comme vraie. Je vais donc le copier et je le collerai ici. Et maintenant, je peux enregistrer ce fichier. Maintenant, je vais devoir démarrer mon cluster Elasticsearch. Je vais donc taper le système CTL, démarrer Elastic Search. Maintenant, une fois les services Elasticsearch démarrés, examinons l'état en tapant état CTL système Elasticsearch, il est actif et en cours d'exécution. Dans notre vidéo précédente, nous avons utilisé la commande curl pour tester la connectivité à ce cluster. Maintenant, si je fais un contrôle R et que je tape Curl, et si nous lançons à nouveau cette commande, voyons ce qui se passe. Nous obtenons une exception de sécurité indiquant que nous manquons les informations d'identification d'authentification. Ce que nous devons faire maintenant, c'est que nous devrons générer les informations d'identification d'authentification pour nos utilisateurs intégrés. Je vais donc vider l'écran. Et pour ce faire, nous devrons aller à usr, partager Elastic Search, puis bin. Et si je fais un LS ici, vous verrez qu'il y a beaucoup d' utilitaires dans ce dossier. Ce que nous recherchons est l'utilitaire de mots de passe d'installation d'Elastic Search. Je vais donc taper des mots de passe de configuration du tiret Elasticsearch. Et ici, j'ai deux modes. Je peux soit passer en mode interactif et définir moi-même chaque mot de passe. Permettez-moi donc de vous montrer que je vais d'abord taper interactif et que je vais cliquer, et cela indique le lancement de la configuration du mot de passe pour les utilisateurs réservés. Et il donne un nom aux utilisateurs et indique que vous serez invité à entrer des mots de passe au fur et à mesure que le processus progresse Veuillez confirmer que vous souhaitez continuer. Je vais d'abord taper ici. Ce que j'aimerais, c'est Elastic Search génère automatiquement des mots de passe pour moi. Nous allons donc le faire. Je vais taper auto et appuyer sur Entrée. Et maintenant, il est répété, mais cette fois, il indique que les mots de passe seront générés au hasard et imprimés sur la console à l'aide de l'auto, les mots de passe sont générés automatiquement, alors qu'ils sont interactifs saisis manuellement par l'utilisateur. Nous allons donc saisir oui, pour générer automatiquement mes mots de passe. J'ai le mot de passe ici, donc je vais les copier et je paierai dans mes notes. Maintenant, une fois que j'ai fait cela, laissez-moi m'en sortir. Faisons un CD pour sortir de tout et éclaircir. Maintenant, lançons à nouveau notre commande curl. Mais cette fois, ce que je veux faire, c'est utiliser l'option moins u pour spécifier le nom d'utilisateur et le mot de passe juste après Carl, je vais taper moins u et je vais taper Elastic comme nom d'utilisateur. Elastic est un superutilisateur sur le cluster Elasticsearch. Ensuite, je spécifierai le mot de passe de mon superutilisateur Elastic. Je vais donc contrôler C. Je vais coller ici et ensuite je mettrai un espace. Et maintenant, si je clique sur Entrée, vous verrez que je suis en mesure d' obtenir des informations de cluster. Encore une fois, cela signifie que notre cluster est correctement configuré avec une sécurité et une authentification par mot de passe. Maintenant, l'instance Ikebana, si nous essayons de la démarrer maintenant, nous donnera une erreur car elle ne peut pas se connecter à Elasticsearch. Nous devons donc fournir les informations d'identification Elastic Search pour que mon instance Kibana se connecte au cluster Elasticsearch. Pour ce faire, nous allons faire CD ADC, Kibana, puis sous Kibana, nous allons éditer le fichier Kibana dot YAML. Et à l'intérieur de ce fichier, je vais entrer dans l'insertion et j' irai dans la section où il est écrit qu' Elasticsearch a enseigné le nom d'utilisateur et le nom d'utilisateur intégré utilisé pour cette intégration est le système de soulignement Kibana. C'est donc un nom d'utilisateur. Il suffit donc de décommenter le mot de passe, de supprimer la valeur par défaut, de copier le mot de passe pour l'utilisateur du système Kibana et de le coller ici. Et une fois cela fait, vous pouvez enregistrer ce fichier. Et commençons le service Kibana. Je suis la star du CTO Kibana. Faisons maintenant un statut et le service est actif et en cours d'exécution. Maintenant, lorsque nous chargeons la page Web de Kibana, elle devrait nous demander de nous authentifier. Je vais donc fermer cet onglet. Je copierai à nouveau l' adresse IP publique de ma machine, je la collerai et je vais taper 5601. Et voyons ce qui se passe maintenant, il nous demande le nom d'utilisateur et le mot de passe. Et ici, sous le nom d'utilisateur, je vais taper Elastic et sous mot de passe je vais coller le mot de passe pour le superutilisateur élastique un identifiant. Et maintenant, vous pouvez voir que je suis à l'intérieur de Kibana en utilisant mon élastique utilisateur intégré pour regarder tous les profils utilisateur de cette instance de Kibana. Vous pouvez vous lancer dans la gestion, puis vous lancer dans la gestion des piles et comprendre la gestion. Vous pouvez accéder aux utilisateurs. Et à partir de là, vous pourrez voir tous les utilisateurs intégrés qui ont été créés lors de la configuration qui s'attendent à la sécurité de ce système. Avec cela, nous sommes arrivés à la fin de cette vidéo. Merci d'avoir regardé. Je vous verrai dans le prochain. Au revoir. 13. Ajouter des données à notre cluster à l'élan avec Kibana: Hé les gars, lors des dernières conférences, nous avons installé notre cluster Elasticsearch. Il est maintenant temps d'intégrer des données dans notre cluster. Tout d'abord, nous téléchargerons des données autres que des séries chronologiques, puis nous chargerons des données de séries chronologiques. Ensuite, je vais vous montrer la différence entre les deux. Alors, nous allons nous salir les mains ici sur mon écran. J'ai mon instance Elasticsearch. Je vais donc copier son adresse IP externe, ouvrir un autre onglet de navigateur, coller, et il y a eu 5601 et me connecter à mon instance Kibana. Maintenant, une fois que je suis sur la page d'accueil de mon instance Kibana, il y a un modèle appelé charger un fichier, donc je clique dessus pour télécharger des données. Maintenant, à l'aide de ce modèle, vous pouvez télécharger des fichiers d'une taille maximale de 100 Mo et ils peuvent être au format suivant. Il peut s'agir d'un fichier texte délimité comme CSV ou TSV, fichier JSON délimité ou d'un fichier journal avec un format commun pour l'horodatage. Pour cette conférence, nous téléchargerons fichiers texte délimités qui peuvent être CSV ou TSV. Maintenant, pour obtenir un jeu de données pour ce tutoriel, je vais ouvrir un autre onglet de navigateur et je vais accéder à un site Web appelé kaggle.com. Et sur Kaggle.com, j' irai dans les jeux de données. Je vais donc toucher Entrée. Maintenant, sous ce site Web, vous devrez vous inscrire ou y inscrire pour télécharger les jeux de données. Et une fois que vous l'avez fait depuis le menu de navigation de gauche, si vous êtes sur des jeux de données à la recherche des jeux de données à l'aide de ce bouton Quitter l'état de la recherche. Vous pouvez désormais également filtrer les jeux de données souhaités. Par exemple, comme je ne peux télécharger que jusqu'à 100 Mo de fichiers, je vais saisir 100 Mo ici et taper, en type CSV. Et la taille initiale du fichier peut être comprise entre 0 et b et les militaires s'appliquent. Maintenant, à partir des résultats, je vais cliquer sur le jeu de données appelé émissions Netflix. Et ici, je peux voir la taille de cet ensemble de données qui est d'environ 90 Ko. Si je clique sur Compact, je peux voir des exemples de données à l'intérieur du jeu de données. Et maintenant, je vais cliquer sur le téléchargement pour télécharger ce fichier. Ce fichier est téléchargé sous forme de fichier zip. Je vais donc afficher dans le Finder et à partir d'une fenêtre du Finder, c'est dans mes téléchargements. Je vais donc double-cliquer dessus pour extraire ce fichier. Et maintenant, vous pouvez voir que j'ai le fichier netflix dot csv sur ma machine va maintenant retourner à Kibana. Je peux soit glisser-déposer ce fichier, mais je peux télécharger ce fichier. Je vais donc accéder à mes téléchargements ici. Je vais chercher ce dossier. Donc Netflix dot CSV, et je cliquerai sur Ouvrir. Ce que fait Kibana, c'est qu'elle analyse les mille premières lignes de ce fichier et recueille des données sur ce fichier. Par exemple, il a découvert qu'il s'agit d'un fichier délimité et que le délimiteur est une virgule et qu'il possède également une ligne d'en-tête. Nous pouvons maintenant cliquer sur le paramètre d'écrasement pour remplacer certains paramètres de ce fichier. Ou je peux examiner l'explication de l' analyse pour savoir comment Kibana est parvenue à cette conclusion. Je vais donc cliquer dessus et vous pouvez voir une explication de cette analyse que je vais le plus proche maintenant, vous pouvez également voir quelques démarrages de fichiers. Par exemple, il existe 13 valeurs de notation distinctes dans 999 documents. Une fois que j'ai passé tout cela, je cliquerai sur Importer pour importer ces données sur la page suivante qui me demande de créer un index. Je peux le faire en utilisant une méthode simple ou une méthode avancée pour cette démonstration, nous utiliserons simplement la méthode simple et le nom de l'index. Je vais devoir spécifier le nom du nouvel index qui va être créé. Je vais donc l'appeler index Netflix. Maintenant, encore une fois, l'index est la façon dont vous stockez les données dans Elasticsearch. L'option suivante consiste à créer un spectre d'index. Comparé à un index, un modèle d'index est la façon dont vous pouvez rechercher et analyser ces données dans Kibana, l'index sert à stocker des données dans Elasticsearch, un modèle d'index consiste à analyser ces données. Et Kibana, je veux créer un modèle d'index car je veux visualiser ces données et Kibana. Je vais donc cliquer sur Importer. Vous pouvez ensuite dire qu'il traite d'abord le fichier, puis crée l'index, crée un pipeline d'ingestion et télécharge les données, puis crée un modèle d'index pour ces données. Une fois que tout cela est fait, vous recevrez un message d'importation complète. Vous pouvez soit effectuer ces données dans une certaine gestion d' index. Par exemple, vous pouvez spécifier quand ces données sont à nouveau supprimées du bouton index, etc. , gestionnaire, index. Et nous parlerons de File un peu plus tard. Mais pour l'instant, nous voulons découvrir cet index dans notre onglet historique pour accéder à la page Découvrir. Une autre façon consiste à cliquer sur ces trois lignes en haut à gauche, Une autre façon consiste à cliquer sur ces trois lignes en puis sous Analytics, puis en discuter. sous la page découverte sur le côté gauche, la première information est l'urine index. Si vous avez plusieurs index, vous pouvez cliquer sur cette liste déroulante et sélectionner l'index dans lequel vous souhaitez vous trouver, puis vous disposez des champs disponibles. Et si vous avez plus de quelques champs, par exemple, certains index peuvent comporter 100 mètres ou plus, vous pouvez également rechercher des noms de champs dans cette zone. Si je voulais laisser dire chercher une note et j'obtiendrai tous les champs qui ont le mot « huile de notation ». Enlevez ça. Maintenant, à droite, la première information est le nombre de visites ou le nombre de documents dans cet index. Nous avons donc 1000 documents, puis chaque document individuel Si je le développe, vous pouvez voir tous les champs et leurs valeurs qui se trouvent dans ce document. Maintenant, contre chaque champ, vous verrez quatre boutons. La valeur du premier bouton est filtrée. Donc si je le voulais, dans mon filtre d'index pour tous les documents dont la description est de 80, je peux cliquer sur ce bouton et mon filtre apparaîtra en haut à gauche ici. Et il filtrera les résultats sur mon onglet découvert, tous les résultats qui correspondent à mon filtre. Vous pouvez donc voir sur 1000, j'ai 15 résultats où la description de l'évaluation était de 82 filtres de suppression. Je vais simplement cliquer là-dessus. dette de Xnor était lorsque vous souhaitez filtrer pour une valeur particulière, vous pouvez également filtrer une valeur. Par exemple, je veux tous les films qui n' ont pas été sortis en 2004. Filtrez pour l'année de sortie 2004. Je vais donc cliquer sur ce point négatif, et cela me donnera tous les films où l'année de sortie n'est pas 2004. Et encore une fois, je vais supprimer cela et expérimenter les documents. Ensuite, les colonnes basculées dans un tableau sont maintenant affichées. Donc, sur ce tableau, il n' y a pas de colonnes pour le moment, si vous souhaitez introduire des colonnes pour rendre votre table plus soignée pour que vous puissiez effectuer une recherche. Par exemple, si je veux que la première colonne soit titre, je vais peigner le titre. Je vais cliquer sur la colonne Basculer dans le tableau. Et maintenant, vous pouvez voir que tous mes documents sont triés par titre. Ensuite, je veux que ma chronique soit Elisa. Je cliquerai sur la colonne Basculer dans le tableau à côté de l'année de sortie. Et ensuite, je veux que ma prochaine colonne soit le score d'évaluation des utilisateurs. Et je cliquerai sur la colonne Basculer dans le tableau pour inclure également le score de notation des utilisateurs. Pour ne supprimer aucune des colonnes à bascule, je vais simplement accéder à ce champ et je supprimerai cette colonne. Maintenant, je peux aussi trier par cette colonne. Par exemple, si je clique sur cette flèche, il est indiqué que le score de classement des utilisateurs est ascendant. Laissez-moi donc minimiser cela. Et si je clique dessus, il triera le score de notation des utilisateurs manière ascendante. Et si je veux le déplacer en descendant, je cliquerai à nouveau dessus et il va maintenant trier cela par décroissant. Vous pouvez maintenant utiliser cette barre de recherche ou recherche dans votre jeu de données à l'aide du langage de requête Kibana. Voyons d'abord tous les films sortis en l'an 2 000 de mes champs. Je vais voir quel champ me donne la libération ici. Le champ s'appelle donc l'année de sortie. Je vais donc taper cette Elisa et maintenant je peux appliquer certains opérateurs. Par exemple, deux-points signifie que cette version ici est égale à une valeur inférieure à, égale à la Louisiane inférieure ou égale à une valeur supérieure ou égale à ce qu'elle suggère, moins que, supérieur à deux points et une étoile pour spécifier si mon jeu de données contient une année de publication sous quelque forme que ce soit qui filtrera tous les documents dont les valeurs sont nulles ou vides pour ce champ particulier. Disons qu'en 2004. Et maintenant, je vais cliquer sur la mise à jour. Et cela va me montrer tous les titres sortis en 2004. Pour vérifier que j' ajouterai publié ici en cliquant sur ce signe plus sur ma table également. Et maintenant, vous pouvez le voir un peu plus facilement. Supposons maintenant que je souhaite ajouter un autre critère à ma recherche. Ce que je peux faire, c'est que je peux mettre un espace après ma recherche initiale et je peux faire un AND ou, OR ADD est fondamentalement que les deux arguments doivent être vrais. Je vais donc taper N Et dans mon jeu de résultats cette fois, je ne veux que les films qui ont un score de 80 et plus. Je vais donc saisir l'utilisateur et sélectionner le score d'évaluation des utilisateurs. Et je veux que la valeur soit de 80 ans et plus, si supérieure à un signe égal. Et cette fois, je vais taper 80 et cliquer sur Mettre à jour. Maintenant, sur ces premières tentatives, nous n'avons que quatre coups sûrs. C'est ainsi que vous pouvez utiliser langage de requête Kibana pour effectuer une recherche dans votre jeu de données. Maintenant, si vous souhaitez enregistrer cette requête, par exemple, si cette requête est répétée plusieurs fois, vous pouvez l'enregistrer en cliquant sur l'icône de cette disquette. Je cliquerai dessus et je cliquerai sur Enregistrer la requête actuelle. Et je dirai ma requête de démonstration comme nom de cette requête. Maintenant, comme notre jeu de données n'a pas de champ d'horodatage, je ne vais pas spécifier de filtre d'heure d' inclusion, mais s'il y avait des filtres dans mon jeu de données, si je voulais les inclure, je peux le choisir comme oui, je n'ai mis aucun filtre, donc je vais le supprimer et je cliquerai sur Enregistrer et ma requête a été enregistrée. Maintenant, la prochaine fois, si je veux réutiliser ma requête enregistrée. Disons donc que si je supprime tout cela, cliquez sur Mettre à jour pour accéder à mon ensemble d'origine, puis cliquez sur ce menu déroulant à côté l'icône de disquette et cliquez sur ma requête. Vous pouvez voir que je peux rapidement réexécuter la même requête sur mon jeu de données. Maintenant, ensuite, téléchargez quelques données de séries temporelles renvoyant à Kaggle, je vais aller aux jeux de données sous jeux de données. Je cliquerai à nouveau sur Filtres. La taille du fichier serait comprise entre 0 et 100 Mo. Et sur les étiquettes, je vais taper des séries chronologiques, puis je cliquerai sur, c'est maintenant hors des réserves. Je cliquerai sur le premier résultat, Omicron Daily Cas par pays. Et ici, si je descends, je peux voir le statut qui est environ quatre Mo et il y a un seul fichier CSV de variance COVID. Et je peux cliquer sur un aperçu compact de quelques exemples de données. Nous allons donc télécharger ces données. Maintenant, une fois ce fichier de données téléchargé, j'ouvrirai à nouveau le Finder, extraire ce fichier. J'ai maintenant le fichier de variance COVID. Je retournerai donc à ma page Découvrir, à la page d'accueil de Kibana. Je peux cliquer sur télécharger un fichier. Ici. Je vais vous montrer une autre méthode pour faire la même chose. J'irai donc ici, puis sous gestion, je vais passer aux intégrations. Ici, je peux voir qu'il y a beaucoup d' intégrations par défaut intégrées à Kibana. Je vais donc d'abord taper une intégration si je clique sur charger un fichier pour accéder à mon téléchargement d'une intégration de fichier. Nous parlerons des intégrations lors d'une prochaine conférence. Encore une fois, je vais sélectionner le fichier, donc la variance COVID, je clique sur Ouvrir, et cela analysera mes données. Maintenant, après avoir analysé les 11000 premières lignes, on a découvert que les données sont délimitées par une virgule. Il possède une ligne d'en-tête et un horodatage. Et le format du champ temporel est ISO 8601. Maintenant, je vais cliquer sur Importer et j' utiliserai à nouveau la méthode simple pour spécifier un index et je donnerai un nom à cet index de l'indice de soulignement COVID. Maintenant, je peux cliquer sur Importer. Maintenant que vous avez reçu le message indiquant que l'importation est terminée, voyons cette découverte d'indexation. Maintenant, si je clique sur cette liste déroulante, vous pouvez voir que je peux basculer entre index en utilisant mon menu déroulant d' index. Je vais revenir à l'indice COVID. Je peux voir tous les champs disponibles sur le côté gauche. Et ce qui est nouveau cette fois-ci, c'est le filtre temporel. Donc, en gros, mes données contiennent des valeurs de champs temporels entre le 11 mai 20252022. Je peux m'en servir pour rétrécir à une date précise. Supposons donc que je ne souhaite rechercher des données qu' entre le 20 décembre 21 janvier 2021. Ce que je peux faire, c'est que je clique sur ce bouton contre le début, et ici je dois spécifier une date de début. Je cliquerai donc sur Absolu pour l'instant, et je cliquerai sur décembre. Et je veux que ce soit le premier décembre 2020, et cela peut commencer à 0. Si je clique dessus, je clique ensuite sur Terminé. Et ici, je vais préciser 2021. Je peux laisser ça en janvier et je cliquerai sur un, qui était un vendredi. Maintenant, je peux spécifier un autre moment, mais les données jusqu'à 2330 ou 1130. Cliquez dessus avec le bouton droit de la souris et je cliquerai sur Mettre à jour. Il ne m'affichera que le sous-ensemble de données correspondant à cette heure à titre de référence, c'est la différence entre les données de séries chronologiques et les données non chronologiques. Si vous regardez à nouveau votre index Netflix, il n'y avait pas de filtre temporel pour filtrer leurs données, car nos données n'avaient pas d'horodatage. En revenant à l'index COVID, vous pouvez également spécifier des périodes relatives. Par exemple, vous pouvez spécifier des données y a un mois, si j'en ai une et vous pouvez spécifier un des champs latéraux , par exemple 1 seconde , 1 minute, etc. etc. Cliquez donc dessus. Et qu'est-ce qui s'est terminé ? Je vais encore une fois Relatif. C'est-à-dire il y a un mois, il y a dix jours, d'il y a un mois à dix jours, et cliquez sur Mise à jour. Et cela me donnera toutes les données d'il y a un mois à dix jours. Maintenant, au lieu d'il y a dix jours, je peux également spécifier maintenant et définir la date et l'heure de fin jusqu'à maintenant, et cela me donnera nos données pour le dernier mois. Il s'agit donc de la différence entre les séries chronologiques et les données non chronologiques. Vous n'avez pas de valeur de filtre temporel dans les données autres que les séries chronologiques. C'est ainsi que nous sommes arrivés à la fin de cette conférence. Merci d'avoir regardé. Je vous verrai dans le prochain. Au revoir. 14. Créer des visualisations avec Kibana: Hé les gars, Maintenant que nous avons des données dans notre cluster et que nous pouvons explorer ces données à l'aide de l'onglet Découvrir. Il est temps pour nous de visualiser ces données. Les visualisations de données permettent aux utilisateurs professionnels de comprendre très facilement de grandes quantités de données. Et c'est là que l'on peut vraiment voir la puissance de Kibana. Il existe deux façons de créer des visualisations dans Kibana. abord, vous pouvez créer des visualisations spécifiques au tableau de bord ou utiliser la bibliothèque de visualisation où vous pouvez ajouter des visualisations dont vous avez besoin sur plusieurs éléments tels que les tableaux de bord. ou tampons de travail en toile. Il existe maintenant quelques options à choisir lorsque vous créez vos visualisations. Tout d'abord, vous avez un objectif, qui est un simple éditeur de glisser-déposer. Ensuite, nous avons TSV, qui est utilisé pour l' analyse avancée des données de séries chronologiques. Ensuite, vous pouvez également utiliser l'agrégation basée sur l'agrégation, qui est utilisée pour les données graphiques basées sur l'agrégation. Vous pouvez également choisir des cartes si vos données possèdent des coordonnées de géolocalisation Vous pouvez également créer des visualisations personnalisées à l'aide de la syntaxe plus vague. Ce cours est hors de portée. Nous ne parlerons pas de cette option. Commençons maintenant. Dans cette démo, nous allons créer une visualisation qui montre la note moyenne des films par année de sortie. Tout d'abord, dans le menu de navigation de gauche et sous Analytics, il va visualiser la bibliothèque. À partir de là, nous allons cliquer sur Créer une nouvelle visualisation pour créer notre première visualisation. Et ensuite, nous choisirons l'objectif. Désormais, dans l'éditeur d'objectif, vous pouvez d' abord choisir l'index sur lequel vous souhaitez travailler dans le menu de gauche . Par exemple, si je voulais travailler sur l'index COVID, je choisirai l' index COVID et il m'affichera tous les champs disponibles dans l'index COVID. Mais pour cette démo, je vais choisir l'index Netflix au milieu où votre graphique s'affichera. À partir de là, vous pouvez choisir le type de graphique souhaité. Par exemple, si vous souhaitez une visualisation de type métrique, une ligne de visualisation de barre, un donut by, etc. pour cette démonstration, nous choisirons une barre verticale. Maintenant, à droite, vous allez spécifier quels champs accéderont à quel accès. Nous devrons d'abord définir un axe horizontal pour nos brouillons, je cliquerai sur Ajouter ou faire glisser et déposer un champ. Et à partir de là, je vais choisir le menu déroulant pour le champ de sélection et choisir release ici. Maintenant, je peux augmenter ou diminuer la granularité de ce champ, mais nous le laisserons par défaut. Nous pouvons changer le nom complet, je vais donc mettre en majuscule le premier alphabet de chaque mot. Vous pouvez également spécifier le format de valeur. Je le laisserai par défaut et je cliquerai sur Fermer. Maintenant, nous pouvons choisir l'axe vertical. Je cliquerai sur Ajouter ou faire glisser un champ à nouveau. Ensuite, à partir du champ de sélection, je choisirai le score d'évaluation de l'utilisateur. Et puis à partir de la fonction sélecteur, je choisirai en moyenne pour afficher le score moyen. Maintenant, vous pouvez à nouveau changer le nom complet afin que je mettrai à nouveau en majuscule le premier alphabet, moyenne du score d'évaluation des utilisateurs. Vous pouvez ensuite modifier le format des valeurs. Par exemple, si vous voulez que le format soit en pourcentages plutôt qu'en chiffres, vous pouvez le faire. Et cela vous indiquera ensuite le pourcentage de notation des utilisateurs. Je vais le laisser par défaut pour l'instant. Vous pouvez désormais modifier la couleur de la série. Par exemple, si je clique sur la couleur Ceres et que je choisis le bleu, le graphique deviendra bleu. Je peux également modifier le côté de l'axe que mes données afficheront si je clique sur la gauche, ce qui est par défaut. Si je voulais le changer, je peux le modifier à droite. Et cela va commencer à afficher les données sur l'axe droit. Nous allons laisser sa valeur par défaut, et je cliquerai sur Fermer. Maintenant, sous votre graphique, vous pouvez voir quelques suggestions de Kibana. Par exemple, si vous aviez sélectionné un graphique en courbes, c'est ainsi que votre graphique s'affichera. Si vous aviez sélectionné une mesure, c'est ainsi que votre visualisation apparaîtra. Nous allons laisser ce que nous avons conçu maintenant, vous pouvez filtrer davantage ces données en utilisant le langage de requête Kibana. Par exemple, supposons que nous voulons uniquement afficher des données pour les films sortis après 1984. Ce que je peux ensuite faire, c'est que je peux cliquer ici et ensuite je peux taper l'année de sortie, puis je peux choisir est supérieur ou égal à. Et puis je peux taper en 1984 et cliquer sur Mettre à jour. Et maintenant, notre graphique ne montrera que les données des films sortis après 1984. Maintenant, supprimons le gâteau va filtrer, puis il peut enregistrer cette visualisation. abord, nous devons lui fournir un titre, donc je l'appellerai une note moyenne des films par sortie ici. Nous pouvons maintenant fournir une description. Cette visualisation montre donc note moyenne de films de Lavoisier sur Netflix. Nous pouvons maintenant l'ajouter à notre tableau de bord, créer un nouveau tableau de bord pour cette visualisation. Mais pour cette démo, nous n'en choisirons aucun. Vous pouvez également constater que la case Ajouter à la bibliothèque a été cochée par défaut. Ensuite, vous pouvez également utiliser balises pour regrouper les visualisations ensemble. Maintenant, nous allons cliquer sur les balises et cliquer sur Créer une balise. Et je vais créer un tag appelé Netflix. Vous pouvez changer la couleur de la balise, que je puisse la changer en bleu et je clique sur l'attaque. Vous pouvez maintenant voir que la balise Netflix est apparue ici, puis nous pouvons cliquer sur Enregistrer et ajouter à la bibliothèque. Maintenant, une fois cela fait, si vous revenez à la bibliothèque de visualisation, vous pouvez voir que votre visualisation a été ajoutée à la bibliothèque. Maintenant, avant de vous laisser partir, je veux juste vous montrer où les balises sont stockées à partir du menu de navigation de gauche, si vous allez écrire sous gestion puis gestion de pile ici sous Kibana, vous devez sélectionner des balises. Et c'est ici que vous pouvez voir toutes les balises que vous avez créées dans Kibana. Avec cela, nous sommes arrivés à la fin de cette conférence. Merci d'avoir regardé. Je vous verrai dans le prochain. Au revoir. 15. Tableau de bord: Hé les gars, le tableau de bord est composé de plusieurs visualisations qui racontent une histoire commune aux utilisateurs de votre entreprise. Avant de pouvoir créer un tableau de bord, il vous faut deux choses. abord, vous avez besoin d'une compréhension claire de vos données, et deuxièmement, vous devez définir clairement ce que vous souhaitez réaliser à partir de votre tableau de bord. un premier temps, j' ai répertorié à l'écran tous les champs disponibles dans l'index de soulignement COVID, qui est l'index que dans l'index de soulignement COVID, nous utiliserons pour cette démonstration et ce qui est stocké dans chaque champ. Par exemple, le champ emplacement contient le nom du pays pour lequel les informations de variante sont fournies. Date indique la date de saisie des données. Variant est le nom de la variante correspondant à cette entrée de données particulière. séquences de soulignement Num contiennent le nombre de séquences traitées et séquences de pourcentage contiennent un pourcentage de séquences par rapport au nombre total de séquences. Et enfin, num séquences. Total représente le nombre total de séquences pour la date de fin de cette variante de pays. Dans le cadre de cette démonstration, nous allons maintenant créer trois visualisations dans notre tableau de bord. Tout d'abord, nous allons créer un certain nombre de cas uniques de COVID dans le monde entier. Deuxièmement, nous allons créer une visualisation qui illustre le nombre total de séquences pour les dix premiers pays. Enfin, nous allons créer une visualisation qui vous indique la variance répartie selon les meilleurs pays. Commençons donc. Maintenant, sur la page Kibana, pour créer un tableau de bord, va d'abord dans le menu de navigation de gauche. Ensuite, nous allons accéder au tableau de bord sous Effets analytiques. Et pour créer un tableau de bord cliquez d' abord sur Créer un nouveau tableau de bord. Maintenant, à partir de cette page, lorsque vous cliquez sur Créer visualisation pour créer notre première visualisation, qui fera partie de ce tableau de bord. Nous allons d'abord modifier le jeu de données il y a 15 minutes à 15 semaines. Hé les gars, dans cette conférence, nous allons créer un tableau de bord Kubernetes. Un tableau de bord est composé de plusieurs visualisations qui racontent une histoire commune aux utilisateurs de votre entreprise. Avant de commencer, nous avons besoin deux éléments pour créer notre tableau de bord. abord, nous devons avoir une compréhension claire de nos données. Deuxièmement, nous devons avoir une compréhension claire des exigences, qui est essentiellement ce que nous voulons atteindre à partir de ce tableau de bord. Maintenant, dans le cadre de la première exigence, j'ai répertorié tous les champs disponibles dans l'index de soulignement COVID et les données contenues dans chacun de ces champs. Par exemple, le champ emplacement contient le nom du pays pour lequel les informations de variante sont fournies. Le champ de séquence de soulignement numérique contient le nombre de séquences traitées pour ce pays, cette variante et cette date, etc. Maintenant, ce que nous allons faire dans ce tableau de bord, c'est que nous aurons trois visualisations. abord, nous aurons la visualisation qui illustre le nombre de variances COVID uniques dans le monde entier. Deuxièmement, nous disposerons d'une visualisation qui illustre nombre total de séquences pour les dix premiers pays. Enfin, nous aurons une visualisation qui fournit des variantes réparties dans les pays. Commençons donc à créer un tableau de bord à partir de ma page d'accueil Kibana. Je cliquerai sur le menu de navigation de gauche, puis sur le tableau de bord de la page du tableau de bord, je cliquerai sur créer un nouveau tableau de bord à partir d'ici, je vais d'abord enchaîner les données au lieu d'il y a trois mois, il y a trois ans, que nous recherchons toutes les données cet index et je cliquerai sur la mise à jour. Une fois cela fait, je cliquerai sur Créer une visualisation. La première visualisation que nous devons créer est maintenant un nombre de variances COVID uniques dans le monde entier. Nous allons donc d'abord choisir la métrique. Ensuite, sous métrique, je cliquerai sur Ajouter ou faire glisser et déposer un champ. Dans le champ de sélection, je choisirai variante, puis je cliquerai sur les flux. À partir de cette visualisation, nous pouvons obtenir la valeur du nombre de variances uniques dans notre base de données. Maintenant, je vais cliquer sur Enregistrer et revenir. Après cela, je cliquerai à nouveau sur Créer une visualisation. Et pour ma deuxième visualisation, je dois décrire le nombre total de séquences pour les dix premiers pays. Je reviendrai donc sur la page Web de mon objectif Kibana. Maintenant, je vais changer le graphique de type deux barres verticales, puis pour l'axe horizontal, je vais choisir l'emplacement du champ, et je choisirai les dix premières valeurs. Ensuite, je cliquerai sur Fermer. Maintenant, pour l'axe vertical, je vais ajouter ou faire glisser et déposer à nouveau. Ensuite, je choisirai le champ Num Underscore Sequences. Et puis je cliquerai sur certains sous la fonction de sélection. Ensuite, je peux cliquer sur Fermer. Cela me donne maintenant le nombre total de séquences pour les dix premiers pays. Il s'agit de toutes les variantes du COVID pour ce pays particulier dans cette plage de dates. Je cliquerai donc à nouveau sur sept retour après cela pour notre troisième visualisation, je cliquerai sur Créer une visualisation. Et cette fois, j'ai besoin de créer une variante diffusée par pays de haut niveau. Je vais donc changer à nouveau le type de graphique deux barres verticales. Et pour l'axe horizontal, je choisirai l'emplacement et le modifierai en dix premiers pays. Maintenant, je vais choisir l'axe vertical, les séquences de soulignement des numéros de champ. Et cette fois, je choisirai la fonction maximum et je cliquerai sur Fermer. Après cela, je vais diviser ces données par nombre de variantes. Je cliquerai donc sur ajouter ou déposer un champ et une ventilation, puis je choisirai une variante. Et à partir de là, je peux spécifier le nombre de valeurs que je voulais afficher. Par défaut, il est trois, donc il ne représentera que les trois premiers. Mais comme nous avons beaucoup de variance totale, je peux aussi taper 20 volts ici. Et puis pour chaque pays, il va décomposer les données en fonction de toutes les variantes affectées, cliquez sur Fermer ici et je survole les données pour les États-Unis, vous pouvez voir les détails du nombre cas pour chaque variante particulière de COVID, Il arrive dans une plage de dates spécifiée, qui est de trois dernières années. Maintenant, je vais cliquer sur Enregistrer et revenir. Et dans ce tableau de bord, nous pouvons voir les trois visualisations différentes. Ce que je peux faire, c'est que je peux enregistrer ce tableau de bord. Je peux lui donner un nom. Donc le tableau de bord COVID et sous les balises, je cliquerai sur créer une balise, puis je lui donnerai le nom de la balise COVID et je cliquerai sur créer des balises. Je peux cliquer sur Enregistrer. Maintenant, si vous souhaitez stocker du temps avec le tableau de bord, vous pouvez le faire, mais je vais le laisser par défaut et cliquer sur Enregistrer. Une fois que le tableau de bord est enregistré, vous pouvez revenir au tableau de bord. Encore une fois, il suffit de cliquer dessus et de regarder des dates différentes, tout ce dessus et de regarder des dates différentes, que vous avez à faire est, par exemple, si je passe d'il y a trois ans à il y a trois semaines et de cliquer sur mise à jour, vous verrez que les résultats changeront seuls. Ou nous n'avons pas eu de données depuis trois semaines. C'est pourquoi il s' agit d'un avertissement. Mais si je devais dire, disons qu'il y a trois mois et que je clique sur Mettre à jour, je recommencerai à voir les données. Voici maintenant comment créer un tableau de bord Kibana avec cet accueil à la fin de cette conférence. Merci d'avoir regardé. Je vous verrai dans le prochain octet. 16. Toile: Hé les gars, Gabbana Canvas est un outil de visualisation et de présentation des données qui vous permet de mettre des données en direct à partir Elasticsearch, puis de les enrichir avec des couleurs, images et des manuels scolaires, créer puissants présentations destinées aux utilisateurs de votre entreprise. Canvas utilise désormais des tampons de travail pour ajouter des visualisations, des platines d' images, etc., pour créer votre présentation. Alors laissez-nous nous salir les mains, pas de la page d'accueil de Kibana. Pour accéder à Canvas, vous devez cliquer sur le menu de navigation de gauche. Ensuite, sous Analytics, vous devez cliquer sur Canvas pour ne pas créer notre première œuvre, mais je dois cliquer sur Créer un classeur. Et à partir de ce vert, vous pouvez ajouter votre premier élément en cliquant sur le bouton Ajouter un élément. Le premier élément utilise des textes. Vous pouvez maintenant utiliser cet élément pour ajouter du texte à votre présentation en utilisant le langage Markdown. Je vais donc changer ce texte par mot de bienvenue dans la présentation de l' index Netflix. Je vais supprimer ce texte et je dirai, voici l'aperçu des données dans l'index de soulignement Netflix. Ensuite, vous verrez qu'il fait référence à certaines informations contenues dans les données de démonstration. Par exemple, il vous donne la longueur de la ligne, puis il vous donne tous les noms de colonnes l' aide de chaque attribut de colonnes. Il a donc tous les noms de colonnes, mais cela reflète les données de démonstration de cet élément. Je vais donc d'abord cliquer sur Appliquer. Et une fois cela fait, je cliquerai sur Données et je modifierai la source de données de démonstration à Elastic Search. Ensuite, je m' assurerai que je suis sur l'index Netflix et je cliquerai sur Enregistrer. Et dès que je clique sur Enregistrer, vous pouvez voir que cette zone de texte reflète les données de mon index Netflix. Maintenant, pour le deuxième élément, ajoutons la visualisation que nous avons ajoutée à notre bibliothèque de visualisation. Cliquez sur Ajouter un élément, puis je cliquerai sur Ajouter depuis Kibana. Ensuite, je vais sélectionner la visualisation que nous avons enregistrée dans la bibliothèque de visualisation. Et ensuite, nous allons le déplacer sur le côté. Vous pouvez maintenant modifier le filtre temporel en cliquant sur l'heure. Par exemple, si je voulais passer des 15 dernières minutes pour nous laisser dire les 30 dernières minutes, cela peut le faire. Et ce panel reflétera le changement dans le temps. Maintenant, en tant que troisième élément, je vais créer un graphique. Je clique donc sur Ajouter un élément, je clique sur Graphique, puis je cliquerai sur métrique, puis je déplacerai cette mesure sous mon élément de visualisation. Maintenant, pour cette mesure, modifions à nouveau la source de données en index Netflix. Et je cliquerai sur Enregistrer pendant une minute. Cela va nous donner une erreur, mais passons à l'affichage. Maintenant, pour mesurer, nous avons besoin d'une valeur unique de titre. Maintenant, le format de mesure est numéroté, mais nous devons modifier l'étiquette. Je vais donc remplacer les pays par des titres de films uniques. Il s'agit maintenant du nombre de titres de films uniques dans notre index Netflix. Ensuite, nous pouvons également modifier les textes des mesures. Disons donc que nous voulons que la matrice soit en rose. Pourquoi ne pas nous laisser faire cela ? Nous pouvons également modifier la taille, la police et la couleur de notre étiquette. Disons que je veux que ma police soit Helvetica. Je vais donc cliquer dessus et je vais changer un peu la taille, donc je vais la changer à 24. Et disons que je veux que la couleur soit verte, je vais donc la sélectionner. En fait, celui-là semble mieux. Je peux maintenant ajuster la taille de ma visualisation. Sachez ensuite, ajoutons une image. Je vais donc cliquer sur Modifier la limite. Je clique sur Image, puis je cliquerai à nouveau sur l'image. Cela nous donne maintenant une image par défaut. Je vais donc minimiser ça un peu. Et je peux importer une image en utilisant le bouton Importer. Il peut fournir un lien vers une URL d'image. Pour l'instant, je cliquerai sur Importer , puis je cliquerai sur Sélectionner ou glisser-déposer une image. Maintenant, je vais choisir une image dans mon dossier de téléchargements. Et disons que je veux montrer mon visage sur cette présentation ici. Maintenant, pour afficher ce bloc de travail en plein écran, il suffit de cliquer sur ce bouton plein écran et vous verrez toutes les informations en plein écran. Je vais sortir du mode plein écran pour l'instant. Maintenant, ce retour est automatiquement enregistré. Si je vais sur Canvas et que je peux voir mon lit de livre ici, je peux cliquer sur le travail, mais encore une fois, j'obtiendrai tous les éléments de données qui partagent cette œuvre. Mais je peux cliquer sur Partager et je peux créer un rapport PDF afin de pouvoir sélectionner mise en page pleine page et cliquer sur Générer un PDF. Et maintenant, il est dit que votre licence de base ne prend pas en charge les rapports PDF. Par conséquent, si vous possédez une licence de production, vous pourrez télécharger le rapport PDF. Maintenant, cliquons à nouveau sur Partager. Maintenant, si vous cliquez sur Partager sur un site Web, il vous donnera des instructions sur la façon de partager ce canevas sur le site Web. Ensuite, nous pouvons également le télécharger en JSON. Je clique donc sur Télécharger en tant que JSON et il téléchargera le JSON pour ce travail, difficile de changer le nom de ce livre, mais je peux aller travailler avec les paramètres Ed comme et changer le nom pour Netflix. Revenez à pied. Maintenant, je peux modifier certains détails comme résolution même si j'ai des variables dans ce travail portent des paramètres CSS globaux, etc. Mais pour l'instant, c'est ainsi que vous pouvez créer un canevas Kibana fonctionne mieux avec cela. Venez à la fin de cette conférence. Merci d'avoir regardé. Je vous verrai dans le prochain. Au revoir. 17. Domaines d'Auth: Hé les gars, Dans cette conférence, je vais vous donner un aperçu rapide des domaines d'authentification disponibles dans Elastic Search, les domaines d'authentification sont utilisés pour authentifier les utilisateurs et les applications contre Elastic recherche, il existe deux principaux types de domaines d'authentification. Le premier est constitué de nervures d'authentification internes. Ils sont internes à Elastic Search et il n'y a pas d'intégration à un système externe. Ce type de salle est entièrement géré par Elastic Search. Il ne peut s'agir que d'un domaine configuré au maximum, mais de type DLM interne. Voyons maintenant un exemple de chaque type de loam interne. Le premier est le domaine d'authentification natif. Et le dôme d'authentification natif est l'endroit où les utilisateurs sont stockés dans un index Elasticsearch dédié. Ce domaine prend en charge et un jeton d'authentification sous la forme d'un nom d'utilisateur et d' passe. Il est disponible par défaut lorsque les domaines bas sont explicitement configurés. Alors n'oubliez pas que lorsque nous installions Elasticsearch, utilisé un script pour réinitialiser les mots de passe pour les utilisateurs de notre système de soulignement Elastic et Kibana. Ces utilisateurs sont configurés sous authentification native. Il est disponible uniquement sur la licence libre. Dossier. Le domaine de l'authentification est également un domaine d'authentification interne disponible sur la licence libre. Ce domaine est que très les utilisateurs sont définis dans des fichiers stockés sur chaque nœud du cluster Elasticsearch. Ce domaine prend en charge et le jeton d'authentification sous forme de nom d'utilisateur et de mot de passe, et il est toujours disponible. Après cela, regardons rapidement les royaumes extérieurs. L'authentification externe ne nécessite pas interaction avec des parties et des composants externes à Elastic Search, tels que Microsoft Active Directory ou toute autre application de niveau entreprise. Si vous exécutez un cluster de grille de production, il est fort probable que vous deviez configurer un domaine externe. Sous le cluster Elasticsearch, vous pouvez avoir autant d'éléments externes, si vous le souhaitez, chacun ayant son propre nom et sa configuration uniques, la fonction de sécurité Elastic Stack fournit la référence externe suivante. type. Ainsi, LDAP, Active Directory, symbole d'authentification PKI Kerberos ou IDC. Non, le domaine de l'authentification est, utilise un serveur Web externe pour authentifier ses utilisateurs. Les utilisateurs sont donc stockés dans un serveur d'authentification externe, et nous nous intégrons à ce serveur pour authentifier les utilisateurs. Ce domaine prend en charge un jeton d'authentification sous la forme d'un nom d'utilisateur et d'un mot de passe et nécessite une configuration explicite pour être utilisé. Ensuite, nous avons le domaine d'authentification Active Directory. Ce cycle utilise un serveur Active Directory externe, indiquant les utilisateurs dans lesquels vos utilisateurs sont stockés. Par exemple, les utilisateurs Microsoft AD sont authentifiés à l' aide de noms d'utilisateur et mots de passe devenus royaumes authentifient les utilisateurs à l'aide de l'infrastructure à clé publique, de la clé publique et de la clé privée Ce domaine fonctionne en conjonction avec SSL et TLS et identifie l'utilisateur par son nom distinctif ou son ADN du certificat d'extraction 509 du client. Par conséquent, si nous utilisons cette ligne, vous aurez besoin de certificats installés sur les utilisateurs. Sam Hill facilite l' authentification à l'aide du protocole SSO Web SAML 2. Ce domaine est conçu pour prendre en charge l'authentification via Kibana et n'est pas destiné à être utilisé dans l'API Rest. Kerberos est maintenant que le domaine authentifie l'utilisateur à l'aide de l'authentification Kerberos, les utilisateurs sont authentifiés sur la base de tickets Kerberos ou IDC facilite l' authentification à l'aide d' OpenID Connect. active la recherche Elastic en tant que partie de confiance OpenID Connect et fournit une prise en charge SSO. Tout au long de ces cours, nous allons maintenant utiliser l'authentification native pour nous connecter à notre cluster Elasticsearch. Pour vos clusters de production, il est très probable que vous deviez configurer l'un de ces domaines externes. Ce que je vais faire, c'est que je vais fournir des liens vers diverses URL sur façon dont vous pouvez configurer chacun de ces domaines sur vos clusters de production. C'est ainsi que nous sommes arrivés à la fin de cette courte conférence. Merci d'avoir regardé. Je vous verrai dans le prochain. Au revoir. 18. Utilisateurs et rôles: Hé les gars, jusqu'à présent dans cette démo, nous avons utilisé le superutilisateur Elastic pour nous authentifier contre notre cluster. C'est très bien pour notre laboratoire de démonstration, mais dans un environnement de production, se peut que des centaines de personnes aient besoin de s'authentifier et vous ne voudrez pas partager le mot de passe votre superutilisateur avec chacun d'eux. utilisateur. Saisissez maintenant des rôles. Les rôles sont un ensemble de privilèges qui vous permettent d' effectuer des actions ainsi que Kibana et Elastic Search. Ces rôles vous donnent désormais le privilège d'effectuer des actions contre votre index Kibana Elasticsearch. Par exemple, certains utilisateurs peuvent uniquement vouloir créer des tableaux de bord. Pour les autres, vous voudrez peut-être gèrent davantage vos index, il peut y avoir un groupe qui doit agir en tant administrateur de votre instance Kibana, ce que vous devrez faire, c'est que vous devrez créez des rôles pour chacun de ces différents types d'utilisateurs. Chaque rôle ayant des niveaux d'accès différents, vous attribuerez ce rôle, chacun de ces utilisateurs, les utilisateurs ne se voient pas accorder directement des privilèges, mais se voient attribuer une ou plusieurs règles qui décrit le niveau d'accès souhaité. Ainsi, comme je l'ai dit, merveilleux pourrait donner aux utilisateurs uniquement accès aux tableaux de bord. Désormais, lorsque vous attribuez plusieurs rôles à des utilisateurs, l'utilisateur reçoit une union des privilèges des rôles. Supposons que vous ayez deux indices, index et index b. Et que vous avez un rôle qui accorde l'accès à l'index une inscription qui accorde un excédent à l'index B. Supposons maintenant que vous avez un utilisateur et cet utilisateur se voit attribuer ces rôles. Maintenant, parce qu'il a ces deux rôles, l'union de ces deux rôles lui permettra d' accéder aux données de l' index et de l'index b. Maintenant, elasticsearch vient avec quelques rôles intégrés. Par exemple, que tous les systèmes de soulignement des battements peuvent danser l'accès nécessaire aux systèmes de plage, métrique, appât, battement de cœur, basé sur les fichiers, etc. pour envoyer des données au niveau du système à Elastic Search. Kibana souligne une règle système qui n'est pas nécessaire pour utilisateur du système Kibana puisse lire et écrire dans les indices Kibana. Et si vous vous souvenez, lorsque nous configurions Elasticsearch et Kibana System, nous avons configuré le mot de passe de cet utilisateur dans notre fichier YAML Kibana dot. Maintenant, Elastic Search est également livré avec un élastique de superutilisateur qui donne accès à toutes les zones de votre cluster. C'est donc un accès complet au système. Désormais, par mesure de sécurité, vous ne voudriez plus vous connecter avec cet utilisateur après avoir provisionné le système. Et dans le cadre de votre provisionnement, vous allez provisionner l'administrateur et les super-utilisateurs qui peuvent être liés à une personne qui va jouer ce rôle. Et une fois cela fait, vous voudrez stocker mots de passe de ces super utilisateurs dans un endroit sûr et ne plus jamais les utiliser. Revenons à notre instance Kibana pour voir comment créer des rôles et des utilisateurs pour ne pas créer de rôle personnalisé. Nous allons d'abord cliquer sur Créer un rôle, puis nous devrons spécifier un nom de rôle pour le nom de Rome, je vais entrer dans l' administration car il s'agit d'un rôle d'administrateur que nous configurons sous privilèges de cluster, je cliquerai sur Tout. Et puis, sous les privilèges d'index, je peux soit leur donner accès à l'un de ces index, soit parce que c' est mon utilisateur administrateur, je vais taper Démarrer ici pour leur donner accès à tous les indices. Et puis, sous privilèges, je cliquerai sur Tout. Prochaine. Sous Kibana, je cliquerai d'abord sur Ajouter le privilège Kibana, nous devons leur donner accès à tous les espaces et ensuite ils peuvent fournir à ce rôle un accès personnalisé à chaque fonctionnalité. Par exemple, sous Analytics, je peux donner accès à ce rôle pour découvrir le tableau de bord, etc. Ou comme il y a un rôle d'administrateur, nous pouvons lui accorder tous les privilèges et cliquer sur Créer un privilège global sur pierre. Cliquez sur Créer un rôle. Maintenant, créons un rôle qui n'a accès qu'à certains indices. Je vais donc cliquer sur Créer une règle, et je l'appellerai administrateur COVID. Et nous garderons le reste des paramètres identiques à ceux que nous avions auparavant sous indices. Je vais choisir l'index COVID et je donnerai à ce rôle l'accès à tous les privilèges. Et ensuite, c'est la même chose pour Kibana. Je lui donnerai accès à tous les espaces et à toutes les fonctionnalités. Je clique donc sur Créer un privilège global et cliquer sur Créer un rôle. Maintenant, créons trois utilisateurs. Le premier sera un utilisateur administrateur. Je vais donc cliquer sur Créer un utilisateur. Je vais donner ce nom d'utilisateur admin. Le nom complet serait admin one et les adresses e-mail admin sur test.com. Ensuite, spécifions quelques mots de passe. Et après cela, nous devons attribuer des règles à cet utilisateur. Pour l'instant, nous allons attribuer un rôle d' administrateur et nous affecterons également le rôle d'utilisateur de surveillance car ce rôle est nécessaire pour accéder à la fonction de surveillance de la pile. Ensuite, je cliquerai sur Créer un utilisateur. Déconnectons-nous maintenant de ce compte de superutilisateur, puis nous allons créer notre administrateur nouvellement créé pour effectuer d'abord le provisionnement, et nous saisirons le nom d'utilisateur, puis le mot de passe pour cet utilisateur. Laissez-moi couper cet avertissement ensuite, allons d'abord découvrir et vérifier si vous avez accès aux deux indices, Netflix et couverts. Je peux donc voir des données dans l'index Netflix. Passons maintenant à l'indice de couverture. Maintenant, je dois étendre ma recherche temporelle. Il y a 1415 semaines, et je cliquerai sur la mise à jour, et je peux voir que j'ai également accès à cet index. Passons maintenant aux tableaux de bord. Je peux voir le tableau de bord COVID que nous avons créé. Maintenant, passons à nouveau à la direction et à la gestion du personnel. Et ici, les utilisateurs. Nous allons maintenant créer un deuxième utilisateur. Cliquez sur Créer un utilisateur. Et il s'agit d'un utilisateur qui dispose d'un accès administratif. Il ne s'agit que de l'indice COVID. Nous allons donc l'appeler administrateur du soulignement COVID, et le nom serait COVID-19 et adresse e-mail COVID test.com. Ensuite, je vais lui fournir un mot de passe maintenant pour le privilège, je lui donnerai le privilège de l'administrateur COVID, et cliquez sur Créer un utilisateur appris. Permettez-moi de me déconnecter de cet utilisateur. Et ici, je vais taper Covid Underscore admin, puis je taperai le mot de passe pour cet utilisateur. Maintenant, une fois que vous êtes connecté, accédons à notre onglet Découvrir, alors à la maison et à découvrir. Et ici, si vous choisissez l'index Netflix, vous ne verrez aucun indice correspondant et aucun résultat ne correspond à vos critères de recherche. Mais si je choisis l'indice COVID et que je change cette date d'il y a 15 minutes, nous le modifions à il y a 15 semaines et nous cliquons sur la mise à jour. Voyez que je peux voir quelques données. Cet utilisateur peut désormais également créer des utilisateurs. Donc, si vous accédez à Stack Management et aux utilisateurs, je peux créer un utilisateur, mais je vais vous montrer une autre chose, car nous n'avons pas accordé le privilège de surveiller l' utilisateur de soulignement à ce compte d'utilisateur. Nous n'avons pas de surveillance de pile sous gestion pour cet utilisateur. C'est donc une chose importante à noter, même si vous pouvez fournir tous les privilèges sous Kibana, vous devez attribuer spécifiquement un vous devez attribuer spécifiquement rôle d'utilisateur de soulignement de surveillance aux utilisateurs que vous souhaitez attribuer la section de surveillance de la pile excédentaire privilégiée sous gestion. Maintenant, nous allons créer un troisième utilisateur qui n'a accès qu'aux tableaux de bord et qui a découvert que pour cela , allons d' abord dans Rôles et créons un rôle, et appelons ce rôle de rapport de soulignement COVID. Maintenant, nous ne voulons pas accorder à cet utilisateur de privilèges de cluster, nous allons donc le laisser vide. Nous voulons uniquement que cet utilisateur ait accès à l'indice de soulignement COVID. Et le seul privilège que nous souhaitons pour cet utilisateur est de pouvoir lire à partir de cet index. Maintenant, nous devons ajouter quelques privilèges Kibana, afin de lui donner accès à tous les espaces. Ensuite, nous le garderons en tant que personnalisation, puis passerons à l'analyse. Ensuite, nous leur donnerons accès en lecture seule sur Discover et en lecture seule sur Dashboard. Et nous leur donnions également accès à Canvas et visualisons la bibliothèque. Ensuite, nous cliquerons sur Créer un privilège global. Ensuite, nous cliquerons sur Créer un rôle pour créer ce rôle. Nous allons maintenant voir les utilisateurs et nous allons cliquer sur Créer un utilisateur. Et cette fois-ci, nous appellerons cet utilisateur de rapport de soulignement COVID. Le nom serait un utilisateur déclarant, un e-mail signalerait un fichier test.com. Nous allons lui donner un mot de passe. Par conséquent, mot de passe, puis sous privilèges, nous lui accorderons le privilège de rapport de score COVID-19, puis nous cliquerons sur Créer un utilisateur. Après cela, déconnectons-nous et voyons l'excédent pour ce nom d'utilisateur. Je vais taper le rapport de soulignement COVID et nous spécifierons un mot de passe. Désormais, une fois que vous êtes à l'intérieur, vous ne verrez que des analyses sur votre écran d'accueil. Cela est dû au fait que votre utilisateur n'a accès qu'aux fonctionnalités d' analyse. Maintenant, si vous cliquez sur notre menu de navigation de gauche, et sous Analytics, nous allons découvrir que nous avons quelques données pour l'indice de soulignement COVID. Cependant, si nous passons à l'index Netflix, une erreur indiquant qu'aucun indice ne correspond mieux à Netflix index. En effet, notre utilisateur n'a pas accès à l' index Netflix sous le tableau de bord. Si je clique simplement sur le tableau de bord COVID, je pourrai voir toutes les données de mon tableau de bord COVID. Maintenant, ensuite, passez à Canvas et ouvrez le travail Netflix maintenant, puisque cet utilisateur n'a accès à aucune donnée dans l' index Netflix, j'obtiendrai des erreurs. Déconnectons maintenant cet utilisateur et reconnectons-nous en tant qu'utilisateur administrateur, administrateur et mot de passe. Maintenant, cliquons sur le menu de navigation de gauche et passons directement à la gestion de la pile. Ensuite, passons maintenant aux utilisateurs à partir de cet écran, si vous voulez supprimer l'utilisateur, par exemple, si je voulais supprimer mon utilisateur de rapport de soulignement COVID, je peux simplement sélectionner cet utilisateur et cliquer sur supprimez un utilisateur et cliquez sur Supprimer. Mais je ne vais pas le faire maintenant, si je veux changer le mot de passe de cet utilisateur, je cliquerai dessus, je vais descendre et cliquer sur Modifier le mot de passe. Et ici, je peux mettre à jour le mot de passe de cet utilisateur. Soul annule également si je voulais désactiver cet utilisateur, alors gardez cet utilisateur sur le système, mais empêchez les utilisateurs d'y accéder. Je peux cliquer sur Désactiver l'utilisateur. Et si je veux modifier les privilèges de cet utilisateur, je peux venir ici et lui attribuer un rôle différent. C'est ainsi que vous pouvez utiliser les utilisateurs et les rôles pour fournir des contrôles d'accès basés sur les rôles à votre cluster Elasticsearch. C'est ainsi que nous sommes arrivés à la fin de cette conférence. Merci d'avoir regardé. Je vous verrai dans le prochain. Au revoir. 19. Espaces: Salut les gars, puis Enterprise. Il y aura plusieurs équipes qui auront besoin d'accéder à Kibana. Par exemple, l'équipe marketing peut avoir besoin d'accéder aux tableaux de bord marketing. L'équipe des opérations aura besoin d'accéder aux tableaux de bord des opérations. Maintenant, cela peut encombrer les choses très rapidement pour vous aider dans cette situation, Kibana a une fonctionnalité appelée espaces. Il vous permet d'organiser vos objets enregistrés, tels que les tableaux de bord, en catégories significatives. À partir de notre exemple, vous allez créer un espace de marketing et ils créeront tous leurs tableaux à l'intérieur de cet espace. De même, vous allez créer un espace pour les opérations et ils effaceront leurs tableaux de bord dans l'espace informatique, le marketing ne pourra pas voir ce qu'il y a à l'intérieur des opérations ni même noter qu'un l'espace d'opérations existe. De même, les opérations ne connaîtront pas l'espace marketing. Désormais, pour qu'un utilisateur puisse voir un espace, vous devez spécifiquement attribuer un excédent à cet espace à cet utilisateur. Par exemple, tous les membres l'équipe marketing auront accès à un espace marketing. Tous les membres de l'équipe des opérations auront accès à l'espace opérationnel. Et si quelqu'un a besoin d'accéder à la fois au marketing et aux opérations, vous lui attribuerez l'accès aux deux espaces. Maintenant, Kibana crée un espace par défaut pour vous et tous les objets que nous avons créés jusqu'à présent dans ce cours ont été créés dans l'espace par défaut du deck. Enfin, pour gérer les espaces, vous avez besoin que le rôle d' administrateur de soulignement Kibana soit équivalent. Maintenant, allons craquer sur ma page Web Kibana. Je me suis connecté en utilisant mon compte administrateur, administrateur pour configurer des espaces, je dois cliquer sur le menu de navigation de gauche, puis passer directement à la gestion de la pile sous gestion. Je vais donc cliquer dessus. Et la configuration des espaces se trouve sous Kibana et espaces. Maintenant, vous pouvez voir que je viens d'avoir mon espace par défaut pour l'instant. Nous allons créer un nouvel espace ici. Je vais donc cliquer sur Créer un espace, et je nommerai cet espace de soulignement COVID. Maintenant, je peux créer un avatar. Par défaut, il est défini sur les initiales, mais vous pouvez également télécharger une image pour votre avatar, laissera comme initiée par défaut, mais je vais changer la couleur d' arrière-plan en vert. Désormais, sous fonctionnalités, nous pouvons spécifier quelles fonctionnalités sont disponibles sous l'espace. Je vais donc tout supprimer, sauf l'analyse, car je veux simplement accéder aux fonctionnalités d'analyse en utilisant cet espace. Et puis je cliquerai sur Créer un espace. Maintenant, une fois que j'ai noté l'espace, nous avons besoin de quelques objets dans cet espace. Désormais, tous nos objets se trouvent par défaut dans l'espace par défaut. Pour l'instant, nous allons copier l'index COVID et le bord COVID dans l'espace de soulignement COVID. Donc pour ce faire, je dois aller à sauvegardé, puis je dois trouver COVID et le tableau de bord de partition. Et à partir de ces trois boutons situés à l'extrême gauche de cette ligne, je dois cliquer dessus et je dois cliquer sur Copier dans l'espace. Une fois sur place, je peux choisir Copier les actions. Par exemple, la création de nouveaux objets avec des identifiants aléatoires est vérifiée pour les objets existants. Je le laisse par défaut car je sais qu'il n'y a pas d'objets dans mon espace de soulignement COVID. Ensuite, je dois cliquer sur l'espace de soulignement COVID, sous certains espaces, puis je cliquerai sur Copier dans un espace. Une fois la copie terminée, elle affiche le nombre d'objets à copier et vous pouvez cliquer sur Terminer. De même, je dois copier l'index de soulignement COVID cliquez dessus, puis cliquez sur Copier dans l'espace également. Ensuite, je cliquerai sur COVID, soulignerai l'espace, puis je cliquerai sur une entreprise ou un espace. Maintenant, s'il y a des erreurs, vous les verrez ici. Pour l'instant, je vais cliquer sur Terminer. Une fois que les objets ont été déplacés dans cet espace, il a commencé à attribuer cet espace à un rôle. Donc, notons à la sécurité, puis roulons et découvrons que le soulignement COVID a tout rapporté. Une fois à l'intérieur, nous devons descendre directement à Kibana, puis cliquer sur cette icône de crayon. Et à partir des espaces où il est indiqué tous les espaces, nous devons supprimer cela, puis choisir l'espace de soulignement COVID. Une fois cela fait, vous pouvez cliquer sur Mettre à jour les privilèges d'espace. Cette règle ne peut donc donner accès qu'à l'espace COVID maintenant. Ensuite, vous pouvez cliquer sur la règle de mise à jour. Une fois cela fait, déconnectons-nous cet utilisateur administrateur et reconnectons-nous à l'aide de l'utilisateur déclarant. À partir de cet écran, je vais saisir le nom d'utilisateur COVID et le rapport de score, fournir mon mot de passe et cliquer sur Connexion. Maintenant, tout de suite, vous remarquerez que je ne suis plus dans l'espace par défaut. Et maintenant, je vais cliquer sur le menu de navigation de gauche. Et nous allons d'abord accéder à notre onglet Découvrir. Maintenant, vous pouvez voir par défaut que je suis dans l'index COVID, mais affectez le clic sur le menu déroulant. Je ne vois même pas l'index Netflix. C'est parce qu'il n'est pas affecté à cet espace. Maintenant, pour afficher les données, je dois modifier la recherche temporelle d' 15 semaines et je clique sur Mettre à jour. Et vous pouvez voir que j' ai accès aux données. Voyons maintenant si notre tableau de bord fonctionne toujours. Je clique donc sur Dashboard et sur le tableau de bord COVID. Et vous pouvez voir que j'ai également des données dans mon tableau de bord. Si quelqu'un parle de cette erreur, maintenant, si je vais sur Canvas, vous pouvez voir que je ne vois même plus le Wordpad Netflix. Spaces est donc un bon moyen de garder vos objets organisés pour différentes catégories. Par exemple, le marketing ne peut avoir accès qu'à leurs tableaux de bord, etc. De toute évidence, si vous créez un nouvel objet dans cet espace, il sera automatiquement affecté à cet espace et non à l'espace par défaut. Donc, si je clique sur le menu de navigation de gauche et que je clique sur Visualize library. Et si je clique sur créer une nouvelle visualisation, je choisirai l'objectif. Supposons que je souhaite le nombre total de pays dans ma base de données. Je vais donc cliquer sur métrique, Analytique sur emplacement. Maintenant, j'ai un type d'emplacement unique qui est 64. Maintenant, je ne peux pas enregistrer cela car mon utilisateur déclarant des utilisateurs ne dispose pas d'autorisations appropriées sur cette base de données. Mais si je me déconnecte et que je me connecte en tant qu'utilisateur administrateur, et ici je sélectionnerai l'espace de soulignement COVID. Et vous pouvez voir que même si mon utilisateur dispose de beaucoup plus de privilèges, je ne peux voir que ce qui est alloué à mon espace. Je ne reçois donc pas toutes les fonctionnalités de recherche et de disponibilité, etc. Je ne reçois que des analyses et une gestion de pile. À partir de là, je vais cliquer sur Visualize library. Je cliquerai sur créer une nouvelle visualisation et une nouvelle lentille. Ensuite, je modifierai le type de mesure de visualisation et je modifierai la date à il y a 15 semaines. Et à partir de là, je vais encore faire glisser l'emplacement, voir qu'un nombre unique de lieux est de 64. Et maintenant, j'ai de nouveau le bouton Enregistrer. Je cliquerai donc sur Enregistrer et je l' appellerai des pays uniques. Et je le déplace vers un tableau de bord existant, qui est le tableau de bord de score COVID-19. Et je cliquerai sur Enregistrer et accéder au tableau de bord. Et ici, j'ai ajouté le quatrième élément à mon tableau de bord pour pays uniques ou cliquez sur Enregistrer pour enregistrer les modifications apportées à ce tableau de bord. Et maintenant, si je retourne à mon utilisateur de reporting couvert par le rapport de score, et que je clique sur le bord COVID et que je modifie la date à il y a quelques semaines, je peux également voir la nouvelle visualisation. C'est ainsi que vous pouvez utiliser des espaces pour classer vos objets à l'intérieur de Kibana. C'est ainsi que nous sommes arrivés à la fin de cette conférence. Merci d'avoir regardé. Je vous verrai dans le prochain combat. 20. Introduction à Logstash: Hé les gars, parlons de la session de journal. Cette section, Log Stash, vous permet agréger vos données provenant de différentes sources, transformer, puis de les envoyer à Elastic Search ou à toute autre application de votre choix. Par exemple, si vous souhaitez analyser les données, vous pouvez les envoyer à Elastic Search ou MongoDB. Toutefois, si vous souhaitez simplement stocker les données, vous pouvez les envoyer à quelque chose comme Amazon S3 stocké dans un fichier sur votre système de fichiers local. Il existe de nombreuses destinations en fonction de votre cas d'utilisation. Et j'ai joint un lien vers un article où vous trouverez plus d'informations sur les destinations et Log Stash. Maintenant, avant d'en savoir plus sur les recherches dans les journaux et les détails de niveau inférieur, il est toujours judicieux de comprendre certains cas d'utilisation. Par conséquent, le premier cas d'utilisation de Log Stash est celui des journaux et des mesures. n'existe parfois aucun moyen standard de comprendre vos données de journalisation. Dans ces scénarios, Log Stash peut vous aider à définir logique afin que vous puissiez transformer et donner un sens à vos données de journal. Ensuite, vous pouvez également consommer des données du service Web HTTP ou générer des événements en regroupant et en terminant HTTP. Par exemple, vous pouvez extraire Twitter et obtenir des données de Twitter à l'aide de Log Stash. Vous pouvez également utiliser des statues de journal pour transformer et comprendre les données relationnelles ou non relationnelles stockées dans vos bases de données. Enfin, Log Stash est une colonne vertébrale commune de collecte d'événements pour l'ingestion de données provenant d'appareils mobiles, de maisons intelligentes, de véhicules connectés, capteurs de soins et de nombreux autres secteurs d'activité, applications IoT spécifiques. Désormais, le pipeline Log Stash comporte trois étapes. Il a une entrée de filtre, puis une sortie. Par exemple, vous avez des données dans votre magasin de données. Il peut s'agir d'un magasin de données IoT ou d'une application ou d'une base de données, n'importe quoi, vous envoyez ces données à Log Stash. Maintenant, dans ce pipeline anglais, vous devez d' abord définir une entrée. Et c'est vous qui expliquez Log Stash comment vous allez obtenir ces données. Par exemple, vous pouvez l' obtenir à partir d'un fichier. Vous pouvez également l'obtenir sur un port TCP ou UDP. Il peut également s'agir de données de journal système. Vous allez donc définir toutes les dettes dans l'entrée Suivant. Une fois que vous avez obtenu ces données, vous devez les traiter. Et cette logique de traitement est configurée à l'intérieur des filtres de filtre, ou comment transformer vos données. Vous pouvez également utiliser des conditions à l'intérieur du filtre pour effectuer certaines transformations uniquement lorsqu'elles correspondent à certains critères. Maintenant, certains filtres couramment utilisés sont le grok crop a environ 120 modèles qui vous permettent de transmettre des données non structurées. Nous examinerons Grok un peu plus en détail lors d' une conférence à venir. Mutate effectue des transformations générales sur un champ événementiel. Vous pouvez effectuer des opérations telles que Renommer un champ de suppression à partir de vos données, remplacer un champ et modifier des champs dans ses événements. Dropped vous permet de supprimer complètement un événement et le clone vous permet de dupliquer un événement. Maintenant, la sortie est qu'une fois que vous avez obtenu les données via votre entrée, vous avez effectué une transformation. Vous devez définir où ces données doivent aller plus loin. La sortie est donc la façon dont vous transmettez un événement à une ou plusieurs destinations. Maintenant, il s'agit le plus souvent de la recherche élastique. Si vous utilisez la recherche de journaux, vous souhaitez intégrer Elastic Search. Mais il peut aussi s'agir d'une sortie de fichier ou envoyer à quelque chose comme une file d'attente Kafka. C'est à vous de décider, essentiellement la prochaine destination des données, une fois qu'elle quitte le pipeline Log Search est configurée sous sortie. Avant de commencer à configurer les pipelines Elasticsearch, il y a encore une chose que vous devez comprendre, c' commencer à configurer les pipelines Elasticsearch, il y a encore une chose que vous devez est-à-dire les codecs. codecs sont des filtres de flux qui peuvent fonctionner en entrée ou en sortie. Un codec vous permet de séparer facilement le transport de votre message du processus de sérialisation. Prenons essentiellement un exemple de codec multiligne. Pensez maintenant à un journal d' application, qui est réparti sur plusieurs lignes par défaut, ce que la recherche Locks va essayer de faire. Il essaiera de faire de chaque ligne un événement Log Stash. Il se peut que vous ne puissiez plus comprendre ce fichier journal s'il est réparti sur plusieurs événements. Vous voulez donc que tout cela se déroule en un seul événement. Dans ce cas, vous utiliserez le codec multiligne. De même, si vous souhaitez encoder ou décoder vos données en JSON, vous utiliserez le codec décent. codecs sont donc des filtres qui vous aident à séparer le transport de votre message du processus de stérilisation de Log Stash. C'est ainsi que nous sommes arrivés à la fin de cette conférence. Merci d'avoir regardé. Je vous verrai dans le prochain. Au revoir. 21. Indignation et transformation des données CSV à l'aide de la logstash: Hé les gars, dans cette conférence, nous allons transformer les données CSV à l'aide de Log Stash. Nous allons créer un fichier de configuration de pipeline en trois phases. Une phase d'entrée avec une entrée de fichier nous aidera à ingérer un fichier CSV. Ensuite, nous utiliserons une phase de filtrage et nous utiliserons le filtre CSV pour transformer nos données CSV. Enfin, dans la phase de sortie, nous utiliserons deux sorties. La sortie standard sera utilisée pendant la phase de test. Une sortie Elastic Search sera utilisée pour finalement stocker les données dans notre cluster Elasticsearch. Une fois que nous serons prêts avec le fichier de configuration du pipeline, nous allons le tester en exécutant Log Stash. Commençons. Ici, à l'écran. Mon cluster Elasticsearch à nœud unique. Ce que je vais faire en premier, c'est que je vais créer deux connexions SSH, puis je copierai l'adresse IP externe et j'essaierai de voir si je peux me connecter à mon instance Kibana. Je suis en mesure de me connecter à mon instance Kibana sur le port 5601. Nous allons maintenant revenir à notre instance SSH, puis je cliquerai en haut sur l'icône Paramètres, puis je cliquerai sur Charger le fichier. Et à partir de là, à partir de mes téléchargements, téléchargez le classement de la compétition, l'ESV, et je cliquerai sur Ouvrir. Une fois le téléchargement du fichier terminé, je peux taper ls dans mon répertoire personnel pour m' assurer que le fichier est là. Avant de commencer la transformation de ces données, nous devrons d'abord comprendre ces données. Je vais donc taper le chat, classements de compétition, commencer CSV et frapper Enter. Il y a donc environ 5 000 enregistrements dans ce dossier. Maintenant, je vais m'en sortir et nous allons faire un CSV de classement en tête de compétition pour examiner les premiers records. La première ligne est donc l'en-tête, et cette ligne explique chaque colonne. Par exemple, la première colonne est classée, la deuxième colonne est de niveau, la troisième colonne est nom d'utilisateur et chaque colonne est séparée par un point-virgule, Cinq mille enregistrements, et chaque colonne est séparés par un point-virgule. Nous pouvons maintenant commencer écrire notre fichier de configuration de pipeline. Pour ce faire, je vais cd dans la barre oblique, ETC Log Stash. Et là, je vais faire un ls. Maintenant, dans Log Stash, il existe un répertoire appelé point t. Ce qui se passe, c'est lorsque vous exécutez une barre oblique de journal en tant que service, c'est qu'il récupère tous les fichiers de configuration à l'intérieur de la construction. d. Nous allons donc écrire nos fichiers de configuration dans ce répertoire. Il existe un autre fichier de configuration appelé Locke's —sample.com. Et ce fichier est un exemple de fichier de configuration fourni par Plastic. Il y a donc une tendance dans ce dossier. Nous allons jeter un coup d'œil. Maintenant, ce fichier a une entrée qui accepte certaines données sur un port, puis sans transformation, c'est des données de recensement ou pointent vers la recherche élastique. Passons donc à froid pour D et écrivons notre fichier de configuration de pipeline. Je vais donc me débarrasser de tout. Je vais faire un lls. Ce répertoire est vide. Je vais faire sudo touch et nous appellerons notre fichier de configuration CSV data.com. Et puis je vais taper sudo via CSV data.com. Et je fermerai ça et ici, je ferai un insert. Maintenant dans notre pipeline, nous devons d' abord définir une phase de saisie. Je vais donc saisir l'entrée, puis les crochets bouclés, puis je déplacerai le crochet bouclé vers le bas. Et ici, nous devons spécifier une entrée de fichier car nous ingérons des données à partir d'un fichier. Je vais donc refaire des crochets bouclés et faire du formatage. Maintenant, sous la saisie du fichier, nous devons spécifier certains paramètres. Ce que je vais faire, c'est que j' ouvrirai un autre onglet et je taperai l'entrée de fichier Log Stash, et nous allons entrer dans la documentation du plug-in d'entrée de fichier. Maintenant, dans cette documentation, vous pouvez lire comment fonctionne ce plug-in. Par exemple, quels sont les différents modes ? Il existe un mode conte qui ne parvient pas à enregistrer, et il existe un mode lecture. Vous pouvez comprendre comment cette entrée suit la position actuelle dans le fichier qu'elle regarde. Mais ce qui nous intéresse, c'est les options de configuration d'entrée. Sous Options de configuration d'entrée, vous verrez tous les paramètres pouvant être configurés sur cette entrée. De plus, vous pouvez voir quels paramètres sont requis pour cette entrée. Maintenant, pour le moment, le seul paramètre requis est le paramètre de chemin. Et ce paramètre de pièce est un tableau. Ce paramètre de pièce est donc nécessaire pour spécifier le chemin d'accès du fichier que vous allez lire. Pour nous. Permettez-moi d'ouvrir l'instance SSH. Et là, je vais faire un LS et ensuite je ferai un PWD. C'est donc mon chemin d'accès et c'est le nom de fichier que nous devons spécifier pour cette entrée. Je vais revenir à la configuration de mon pipeline. Je vais taper, mais ensuite c'est égal à et ensuite flèche. Et ici, je vais spécifier le chemin. Je vais donc taper des guillemets doubles et ensuite je copierai le tracé et je collerai cette partie ici, puis je mettrai une barre oblique, puis je copierai le nom de mon fichier, puis je copierai le nom de mon fichier, puis je le collerai ici également. Maintenant, après cela, jetons un coup d'œil à quelques autres paramètres. Le paramètre suivant est la position de départ, et il s'agit d'une chaîne, et il peut s'agir d'un début ponctuel ou d'un n. Ce qu'il faut savoir, c'est quelle est la valeur par défaut de ce paramètre ? Je clique donc sur cette URL et il indique que la valeur par défaut est. En gros, il commencera à lire le fichier par le bas si vous voulez le configurer pour commencer à lire le fichier par le haut, ce que nous voulons faire. Nous devrons le configurer comme début. Revenons en arrière. Ici. Je vais taper la position de soulignement de début, et la valeur commencerait. Après cela, je veux vous montrer une autre valeur. Je vais donc revenir en arrière. Il existe maintenant une valeur appelée chemin sensible. Fondamentalement, depuis db, il s'agit d'un fichier de base de données qui garde une trace de la quantité de fichier lue par Log Stash. Fondamentalement, si votre fichier contient 100 enregistrements et que la barre oblique de journal en a lu 50, cette valeur sera stockée dans le fichier de sensibilité. Maintenant, puisque le chemin de base de données vous donne la partie du fichier sinc TB, le chemin par défaut est les entrées obliques des plug-ins barre oblique de données de chemin d'accès. Un fichier dans notre cas parce que nous n'avons qu'un seul fichier et que nous voulons continuer à relire ce même fichier car nous allons tester différentes options. Ce que je vais devoir faire, c'est que je devrai configurer la partie sensibilité en tant que barre oblique de dev null. Cela signifie que puisque db n' écrira pas, ce qui nous permettra de continuer à relire ce fichier. Je vais donc taper depuis le chemin de soulignement de base de données et je vais configurer la valeur du chemin comme barre oblique de dev barre oblique null. Maintenant, une fois que j'ai fait cela, j'en ai fini avec la saisie de mon fichier. Ensuite, je devrai spécifier le filtre, transformer nos données. Nous allons donc taper des filtres et des crochets bouclés. Maintenant, sous filtre, ce que je dois spécifier, c'est un filtre CSV. Donc CSV et crochets bouclés à nouveau, maintenant sous CSV devra spécifier certains paramètres. Jetons donc un coup d' œil à la documentation. Csv, fruits et Log Stash. Et je vais ouvrir le lien pour obtenir de la documentation. Et ici, j'irai dans les options de configuration. Donc, d'abord, nous pouvons détecter automatiquement les noms de colonnes ou spécifier des noms de colonnes. Ce que je vais faire, c'est que je veux spécifier manuellement les noms des colonnes ici. Je dois donc spécifier un paramètre appelé colonnes, et c'est un tableau. Je vais donc revenir à mon filtre, et ici je spécifierai des colonnes. Et puis je vais taper entre crochets car il s'agit d'un tableau. Maintenant, pour obtenir les noms de colonnes, je vais revenir à la deuxième instance SSH. Et ici, je vais taper dans classement de la compétition de tête tri csv, et je copierai les noms des colonnes d'ici. Puis j'ai reculé et je les colle. Maintenant, je dois faire un formatage. En gros, ce que je dois faire, c'est que nous devons abord toutes ces colonnes à l'intérieur de guillemets doubles comme celui-ci. Ensuite, je dois changer le point-virgule en coma. Je vais le faire maintenant. Une fois que j'en ai fini, la prochaine chose que je voulais faire est de préciser quel est le personnage qui sépare mes colonnes. Revenons donc à la documentation. Et ce que nous devons spécifier, c'est un paramètre appelé séparateur, et c'est une chaîne. Je vais donc revenir en arrière, appuyer sur Entrée. Et ici, je vais taper dans le séparateur est égal à flèche. Les tribunaux internes spécifieront un point-virgule car nos données sont séparées par un point-virgule. Maintenant, une fois que j'ai fait cela, je veux vous montrer deux autres paramètres. Tout d'abord, nous pouvons ignorer les colonnes vides et ignorer les lignes vides. Pour la démonstration, je spécifierai sauter les colonnes vides. Nous pouvons également ignorer le champ d'en-tête. Donc, si vous regardez nos données, la première ligne est un en-tête. À l'aide de ce paramètre de saut d'en-tête, ils peuvent demander à Log Stash d'ignorer la première ligne. Maintenant, il y a une mise en garde à ce sujet. Vous devez vous assurer que les noms de vos colonnes correspondent exactement à la première ligne de vos données. S'ils ne le font pas, Log, Stash ne sautera pas les en-têtes. Donc, quel que soit le contenu de cette ligne, les noms des colonnes doivent correspondre exactement à ce que vous spécifiez comme nom de colonne pour que le paramètre d'en-tête saute fonctionne. Configurons donc cela. Ignorez les colonnes vides comme true. Et sauter l'en-tête est également vrai. Vous pouvez désormais ajouter des commentaires dans le fichier de configuration de votre pipeline à l'aide du symbole de hachage. Je vais donc taper du hachage. hachage vous permet de sauter la première ligne du fichier source. Les noms des colonnes doivent correspondre exactement. Nous sommes donc prêts à spécifier la sortie. Pour commencer, nous utiliserons une sortie standard comme sortie. Un autre type en sortie, les accolades bouclées. Et je vais baisser ça. Et ici, je vais taper STD comme sortie. Et à l'intérieur de cela, je vais taper Kodak et Kodak serait un débogage de rubis. Et maintenant, nous sommes prêts à faire fonctionner ce pipeline. Je vais enregistrer ce fichier. Et pour exécuter un pipeline, ce que vous devez faire est de taper une barre oblique sudo, utiliser la barre oblique de partage de barre oblique Log Stash. Et puis j'ai eu un aperçu quand il y a un utilitaire appelé Log Stash que nous utiliserons. Cet utilitaire représente le chemin d'accès complet au fichier de configuration de votre pipeline. Mais comme nous sommes dans le même répertoire que celui du fichier de configuration du pipeline, nous pouvons simplement spécifier un chemin relatif. Donc CSV data.com et appuyez sur Entrée. Maintenant, si votre pipeline a été correctement configuré, vous obtiendrez un résultat comme celui-ci. Vos données sont ensuite divisées en différents champs. Par exemple, il est joint dans un champ appelé date de jointure, nombre de problèmes, métaux, etc. Il existe des champs générés par le système. Il existe un champ de message, qui est un champ généré par le système qui contient chaque horodatage individuel de version de ligne. Maintenant, ce champ d'horodatage correspond l'heure à laquelle Log Stash a ingéré ce fichier de données. Et nous utiliserons ce champ pour rechercher et explorer nos données dans Kibana. Avec cela, nous pouvons maintenant spécifier la sortie Elastic Search en utilisant le contrôle C, ce qui arrêtera le pipeline. Maintenant, je vais modifier nouveau le fichier de configuration de mon pipeline ou c'est fait. Je peux soit supprimer le STD soit ajouter une autre sortie. Je vais donc passer en mode insertion et je veux simplement ajouter une autre sortie. Nous allons donc saisir Elastic Search et des crochets bouclés. Déplacez cette pierre. Maintenant, sous la sortie Elasticsearch, le premier paramètre que je dois fournir est une liste d'hôtes vers lesquels je voulais envoyer ces données. type dans les hôtes est égal à une flèche, et ce paramètre prend un tableau. J'ai donc mis des guillemets doubles et http localhost, puis 90 à 100 parce que j' exécute la recherche de journaux localement sur la même machine que celle de mon cluster Elasticsearch. Ensuite, je peux également spécifier un index sur Elastic Search où ces données seront écrites. Nous allons donc taper l'index et je lui donnerai ensuite le nom de l'index, indice de soulignement CSV. Maintenant, une chose à noter avec cela, si je ne crée pas d'index sur Elastic Search en premier, cela créera automatiquement l'index sur mon cluster Elasticsearch pour moi. Essayons donc d'abord, je sauvegarderai ce fichier et ensuite je réexécuterai mon pipeline. Et pendant que cela fonctionne, si vous regardez mon Kibana et si je vais dans la gestion des index et du personnel, puis la gestion des index, il n'y a pas d'index ici. Pour que cela se termine, aucun vote n' a été écrit par le pipeline. Il semble qu'il y ait des difficultés à se connecter à Elastic Search parce que j' ai un message disant élastique, si inaccessible fera un contrôle C pour arrêter ce pipeline. On dirait donc que les services de recherche Elastic s'exécutent. Jetons donc un coup d'œil à notre fichier de configuration. Maintenant, la raison pour laquelle elle a échoué est qu'il y a une faute de frappe, donc Altcoin à insérer et je corrigerai ma faute de frappe localhost 9200, puis j'enregistrerai ma faute de frappe localhost 9200, puis j'enregistrerai ce fichier et relançons le pipeline. Une fois que le pipeline a terminé le traitement de nos données, son score sur la gestion des index n' est plus occupé sur une page et rechargeons les indices. Ici. Vous pouvez voir l'index CSV. Il a été créé automatiquement, je vais donc rejeter et il contient 5 000 documents. Essayons maintenant d'explorer ces données dans notre onglet Découvrir. Je cliquerai donc sur ces trois lignes haut à gauche, puis j'irai découvrir. Mais ici, vous ne pouvez voir aucune donnée car il est dit que pour visualiser et explorer les données et Kibana, vous devez créer un bouton d'index. Jetons donc un coup d'œil à ce qu'est un modèle d'index. Si vous vous souvenez de cours précédents, un index est l'entité de niveau le plus élevé que vous pouvez interroger par rapport à une recherche Elastic. L'utilisation de notre pipeline de recherche de journaux permet stocker nos données dans un index. À l'aide des API Rest Elastic Search, nous pouvons interroger les données par rapport à cet index. Toutefois, un modèle d'index identifie un ou plusieurs indices de recherche élastiques que vous souhaitez explorer avec Kibana. Pour explorer ces données et Kibana, nous devons créer un modèle d'index. Maintenant, ce que fait Kibana, il recherche des noms d'index correspondant à un bouton spécifié. Par exemple, un astérix sera un caractère générique qui correspond à 0 caractères ou plus. Par exemple, si notre pari sur une étoile de tiret CSV correspondra à tous les noms d'index qui sont CSV dash one, CSV dash T2 ou CSV, etc. Créons un modèle d'index sur notre Kibana. Ici, sur le Kibana, je vais devoir me lancer dans la gestion des piles. Je vais donc cliquer ici sous gestion et gestion pile et je dois passer sous Kibana dans les boutons d'index. Je vais maintenant devoir créer un bouton d'index. Maintenant, notre index était si je vais dans mon pipeline et Control C et que j'ouvre mon fichier de configuration ou les index CSV Underscore index. Ce que je vais faire, c'est que je vais créer un modèle d'index avec CSV. Et sur le côté droit, vous pouvez voir que ce bouton d'index correspond à un index source, CSV et discorde en quelques jours. Maintenant, si nous voulons utiliser le filtre temporel global, nous devons spécifier un horodatage comme je vous l'ai montré précédemment. Chaque fois, laissez-moi sortir de là. Chaque fois que le pipeline Log Stash s'exécute, il crée automatiquement un champ d'horodatage appelé Ajouter un horodatage, qui contient l'heure à laquelle le fichier a été ingéré. Par conséquent, puisque nos données ne comportent aucun champ d'horodatage natif, nous utiliserons ce champ comme champ de filtre temporel. Je vais donc aller dans Index Patterns et sélectionner Ajouter un horodatage, puis je créerai mon spectre d'index. Maintenant, une fois le bouton d'index créé, vous pouvez voir tous les champs à l'intérieur de ce modèle d'index. Maintenant, cette horloge représente que ce champ d'horodatage est le champ horaire qui sera utilisé pour le filtrage. Revenons maintenant à notre onglet Découvrir pour voir si nous pouvons explorer ces données. Maintenant, comme vous pouvez le constater, fois que nous avons créé un modèle d'index pour cet index, nous sommes maintenant en mesure de rechercher ces données. N'oubliez donc pas qu'un index vous permet d'interroger ces données par rapport à Elastic Search, alors qu'un bouton d'index vous permet d' explorer ces données à l'aide de Kibana. Maintenant, une fois que nous en avons fini, permettez-moi de vous montrer comment supprimer un bouton d'index et un index. Nous allons donc nous intéresser à la gestion et à la gestion du personnel. Tout d'abord, je vais passer à Index Management. Sélectionnez mon index, cliquez sur Gérer l'index , puis supprimer l'index. Ensuite, j'irai sur les boutons d'index, cliquez sur CSV et supprimez-le. Je voulais maintenant vous montrer comment créer un index et Elastic Search. Pour cela, nous cliquerons à nouveau sur ces icônes puis accéderons à la gestion, puis à DevTools. Nous pouvons maintenant utiliser DevTools pour exécuter certains appels d'API sur notre cluster Elasticsearch. Et cette fois, je vais utiliser la méthode PUT pour créer un index appelé index de soulignement CSV. Et le nombre de graphiques dans cet indice serait un. Je peux donc configurer certains paramètres. Et ici, je vais taper tous les champs que je veux dans cet index. Cliquez sur cette flèche, et cet index sera effacé. Maintenant, nous pouvons revenir à notre pipeline et devons d' abord nous assurer que ce nom d'index, le paramètre d'index, est exactement le même que l'index que nous venons de créer. Sinon, si ce journal est différent, Sasha va créer un autre index et vous n'obtiendrez pas les données stockées dans votre index. Ils ont donc veillé à ce que ce nom soit identique s'échappera de ce fichier et nous allons exécuter notre pipeline. Maintenant que le pipeline a terminé son traitement, revenons à notre Kibana. Et ici, je vais d'abord passer à la gestion des piles et à la gestion des index, vous pouvez voir que j'ai un index. Il existe une certaine taille de stockage, mais la colonne du document indique 0. Nous devrons donc nous pencher sur les brevets d' index et créer un modèle d'index. Et encore une fois, ce sera CSV et cela correspondra à notre indice. Et j'utiliserai le champ horodatage et je vais créer le modèle d'index. Et une fois que c'est le bouton Il est créé. Si je vais vérifier sous Gestion des index, maintenant, je peux voir le document en cours plus 5 000. Encore une fois, nous pouvons explorer nos données à l'aide de l'onglet Découvrir. Je vais minimiser ce message et il y a 5 000 visites. Maintenant, vérifions si notre rover d'en-tête a sauté. Je vais donc entrer dans ma deuxième connexion nécessaire et je chercherai un nom d'utilisateur de valeur dans le champ du nom d'utilisateur. Ce que je vais faire, c'est que j'irai découvrir et j' écrirai mon nom d'utilisateur. Je vais rejeter ce message, nom d'utilisateur. Et je voulais que ce soit le même nom d'utilisateur. Et je mettrai à jour résultats du nœud correspondant à vos critères. Maintenant, choisissons un nom d'utilisateur valide. Par exemple, BSI, découvrez, je vais supprimer ça. Ils tapent PSI et je vais cliquer sur Mise à jour. Et vous pouvez voir que les valeurs valides ou toutes les données correctes ont été stockées dans mon cluster Elasticsearch. Et les anciennes lignes d'en-tête sont ignorées. La clé était de s'assurer que les colonnes que vous définissez correspondent exactement aux colonnes de votre fichier CSV. Avant de vous laisser partir, je voulais vous montrer une dernière chose, à savoir comment envoyer des données de Log Stash vers une instance Elasticsearch avec configuration d'authentification par mot de passe. Pour cette démo, j'ai créé un ELK séparé. Une machine s'attend configuration de sécurité pour l'authentification par mot de passe. Si je copie l'adresse IP externe de cette instance et que je vais sur ma page Web Kibana. Il me demandera de fournir mon nom d'utilisateur et mon mot de passe. Maintenant, j'ai un nom d'utilisateur et un mot de passe intégrés appelés Elastic, qui est le compte de superutilisateur. Je vais utiliser cette connexion à mon Kibana. Maintenant, une fois dans Kibana, je cliquerai sur ces trois lignes en haut à gauche, puis je vais accéder à Stack Management. Ensuite, sous sécurité et utilisateurs, je peux trouver tous les noms d'utilisateur configurés sur ce système. Ce sont tous des noms d'utilisateur intégrés. Nous allons donc utiliser Elastic pour intégrer notre Log Stash à intégrer notre Log Stash à l' instance Elasticsearch sur ELK. Je cliquerai donc sur SSH sur ELK T2 pour ouvrir une connexion SSH. Maintenant, une fois que j'ai ouvert la connexion SSH dans tous les types de sudo, V slash, ETC, barre oblique Log Stash d. Et puis nous allons modifier notre fichier de configuration appelé données CSV. Et à l'intérieur de ce fichier pour configurer la sortie pour passer à Elastic Search sur ELK 1. abord, je vais changer la valeur d'hôte à partir de adresse IP interne de Bouddha de l'hôte local d'ELK one, désolé , éditer tout cela , en insérant et taper 192 points 168 points un point F5. Et maintenant, je dois fournir le nom d'utilisateur et le mot de passe que je vais utiliser pour m'authentifier. Je vais donc taper utilisateur, et ici je vais mettre des guillemets doubles et taper élastique, puis je taperai un mot de passe. Et ce que je vais faire, c'est que je mettrai guillemets doubles et je copierai le mot de passe de mes notes. Maintenant que j'ai copié le mot de passe, nous pouvons enregistrer ce fichier et maintenant nous sommes prêts à exécuter notre pipeline. Je vais donc taper sudo slash, barre oblique usr, log slash bin et Log Stash et moins F. Et je copierai tout cela. Je vais le coller ici et appuyer sur Entrée. Et une fois le traitement du pipeline terminé, commencez à accéder à notre instance Kibana et comprenez la gestion. Nous pouvons accéder à la gestion des index et vous pouvez voir un index appelé index soulignement CSV avec 5 000 documents a été créé. Et encore une fois, je vais devoir créer un modèle d'index. Cliquez sur Créer un modèle d'index. Je vais taper CSV et il a correspondu à mon index et j'utiliserai le champ horodatage et je cliquerai sur Créer un spectre d'index. Maintenant, pour explorer mes données, je vais passer à l'analyse et découvrir. Et ici, je devrai changer l'indice de démarrage des journaux en étoile CSV. Ce faisant, vous devriez être en mesure d' explorer vos données. Mais cela, nous sommes arrivés à la fin de cette conférence. Merci d'avoir regardé. Au revoir. 22. Installation du serveur Web Apache: Hé les gars, Dans cette vidéo, je vais vous montrer comment installer le serveur Web Apache sur une instance de VM GCP. abord, nous allons installer le logiciel, puis nous déploierons le nouveau fichier index.html. Après cela, nous démarrerons le serveur Web Apache et, enfin, nous testerons l'accès à notre site Web assemblé. Commençons donc. Ici, à l'écran. J'ai mis place la console des instances VM pour ma plateforme GCP. Ensuite, je choisirai un nouveau sens de la vitamine dans Template. Et après cela, je choisirai le modèle de serveur Web que nous avons créé précédemment. Ensuite, je cliquerai sur Continuer. Après cela, je vais changer la région en USA West One prochaine vidéo, descendre et cliquer sur réseautage. cadre de la mise en réseau, nous nous assurerons que la balise réseau est des serveurs Web, puis nous devrons modifier l'interface réseau dans le réseau de service Web. Je vais donc passer de la surveillance aux serveurs Web. Et après cela, je vais descendre et cliquer sur Créer. Cela créera notre instance de machine virtuelle, que nous utiliserons pour un serveur Web. Une fois que la machine virtuelle est opérationnelle, nous pouvons passer à Visual Studio Code. Maintenant, sur la console de code Visual Studio, j'ai les remarques pour installer un serveur Web sur le côté gauche, et à droite , j'ai ma connexion SSH sur ce serveur Web. Nous allons donc d'abord mettre à jour notre système. Donc sudo APT obtient mise à jour moins y. Maintenant, sortons ensuite, je vais taper sudo apt-get installer Apache deux moins y et appuyer sur Entrée. Prochaine. Je vais m'en débarrasser et ensuite je copierai cette commande pour créer un nouveau fichier index.html et y mettre un exemple de code pour créer notre site Web. Collez-le ici et appuyez sur Entrée. Maintenant, une fois cela fait, je peux démarrer mon service Apache. Donc, le pseudo système CTL démarre Apache deux et frappe Entrée. Maintenant, vérifions le statut. Donc, pseudo système CTL, statut Apache à son actif et en cours d'exécution. Revenons maintenant à notre console GCP. Et ici, je vais copier l'adresse IP externe de cette machine, et je la collerai ici et je cliquerai sur Entrée. Maintenant, comme vous pouvez le voir, nous avons mis en place notre exemple de page Web. Voici comment installer un serveur Web sur une instance de machine virtuelle GCP. Merci d'avoir regardé. Je vous verrai dans le prochain. Au revoir. 23. Installer et configurer Metricbeat: Hé les gars, nous avons notre cluster Elasticsearch qui l'a ajouté au travail. Il est maintenant temps de commencer à utiliser le cluster. Dans cette démonstration, nous collectons des données d'audit système telles que l'utilisation du processeur et de la mémoire, des données de journalisation telles que les journaux système, effacé des tableaux de bord sympas comme celui-ci, encore une fois, des informations sur nos systèmes IP. Désormais, Elastic Search utilise expéditeurs légers appelés beats installés sur les machines cibles et envoient des données opérationnelles au cluster Elasticsearch. Nous pouvons également utiliser ces données opérationnelles pour créer des rapports et des tableaux de bord. Maintenant, l'un des cas d'utilisation les plus courants consiste à alimenter des données de mesure système dans Elastic Search et à les utiliser pour surveiller éléments tels que l'utilisation du processeur ou de la mémoire, le disque, etc. consiste à alimenter des données de mesure système dans Elastic Search et à les utiliser pour surveiller des éléments tels que l'utilisation du processeur ou de la mémoire, le disque, etc. Factor Elastic Search utilisant un beat appelé métrique, qui est léger et moins cher que vous pouvez installer sur votre serveur. Collectez périodiquement des mesures à partir du système d'exploitation et des services exécutés dessus. Il prend donc ces mesures et statistiques et les déplace vers la sortie de votre choix, par exemple, il peut s'agir de votre choix, par exemple, il peut s'agir Log Stash ou de Elastic Search. Pour vous donner un exemple, supposons que vous souhaitiez un intervalle de votre machine Linux pour données de mesures de notre système telles l'utilisation du processeur et de la mémoire, etc. que l'utilisation du processeur et de la mémoire, etc. poids métrique sur le serveur et activer système de module qui collecte toutes ces informations et Chip-Seq à Elastic Search. Ce module vous permet de surveiller beaucoup de choses que j'ai répertoriées à l'écran. Chacun de ces éléments s' appelle individuellement une matrice. Vous pouvez soit choisir d'activer. Tous ces éléments ne sont que ceux qui vous intéressent. Celles qui ne vous intéressent pas, nous devons être commentées à partir de votre fichier de configuration. Par conséquent, en théorie, un module de perles magnétiques, il trouve la logique de base pour collecter des données à partir d'un service spécifique tel que le serveur Web Apache HTTP. Le module spécifie des détails sur le service, y compris la façon de se connecter à ce service, fréquence de collecte des mesures et les mesures à collecter. Chaque module possède une ou plusieurs matrices. C'est une matrice qui est la partie de la molécule qui touche et structure les données. Il existe de nombreux modèles que vous pouvez activer dans l'appât métrique dans la description de cette vidéo vers le haut dans une URL de la documentation Elasticsearch. Et vous pouvez le parcourir pour voir tous les modules disponibles. Et vous pouvez choisir ceux dont vous avez besoin en fonction de la configuration requise de votre système. Examinons ensuite comment fonctionne la métrique, quel service fonctionne ? cordon métrique fonctionne en quatre étapes. abord, les services installés et configurés sur la machine cible malades et collectent des informations de surveillance en fonction sont malades et collectent des informations de surveillance en fonction des modules activés et des mesures configurées. Ces données sont stockées et indexées dans Elastic Search. Enfin, nous pouvons créer des rapports et des tableaux de bord intéressants sur ces données à l'aide de l'interface utilisateur Kibana. Vous pouvez également utiliser les tableaux de bord par défaut fournis par cette succession. Voici l'espoir de configurer l'enchère métrique pour cette démonstration sur le serveur Web Apache pour activer le module Apache, qui fournit l'état du serveur Web Apache. Nous allons également activer le module système, qui fournit des mesures système. Enfin, nous avions également activé le module beats expectative. Ce buret Mohr nous aidera à surveiller le service Apache sur le serveur ELK, activera le module Elastic Search attente, qui nous aidera à surveiller Elasticsearch lui-même, permettra également d'activer le module Kibana attend qui nous aidera à surveiller Kibana. Activera le module expert bits, qui nous aidera à activer d'autres bits installés sur leur service. Maintenant, une chose à noter est que nous allons utiliser la même métrique avec de l'encens pour se surveiller. Ce n'est pas ce que vous verrez dans un environnement de production. Votre cluster de production peut ressembler davantage à ceci, où vous disposez d'un cluster de production distinct et d'un cluster de surveillance distinct. Parce qu'en cas de panne du cluster de surveillance, services de production peuvent toujours être surveillés via le cluster de production. En cas de défaillance du cluster de production, vous pouvez également déterminer pourquoi il a échoué à l'utilisation du cluster de surveillance. Passons maintenant à notre système de laboratoire. Enchère métrique installée. Maintenant, une fois que la mesure est installée, la première chose à faire est d' activer la surveillance sur le cluster Elasticsearch. Donc ce que nous allons faire, c'est aller à Elasticsearch, frapper des fichiers EML pour que je puisse sudo nano slash, ETC, slash Elasticsearch. Elasticsearch commence au Yémen. Il a frappé aller jusqu' au bas de ce dossier. Pourtant, comment faire un commentaire pour une nouvelle section. Et je le nommerai attentivement à la surveillance. Et j'ai fini par s'attendre à une surveillance. Je vais copier ces deux paramètres. Attendez-vous à ce que la collecte de surveillance soit activée comme vraie et attendez-vous La collection Elastic Search activée est vraie. Ces deux paramètres permettent la surveillance de notre cluster. Copiez ceci et collez-le ici. Disons maintenant ma finale. Après cela, je redémarre mon service Elasticsearch, le système CTL, redémarre Elastic Search. Une fois les ressources informatiques telles que AP, nous pouvons installer et configurer une mesure, prototyper sudo nano slash ETC, mesures obliques, mesures obliques. Ici, le premier paramètre de configuration est le chargement de la bibliothèque. Ou le paramètre est qu'il recherche le fichier de configuration du module sous cette partie. Et s'il y a des modifications apportées à ce fichier de configuration, il les rechargera automatiquement sans redémarrer le service Metric beats. Je vais changer ça en vrai. Bienvenue et rechargez la période des points. Maintenant, un agenda et un nom, nous pouvons spécifier un nom personnalisé pour l'expéditeur. Par défaut, le bit métrique prend le nom d'hôte de la machine sur laquelle l' expéditeur s'exécute. Je peux taper un tableau de bord ELK et les œufs. Je vais spécifier qu'il s' agit de la machine ELK, donc je vais me débarrasser de toute cette balise spécifiée appelée ELK. Sous les tableaux de bord. Nous pouvons soit configurer tableaux de bord Kibana par défaut pour l'enchère métrique pour l'expéditeur, mais ne pas commenter cela et définir cette valeur vraie, vraie. Ou nous pouvons utiliser le tableau de bord Kumar. Ce que je vais faire, c'est que je mettrai cela à vrai ici. Mais lorsque nous faisons le serveur Web et que nous vous montrons comment le faire via la commande. Maintenant, sous Kibana, il faut décommenter l'hôte, mais nous pouvons le laisser comme hôpitaux locaux, l'expéditeur fonctionne sur la même machine que Kibana. Même chose pour Elastic Search, nous pouvons donc le laisser comme hôte local. Et le protocole, décommentons cela et passons de STDEV.S à Azure DB. Sous nom d'utilisateur, nous devons spécifier l' utilisateur Elastic et le mot de passe. Vous devez spécifier le mot de passe pour l'utilisateur Elastic. Maintenant, nous devons spécifier la journalisation. Nous allons passer à la section qui s'appelle la journalisation. Et ici, nous devrons décommenter le niveau de journalisation, mais nous le laisserons par défaut et décommenterons également les sélecteurs de journalisation. Nous allons donc le laisser comme électeur à impulsions par défaut. Après cela, nous devons copier ces paramètres. Le premier paramètre configure la journalisation pour qu'elle aille dans Fichier. Et après cela, nous spécifions un bot pour le fichier de journalisation. Et nous spécifions le nom du fichier de journalisation. Après cela, nous spécifions le nombre de fichiers que nous devons continuer à suivre et nous devrons spécifier les autorisations pour la journalisation. Je vais juste copier tout ça et coller ici. Enfin, nous devons configurer la surveillance de notre instance de beat métrique. Je vous recommanderai donc d'activer la surveillance. Et maintenant, ajoutons cela à vrai. Cela ira en bas, là où il est indiqué surveiller le point Elastic Search et décommenter. Ce paramètre que personne ne fait est qu'il capte tout ce que nous avons spécifié dans les sorties pour Elastic Search comme sortie, il récupérera la sortie à partir d'ici. Nous pouvons enregistrer ce fichier et démarrer le service métrique big. Donc, pseudo système CTL, commencez. Et nous pouvons taper dans le système sudo CTL activer les métriques, activer les appâts de mesure également. Après cela, nous devons configurer un activation de certains modules. Donc, si je vais aux mesures obliques ETC. Ici, si je fais un ls, vous verrez qu'il y a un répertoire appelé modules. Je vais aller dans les modules ou D, faire un ls. Vous verrez que tous les modules sont présents dans ce répertoire, mais tous sont désactivés à l'exception du module système. Maintenant, pour le serveur ELK, permettez-moi de vider à nouveau l'option Sauf. Maintenant, pour ELK Solver, ce que nous devons faire, c'est d' activer la recherche élastique, d'attendre le module, d' attendre le module Kibana et de désactiver le système ou le faire. Nous allons donc d'abord le faire. Donc, l'enchère pseudo-métrique a activé Elastic Search dash attendre. Après cela, nous pouvons activer Kibana attend. Maintenant, nous devons également activer les attentes bêta. Ce module sera utilisé pour surveiller les autres expéditeurs que nous avons installés sur le serveur. Il faudrait s'y attendre. Maintenant, si nous le choisissons, nous pouvons désactiver le système ou le désactiver. Configurons maintenant ElasticSearch en premier. Sudo nano Elastic Search dash s'attend. Ici, nous devons spécifier le nom d'utilisateur et le mot de passe de notre utilisateur de surveillance à distance pour Elastic Search. Je viens tous les deux et je vais dans mes fichiers, vais dans Ansible et sous le magasin d'informations d'identification TM. Bien sûr, toutes les références. Ils copieront d'abord le nom d'utilisateur et le mot de passe indiquera dans quel ordre l'utiliser. Nous allons juste le sauver. Et maintenant, modifions les attentes de Kibana et faisons de même. Maintenant, nous pouvons donner un pourboire. viens de remarquer que j'ai désactivé l'attente bêta au lieu de désactiver le système. Ce que je vais faire, c'est que je vais m'attendre à le modèle système soit désactivé d' abord. Maintenant, laissez-moi configurer que nous attendions. Maintenant, nous devons spécifier l'utilisateur du système beat, nom d'utilisateur. Je vais donc copier les informations d'utilisation pour les utilisateurs du système B. Donc système de soulignement bêta. Maintenant, permettez-moi de le recommander et je vais coller ceci, et je vais enregistrer ce fichier. Maintenant, l'enchère métrique doit être configurée sur mon serveur ELK. Je peux donc accéder à la console GCP, copier l' adresse IP publique de mon serveur ELK. Instructions au navigateur avec 45601. Depuis la page d'accueil de Kibana. Je peux cliquer sur le menu en haut à gauche. Laissez-moi juste frapper mon docteur. Je peux me lancer dans la surveillance de la pile et si j'ai configuré le battement métrique correctement, je devrais commencer à voir d'autres choses. Des piles sur ma pile. Ici, je dois cliquer sur la démo ELK. Et comme vous pouvez le constater, j'ai des informations de surveillance pour mon Elasticsearch, Kibana et mes beats. Cliquons donc sur beat et cliquons sur ELK one. Vous pouvez voir que j' ai les tarifs de mes événements. Maintenant, je peux aller à la démonstration ELK et cliquer sur Vue d'ensemble sous ma recherche Elastic pour voir la santé de mon index Elastic Search, je peux regarder les saturés, tels que la latence, la latence d'indexation et les taux. Je peux cliquer sur les nœuds, regarder mes notes, accorder des hauteurs OneNote en vert, je peux regarder la charge du processeur et l'espace discret pour ce nœud. Je peux également consulter mes index. Je viens d'obtenir un indice appelé offre métrique. Maintenant, je peux aller à Kibana et cliquer sur Overview. Regardez Kibana. Comme ici, je peux examiner les demandes de l' usine et le temps de réponse. La mémoire. Combien d'instances de temps de réponse maximal ? Si je clique sur des instances, je peux regarder les instances de Kibana que j'ai aussi. Il s'agit maintenant de la configuration de notre serveur ELK. Ensuite, nous devrons configurer un serveur Web. Ce que je vais faire, c'est à partir de la console GCP, je copierai l' adresse IP publique de mon serveur Web. Je vais ouvrir un nouveau terminal basé sur l'adresse IP publique. Désormais, sur le côté gauche, on appelle les instructions d'installation et de configuration d'un serveur Web. Sur le côté droit, j'ai ma connexion SSH sur le serveur Web. La première étape consiste donc à installer la clé de signature publique pour Elasticsearch. Faisons donc ça. Après cela, contrôlons simplement le transport en tant que package UDP. Après cela, nous devons enregistrer les définitions de répertoires. Maintenant, nous pouvons faire une mise à jour, une mesure d'installation bat. Donc sudo apt-get update, sudo apt-get install metric, bêtas non métriques et stockés. Commençons par effacer l'écran. Maintenant, nous pouvons les empêcher de trouver des perles métriques. Maintenant, cette configuration serait similaire à ce que nous avons fait pour l'été ELK. Configurons le chargement de la bibliothèque. Le prénom serait le serveur Web. J'ai été frappé de configurer les tableaux de bord Kibana par défaut parce que je veux vous montrer comment le faire via la ligne de commande. L'hôte de Kibana, je dois entrer l' adresse IP interne de l'instance. Il va donc aller dans la console GCP, copier ceci et le coller ici. Même chose pour Elastic Search. Nous pouvons maintenant activer la journalisation. Après ça. Activons la surveillance. Enfin, nous pouvons décommenter la surveillance du point Elastic Search et enregistrer notre fichier. Commençons maintenant le service Metric Beats. Ainsi, le pseudo système CTL active le service. Examinons maintenant l'état du service en cours d'exécution. Ensuite, ce que nous allons faire, c'est que nous commencerons à activer les modules. Le premier module va activer ce module est le module Apache. Après cela, nous avons activé le rythme. Attendez-vous à plus de faire. Jetons maintenant un coup d'œil à la liste des modules d'activation supplémentaires sur cette machine. Vous pouvez le faire en tapant un pseudo. embout. Plus de choses à faire la liste des qui enregistrent trois modules activés sur cette machine. Apache Beta s'attend à ce que nous venons activer et que les retards système ou retards soient activés par défaut. Jetons un coup d'œil aux configurations des modules. Il est clair, cette première barre oblique sudo nano, etc bit métrique oblique, plus déformé d slash apache. Ici, nous allons décommenter le statut de Matrix. Nous n'avons pas besoin de saisir le nom d'utilisateur et le mot de passe car notre serveur Web par défaut ne possède aucune authentification. Ce que je recommande, c'est que nous changions la valeur sous host de 127001 par l' adresse IP ou le nom de domaine de notre serveur Web. Cela nous aiderait à identifier ce serveur Web dans notre tableau de bord. Ce que je vais faire, c'est que je vais supprimer tout ça. Je vais copier l' adresse IP interne de mon serveur Web. Retournez au terminal, et je vais le coller ici. Maintenant, je peux enregistrer ce fichier. Jetons maintenant un coup d'œil à la configuration Beat Expert. Ici. Nous devons fournir le nom d'utilisateur et le mot de passe afin de pouvoir nous authentifier contre les beats. Ce serait l'utilisateur du système de plage. Il s'agit du mot de passe de l'utilisateur système V8. Maintenant, ce bit est utilisé pour surveiller d'autres buttes sur le système. Mais comme nous n'avons pas encore rien installé sur le système, cela ne fera rien. Alors sortons de ce dossier. Je l'ai promis plus tôt. Je vais maintenant vous montrer comment configurer les tableaux de bord via la ligne de commande. Pour ce faire, vous devez saisir configuration des enchères sudo Metric, Dash, Dash, Dash, Dash, Dashboard. Une fois les tableaux de bord chargés, un message indiquant les tableaux de bord chargés s'affiche. Revenons maintenant à notre instance Kibana. Ici. Allons d'abord aux clusters et démonstration ELK comprennent la surveillance. Allons juste aux betteraves. Maintenant, vous pouvez voir que nous avons deux bits, un et l'autre devrait être un observateur. Ces données proviennent donc de la surveillance interne au-dessus de la plage elle-même. Maintenant, pour obtenir des informations sur la banlieue, vous devez aller à la matrice. Ici. Vous verrez que nous avons commencé à obtenir des mesures et des détails sur nos serveurs Web. Nous allons donc cliquer dessus et cliquer sur la matrice de l'hôte. Vous pouvez constater que nous avons commencé ensemble tous les détails concernant nos serveurs Web. Mais après cela, passons aux tableaux de bord sous Kibana. Examinez un exemple de tableau de bord produit par un appât métrique pour un serveur Apache. Ici, sous la zone de recherche du tableau de bord, je vais taper Apache. Ensuite, j'ouvrirai le tableau de bord nommé métrique avec Apache Overview ECS. Il s'agit maintenant d'un exemple de tableau de bord. Nous pouvons obtenir des éléments tels que les noms d'hôtes dans notre environnement, disponibilité de nos serveurs, nombre total d'octets d'accès, les travailleurs occupés et inactifs, différents types de connexions, le différents types de connexions, lobe du processeur, le nœud réseau, etc. Maintenant, je vais vous laisser configurer un serveur Web avec ça, nous sommes arrivés à la fin de cette vidéo. Merci d'avoir regardé. Je vous verrai dans le prochain. 24. Filebeat: Hé les gars, installons et configurons le fichier dans cette conférence. File Beat est un outil léger moins coûteux pour transférer et alléger les données enregistrées. Il est installé en tant qu'agent sur vos serveurs et surveille les fichiers journaux comme des emplacements que vous spécifiez, collecte les événements de journaux à partir de ces fichiers et les transmet à Elastic Search ou Log Stash. Il comporte deux composantes. La première est appelée moissonneuse et la seconde est une entrée. Un moissonneur est responsable de la lecture du contenu d'un seul fichier. Ligne par ligne. Input est responsable de la gestion des moissonneuses et de la recherche toutes les sources à partir desquelles lire les données des journaux. Voyons maintenant comment fonctionne File Beat. Maintenant, une fois que vous démarrez le fichier, quel service il démarre une ou plusieurs entrées qui examinent l'emplacement que vous spécifiez pour les données du journal. Par exemple, saisissez un, nous examinerons la malchance et tout fichier journal dans Verilog. Maintenant, pour chaque fichier journal découvert à l'intérieur de cet emplacement, il commence un nouvel ester de location. Cette moissonneuse est responsable de lire le fichier journal ligne par ligne et d'envoyer ces données à un liquide. Maintenant, ce lipide agrège les événements et puisque les données agrégées vers la sortie que vous spécifiez, par exemple, il peut envoyer les données à Log Stash Elastic Search. Dans cette démonstration, nous allons d' abord configurer file beat sur notre serveur ELK. Il y a six étapes. Nous allons donc d'abord vérifier que les journaux sont correctement configurés sur le serveur ELK. Après cela, nous allons installer et configurer le service de démarrage des fichiers. Après cela, nous allons configurer mesures pour surveiller notre fichier, quel service. Nous avons donc également une sorte de surveillance en place. Ensuite, nous lancerons un service de battement de fichiers activé. Enfin, nous allons activer et configurer les modules ELK de notre cluster pour File Beat. Donc, Elasticsearch, Kibana et System vont le faire maintenant. Deuxièmement, nous allons configurer File Beat pour nos serveurs Web. Les étapes sont similaires. La seule différence est que les modules configurés sur le service 5 bits pour les serveurs Web seront Apache et que le système nous permettra de démarrer. Maintenant, dans mon labo. Et puisque j'ai les étapes pour installer et configurer le dossier Britton Hill sur le côté gauche, et la connexion SSH dans mon IELTS sur le côté droit. Ce que je vais faire, c'est que je vais joindre ces étapes à la description de cette vidéo afin que vous puissiez également accéder à ce document. Maintenant que l'EMACS est terminé, la première étape consiste à valider que la journalisation est configurée pour les instances de recherche Elastic. Je vais donc taper sudo nano slash ETC, Elastic Search slash Elastic Search point YAML. Maintenant, dans ce document, je vais aller sur les chemins et vérifier que journaux de points achetés sont définis sur var log Elastic Search. Et il n'est pas commenté. Si cela est commenté pour vous, vous devrez le décommenter et vous assurer que les journaux de points de chemin sont configurés. Après avoir vérifié que nous pouvons sortir de cela. Passons ensuite à notre instance Kibana. Donc sudo nano slash TTC slash Kibana slash garder sur elle sait Tiamat. Maintenant, il va falloir passer à la journalisation. Désormais, par défaut, vous verrez que Kibana se connecte à la sortie standard. Ce que nous devrons faire, c'est que nous devrions changer cela. Je vais faire de la place ici. Copiez tout cela, collez-le sur le côté droit. Maintenant, ces paramètres font d'abord qu'ils configurent destination du point de journalisation pour qu'elle soit sous un mauvais journal, puis le fichier Kibana. Ensuite, nous avons activé la rotation des journaux et nous avons traité le système que nous voulons conserver les fichiers journaux de quelqu'un. Une fois cela fait, nous pouvons enregistrer ce fichier et entrer. Maintenant, un problème avec Kibana est qu' il ne peut pas créer le fichier Kibana sous Verilog. Ce que nous allons faire, c'est que nous devrons faire Kibana barre oblique, créant un nouveau fichier appelé Kibana Underbar law. Laissez-moi simplement faire ça avec le sudo. Après cela, nous avons changé de propriété de ce fichier journal Kibana appartient à l' utilisateur Kibana et groupe sudo C-H sur Kibana. Lobe oblique de Kibana. Surtout. Maintenant, ce fichier appartient à l'utilisateur Kibana et au groupe Kibana. Maintenant, après cela, nous pouvons redémarrer le service Kibana. Donc, pseudo système CTL, redémarrez le coupon. Jetons un coup d'œil au statut de Kibana. Voyons maintenant si le fichier Kibana que vous venez de créer dans le journal var a commencé recevoir des données enregistrées à partir de l'instance Kibana. Faisons une queue moins un lit oblique. droit anglais, surtout comme vous pouvez le constater, selon lequel nous avons commencé insérer des données enregistrées dans notre fichier journal pour Kibana. Sortons de ça. Laissez-moi éclaircir à partir d'ici. Maintenant, la prochaine étape d' ELK Stack qui installe le serveur est celle des temps métriques. Vérifions donc que l'appât métrique est configuré avec la journalisation sudo nano slash abc slash metric main.xml. Ce fichier, passons à la section de journalisation. Configurons maintenant la journalisation dans ce fichier. Copiez tout cela en fonction ici. Maintenant, ensuite, enregistrez ce fichier également. Redémarrons la métrique. Quel service ? Donc, pseudo système CTL, pile métrique. Mais jetons un coup d'œil à l' état de l'enchère métrique en cours. Nous avons maintenant configuré la journalisation sur notre cluster ELK. Après cela, ce que nous pouvons faire, c'est que nous pouvons maintenant installer le fichier quel service ? Donc sudo apt-get install. Maintenant, une fois installé, nous pouvons aller au fichier YAML de point de fichier et configurer le service hybride. Donc pour ce faire, saisissons sudo, ETC slash slash point phobique YAML. Maintenant, dans ce fichier, nous allons commencer par descendre et configurer le chargement de la bibliothèque. Par conséquent, sous Modules de bits de fichier, nous allons recharger point activé et changer la valeur de false à true. Nous allons décommenter, recharger la période de points et la laisser par défaut dix secondes. Maintenant, nous allons dans la section genre et nous lui donnons une étiquette. Donc, comme il s'agit d'un cluster ELK, donnez-lui simplement une étiquette ELK. Passons maintenant aux tableaux de bord et au fichier activé, quels tableaux de bord ? Je vais décommenter ce tableau de bord de point de configuration démarré Activer et changer la valeur sur true. Après cela, sous la section Kibana, je commande l'URL de l'hôte Kibana, et je la laisserai comme locale ou excédentaire est 01 car cet encens en fibre est démarré localement. instance de Kibana est tout à fait pour l'installer. Après cette sortie en tant qu'Elastic Search. Et je quitterai la section hôte en tant que localhost 9200. Je modifie le protocole pour utiliser GDB. Changez le mot de passe en mot de passe des utilisateurs Elastic, et je ne commenterai pas le nom d'utilisateur et le mot Après cela, je vais aller section de connexion et configurer la journalisation pour la lecture du fichier, niveau de point de journalisation non validé. Et je vais le laisser comme débogage par défaut. Et je vais décommenter les sélecteurs de points de journalisation et je le laisserai comme étoile par défaut. Copiez tout cela, collez-le ici. Maintenant, enfin, je peux configurer la surveillance via mon attribut, descendre sur ce fichier. Et je vais copier comme gdb dot activé un port ester db dot. Ce que cela fait maintenant, c'est qu'il permet aux métriques de surveiller les battements de fichiers sur STDP. Basez ça ici. Maintenant, je peux enregistrer ce fichier. Maintenant que nous avons activé la surveillance des appâts métriques sur le port 5067 x plus vérifiez si le module beat attend dans l'enchère métrique est activé ou non. Pour ce faire, vérifions d'abord la liste des enchères sudo Electric, listons tous les modules et ceux qui ont été activés. Maintenant, si vous voyez que nous n' avons pas le module Beta, attendez-vous à ce que le module soit activé. Commençons par activer ce module car ce module est utilisé pour surveiller d'autres bits installés sur le serveur à matriculer. Modules d'enchères pseudo-métriques activés. Nous nous attendons à ce que ce module soit activé. Nous devrons configurer ce module pour regarder le port 5067. Pour ce faire, permettez-moi d'abord de tout éclaircir. Ensuite, je tape sudo nano slash, dc slash slash bead attendez-vous. Dans ce fichier, ce qu'il faudra faire, c'est que nous devrions abord modifier l'URL sous les hôtes du surplus local 6625067, car c'est le port vers lequel le fichier exporte les données. Maintenant, sous nom d'utilisateur et mot de passe, nous devons utiliser le nom d'utilisateur et le mot de passe du système de plage. Je n'ai pas bougé ça. Modifiez le nom d'utilisateur. Système de soulignement. Et modifiez le mot de passe pour qu'il soit tenu de souligner le mot de passe utilisateur du système. Et laissez-moi enregistrer ce dossier. Enfin, vérifiez cette mesure quels services exécutent bit rhétorique d' état CTL du système sudo. Nous pouvons maintenant démarrer le service de démarrage de fichiers. Donc, pseudo système CTL. Voyons maintenant l' état du fichier, quel service ? Maintenant, le service est en cours d'exécution. Ensuite, nous allons devoir activer les modules sur cette surface. Laissez-moi d'abord me débarrasser de tout. Laissez-moi plonger dedans. Pseudo. Les modules peuvent activer la recherche Elastic, pour activer le module Elastic Search. Après cela, permettez-moi d'avoir été activé des pseudo-modules 5 bits, Kibana, pour activer les modules Kibana. Et enfin, nous ferons le système compatible avec les modules vibrants sudo pour permettre au système de le faire. Nous allons maintenant devoir configurer ces trois modules. Allons à sudo, nano dash abc slash, slash star d slash Elasticsearch Ottoman. Dans ce module, vous pouvez voir qu'il y a quelques parties. Par défaut, il x les robots en fonction de votre distribution. Comme nous n'avons pas changé ces pièces par des chemins personnalisés, nous n'avons pas besoin de modifier quoi que ce soit ici. Mais si vous avez modifié le pass pour qu'il s'agisse de pièces personnalisées dans votre installation, vous devrez venir ici et effectuer ces modifications de configuration. Je vais sortir de ce dossier. De même, pour le système de rhodamine Gibbon, basé sur la distribution, prend toutes les parties par défaut. Si vous avez changé les pièces, vous devrez venir ici et effectuer les modifications. Maintenant, passons à notre instance Kibana. Je vais copier l'adresse IP publique 5601, saisir le nom de l'utilisateur Elastic et le mot de passe. Maintenant, tout d'abord, si l'enchère est correctement surveillée, nous devrions pouvoir voir cette race de fichiers apparaître sous surveillance de pile, menu CO2. Accédez à la section Surveillance par étapes. Cliquez ici sur Démo Irrigate, et descendons. Vous pouvez voir que nous avons deux bouts. Vous avez donné FIB sous le nom d'EL. Cliquons là-dessus. Il s'agit de notre fichier avant d'être surveillé correctement et de commencer à voir que vous avez des taux d' événements à mettre, etc. Après cela, si vous avez deux clusters, démo et ne regardez jamais la section sous vous pouvez voir que nous avons commencé à collecter des journaux. Nous avons donc beaucoup d' informations et les journaux et les applications réchauffent les lobes sur notre Elastic Search. Cela signifie donc que notre service est en mesure de capturer des journaux à partir du cluster ELK. Passons maintenant à la sortie nominale d'ici K. Et passons au serveur Web. Bonjour, copiez l'adresse IP du serveur Web 1, cohere, SSH, collez l'adresse IP. Ensuite, je vais le fermer dans les sections pour ***** au-dessus de l'installation Albert. Et je vais ouvrir celles pour le serveur Web. Et je les regarde en mode aperçu. Maintenant sur notre site Web. Mais d'abord, nous devrons valider que la journalisation est configurée pour la matrice. Alors faisons sudo, nano slash, etc slash prédire bit slash pourrait liquide point YAML. Maintenant, nous devons passer à la section de journalisation. Nous allons décommenter le niveau de journalisation avec débogage et sélectionner étoile. Nous les laissons tous les deux par défaut. Copiez cette section. Contrôlez C, contrôlez V. Maintenant, sauvegardons ce fichier. Redémarrons MATLAB bit. Maintenant, une fois que la mesure du service est disponible, nous pouvons d'abord installer un objet fichier pour le statut sur le grand service de mesure, faisons un clair pour que nous ayons un écran clair. Et ici, je peux taper sudo apt-get install. Maintenant, après cela, nous pouvons configurer notre service vibrate. Laissez-moi d'abord éclaircir. Tapez sudo nano DC slash, barre oblique cinq. Maintenant, les étapes sont les mêmes, donc nous allons commencer par descendre le chargement configuré de la bibliothèque. Ensuite, ajoutons simplement une étiquette. Conservez la balise en tant que niveau Web, car il s'agit d'un serveur Web. Tableau de bord de configuration. Démarrage du tableau de bord du point de configuration activé comme vrai. Après cela, nous avons miné l'hôte Kibana. Maintenant, pour l'OVNI, nous allons utiliser l'adresse IP interne de notre serveur Kibana. Je vais donc copier cela et changer l'hôte local par l' adresse IP interne de notre Q1. Je vais passer à la section de sortie Elastic Search. Faites la même chose pour l'URL de l' hôte ici également. Modifiez profondément les informations du protocole. Entrez le mot de passe du superutilisateur Elastic. Maintenant, je vais passer à la section de journalisation, assurez-vous que la journalisation est configurée. Maintenant, enfin, je vais descendre et activer la mesure pour surveiller ce service. Enregistrez ce fichier et ajoutez un module carré Vx de contrôle activé pour l'enchère métrique ou non. Donc, bit pseudo-métrique. Plus de cotisations activées. Retour Fedex. Je peux configurer ce module. Donc sudo, nano, surtout ETC, slash slash slash que nous nous attendions. Dans ce fichier. J'ai changé la carte hôte en 5067 car c'est le cinquième fichier que Peter est configuré. Je perds le nom d'utilisateur et le mot de passe du système beat. Je peux dire ce dossier. Maintenant, faisons simplement un statut sur la métrique. Mesure quels services fonctionnent. Commençons maintenant par fichier. Donc, pseudo fichier CTL système. Après cela, nous pouvons d'abord statuer sur le service Fibers pour vérifier qu'il est réellement démarré. Maintenant, une fois que nous avons vérifié que le service a démarré, nous pouvons tout effacer et activer le module. Pseudo. Beat. Les modèles sont activés, activent le module Apache. Ensuite, nous allons activer cette option en deux modèles. Maintenant, une fois cela fait, nous pouvons revenir à notre instance Kibana. Ici. Rafraîchissons tout ce qui se trouve sur une instance Kibana. Si nous descendons, nous verrons que vous avez quatre battements maintenant, donc nous allons cliquer sur des bits. Et comme vous pouvez le constater, nous avons également la version 5 bits de notre serveur Web. Nous pouvons vérifier l'état de ce flux en cliquant sur le serveur Web. Et cela devrait nous donner le taux d'événements, taux d'échec du débit, etc. Ce que nous pouvons faire, c'est que nous pouvons jeter un coup d'œil à l'un des exemples de tableau de bord que ce fichier pour un serveur Web Apache. Pour ce faire, accédez au menu, puis au tableau de bord. Ici, sous le tableau de bord, recherchons Apache. Et cliquons sur le fichier avec Apache Excess et ECS analogique. Il s'agit maintenant d'un exemple de tableau de bord créé par FileReader à l'aide des journaux excédentaires et de modification à partir d'un service Apache. Vous pouvez l'utiliser pour rechercher adresses IP uniques qui vous accèdent avec les codes de réponse qui constituent une panne ponctuelle du navigateur, etc. C'est ainsi que vous pouvez installer et configurer fichier sur un serveur E et K et un serveur Web. Ce que je veux que vous fassiez, c'est que je veux que vous alliez installer et configurer un fichier sur le Web quelque part. Ce que vous devez vous attendre, c'est qu'une fois que vous avez fait cela, vous ne devriez pas être en mesure d' obtenir de telles informations pour l'absolu. Et aussi, si vous passez à l'étape 100, vous aurez six battements. Une mesure est un seul fichier pour votre deuxième serveur Web. Avec cela, venez à la fin de cette vidéo. Merci d'avoir regardé. Je vous verrai dans le prochain. Au revoir. 25. Heartbeat 7: Hé les gars, leçon installez et configurez Heartbeat. Dans cette vidéo, Heartbeat vous permet de vérifier périodiquement l'état de vos services et déterminer s'ils sont disponibles ou non. À présent, par exemple, pensez que vous disposez d'un serveur Web. Et si vous vous connectez à la console de leur serveur Web et effectuez une vérification de service sur le service HTTP. Le service revient en cours d'exécution ou vous essayez de charger la page Web, la page Web ne se charge pas, vous obtenez un éditeur sur la page Web, ce qui signifie que vos utilisateurs sur notre table utilisent votre site Web pour quelle que soit la raison pour laquelle ils essayaient de l'utiliser. Vous pouvez maintenant utiliser Heartbeat pour surveiller ce type de scénarios. où le cockpit fera, c' est qu'il vérifiera si un code d' état est renvoyé à partir de son serveur Web. Et s'il ne récupère pas leur code d'état, cela a vraiment montré que les services Web ne répondent pas ou ne sont pas en panne. Désormais, il existe trois types de moniteurs différents que vous pouvez configurer dans Heartbeat. Tout d'abord, vous pouvez configurer un moniteur ping ICMP. Il pense essentiellement que le nom d'hôte du port d'adresse IP particulier. Et s'il obtient un ping réussi, il le montre comme en hausse. Et s'il n'y a pas de succès, il montre cette pierre de moniteur. Ensuite, vous pouvez comprendre TCP. Ce moniteur vous permet de vous connecter à un point de terminaison particulier via PCP. Vous pouvez également modifier ce moniteur pour vérifier que le point de terminaison est activé par la charge utile personnalisée similaire à partir de ce point de terminaison. Troisièmement, vous pouvez également configurer un protocole HTTP surveillé pour se connecter via HTTP à vos points de terminaison. Ce moniteur peut également être configuré en option pour vérifier les réponses spécifiques ou les scores d'état de vos points de terminaison. Ensuite, il y a cinq étapes pour installer Heartbeat. Tout d'abord, vous devez installer le package Heartbeat Dash Elastic. Après cela, nous allons configurer le service hybride. Il va configurer l'appât métrique pour surveiller notre instance de battement de cœur. Quatrièmement, nous allons configurer les moniteurs SERDP, ICMP, TCP. Enfin, nous avons commencé à activer le service hybride. Passons donc à gauche. Maintenant, ici sur le système de laboratoire, conformément aux instructions d'installation et de configuration d'un battement de cœur sur ALEKS sur le côté gauche. Et j'ai ma connexion SSH et fais mon serveur ELK sur le côté droit. Maintenant, une chose à noter est que nous n' installerons Heartbeat que sur ALEKS dans cette démo. Installez Heartbeat. C'est le type dans sudo apt-get update. Sudo apt-get installe heartbeat. Ils sont en fait élastiques et ont frappé Entrée. Une fois que Heartbeat est installé, commençons à configurer le service Heartbeat. Nous devons taper dans sudo nano slash, ETC slash heartbeat slash heartbeat ou PMA. Dans ce fichier YAML. Commençons par configurer en direct ci-dessous. Changez l' intégrale Lord dot pour le faire et nous laisserons la période de rechargement par défaut à cinq secondes. Après ça. Commentons tout d'abord tous les moniteurs en ligne. Parce que vous allez utiliser le spot de surveillance pour configurer ces moniteurs. Le chemin est barre oblique, ETC surveille les battements de cœur obliques vers D et NAM et le fichier à l'intérieur du spot. Une fois que vous avez commenté tous les moniteurs en ligne de ce fichier YAML à point de cœur. Allons aux sacs et aux sacs de théâtre. Il avait précisé la cible comme ELK. Après cela, passons à Kibana. Et sous la section Kibana, nous décommenterons la partie hôte, mais nous laisserons le localhost 5601 par défaut. Passons maintenant à la sortie Elastic Search et laissons l'URL par défaut localhost 90 à 100, modifions le protocole STDP et fournirons les détails d'authentification. Maintenant, après l'action, passez à la section de journalisation. Nous allons implémenter le niveau de journalisation. Supprimez également les sélecteurs de journalisation des commentaires, mais conservez les valeurs par défaut pour les deux. Je vais copier cette configuration à partir de mes instructions, spécifier la connexion pour accéder à un fichier. Ceci est configuré, nous pouvons désormais configurer comme surveillance GDB pour notre encens battement de cœur. Je vais copier ces deux valeurs. Si vous remarquez que nous utilisons le port 5069 pour surveiller notre instance Heartbeat, ajouterons cette carte dans notre fichier de configuration d'attente bêta après cela. Voyons donc ce dossier pour l'instant. Allons d'abord à notre rythme. Beat. Ou est-ce que tu tries D ? Et nous nous attendons ventilateur AutoML configure la surveillance sur le port 5069. Il avait une virgule d'échelle. Maintenant, j'ai appris l'URL http localhost 5069. Je peux enregistrer ce fichier. Maintenant, première matrice de vérification, elle est en cours d'exécution. Donc, pseudo système CTL, statut. Il se répète. Superbe. Non, vérifions également que nous nous attendons à ce que ce soit activé. Donc, la pseudo liste et vous pouvez voir la bêta attendue est activée. C'est donc tout bien. Maintenant, dégageons tout et nous pouvons commencer par des battements de cœur insensibles. Donc, pseudo système CTL, démarrez le rythme cardiaque élastique. Nous allons d'abord vérifier l' état du service. Assurez-vous qu'il est en cours d'exécution. Et maintenant, il est temps de configurer les moniteurs. Pour ce faire. Allons d'abord à ATC, moniteur hybride stocké. Ici. Vous verrez qu'il existe des exemples fichiers de moniteurs disponibles. Utilisez-le et personnalisez-les. Qui crée nos propres fichiers de moniteurs ? Je vais d'abord taper sudo copy, échantillon, ICMP point yammer désactivé, copier deux Pi sinus PWM. Maintenant, je vais faire un nano sur ICMP dot YAML pour configurer ICMP surveillé. Maintenant, pour notre moniteur ICMP, il faudra abord changer l'ID et le nom. Pour pièce d'identité. Je vais utiliser le statut ICMP Dash pour le nom. Je vais utiliser la vérification de statut ICMP. Décommentons cela pour activer le moniteur. Nous allons maintenant laisser la planification par défaut toutes les cinq secondes afin que nos hôtes, que nous spécifions sous la baie d'hôtes. Toutes les cinq secondes. Nous devrions spécifier une liste d'hôtes ici. Ce que je vais faire, c'est que je vais d'abord spécifier l' adresse IP interne de notre serveur Web. Ensuite, juste pour démontrer à l'adresse IP externe de notre serveur Web à 193,68 point à point neuf, qui est l'adresse IP interne de mes hanches sur un espace coma. Et je vais copier l'adresse IP de mon serveur Web ici. Maintenant, ce que je vais aussi faire, c'est que je vais ajouter une adresse IP externe accessible au public, elle aussi. Et cette hybridation d'un accès à points points-points est toujours en place sans autre soulagement du mode par défaut, vous pouvez désactiver IPV6 dès maintenant, mais laissons-le par défaut. Vous pouvez également spécifier un diamant ou un taux ira à la section Balise ensuite et agrégera le DAG appelé web. Et maintenant, nous pouvons enregistrer ce fichier. Une fois cela fait, passons à autre chose et configurons notre PCP. Pour faire un deck, copions simplement l' exemple de fichier de moniteur TCP. Pseudo copie échantillonnée tcp dot gmail dot désactivée en point tcp YAML. Et maintenant, modifions ce RPM de démarrage du PC. Maintenant, ici. Tout d'abord, nous devrions encore préciser l'idée. Commençons donc parce que nous utiliserons ce moniteur pour vérifier l'état de la connexion SSH et sous nom et taper la vérification de l'état SSS. Une fois cette option activée, le moniteur quittera sa planification par défaut pendant cinq secondes. Et pour les hôtes, j'ai spécifié l' adresse IP interne de mon serveur Web. Premièrement, spécifiez le port, sorte que le port SSH est 22. Maintenant, je peux spécifier le port ici, port spécifie une liste de cartes. Si l'hôte ne contient pas de numéro de port sous l'option ports. Voici donc les deux endroits où vous pouvez spécifier des ports. Nous conservons toutes les autres valeurs par défaut. Une chose à noter est que vous pouvez utiliser des peintres personnalisés chèques envoyés et reçus. Nous passons à la section Tag et ajouterons la balise pour European. Et je vais enregistrer ce fichier maintenant. Ensuite, passons à autre chose et copions le pseudo échantillon du moniteur de télévision. Http dot YAML sont désactivés pour Esther db.json modifier SGD goo.gl, sudo nano dot fichier YAML ici, ID Je spécifie le statut Web et le nom pourrait être la vérification du service Web activé le moniteur. Et sous les hôtes, j'ajouterai mon Elastic et mon URL Kibana. Après cela, je devrai spécifier une indication car vous avez configuré attendre sur notre système. J'ai été le nom d'utilisateur et le mot de passe, Elastic et le mot de passe de l' utilisateur Elastic. Maintenant, nous pouvons utiliser les autres paramètres pour spécifier une vérification d'état personnalisée ou une peinture personnalisée sur cette demande. Mais nous allons les laisser par défaut et passer à la partie balises, spécifier que par défaut et passer à la partie balises, le DAG a adapté et nous ne commenterons pas cela. Et maintenant, nous pouvons également enregistrer ce fichier. Avant de passer à autre chose, vérifions l'état de notre service Heartbeat. Encore une fois, il est en cours d'exécution. Passons maintenant à notre Kibana, cette page. Maintenant, la première chose à vérifier serait que le battement de cœur apparaît une surveillance de pile. Alors, rentrons chez nous. Ensuite, la surveillance de la pile. Ici, cliquons sur la démo, et passons à beats. Et comme vous pouvez le constater, nous avons un battement de cœur et un peu. Nous pouvons cliquer sur beat puis sur Heartbeat pour vérifier l'état de notre instance de feuillus. Maintenant, pour les moniteurs réels, nous devons aller sur notre page d'accueil puis postuler sous observabilité. Ici, vous pouvez rechercher tous les moniteurs qui montent ou descendent. Maintenant, d'après les regards, tous nos moniteurs sont maintenant debout. Vous pouvez utiliser le filtre vers le haut et vers le bas pour filtrer par rapport à un statut spécifique que vous souhaitez. En haut, à droite, vous pouvez spécifier l'heure. Par exemple, vous pouvez spécifier si vous voulez que leurs données datent d' il y a 15 minutes ou 15 jours ou heures, vous pouvez également spécifier la durée. Comment pouvez-vous spécifier un. Maintenant, vous pouvez également vérifier s'il y a des bateaux. Nous avons trois ports configurés de 90 à 22560001. Pour nos chèques. Vous pouvez spécifier le schéma, ICMP, UDP ou TCP pour filtrer les points de terminaison. Ou vous pouvez rechercher des étiquettes. Nous avons une étiquette ELK et une étiquette de niveau Web. Il y a donc un clic sur le niveau Web. ce cas, vous ne verrez que les moniteurs spécifiques à cette balise particulière. Avec cela, vous arrivez à la fin de cette vidéo. Merci d'avoir regardé. Je vous verrai dans le prochain. 26. Auditbeat: Hé les gars, dans cette vidéo, installons et configurons l'audit V8. Le bit d'audit vous permet de surveiller l'activité et les processus des utilisateurs dans votre système Linux, communiquer directement avec le framework d'audit Linux. Et depuis les données qu'il a collectées à Elastic Search en temps réel. Il s'agit de quatre étapes pour installer et configurer notre service de débits. Tout d'abord, nous allons installer un bit d'audit. La deuxième semaine a été configurée un peu et configurez les trois modèles disponibles dans le service Audit V8. Actuellement, ces modules sont l'audit D, l'intégrité des fichiers et le système ou le faire. Après cela, nous allons configurer mesure pour surveiller l' audit, quel service ? Enfin, nous allons commencer et activer le service de plage d'audit. Maintenant, une chose à noter est qu'il n'y a pas d'option de chargement de bibliothèque pour répondre. Avant de passer au système de laboratoire, examinons chacun de ces modules individuellement. Et tout d'abord, examinons le module bizarrerie. Le module reçoit les événements d' audit de la structure d'audit Linux, qui fait partie du noyau Linux. Ce qu'il fait, c'est qu'il établit un abonnement au coin pour recevoir les événements d'audit au fur et à mesure qu'ils se produisent. Maintenant, une chose à noter est que vous devrez peut-être arrêter d'autres services qui s' exécutent sur votre système, tels que la bizarrerie. Et généralement, pour que ce modèle fonctionne, il existe deux types de règles différents que vous pouvez configurer à l'intérieur du module commandé. La première règle est un système de fichiers. Cette règle autorise l'audit de l' accès à un fichier ou à un répertoire particulier. Considérez cela comme une montre sur ce dossier particulier. Vous êtes donc averti lorsque le fichier est accédé ou modifié. La syntaxe de cette règle est moins W chemin vers le fichier sur lequel vous avez besoin pour placer la montre moins p. Quelles sont les autorisations telles que lire, écrire, exécuter, moins kx, nom ky. Le prochain type de règle que vous pouvez configurer est un système appelé règle. Ce que fait cette règle, elle permet la journalisation du coût système que n'importe quel programme spécifié génère. La syntaxe de cette règle est moins une action qui peut être toujours ou jamais. Cela, qui serait une tâche à l'exception de l'utilisateur ou de l'exclusion, suivi d'un appel système, qui est spécifié par son nom. Enfin, vous pouvez utiliser le champ et la valeur pour modifier davantage la règle afin de correspondre à des événements en fonction éléments spécifiques tels que l'architecture, le groupe est l'ID du processus, etc. module d'intégrité des fichiers et au module d' intégrité détectent les événements lorsqu'un fichier est modifié, est-à-dire lorsqu'un fichier est créé, mis à jour ou supprimé sur le disque. ce faire, il crée un abonnement avec le système d'exploitation pour recevoir notification de modifications apportées à des fichiers ou à des répertoires spécifiques. Maintenant, lorsque vous démarrez ce module pour la première fois, il effectue une analyse initiale de tous les chemins que vous avez configurés. Ensuite, il surveille ces chemins pour détecter tout changement depuis que vous avez perdu l'exécution de ce module. Il utilise des données persistantes localement afin d'envoyer uniquement des événements pour des fichiers nouveaux ou modifiés. Après cela, examinons le système double ou collectons diverses informations relatives à la sécurité d'un système. jeux de données envoient à la fois des informations périodiques , par exemple un état des processus en cours d'exécution et des modifications en temps réel. Par exemple, lorsqu'un processus démarre ou arrête chaque jeu de données, puisque deux types d'états et d'événements d' inflammation différents , informations d' état sont envoyées périodiquement et sur le système démarré et peuvent être contrôlé à l'aide d'une configuration appelée période State DOT. Les informations sur l'événement sont envoyées lorsque l'événement se produit. Par exemple, lorsque vous démarrez ou arrêtez un processus. Pour obtenir des informations sur les événements ou jeux de données, utilisez un modèle osseux pour récupérer ces données. La fréquence des sondages peut être contrôlée par le paramètre de configuration de période. Passons maintenant au système de laboratoire. Ici, sur mon système de laboratoire, j'ai les instructions pour installer et configurer audit gros sur EHS sur le côté gauche. Et sur le côté droit, j'ai ma connexion SSH dans l'EHS, notre premier nous devrions installer des auditeurs pour le faire. Tapez sudo apt-get, installez-le mieux. faut maintenant se rappeler que nous sommes en mesure de le faire, car nous avons fait toutes les conditions préalables pour ajouter le référentiel de recherche Elastic, la clé de signature et le transport Apigee en tant que GTPase sur ce système déjà lorsque nous avons fait l' installation d'Elastic Search. Si vous ne l'avez pas fait, vous ne pourrez pas faire cette étape. Vous devez donc revenir à l'étape où nous avons installé Elastic Search et utiliser ces conditions préalables sur cette machine. Maintenant, une fois l'auditabilité installée, ils peuvent taper sudo nano slash ETC. slash audit V8 avec point-yammer. Ouvrez le fichier de configuration des enchères d'audit. Maintenant, dans ce fichier, la première chose que nous allons faire est de configurer les modules. Nous allons donc d'abord configurer le module. Allons en bas et vous verrez qu'il y a une section intitulée Changements d'identité. Et cette section vous permet d' insérer des règles de pare-feu qui surveillent des fichiers tels que le groupe après WD et G. Vous pouvez soit, je viens ici pour activer ces règles, ajoutons une règle personnalisée pour mettre une montre sur nos fichiers de configuration Elasticsearch et Kibana. J'ai la règle ici. Moins w fichier FASTA est Tracé sur le diamètre court Elasticsearch cinq moins b pour les autorisations, puis les autorisations sont WA, puis la clé est modifiée. Il suffit donc de copier ces deux-là et de les coller ici. Pour clé. À moins qu'il ne soit également activé ces règles. Désormais, nous pouvons également surveiller les tentatives d'accès non autorisé à notre système. Nous allons donc utiliser des règles par défaut pour ce faire. Maintenant, allons configurer le motif d'intégrité des fichiers. Maintenant, sous Intégrité des fichiers, vous verrez que certains chemins sont déjà configurés, tels que ceux utilisés, ont été sbin ou cetera. Ajoutons maintenant nos pièces personnalisées pour Elasticsearch et Kibana. Alors copiez le collage. Après cela, ce que je veux vous montrer ensuite, c'est qu'ils peuvent être rapides et que vous ne vouliez pas surveiller le chemin que vous spécifiez sous le module Intégrité des fichiers. Vous pouvez exclure ces fichiers à l' aide du fichier de soulignement exclu. Deuxièmement, je vais simplement copier ce paramètre et le coller dans ce fichier. Ce paramètre fait maintenant qu' il recherche un nom de fichier ou un back-end pour ce nom de fichier et exclut le lavage de ces fichiers. J'ai utilisé une expérience qui exclut les fichiers de référence. Ainsi, le fichier de référence courte ou de référence de point d'enchère métrique Elasticsearch n'est pas surveillé. Examinons ensuite ce module système. Il existe deux types d'informations pour que vous puissiez obtenir des données depuis le système ou le faire. Tout d'abord, les informations relatives à l'événement. Cela peut ressembler paquet déjà installé sur votre système ou supprimé ou mis à jour. La fréquence du moniteur, cette inflammation peut être modifiée en fonction du réglage des règles. Actuellement, la valeur par défaut est de deux minutes, alors laissons-nous à cela. Deuxièmement, les informations d'état de l'étape peuvent être surveillées pour des éléments tels que la connexion de l'hôte, le processus, le socket et l'utilisateur par défaut. Et cette inflammation peut être collectée pour une fréquence de 12 heures par défaut, mais cela peut être modifié en modifiant la valeur de la période sombre de l'état où elle le ferait, mais nous la laisserons par défaut à grand. Maintenant, nous vivons le reste des paramètres par défaut et nous allons passer aux paramètres généraux. D'abord. Configuré, un DAG. Donc, les œufs, je vais le décommenter et ajouter une étiquette appelée ELK. Prochaine. Sous tableaux de bord, j'activerai les tableaux de bord par défaut. Après ça. Passons à la section Kibana. Il n'avait pas validé l'URL de l'hôte. Passons ensuite à la sortie Elasticsearch. Et je viens protocole et change la valeur du protocole pour qu'elle soit UDP. Ensuite, ajoutons les détails d' authentification des utilisateurs Elastic. Maintenant, configurons la journalisation. Je vais donc décommenter le niveau de point de journalisation, mais le laisser comme sélecteur de points de journalisation par défaut de la commande de débogage, et de nouveau le laisser comme sélecteurs entiers par défaut. Configurons maintenant la journalisation comme fichier. Copiez cette section, collez-la ici. Maintenant, après ce test, notez et configurez la surveillance HTTP. Nous allons donc copier ces paramètres. point Stdev a activé un port point de degré supplémentaire. Maintenant, pour Audit Beat, nous allons configurer le port de surveillance pour qu'il soit 5068 car si vous vous en souvenez, 5067 est utilisé par file beat dans cette démo. Maintenant, nous pouvons enregistrer ce fichier pas après cela. Vérifions d'abord que le modèle est activé dans mon attribut. Donc la liste de sudo pip. Vous pouvez voir que BTEX back est activé. L'opéra m'a permis de tout effacer. Maintenant. Le fichier de configuration modulaire redex back a été modifié. Donc sudo nano slash ETC slash, tri du module oblique D doit être attendu ou TML. Maintenant, dans ce fichier, ajoutons le marketing pour l'hôte. Après la quantité d' inflammation pour le fichier, je tape http, localhost 68. Maintenant, gardons ça. Maintenant, après cela, nous pouvons démarrer un pseudo système de bits ordonné CTL, start ou deadbeat. Maintenant, vérifions l'état du statut du service. Cela a échoué pour une raison quelconque. Examinons donc d'abord une bonne idée de ce que nous examinerions les informations que nous avons saisies et vérifions que la syntaxe est correcte. Donc sudo, nano, ETC slash audit bit slash audit beat ou OGM. Maintenant, il semble que les fichiers soient mal configurés. Il suffit donc de mettre quelques espaces ici qui suivent l'index Shamatha. Il suffit de sauvegarder ce fichier. Et essayons simplement de relancer notre audit. Quel service ? Donc, pseudo système CTL, commencez par battre. Maintenant, reprenons un statut, voyons s'il est apparu. Maintenant, il semble que c'était le problème et non ordonné quel service n'est pas en cours d'exécution ? Passons à notre instance Kibana pour voir certains tableaux de bord qu'elle a créés par défaut pour nous. Maintenant, passons d'abord à la surveillance de la pile, démonstration ELK. Passons à Beats. Et vous pouvez voir que nous avons un audit avec service ici. Maintenant. Nous pouvons cliquer sur le blé , puis cliquer sur le service d'étage commandé. Recherchez des informations sur l'audit V8. Nous pouvons aller à la page d'accueil, puis au tableau de bord. Nous pouvons maintenant ouvrir l'un de ces tableaux de bord de bits d'audit. Il suffit donc d'ouvrir le tableau de bord de l'intégrité des fichiers. Il s'agit maintenant d'un exemple de tableau de bord que nous pouvons sortir de l'audit V8. Vous pouvez voir que le nombre initial de numérisations était de 1043. Vous pouvez voir à quel moment l'analyse initiale a été effectuée. Propriétaires et groupes de nos fichiers, le fichier qui a été le plus modifié par le nombre de fichiers, certains événements de fichiers de quelqu'un. Après cela, passons à autre chose et configurons rapidement l'audit. Attendez notre serveur Web. Maintenant, sur le système de laboratoire, j'ai la connexion SSH sur mon serveur Web. Je vais donc taper sudo apt-get install. Maintenant, après cela, configurons rapidement. Donc sudo nano slash slash audit audit slash audit avec point YAML. Ajoutons maintenant les montres de fichiers, et non sur le serveur Web. Ce que nous allons faire, c'est que nous n'avons pas modifications Elasticsearch et Kibana European. Je viens donc de copier cette règle. Ensuite. Je vais le modifier pour mes fichiers métriques beat et fichiers bêta KML, sauvegardez-le ici. Et j'ai changé le passé en fichier d' Elastic Search à ETC. barre oblique. Modification de la clé pour qu'elle soit modifiée. Je peux copier cela et coller ici et modifier les fichiers et les caméras vidéo. Donc, le fichier slash slash slash meilleur appareil photo. Maintenant que c'est un fichier important que vous voudrez peut-être regarder sur cet argent , c'est votre site Apache. Plusieurs fichiers nous pouvons copier le même et modifier la barre oblique de chemin www dot slash HTML index.html. Et nous allons changer la clé Bu Epsilon. Après ça. Passons au module d'intégrité des fichiers. Ici. Je voulais cette barre oblique WWW HTML. Nous n'avons plus besoin d' apporter des modifications au système ou de le faire. Passons maintenant aux œufs et à l'agenda. Ici, décommentez le paramètre x. Et ajoutons la balise pour le niveau Web active les tableaux de bord par défaut. Maintenant, descendons les hôtes et ajoutons l'adresse IP de mon AKS, notre 192 points 0,68 point un point 34. Et essayons de faire de même pour les plastiques. Une telle sortie a modifié le protocole ou juif ou DB. Et ajoutons le mot de passe, allons plus loin et ajoutons la journalisation. Enfin, configurons, attendez-vous à une chose merveilleuse. enregistrez pas nécessairement ce fichier et n'ajoutez pas ensuite l' inflammation de surveillance à l'intérieur que nous nous attendions. Donc sudo nano slash slash slash, plus déformé d slash b à attendre. Ce fichier encore une fois, espace virgule http localhost 5068. Maintenant, nous pouvons également enregistrer ce fichier. Commençons maintenant. Donc, pseudo système CTL. Commencez le pedigreed. Examinons l'état d'un serveur de redémarrage. Donc, le statut CTL du pseudo système ou ils étaient en cours d'exécution. Revenons à notre instance Kibana. Maintenant, ici, leur score doit empiler un ou obtenir en premier, et cliquons dessus. Et ici, vous pouvez voir que nous devons vérifier les poids. Vous pouvez également accéder au tableau de bord et choisir un autre tableau de bord cette fois-ci. Il suffit de choisir le tableau de bord de présentation du système. Ce tableau de bord vous donne une vue d'ensemble de vos environnements tels que nombre d'hôtes dans votre environnement, le nombre de connexions, les actions de connexion, modifications des utilisateurs après la distribution, démarrages de processus et arrêts, sockets, ouverts et fermés, modifications de package, etc. Vous pouvez également répertorier les événements de votre système en bas à droite. Maintenant, ce que je veux que vous fassiez après cela, c'est d'installer Audit Beat sur le serveur Web pour essayer également d'explorer d'autres tableaux de bord disponibles et tableaux de bord pour l'audit beat pour voir quel type de informations que vous pouvez obtenir de ce service. Avec cela, nous arrivons à la fin de cette vidéo. Merci d'avoir regardé. Je vous verrai dans le prochain. 27. Packetbeat 7: Dans cette vidéo, expliquons comment installer et configurer le paquet Bit pour surveiller trafic réseau entre vos applications. Packet est un analyseur de paquets réseau en temps réel que vous pouvez utiliser avec Elastic Search pour fournir un système de surveillance des applications et d'analyse des performances. Il permet de capturer le trafic réseau entre les serveurs d'applications. Et il décode les protocoles de la couche applicative tels que HTTP, MySQL, etc. Vous pouvez le déployer sur le même serveur que vos applications résident sur une personne dans un environnement Cloud ou inexpliquée car ils ont souligné que les périphériques réseau ne vous sont pas exposés. Il est difficile de déployer des centaines de paquets sur quelqu'un. Dans cette démonstration, nous déploierons le débit des paquets sur notre serveur Web et surveillerons notre trafic HTTP à l'aide du débit des paquets. Il y a quatre étapes pour redéployer et nous allons d' abord installer Packet Week. La deuxième semaine, configurez le débit des paquets et le renifleur de trafic configuré et les flux de bureau pour notre référentiel de compartiments. Nous allons configurer la métrique. Nous avons surveillé les paquets. Enfin, nous allons commencer et activer le paquet. Passons à notre système de laboratoire. Ici, sur le côté gauche, j'ai les instructions pour installer et configurer paquet sur l' epsilon, à droite, j'ai ma connexion SSH et demain 1er octobre, prochain paquet d'installation tarif. Nous pouvons donc taper le paquet d'installation sudo apt-get et appuyer sur Entrée. Maintenant, une fois le package installé, vous pouvez commencer à le configurer sur le premier CD suivant et imprimer la barre oblique, bit de paquet oblique ETC. Ici, si je fais un ls, vous verrez que j'ai mon paquet, lisez le fichier de référence, je peux référencer lorsque je configure mon fichier de configuration d'installation de package, qui est un paquet avec point YAML. Allons faire du sudo. Numéro. Ça pourrait être sale Emma. Dans ce fichier, la première chose que je dois configurer est l'interface réseau à partir de laquelle je veux renifler les données . Machines Linux. Avoir une valeur de tout ce qui signifie renifler ce trafic à partir de toutes les interfaces connectées. Vous pouvez également spécifier une interface réseau particulière pour cibler uniquement le réseau parfait sur cette interface. Nous allons maintenant le laisser par défaut et les flux de paquets seront activés par défaut. Pour les flux désactivés, vous pouvez définir activé comme false et la configuration de flux pour le désactiver, mais nous allons le laisser comme activé. Il est maintenant temps de configurer les protocoles pour lesquels nous voulons surveiller les flux réseau. Maintenant, c'est sous les protocoles Bedard par paquets. Nous allons maintenant surveiller les outils réseau pour ICMP, IPv4, DNS, un HTTP désactivé. Le reste des flux devra les commenter. Je vais le faire maintenant. Maintenant, une chose à noter est que le terrain de sport est utilisé pour configurer les ports pour lesquels vous souhaitez surveiller les informations de flux pour votre serveur Web peuvent être exécutées sur un port test différent. à partir de l'un de ces ports par défaut. Par exemple, votre serveur Web peut être exécuté sur le port 8,001. Flux pour votre scénario d'index de serveur Web, ce que vous devrez faire est soit d'entrer ici et d'ajouter votre tableau spécifique comme celui-ci, et d'en supprimer le reste. Comme nous sommes sur le port 80, ils déplacent tous les autres ports. Et je vais maintenant passer à la section suivante qui porte sur le genre. Ici. Balises peu courantes. Et je garderai les étiquettes apparaître. Après cela, installons quelques tableaux de bord. Configuré, le tri du tableau de bord de configuration est activé comme vrai. Laissez-moi d'abord décommenter cela et mettre cela à vrai. Activera les tableaux de bord par défaut pour les paquets avec une instance Kibana. Après cela, nous devrons annuler les commentaires post-session pour Kibana et corriger l'URL. Il s'agit de l'adresse IP interne de notre instance par défaut. Lorsque vous faites 168 points mp4. Après cela, passons à la sortie. Et la sortie, la première chose que nous devons faire est de corriger l'URL de ma sortie élastique, section 921681 point 34, qui est l'adresse IP interne de mon instance ELK. Ensuite, sous protocole, configurons le protocole pour qu'il soit STDP. Maintenant, après cela, nous devons configurer l'authentification, l' utilisateur Elastic et le mot de passe. Ensuite, configurons la journalisation, décommentons le niveau de journalisation, mais laissez-le comme avant, déboguons les sélecteurs de journalisation, mais laissez-le comme étoile par défaut, ce qui signifie tout Il y a un certain fichier Google connu. Je dois copier cette configuration et la coller ici. que fait cette configuration, c'est qu'elle permet la journalisation, qu'elle soit envoyée dans un fichier. Ensuite, nous spécifions les paramètres du fichier qui doit accéder, par exemple, le chemin d'accès du fichier, nombre de fichiers à conserver et les autorisations sur ce fichier. Après cette conférence, la configuration doit être surveillé par perle métrique. Copiez ces deux chirurgiens et collez-les ici. Maintenant, le premier paramètre permet de boire HTTP, et le second réglage. C'est peut-être le port dont il a besoin pour centrafier les données de surveillance. Ce que nous allons faire, c'est que nous allons configurer ce port dans notre fichier beat attend qu'il soit limité. Nous allons donc enregistrer ce fichier. Après ça. Modifions nos fonds d'experts. Donc les modèles sudo, nano slash, ETC slash retributive s'attendent certainement. Dans ce fichier et dans la section hôte, nous devons ajouter l'URL de nos citations de virgules militaires de lecture de paquets http localhost. Dans le cortex partie 070. Je peux sauver ça. Après cela, vérifions d'abord que le poids métrique est en cours d'exécution. Donc le statut CTL du pseudo système. Maintenant, c'est en cours d'exécution. Commençons maintenant notre paquet par instance. Donc, le pseudo système CTL démarre. Faisons un état sur les bits de paquets. Donc, le pseudo kyste à l'état CTL fonctionne bien. Kibana UI, pour examiner certaines personnes, sont des tableaux de bord créés par paquet. Depuis la page d'accueil de mon interface utilisateur Kibana. Je vais d'abord aller au menu. Je vais le tamponner dessus. Il était impur. Allez à la section quatre battements. Et je peux voir qu'il y a un paquet beat board avec, donc je peux cliquer sur beats. Cliquons sur le meilleur. Je pouvais lire. Vous pouvez voir qu'il a commencé à recevoir des données. Vers notre instance principale. Examinez en fait certains tableaux créés par paquet pour nous dans notre tableau de bord expert Kibana UI. Ici. Saisissons un paquet. Cliquez ensuite sur le tableau de bord qui indique que je pourrais lire comme le PIB est, oui. Maintenant, ce tableau de bord vous donne les transactions STDP, par exemple nombre de transactions, les strates , les scores et les rapports, l'historique des doctrines, les requêtes DB, etc. médecins. Et ici, vous pouvez voir les connexions au fil du temps des publications créant du trafic, publications, du trafic de réception, du trafic réseau entre les hôtes. Dns plein de vue, vous pouvez obtenir des données liées au DNS. Par exemple, DNS interroge quelqu'un dans ses requêtes au fil du temps, les types de questions dans ses adresses IP client et serveur, souvent des questions pour DNS. Maintenant, vous pouvez également vérifier si les transactions CPS sont effectuées. Vous pouvez voir les dénombrements de cou et de déclin, le nombre de transactions, les colonnes vides, le transfert de données, bandes, simplement taper au fil du temps. C'est maintenant le pôle de votre tableau de bord. Peut examiner les clients qui tentent d' accéder à vos sites Web dans le cadre de ses transactions. Transactions, types de transactions, réponse au fil du temps, centiles de temps de réponse, erreurs ou transactions réussies, termes qu'ils n'ont pas recherchés, etc. Ce que je veux que vous fassiez après cela, c'est que je veux que vous à déployer sur un serveur Web. Cela arrivera à la fin de cette vidéo et vous regardez, je vous verrai dans la prochaine. 28. Comment déployer un cluster à plusieurs nœuds: Hé les gars, Dans cette conférence, nous allons créer un cluster Elasticsearch à 3 nœuds avec deux nœuds éligibles au maître, séparera également notre application Kibana sur sa propre instance. La communication entre les nœuds de recherche Elastic se fera via SSL et la communication entre Kibana et notre cluster Elasticsearch se fera via HTTPS. Voici quelques étapes. abord, nous allons créer trois nœuds Elasticsearch sur notre compte d'essai GCP. Ensuite, nous créerons également une machine virtuelle Kibana sur notre compte d'essai GCP. Après cela, nous allons installer Elastic Search, les trois nœuds Elasticsearch et installer Kibana sur sa propre charge. Ensuite, nous allons générer une autorité de certification Elastic Search et créer tous les certificats. C'est parce que nous utiliserons des certificats auto-signés. Si vous ne le souhaitez pas, vous pouvez générer des demandes de signature de certificat et obtenir certification de votre entreprise ou une autorité de certification publique pour vous fournir les certificats de votre cluster. Une fois que vous avez obtenu les certificats, ces certificats seront distribués à tous les nœuds. Ensuite, nous allons configurer Elasticsearch et Kibana. Enfin, nous veillerons à ce que les nœuds Elasticsearch rejoignent le cluster Elasticsearch et que le nœud Kibana puisse communiquer avec Elastic Search via HTTPS. Commençons donc. Comme vous pouvez le constater, je suis dans ma page Instances de VM Compute Engine. Ici. Je vais cliquer sur Create Instance. Je cliquerai sur New women sense from template, et je choisirai le modèle ELK et cliquez sur Continuer. Je vais changer la région en US West One. Je garderai le nom d'ELK. Et je vais passer à la section réseautage, développer cela, puis l' étendre en travaillant. Je vais m'assurer que cette machine virtuelle est un VPC de recherche Elastic et dans le sous-réseau de surveillance. Et après cela, je cliquerai sur Créer. Maintenant, une fois cette machine virtuelle créée, je peux en créer deux autres. Une fois que les trois instances Elastic Search ont été créées, je cliquerai à nouveau sur le bouton Créer une instance pour enfin créer mon instance de caméra, je cliquerai sur l'instance de VM à partir du modèle et j'utiliserai à nouveau mon Modèle ELK et cliquez sur Continuer ici, je vais changer le nom en Kibana, changer à nouveau le cœur de la région en réseau. Assurez-vous qu'il est sous surveillance du sous-réseau et cliquez sur Créer. Enfin, j'ai prêt mes trois instances Elasticsearch et mon encens Kibana maintenant, nous allons tester la connectivité à toutes. Ce que je vais faire, c'est que je clique d'abord sur ces trois lignes pour modifier l'affichage des colonnes. Je ne veux pas de zones car je connais tous les théorèmes des zones. Je ne veux pas que les recommandations soient utilisées par, et je clique sur OK, maintenant je vais modifier la taille de la fenêtre de mon navigateur pour faire apparaître mon terminal. J'ai donc maintenant mon compte d'essai GCP, le côté gauche et mon terminal pour Mac sur le côté droit. Et je vais vérifier la connectivité de mon Mac à l'adresse IP externe de mes instances GCP. Je vais donc taper l' espace SSH, le faire paraître, puis je copierai l'adresse IP externe et collerai et appuyez sur Entrée. Oui, je vais pouvoir me connecter à la première instance. Ensuite, j'ouvrirai un nouvel onglet avec profile basic. Ici, je vais taper dans le laboratoire SSH à la lumière supplémentaire que nous avons la deuxième instance et elle entrera, oui, même chose. J'ajouterai un autre onglet, SSH , puis je copierai l'adresse IP de la prochaine instance. Oui. Enfin, je vais copier l'IP externe de l'instance de microbiologie, ouvrir un nouvel onglet et faire bit de laboratoire SSH et le coller ici. Cela a pris des années et maintenant je suis capable de me connecter à tous. Je vais donc réduire cela et nous commencerons à configurer nos instances. Nous devrons donc d'abord installer Elastic Search sur toutes les instances R3, trois instances Elasticsearch. Alors, allez-y et vous pouvez suivre les mêmes étapes que celles que je vous ai montrées dans un déploiement à un seul nœud. Ne configurez pas encore le point Elastic Search Dot YAML, installez-le et revenez et je ferai de même sur ces instances. Après avoir installé Elastic Search sur les trois notes Elasticsearch, il est temps d'installer Kibana sur le nœud Kibana. J'ai déjà installé la clé de signature publique et j'enregistre cette définition de répertoire. Donc tout ce que nous devons faire sur cette instance est sudo APT get Update and end. Sudo APT installez Kibana et appuyez sur Entrée. Comme vous pouvez le voir, Kibana a été installé avec succès sur cette machine après que Gibbon ne soit pas stocké. Ce que je vais faire, c'est que je vais passer au terminal Visual Studio afin pouvoir référencer mes notes pendant la configuration des services. Ici, à l'écran, ma fenêtre Visual Studio Code est ouverte avec mes notes sur le côté gauche et le terminal à droite et en haut, j'ai utilisé cette icône plus pour créer quatre onglets chacun dans ma charge individuelle sur le compte GCP. commencerons donc d'abord à configurer la machine ELK One. Ici. Je vais faire sudo VI slash, ETC, Elastic Search slash elash elash search.html. Annihilate entre. Je vais aller dans Insert. Et la première chose que je dois faire, c'est définir un nom pour mon cluster. Cela devra être identique sur tous mes derniers nœuds d'effort ou limiter le soulignement de démonstration ELK. Ensuite, je vais donner un nom à ce nœud. Je vais appeler ce nœud ELK un. Nous pouvons conserver le chemin d'accès aux données et répertoire des journaux, c'est très bien. Ensuite, je vais entrer dans le réseau et je modifierai la valeur de l'hôte du point réseau à 0. point 0 est 0. Ensuite, je vais décommenter le port point STDP. Ensuite, nous devrons spécifier les hôtes initiaux de notre cluster. Ce sont les premiers hôtes. Ce qui formera notre cluster ici, je mettrai l'adresse IP privée de tous mes nœuds Elastic Search. Si je vais dans ma console GCP, les adresses IP privées sont 192.6781681. C'est donc ce que nous allons aller ici. Une fois que nous avons fourni des hôtes de départ, nous devons indiquer quels nœuds peuvent être maîtrisés éligibles. Nous voulons que ELK Wonder Neil K2 soit éligible au master. C'est donc ce que nous allons aller ici. Je vais taper EL k1 et k2. Maintenant, c'est tout pour ce dossier. Pour l'instant, je peux enregistrer un point d'exclamation bleu q. Maintenant, une fois que j'ai fait cela, ce que je dois faire, c'est que je dois aller à utilisateur, partager Elastic Search et être maintenant dans la poubelle, nous pouvons faire un ls et vous verrez qu'il existe un utilitaire appelé Elastic Search. Hôtel Dash 30. Nous utiliserons cela pour créer d' abord une autorité de certification, puis générer des certificats pour une réplication, ces certificats seront des certificats auto-signés. Commençons donc d'abord, nous devons générer un voyant. Pour ce faire, nous allons taper sudo dot slash Elastic Search dash sagittal. Et pour générer un voyant, la commande est C, et nous allons appuyer sur Entrée. Nous pouvons conserver les valeurs par défaut et aucun mot de passe pour le PDG. Ce fichier point p12 est en partie partagé par l'utilisateur Elastic Search. Je vais donc faire un LS ici pour m'assurer que ce fichier est là. Maintenant, CFI IS est généré. Nous devons maintenant générer les certificats SSL à utiliser par les charges Elasticsearch. Ce que nous allons faire, c'est que nous reviendrons nouveau et je cliquerai sur la flèche vers le haut pour accéder à ma commande Elastic Search Utility supprime CA, et cette fois, je taperai insert parce que je voulais générer certificats. Et pour générer les certificats, je dois fournir une autorité de certification, je vais taper un tiret, un tiret C, et nous copierons le nom de notre fichier CAP 12 et mettrons ici car le fichier est en attente pour l'emplacement. Nous n'avons pas besoin de fournir un chemin complet vers et je cliquerai sur Entrée quand il demande un mot de passe pour ca, nous n'en avons pas fourni lorsque nous générons le CS, donc c'est bon, nous pouvons appuyer sur Entrée. Nous allons maintenant accepter les valeurs par défaut du fichier de certificat ou du mot de passe. Maintenant, ce fichier doit également être dans le partage d'utilisateurs Elastic Search. Je vais donc aller dans ce répertoire et faire un ls. Et c'est notre fichier de certificat Elastic Search. Maintenant, c'est pour le SSL. Donc, si nous revenons à notre PowerPoint, il s'agit de la communication entre les nœuds Elasticsearch. Pour la communication Kibana, nous devons créer un certificat STDP. Maintenant, pour ce faire, nous pouvons faire un CD en été. Cette fois, je vais taper dans la table sergio de recherche élastique sudo dot. Et ici, je vais taper STDP, régénérer le SGD sera des certificats. Je ne veux pas générer de CSR, donc je vais taper maintenant, c'est l'option que vous utilisez lorsque vous utilisez une autorité de certification tierce, par exemple, l'autorité de certification publique de votre entreprise. Mais comme nous utilisons les certificats auto-signés, je vais saisir 0 et appuyer sur Entrée. Oui, nous voulons utiliser un CS existant, donc je vais taper oui, le chemin d'accès à mon fichier CASB T12. Je vais donc copier le chemin qui est le partage d'utilisateur Elastic Search. Je vais le copier ici est Elastic Search ca dot p12. Je vais donc copier ça ici aussi, et je cliquerai sur Entrée. Il n'y a plus de mot de passe pour ce fichier SCF. Maintenant, il me demande combien de temps je veux que les certificats soient valides. Maintenant, je veux la valeur par défaut, donc je vais le garder cinq ans à venir, il vous demande si vous voulez générer un certificat par chargement dans une configuration de production, vous pouvez le faire. Donc, oui, ici, mais pour l'instant, je clique sur Non et je clique sur Entrée. Maintenant, il veut les noms d'hôtes pour tous les nœuds, ou nous pouvons fournir des caractères génériques. Maintenant, je vais vous montrer quelque chose pendant une minute. Il sera envoyé à une autre instance. Maintenant, nous allons faire sudo V slash, ETC, slash hosts pour ouvrir mon fichier hôte. Désormais, toutes les instances GCP ont un DNS interne, qui ressemble à ceci. Supposons le nom d'hôte que vous avez fourni lors de la configuration, la région y m point c, puis le projet dans lequel ils se trouvent, puis point interne. Ce que nous allons faire, c'est que nous allons générer un certificat à l'aide d'un point étoile interne. Troisième type en étoile pour couvrir tout, du nom d'hôte, projet point de la région de points. Et puis je taperai interne et appuyez sur Entrée, puis appuyez à nouveau sur Entrée, je vais aller oui, c'est exact. Maintenant, il veut que nous fournissions les adresses IP de tous mes nœuds. Donc je vais le faire. 92 points 168 points un point 6190 point 168 point un point 7192 point 168 point un point huit. Veuillez noter que cela sera évidemment différent pour vous. Vous devrez donc vous rendre votre console GCP, regarder les adresses IP internes et les fournir ici. S'ils ne sont pas corrects, vos nœuds ne rejoindront pas le cluster. Je vais donc saisir Enter a Enter a Enter à nouveau pour sortir. Oui, ils sont corrects. Je ne veux pas changer d'options. Je clique sur Non, je ne veux pas fournir de mot de passe. Cliquez sur Entrée et j' accepte toutes les valeurs par défaut. Et cela devrait créer un fichier zip dans mon emplacement Elastic Search. Passons donc à un niveau au-dessus d'un clair et faisons un ls. Nous avons maintenant généré un fichier, un certificat pour les nœuds Elasticsearch et un fichier zip. Voyons maintenant ce qu'il y a dans le fichier zip. Je vais donc taper le zip de points Elastic Search. Il ne trouve pas le décompresseur. C'est donc une solution facile. Je vais taper sudo apt-get install, décompresser, savoir ce qui est installé. Nous ferons la même commande et nous attacherons pseudo délit clair à analyser. Maintenant, nous devons entrer dans ce dossier. Je vais donc faire CD Elastic Search. Et à moins qu'il n'ait le fichier STDEV point p12. Passons maintenant à un niveau au-dessus et refaisons l'analyse, il y avait aussi un dossier Kibana. Allons donc là-dedans. Et chaque fois qu'il y a un fichier Elastic Search CA Him. Il y a donc un fichier http dot p12 et un fichier ca dot vm qui a été créé dans ce dossier , c'est maintenant nous allons déplacer tous ces fichiers pertinents dans mon répertoire temporaire de barre oblique pour que je puisse télécharger tous ces éléments et les ont ensuite répartis sur les prêts. J'ai donc d'abord un niveau au-dessus du clair, quand Alice, je copierai les certificats Elastic Dash pour copier d'abord le fichier de certificat pour obliquer TMP, et je devrai ajouter un pseudo. Maintenant, je dois copier ma pile élastique CFL, ca dot p12 barre oblique TMP. Ensuite, je dois faire une copie sudo Elastic Search oblique le fichier STDP dans le dossier Elastic Search, tmp également. Et enfin, je dois faire une copie sudo Kibana et le fichier PEM Elastic Search ca dot dans ce dossier Kibana pour slash TMP. Maintenant, une fois que j'ai fait cela, je dois entrer dans le dossier TMP barre oblique. Et ce que je vais faire, c'est que je vais faire un mod CH et donner des autorisations complètes à tout le monde sur ces fichiers. Étoile élastique, et je le ferai en utilisant sudo et enfin pseudo CH mod 777. Je le ferai pour mon fichier STDEV.P 12 quand c' est moins l pour m' assurer que c'est fait, on dirait que c'est le cas. Maintenant, avant de les télécharger, déplacera directement les fichiers de certificats pertinents pour ce nœud particulier dans le conflit. Allons dans ETC. Slash Elastic Search type dans sudo SU. Nous allons d'abord passer dans CD, ETC, Elastic Search. Ici, nous allons créer un répertoire appelé search. Une fois cela fait, nous copierons le certificat SSL de notre Elastic Search, qui est ce certificat dans recherche Elastic Share utilisateur dans le dossier de recherche, copierons les barres obliques des utilisateurs Elastic Search. Et le certificat est un certificat élastique stocké B12. Et nous copierons le certificat dans le dossier source, barre oblique de recherche, nous appuyons sur Entrée, puis faisons un CD dans ce dossier de recherche, assurez-vous que le certificat a été copié correctement, c'est fait. Maintenant, ce que nous devons faire c'est de passer un niveau au-dessus ici, nous allons à nouveau modifier notre fichier YAML Elastic Search dot. Je vais donc faire un VI Elastic search.html. Et à l'intérieur de ce fichier, il faudra passer directement à la sécurité et sous sécurité copiera certains paramètres de sécurité de mes notes. Donc, s'attend à ce que la sécurité activée true active la sécurité attend que sécurité attend le transport de sécurité SSL enable true active le SSL sur le transport, nous utilisons le certificat I du mode de vérification SSL et nous nous assurons qu'il est obligatoire pour les clients d'être authentifiés. Et enfin, nous devrons fournir le KeyStore et faire confiance ou partie pour notre fichier Elastic Certificate dot pupil, que nous venons de copier directement dans le dossier source dans Della de ce conflit. Mais avant de le faire, parce que nous passons au troisième dossier, nous devons fournir le nom de domaine complet de cette partie. Nous allons donc taper la barre oblique, barre oblique ETC Elastic Search barre oblique de recherche oblique de magasin de certificats élastique quitte. Eh bien, on copie ça et on le colle ici aussi. Et maintenant, nous pouvons copier tous ces paramètres, les coller ici. Avant de passer à autre chose, nous devons également activer la communication https ou un autre cluster pour cela, nous devrons d'abord activer GDB, un autre cluster, puis nous devrons fournir un pot au SGD P. volve. Comme nous l'avons fait plus tôt. Je vais fournir le nom de domaine complet parce que vous avez modifié le fichier de barre oblique ADC Elastic Search SRB dot py, et copiez ces deux paramètres vers le bas de mon fichier YAML de point Elastic Search. Et maintenant, je peux enregistrer ce fichier. Maintenant, une fois que nous aurons fait cela, je copierai également ce fichier dans mon dossier Temp. Et encore une fois, je vais faire un CH plus. Et ainsi de suite. Sur mon fichier YAML Elastic Search point à l'intérieur d'eux se trouvent celui-ci et appuyez Entrée et il y a une copie notre introducteur de certificat sédentaire. Donc, copiez la barre oblique, la barre oblique de partage d'utilisateur Elasticsearch, la barre oblique Elasticsearch STDP dot py s'attarde dans la recherche élastique ATC. Et passons dans le dossier source pour nous assurer que ce fichier existe. Revenons maintenant à fenêtre de notre console GCP pour télécharger tous ces fichiers. Maintenant, sur la console pour GCP, je vais cliquer sur SSH à côté de mon instance ELK One. Cela ouvrira le SSH de cette instance dans un nouvel onglet de navigateur. Maintenant, une fois les connexions SSH terminées, cliquez sur le bouton Paramètres en haut à droite et cliquez sur Télécharger le fichier, puis donnez-lui le nom de domaine complet. Donc, les certificats élastiques slash temp dot p12 et cliquez sur Télécharger. Nous avons téléchargé le premier certificat. Maintenant, nous devons télécharger notre fichier STDEV dot p12. Donc, slash terms slash std p.volve est téléchargé cette fois. Cliquez ensuite à nouveau sur le fichier de téléchargement. Cette fois, nous allons télécharger le fichier PEM point. Donc, pour obtenir le nom, je vais aller dans mon répertoire temporaire pour analyser et obtenir le nom de mon fichier PEM point. Ici. Je l'ai téléchargé. Maintenant. Ensuite, nous devons télécharger notre fichier YAML court Elasticsearch. Je cliquerai donc sur Télécharger le fichier et barre oblique les termes Elastic Search point YAML, et je cliquerai sur Télécharger. Une fois cela fait, je peux fermer cet onglet SSH et ouvrir un nouvel onglet dans mon ELL k2. Maintenant, une fois le SH2 GLP-2 ouvert, nous cliquerons à nouveau sur le bouton Paramètres, nous cliquons sur Charger le fichier et nous allons à l'emplacement où nous avons téléchargé les certificats. Et le premier fichier, un est le certificat Elastic Search. Et je cliquerai sur Ouvrir, et cela chargera ce fichier la barre oblique maison de formation élaborée trois. Et le prochain fichier que je veux ici est le fichier HTTP. Je cliquerai donc à nouveau sur charger et télécharger le SGD p.volve au même endroit. Et enfin, je vais télécharger mon Elastic search.html, ce fichier. Maintenant, une fois cela fait, nous devons également télécharger ces trois fichiers sur la troisième instance Elasticsearch. Je vais donc le faire maintenant. Une fois que vous avez téléchargé les fichiers sur ELL K3, nous devons aller à l'instance de Kibana, faire la même chose, mais cette fois, nous devons simplement télécharger le fichier Elastic Search ca dot vm. Je clique donc sur le bouton Paramètres, cliquez sur Charger le fichier et le fichier PEM point pour Elastic Search et je cliquerai sur Ouvrir. Une fois que vous avez téléchargé tous ces fichiers, ils ont tous été téléchargés le répertoire personnel de l'utilisateur exécutant le laboratoire ou de votre utilisateur individuel sur vos machines Linux. Nous devons les copier dans la bonne partie. Allons d'abord à l'ELL K2 ici. Passons d'abord à la formation en informatique du laboratoire de slash home. Et vous pouvez voir si vous avez un fichier YAML Elastic Search dot et deux fichiers de certificats. Tout d'abord pour sudo SU pour devenir racine. Ensuite, nous allons entrer dans notre répertoire Elastic Search ici, nous allons créer un nouveau répertoire appelé search, copier nos certificats dans ce nouveau répertoire. Donc STDEV point p12 en barre oblique tiers. Et ensuite, le certificat Elastic Search. Donc, l'outil Elastic Certificate dot py et pour rechercher, allons maintenant dans le troisième sélecteur pour nous assurer qu'ils ont été copiés et faire une analyse ici, c'est très bien. Nous devons maintenant remplacer notre fichier YAML de points Elastic Search existant par le nouveau fichier que nous venons de copier. Copiez donc slash home slash laboratoire exécutant trois slash elastic search.html dans ETC slash Elash Elash Search. Et passons à un niveau plus haut et faisons un ls moins l. Et ici, nous devrons modifier quelques paramètres à l'intérieur de ce fichier YAML Elastic Search dot. Sudo nano Elastic search.html devra donc descendre à notre nom de point de nœud, et nous devrons changer cela en ELL K2, ec2, et cela devrait être tout. Maintenant, il semble que j'ai fait une faute de frappe et un nom de point de chargement. Nous avons besoin que ce soit le tableau de bord ELK, le numéro de charge 12 ou trois. Laissez-moi juste vérifier ce que j'ai fait sur le vrai k1 ici sur mon ELK. Je vais donc aller à ETC, Elastic Search et je vais faire une dernière chose nano, search.html. Et je vais changer ça pour en tirer un aussi. Et je vais l'enregistrer maintenant que nous avons collecté, sauvegardons également ce fichier et passons à ELK a3. Nous devons donc faire la même chose. Donc, pseudo copie slash home slash bibliothèque formation trois slash http dot slash élastique search.html à barre oblique, ETC. Slash Elastic Search a créé le dossier et copié tous les bons certificats dans son chemin d'accès. Maintenant, ce que nous pouvons faire, c'est que nous pouvons faire un fichier search.html nano ou non élastique et nous pouvons changer le nom de chargement. Nous pouvons enregistrer ce fichier. Passons maintenant à notre instance Kibana. Sur Kibana, il n'y avait qu'un seul fichier, donc la formation élaborée à domicile trois selon la liste des fournisseurs. n'y a qu'une seule recherche Elastic, point PM. Nous allons donc faire un sudo SU, c'est Co2, ETC. Slash Kibana, créez un nouveau répertoire appelé search ici et copiez le fichier Elasticsearch ca dot vm à partir de notre répertoire de formation de niveau pour rechercher. Et maintenant, faisons un nano sur le clavier AutoML ici, la première chose que nous devons faire est décommenter le port point du serveur. Ensuite, nous devons changer les hôtes points du serveur à 0. Et là où il est dit URL de base publique du serveur, nous devons fournir l'URL, ce service Kibana de bureau Goneril, non, nous ne ferons pas HTTPS pour notre interface graphique Kibana. Ce que je vais faire, c'est que je vais taper une barre oblique http. Je vais dans les instances de VM, copie l'IP interne de l'instance de microbiote, je la colle ici et j'ai configuré Kibana pour fonctionner sur 5601. Je vais donc taper que ceux qui ont fait que nous devons abord spécifier sont plusieurs nommés d'après Kibana. Je vais donc décommenter ce type de rôle dans démo Kibana ici et ici, nous devons spécifier toutes les instances Elastic Search pour nos requêtes. Donc, si vous souhaitez simplement que vos requêtes exécutées sur une seule instance Elasticsearch, vous devrez spécifier l' adresse IP de cette incidence. Mais parce que nous voulons qu'ils soient exécutés sur toutes nos instances, je vais fournir toutes les instances Elasticsearch ici. Je reviendrai à mes notes et je vais copier cette chaîne à partir d'ici, et je vais la supprimer et je la collerai, et je corrigerai la diapédèse. C'est moi qui ai fait ça. La prochaine chose que nous devons faire est de fournir le chemin du fichier dot bm. Pour ce faire, nous devons nous adresser aux autorités de certification SSL Elastic Search dot, et je ne commenterai pas cela. Et ici, à gauche pour fournir les pièces à mon fichier ca dot vm. Donc je vais supprimer tout cela et taper dans barre oblique ETC Kibana barre oblique de recherche oblique le nom de notre barre oblique Elasticsearch Search dot vm fichier slash Elasticsearch ca dot pm. Et une fois que j'ai fait cela, je peux suivre enregistrer ce fichier. Il est maintenant temps de démarrer notre cluster Elasticsearch. Maintenant, je vais aller à ma machine à rendement donné. Je vais taper le système CTL, démarrer Elastic Search, puis je vais aller sur ma machine. Dans le directeur technique du système hors d'ici, démarrez Elastic Search et tapez sudo devant. Et ensuite, j'irai vers ma troisième machine, mais la même chose. Donc, le pseudo système CTL démarre Elastic Search et il est entré, voyons si le premier jeu d'instance Elasticsearch de très bien, semble qu'il y a eu un problème. Donc, pour résoudre tout problème lorsque vous pouvez utiliser CTL général moins f moins u , puis le nom du service. Jetons un coup d'œil. C'est juste de commencer le service. Un autre endroit que vous pouvez chercher est le journal de sous-vêtements Elastic Search. Si nous faisons un ls, il y aura un fichier journal de points. Faisons donc un chat là-dessus. Il est écrit la nuit excédentaire dans le dossier du certificat. Revenons donc à notre dossier Elastic Search. Laissez-moi tout éclaircir ici. Faisons un dossier de certificat ls moins l r est grossier Elastic Search score. Insérez là et faites un, laissez-moi S moins L. Notre certificat Elasticsearch a les autorisations r, w, et ensuite rien pour le groupe. Maintenant, nous devrons peut-être changer cela, donc nous allons faire le mode CH. Et pour l'instant, je vais juste taper 777 et certificat Elastic Search point p12. Et je ferai la même chose pour mon HTTP. Ou pour le comprendre pour un déploiement de production, vous devrez peut-être examiner les autorisations sur le certificat, mais pour l'instant, essayons simplement de démarrer le service avec ces autorisations. On dirait qu'il a commencé à trouver cette fois. Faisons donc un système CTL, statut Elastic Search. Remarquez que c'est fait. Nous pouvons aller à l' autre instance et ces CDC Elastic Search à ces CDC Elastic Search comme sudo SU ici dessinons ETC, Elastic Search et ensuite ls moins l et regardons le dossier source à moins que cela ne coïncide. Et regardons maintenant les autorisations sur le certificat, regardons l'état de cette machine. Donc, celui-ci est en cours d'exécution. Jetons un coup d'œil aux données de la troisième machine. Comme vous pouvez le constater, cas de problème d'autorisations, votre service peut ne pas apparaître. Si je reviens à ma première instance, tout ce que vous avez à faire est que si vous rencontrez des problèmes pour démarrer ce service Elastic Search, vous pouvez accéder aux journaux Elasticsearch pour analyser et regarder ce fichier. . Et comme je l'ai montré précédemment, cela vous donnera un indice de l' endroit où l'erreur est faite pour le moment, je vous ai également montré comment modifier les autorisations sur divers fichiers pour résoudre tous les problèmes. Maintenant, comme vous pouvez le constater, avec l'autorisation de 755, ce certificat est correctement chargé. Donc, ce que nous devons faire est probablement aller dans ATC Elastic Search et de passer à la recherche, de changer les autorisations 755 sur ce certificat Elastic Search également. Et essayons de faire la même chose pour notre certificat STDP Bidwell à moins d'essayer de redémarrer les dollars de service à un statut CTL système, recherche plastique est en cours d'exécution. Ne nous éclaircissons pas. Ensuite, nous devons générer les informations d'identification de notre cluster Elasticsearch. Nous partageons Elastic Search et avons été dans l'analyse des avantages, il y a un fichier de mots de passe et avons été dans l'analyse des avantages, de configuration, donc nous allons faire une barre oblique de mots de passe Elasticsearch . Et je vais faire automatiquement pour générer automatiquement tous mes mots de passe. Allez-y, oui, et il a généré le mot de passe de ce cluster pour moi, je vais les copier dans des fichiers. Je l'ai eu. Maintenant, avant de faire quoi que ce soit, je dois aller dans mon instance Kibera , puis quarter mon fichier YAML sans point de clavier. Je vais faire le dossier Sudo SU Kibana. Et ici, j'apprendrai sur la rhodamine Kibana. Et dans ce fichier, je vais fournir les informations d'identification de mon utilisateur système Kibana. De cette façon, nous utiliserons l'authentification par mot de passe pour notre Kibana afin de communiquer avec Elastic Search. Copiez ce fichier et enregistrez ce fichier. Et commençons Kibana. Faisons un statut sur ce service est vecteur. Maintenant, ce que nous pouvons faire, c'est de revenir à notre instance Elasticsearch, jaune, et obtenons l'état de ce cluster pour nous assurer que les trois nœuds sont connectés. Illustrator. Je vais donc aller dans mes notes, copier la commande curl et ajouter le nom d'utilisateur et le mot de passe de l' utilisateur Elastic à cette commande moins u elastic, puis fournirai le mot de passe pour cet espace utilisateur. Et je vais appuyer sur Entrée et changer le STDP en HTTPS. Et j'ai compris cette erreur lorsque vous essayez de vous connecter via curl qu'il y avait un certificat et une chaîne de certificats auto-signés. Tout ce que vous avez à faire, c'est que vous devez dire à curl d'ignorer qu'un certificat auto-signé ira juste en haut à droite après Carl et moins k et appuyez sur Entrée. Et ici, vous pouvez voir que notre cluster comporte trois nœuds, appelé Demo ELK et que le statut de ce cluster est vert. Il s'agit d'une réponse positive. Nous allons donc copier l'adresse IP publique de notre Kibera et voir s'ils peuvent accéder à l' interface utilisateur Kibana en utilisant cette adresse et l'interface utilisateur Kibana est chargée. Ce que nous allons faire ensuite, c'est que nous allons essayer de voir si nous pouvons nous connecter avec l'utilisateur Elastic. Copiez le mot de passe. La bande élastique a fourni le mot de passe ou quoi que ce soit ici. Cliquez maintenant sur Explorer tout seul. Comme vous pouvez le constater, je n'ai pas réussi à résoudre. C'est ainsi que vous pouvez créer un cluster ELK multimode. C'est ainsi que nous sommes arrivés à la fin de cette conférence. Merci d'avoir regardé. Je vous verrai dans le prochain. Au revoir. 29. Nœuds de recherche élasticité: Hé les gars, dans cette conférence, Jetons un coup d'œil à un cluster Elasticsearch un peu plus en détail. Et le cluster Elasticsearch est un groupe d' une ou de plusieurs instances de nœuds connectées ensemble. Qu'est-ce que la recherche et le chargement Elastic ? Un nœud de recherche Elastic est un serveur unique faisant partie d'un cluster. Cela signifie que tous ces nœuds dans le fichier de configuration YAML élastique ou court auront le même paramètre de nom de point de cluster. Ainsi, tous les nœuds qui ont le même nom de point de cluster que le même paramètre peuvent former un cluster. Un nœud stocke des données et participe aux fonctions d'indexation et de recherche des clusters lorsqu'un nœud rejoint ou quitte un cluster, le cluster se réorganise automatiquement pour distribuer les données uniformément sur tous les nœuds disponibles dans ce cluster. Ainsi, en cas de perte d'un nœud, vous ne perdez pas les données et elles sont disponibles sur tous les autres nœuds. Maintenant, si vous exécutez une seule instance d' Elastic Search, ce type de cluster est entièrement fonctionnel, mais si vous perdez votre nœud, vous perdrez toutes vos données. Par conséquent, si vous avez des exigences en matière de haute disponibilité ou de tolérance aux pannes, il est préférable d'utiliser le cluster. Désormais, les nœuds d'un cluster Elasticsearch peuvent avoir plusieurs rôles. Ceci est spécifié par le paramètre d'objectif Node.js dans votre fichier YAML de stratégie de recherche Elastic. Maintenant, à l'écran, je vous ai donné un bref résumé de tous les rôles de nœuds disponibles dans Elastic Search. Et maintenant, jetons un coup d' œil à chacun d'entre eux. abord, jetons un coup d' œil aux nœuds éligibles maîtrisés sont le nœud maître dans un cluster Elasticsearch est responsable des actions légères à l' échelle du cluster telles que la création ou la suppression d'un index, le suivi les nœuds font partie du cluster et déterminent les graphiques à attribuer à quels nœuds. Donc, fondamentalement, quelles données sont stockées sur nœud il est important pour la santé du cluster d'avoir un nœud maître stable, car le nœud musculaire effectue toutes les activités de gestion du cluster. Et si votre nœud maître est plus stable, votre cluster ne peut pas comprendre ce qui se passe. Il existe maintenant deux types de nœuds principaux éligibles. Vous pouvez avoir un maître dédié ou un maître de vote uniquement qui est maintenant un nœud maître dédié, comme son nom l'indique, est un nœud dédié qui agit comme un nœud maître pour ce cluster. Maintenant, ce type de configuration est bénéfique si vous disposez d'un cluster très volumineux et les tâches de gestion de votre cluster sont tellement importantes que vous devez fournir une norme musculaire dédiée aux petits clusters, vous n'avez probablement pas besoin d'un nœud maître dédié. Vous spécifiez quel nœud est un maître dédié en fournissant uniquement le maître de valeur dans la valeur des rôles points de nœud. Ce nœud n'agira comme aucun autre nœud. Désormais, un deuxième type de charge maître éligible peut être un nœud maître uniquement votant. Désormais, ce type de nœud peut participer à une élection principale, mais il ne peut jamais être un nœud maître. Il peut donc s'avérer utile lorsqu'un maître est élu, mais il ne jettera jamais son nom pour être un nœud maître. Examinons maintenant les normes de données. Les datanodes contiennent les chemises qui contiennent les documents que vous avez indexés. Ils contiennent donc un élément de données que vous avez stocké sur votre cluster. anodes ont géré les opérations liées aux données telles que les opérations de création, lecture, de mise à jour et de suppression, telles que les opérations d'agrégation. Ces opérations sont gourmandes en entrées-sorties, en processeur et en mémoire. Il est donc toujours judicieux de surveiller ces ressources sur ces nœuds de données. Et lorsqu'ils sont surchargés, ajoutez d' autres nœuds de données à votre cluster pour uniformiser la charge. Vous pouvez désormais disposer d'un DataNode de contenu qui prend en charge le contenu créé par l'utilisateur. Ils peuvent également effectuer des opérations idempotentes telles que grader ou créer, lire, mettre à jour et supprimer telles agrégations sur votre cluster. Désormais, les nœuds de données peuvent être configurés à différents niveaux. Jetons donc un coup d' œil à chacun d'entre eux. Pour vous donner un exemple, supposons que vos données soient récemment arrivées dans votre cluster. Supposons que vous ayez des données CRM qui sont entrées dans le cluster et qu'elles viennent d'arriver. De toute évidence, tous vos associés commerciaux ou toute autre personne qui a besoin de ces données CRM. Nous examinerons ces données dès qu'elles seront disponibles. Vous vous attendez donc à une fréquence élevée de recherche pour ce type de données. Vous le stockerez dans le niveau chaud. Il s'agit donc de données qui viennent et qui font l'objet de recherches fréquentes. Maintenant, disons que les données probablement de trois mois, sorte que votre liste de clients est devenue un peu désuète. se peut que vous deviez effectuer des recherches dessus comme c'était le cas lorsque les données viennent d'entrer, vous stockerez ce type de données dans le niveau chaud. Après cela, vous avez l'égalité ici. C'est à ce moment que les données vieillissent et qu' elles ont rarement été prises en charge. Vous allez stocker ce type de données dans le niveau froid. Et enfin, lorsque les données, donc tous les jours seulement ad hoc une fois dans un type de lune bleue, vous voudrez peut-être stocker ce type de données dans le niveau gelé. Une chose à noter à propos du niveau gelé est que vous ne pouvez stocker que des indices partiellement montés dans le niveau gelé. En gros, ce qui se passe, c'est que les données de ce niveau ne sont pas stockées dans le cache local. Il existe une geisha partagée parmi le cluster, et ce type de données est stocké dans ce cache partagé. Il est donc évident que les recherches deviennent plus lentes. Maintenant, la principale raison pour laquelle ce type d' architecture est que, par exemple , pour les nœuds importants, vous pouvez fournir plus de ressources , plus de CPU, plus de mémoire, etc. de CPU, plus de mémoire, mais un nœud unique aura plus de ressources qu' un nœud froid et moins de ressources qu'un nœud cardiaque. De même, selon le nœud aura toujours un cache local, mais il s'agit probablement d'un système plus lent qu'un système connu. Ainsi, vous pouvez spécifier des ressources moins chères aux niveaux à mesure que vos données vieillissent. Désormais, pour spécifier chacun de ces niveaux de données. Par exemple, pour spécifier un nœud comme étant sur le niveau chaud, vous devez spécifier sous aucun rôle de point, la valeur du volume de soulignement des données. Et pour votre bénévole et courtisan, vous spécifierez les données soulignant les données sur les femmes soulignent le froid. Maintenant, jetons un coup d'œil au nœud d'ingestion. Et le nœud d'ingestion peut exécuter des pipelines de prétraitement, composés d'un ou de plusieurs processeurs d'ingestion. Après cela, nous avons des nœuds de coordination. Les nœuds coordonnateurs se comportent désormais comme des équilibreurs de charge intelligents. Ce que font ces nœuds, c' est supposons que vous disposez d'un cluster volumineux et que vous disposez d'une grande quantité de données qui pénètrent dans votre cluster. Ces nœuds peuvent agir comme équilibreur de charge et bénéficier au cluster en déchargeant la partie coordination de la tâche vers certains nœuds spécifiques afin que vos nœuds de données ne soient pas surchargés. Maintenant, vous avez maintenant des lobes éligibles à distance. Ce que ces nœuds peuvent faire, c'est par exemple que vous avez le cluster 1, puis notre cluster distant appelé cluster vers. Vous pouvez désormais activer recherche croisée entre ces deux clusters. Vous pouvez également définir un nœud en tant que charge éligible à distance. Les requêtes qui touchent ce nœud peuvent donc effectuer une recherche sur le cluster distant. Ainsi, vous pouvez combiner les données dans deux clusters, mais les recherches sur un cluster distant seront plus lentes. Vous avez maintenant des nœuds d'apprentissage automatique. Maintenant, ces nœuds exécutent des tâches et gèrent les demandes d' API d'apprentissage automatique. Vous pouvez également spécifier ce nœud en configurant la règle de nœud en tant que ML. Enfin, vous avez transformé des nœuds qui transforment et géraient les demandes d'API de transformation. Vous pouvez configurer ces fonctions Bye en configurant le rôle de point de chargement en tant que transformation. Il s'agit donc des types de nœuds que vous pouvez configurer dans votre cluster Elasticsearch. C'est ainsi que nous sommes arrivés à la fin de cette conférence. Dans cette conférence, j'ai essayé de vous donner un aperçu des différents types de nœuds dans un cluster Elasticsearch. Où que ce soit, je vais joindre quelques liens dans la description de cette vidéo. Vous pouvez donc étudier un peu plus en détail les différents types de nœuds d'un cluster Elasticsearch. Merci d'avoir regardé et je vous verrai dans le prochain. Au revoir. 30. Elasticsearch 8x: Hey les gars, Elastic.co, la société mère d'Elastic Search, a récemment annoncé la disponibilité générale a récemment annoncé la disponibilité générale d'Elasticsearch version huit points x. version la société mère d'Elastic Search, a récemment annoncé la disponibilité générale d'Elasticsearch version huit points x. les étapes d'installation sont également un peu différentes. Jetons un coup d'œil à ces questions maintenant. Ici, à l'écran, j'ai ouvert la page Nouveautés de la documentation Elasticsearch. Tout d'abord, il introduit plusieurs modifications révolutionnaires aux API Rest Elastic Search. Mais ce qu'ils ont fait, c'est que cela a permis compatibilité 7X, ce qui devrait vous donner suffisamment de temps pour préparer une mise à niveau. Ensuite, les fonctions de sécurité sont activées et configurées par défaut. Lorsque vous installez Elastic Search, il doit déjà créer des certificats auto-signés et inclure certains paramètres de sécurité dans votre fichier YAML Elasticsearch stroke. Après cela, il y a la sécurité sur les indices système. Dans la version huit points 0, même le superutilisateur élastique ne dispose pas d'un accès natif aux index système. Pour fournir l'accès à un index système, vous devez configurer, autoriser les indices de soulignement indices de soulignement restreints à true pour un utilisateur particulier. Après cela, il y a quelques améliorations dans la recherche, stockage, l'indexation et le traitement du langage naturel. Examinons ensuite les notes de publication. Maintenant, sur la page des notes de publication, vous verrez quelques problèmes connus, ce qui est fondamentalement incertain. plates-formes Linux, le mot de passe utilisateur Elastic et le jeton d'inscription de l'armoire ne sont pas générés automatiquement, mais il vous donne une liste de commandes que vous pouvez exécuter pour les générer après le installation. Il répertorie ensuite toutes les modifications de cette version. Maintenant, si vous prenez déjà en charge un cluster de production, je vous recommanderai d'examiner chacune de ces modifications pour vous assurer qu'il n' y a pas de surprises après la mise à niveau. Avec cela, nous pouvons passer à l'installation d' Elasticsearch huit points 0 sur nos machines virtuelles. Maintenant que je suis dans ma plate-forme GCP et mes instances de VM, j'ai une machine ELK sur laquelle nous allons installer Elasticsearch np.zeros. Je vais copier l' adresse IP externe de cette machine. Et puis sur mon code Visual Studio, j'ai quelques marches sur le côté gauche et mon terminal sur le côté droit. Je vais donc taper l'espace SSH , le faire paraître, puis l'adresse IP externe. Et je cliquerai sur Entrée ici, saisissez oui. Et une fois à l'intérieur de la machine, je taperai sudo apt-get update pour mettre à jour le système. Ensuite, je vais sortir de cela et taper sudo apt-get install W pour installer duplicate sur cette machine. Une fois que nous avons fermé et stocké, nous pouvons commencer par l' installation d'ELK Stack. Donc, tout d'abord, je vais télécharger et installer la clé de signature publique. Je vais donc copier la commande et la coller dans mon terminal et appuyer sur Entrée. Maintenant, ce que je vais faire, c'est que je vais inclure toutes ces commandes avec la description de cette vidéo. Vous pouvez donc également avoir accès à ces commandes. Ensuite, nous allons installer le paquet HTTPS de transport sbt. Après cela, j'effacerai mon écran et ensuite nous sauvegarderons la définition du répertoire. Une chose importante à noter est que lorsqu'il est écrit huit points x pour les paquets 7.6 à cet endroit, il indiquera sept points x. Il n'y a rien de majeur dans l'URL. Juste un petit changement de sept à huit et collez-le ici. Et cela devrait télécharger les définitions du référentiel Elastic Search Adx sur cette machine. Maintenant, je suis prêt à installer ma pile ELK sur cette machine. Je vais donc copier cette commande et je la collerai ici, et je cliquerai sur Entrée. Désormais, pendant l'installation, vous verrez quelques informations contextuelles sous les informations de configuration automatique de sécurité. Sous cette rubrique, vous verrez le mot de passe élastique du superutilisateur intégré. Donc, sous cette ligne, le mot de passe généré pour superutilisateur intégré élastique se trouve ceci. Vous devez enregistrer ce mot de passe car nous l'utiliserons ultérieurement. Je vais passer dans mes notes. Je vais le sauvegarder ici. Maintenant, une fois que tout est installé, je vais vider mon écran. À partir de là, nous allons d'abord configurer notre recherche Elastic. Donc, pseudo via barre oblique ATC, barre oblique Elasticsearch, elasticsearch start ML. Maintenant, dans ce fichier, nous allons d'abord changer le nom du cluster. Je l'appellerai démo ALK. Ensuite, je vais changer le nom du nœud, que j'appellerai ELK un. Ensuite, je vais passer à l'hôte du point réseau et changer la valeur de la valeur par défaut à 0 point 0000. Après cela, je vais décommenter le port, mais je le laisserai par défaut 90 à 100. Puisqu'il s'agit d'un cluster à nœud unique, nous n'avons pas besoin de faire quoi que ce soit en cours découverte jusqu'au port http dot. La configuration était similaire à ce que nous avons dû faire pour 7 x à partir d'un sommet Vous commencerez à voir une section intitulée Configuration automatique de sécurité Pickin dans le fichier YAML court d' Elasticsearch. En effet, comme je vous l'ai dit précédemment, Elasticsearch inclut désormais par défaut certaines options de sécurité. Si vous pouvez le voir ici, la sécurité s'attend la sécurité soit activée par défaut. L'inscription de sécurité est également activée par défaut. Il a créé un chemin KeyStore pour la communication HTTP et les assertions et le fichier est http dot p12. Il a également créé authentification mutuelle, une clé de voûte et terrestre. Maintenant, nous laissons tous les paramètres par défaut, et nous allons enregistrer cela. Maintenant, si j'y vais. Mon répertoire Elasticsearch. Donc sudo SU, et si je fais un LS ici, vous verrez qu'il y a un répertoire appelé certs. Et si je me lance dans la recherche et que je fais une liste, vous verrez l'assertion C, qui est le soulignement STDP CA dot CRD, ce certificat de transport sous point de transport p12 et le certificat HTTPS sous http dot py 12. Nous pouvons maintenant démarrer le système de service Elasticsearch, CTL, démarrer Elastic Search. Maintenant, une fois que le service a commencé, si j'essaie de faire un curl, comme je le faisais pour le système 7 x. Donc curl moins x GET http localhost ou 9200 Underscore cluster et tenu joli. Et si je fais une entrée ici, j'obtiendrai une erreur car un cluster est en fait sur HTTPS. Je devrai donc d'abord passer de HTTP à HTTPS. Mais même quand je lance ça, je devrais avoir une erreur. Il est dit problème de certificat SSL, certificats auto-signés et chin de certificat. Pour surmonter ce problème, je vais appuyer sur la flèche vers le haut et juste avant que x n'arrive, je taperai moins k et je frapperai Entrée. Et cette fois, j'ai les informations d'authentification manquantes. Nous n'avons pas encore configuré les mots de passe utilisateur sur cette machine, mais par défaut, Elastic a configuré le mot de passe de l' utilisateur Elastic pour nous. Je vais donc copier ce mot de passe et je cliquerai sur la flèche vers le haut. Et après l'option moins p, qui était d'ignorer la cellule, envoyer des certificats chaque type dans moins u espace élastique puis deux-points, puis je vais fournir le mot de passe mis utilisateur Elastic. Et maintenant, si je clique sur Entrée, je devrais obtenir le cluster de santé. Comme vous pouvez le constater, le statut du cluster est vert. Avec les certificats auto-signés, vous devez utiliser l'option moins K par défaut. Vous devez maintenant utiliser Elastic user, obtenir l'état de santé du cluster pour la première fois. Une fois que vous avez fait cela, sortons de l'écran. Avant de configurer Kibana, nous devons définir le mot de passe pour l' utilisateur du système de soulignement Kibana. Donc, d'abord, je vais entrer dans usr, partager Elastic Search été, et je fais un LS à partir de ce bac, j'utiliserai l'utilitaire de mots de passe de configuration Elastic Search. De là, j'utiliserai utilitaire de réinitialisation du mot de passe Elastic Search. Je vais donc taper un mot de passe de réinitialisation Elastic Search . Et je vais taper le groupe moins u dire au système quel mot de passe réinitialisé. Et je taperai le système de soulignement Kibana Entrée et je ne taperai jamais à proximité ici. Et j'ai le mot de passe de mon utilisateur du système de soulignement Kibana. Il va copier ça et je le collerai ici aussi. Maintenant, une fois que j'ai fait cela, je peux maintenant configurer Kibana. Donc pseudo VA ATC Kibana, Kibana point YAML. Et encore une fois, je vais décommenter le port Silver Dot, décommenter plusieurs points hôtes et changer d' hôte local ou de zéros 000. Et ensuite, décommentez l'URL de base publique du point de la barre latérale. Et ici, je vais taper http, et maintenant nous avons besoin l'adresse IP interne de notre instance Kibana. Je vais copier l'adresse IP interne collée ici et fournir le port. Ensuite, nous pouvons configurer le nom de self.name. Et ici, je vais taper une démo, une bannière poussiéreuse. Ensuite, nous allons passer au système Elastic Search. Et en dessous, je vais fournir la valeur du nom d'utilisateur Elastic Search. Gardez le système de soulignement par défaut. Ensuite, nous devrons fournir le mot de passe que nous venons de générer. Copiez ceci ici et collez-le. Et maintenant, si vous passez sous System Elastic, tel facultatif parce que nous utilisons des certificats auto-signés pour cette démonstration, je vais décommenter le mode de vérification SSL Elastic Search dot et modifier la valeur de plein à aucun. Cela va ignorer les avertissements concernant les certificats auto-signés. Maintenant, une autre chose à noter est qu' partir de la version huit points X, Kibana enregistre par défaut Il se connecte à un fichier. Dans certaines versions précédentes, les journaux de Kibana par défaut, mais uniquement disponibles en sortie standard. C'est donc aussi un bon changement. Maintenant, sauvegardons ce fichier et commençons Kibana. Donc sudo system CTL, démarrez Kibana. Voyons maintenant ce statut. Il est actif et en cours d'exécution. Revenons à notre instance, copions l'adresse IP publique, collez-la dans un navigateur, puis fournissons le port 5601. Maintenant, je reçois un serveur Kibana n'est pas prêt erreur. Je vais donc revenir à mon déploiement. Et ici, je vais ouvrir à nouveau mon fichier YAML, et je vais chercher des erreurs. Maintenant, dans mon fichier Gibbon ou DML, j'ai oublié de mettre la valeur d'hôte pour Elastic Search pour la version dot huit. Ce que vous devez faire, c'est que vous devez venir ici et passer de HTTP à HTTPS. Maintenant, je vais enregistrer ce fichier à nouveau et redémarrons Kibana. Maintenant, une fois le service redémarré, vérifions l'état actif et en cours d'exécution. Nous avons le message indiquant que le serveur HTTP exécute des annonces zéros, zéros 005601. Revenons maintenant au navigateur. Laissez-moi le rafraîchir. Maintenant. Nous avons la page de connexion de Kibana. Je vais donc taper Elastic ici et je copierai le mot de passe de mon superutilisateur Elastic, je retournerai en arrière et je mettrai le mot de passe et je cliquerai sur Connexion. Cliquez sur jamais, et nous y sommes. Voici comment installer Elasticsearch version huit points 0. Les étapes sont un peu différentes de celles Elasticsearch version 7 x, mais elles ne sont pas si différentes. La plupart des paramètres disent que si vous faites attention, je suis presque sûr que vous serez en mesure de créer vos propres clusters en toute confiance , nous sommes arrivés à la fin de cette conférence. Je vous verrai dans le prochain. Au revoir. 31. Installer des agents élastiques et analyser les journaux des apaches: Hé les gars, il existe deux façons d'envoyer des données de vos serveurs à Elastic Search. abord, vous pouvez utiliser beats, qui sont des expéditeurs de données légers qui envoient des données à un cluster Elasticsearch pour chaque cas d'utilisation, il y a une enchère spécifique. Par exemple, pour les données matricielles, vous utilisez une enchère métrique pour des données de fichier telles que les fichiers journaux, vous utilisez FileReader. Cela rend la gestion un peu encombrante , car en fonction de votre cas d'utilisation, vous devrez peut-être installer plusieurs bits sur la même machine virtuelle. Maintenant, la deuxième méthode est l'agent élastique. Elastic Agent est un agent unique pour les journaux, les mesures, la sécurité et les données de prévention des menaces. Comme il s'agit d'un agent unique, il est plus facile et plus rapide de déployer la surveillance dans votre environnement. Elastic Agent utilise les intégrations et Kibana, qui offrent un moyen facile de connecter Elastic Search à des systèmes et services externes. Par exemple, si vous devez collecter des journaux à partir du serveur Web Apache, vous utilisez l' intégration Apache pour demander à l'agent Elastic de collecter ces données à partir d'un serveur Apache. Ces intégrations sont gérées via l'interface utilisateur Kibana. Désormais, toutes les communications entre les agents Elastic et Elastic Search se font via le serveur de flotte. Désormais, ce serveur de flotte est un composant utilisé pour gérer de manière centralisée tous les agents Elastic. C'est ainsi que cela fonctionne. Si vous créez une stratégie dans Kibana, chaque fois que cette stratégie est créée, elle est enregistrée dans Elastic Search. L'agent Elastic générera une clé d'authentification ou une clé d'inscription, qu'il utilisera pour s'authentifier auprès du serveur de fruits. Une fois cela fait, il demandera une stratégie au serveur flood. Maintenant, ce serveur inversé obtiendra cette stratégie à partir Elastic Search, puis la fournira à l'agent Elastic. C'est ainsi que cela fonctionne lorsqu'une nouvelle stratégie d' agent créée dans Kibana est enregistrée sur Elasticsearch. Pour s'inscrire à la stratégie, agents Elastic envoient une demande au serveur de flotte l'aide de la clé d'inscription générée pour l'authentification. Fluid Server reçoit ensuite cette demande et obtient la stratégie de l'agent à partir d'Elastic Search. Ensuite, elle déplace cette stratégie vers tous les agents inscrits à cette stratégie. Elastic Agent utilise ensuite les informations de configuration stockées dans cette stratégie pour collecter et envoyer des données à Elastic Search. Prenons maintenant un exemple. Supposons que vous ayez installé Apache sur cet agent et que MySQL soit installé sur cet agent ici à Kibana, vous allez attribuer une stratégie d'Apache. Cet agent s'inscrira à cette stratégie auprès du serveur de flotte solaire flare , puis envoie cette stratégie à cet agent qui lui indiquera de collecter les journaux du serveur Apache. Une fois la stratégie définie, il peut envoyer ces journaux et d'autres données sur Elasticsearch. Maintenant, cet agent qui a MySQL dessus ne sera pas inscrit à la politique de dette. Vous allez attribuer une autre stratégie à cet agent. De cette façon, différents serveurs peuvent envoyer différentes couches de données Elasticsearch Cluster. Ensuite, il existe deux méthodes pour déployer des agents Elastic. Tout d'abord, vous pouvez les gérer par une flotte. Cela permet de gérer les stratégies et les cycles de vie des agents de manière centralisée. Dans Kibana, il existe une autre option d'âge élastique autogéré, qui est un cas d' utilisation avancé dans lequel vous devez gérer manuellement chaque agent. Pour cette conférence, nous utiliserons des agents de gestion de flotte. Voici maintenant les étapes de configuration. abord, vous configurez YAML court Elasticsearch, puis vous installez un serveur de fruits. Après cela, vous installez un agent élastique. Une fois que vous avez installé l' agent sur les serveurs, vous configurez une stratégie d'agent. Enfin, vous confirmez que les données ont été envoyées correctement en examinant les tableaux de bord et autres mesures. Commençons donc. Maintenant sur l'écran, j'ai mon serveur Elastic à nœud unique. Je devrai donc d'abord créer un serveur frit. Je cliquerai donc sur Create Instance, puis je cliquerai sur Nouvelle instance et VM à partir du modèle, choisissez ELK, puis continuez. Je changerai le nom pour que le serveur flip change la région en US West One, puis passera sous le réseau. Je vais m'assurer que je suis dans le VPC Elastic Search et le sous-réseau de surveillance, puis cliquez sur Créer. Maintenant que ces fruits ou sont en cours de création, nous cliquons à nouveau sur Create Instance pour créer notre serveur Web. Je clique donc sur une nouvelle instance de machine virtuelle à partir du modèle, choisis les observateurs et cliquez sur Continuer. Ici, je vais changer la région en USA West One. Vous pouvez garder le nom tel quel, et je vais passer au réseautage. Et le réseau, je vais changer l'interface réseau de surveillance au sous-réseau du serveur Web. Ensuite, je clique sur Créer. Maintenant que les trois machines virtuelles sont prêtes, nous pouvons commencer par l'installation. Je vais maintenant passer à mon code Visual Studio. Maintenant, dans mon code Visual Studio, j'ai mes notes pour installer Elastic Agent sur serveur Flood et sur le serveur Web sur le côté gauche. Et j'ai mis mon terminal dans les trois machines du côté droit. Donc le terminal un est donné EL, terminal deux est un serveur Web et terminal trois est mon serveur de fruits. Commençons donc d'abord, nous devons aller sur le serveur ELK. Je vais donc passer au terminal 1. Et sur le serveur ELK, nous devons ajouter ces deux paramètres dans nos fichiers de configuration YAML frappés par Elasticsearch , plusieurs taper sudo VI slash, ETC, barre oblique Elastic Search Elastic Recherchez le point YAML et appuyez sur Entrée. Maintenant, dans ce fichier, vous verrez que le premier paramètre attendu ou point de sécurité activé est vrai. Je vais passer en mode Insertion. Et ici, juste en dessous du point de sécurité attendu activé, je vais coller le paramètre point de sécurité attendu, clé API point activée comme vrai. Il va donc le copier et le coller ici. Et une fois que j'ai fait cela, je peux enregistrer ce fichier. Alors évadez-vous et j' écrirai dans ce fichier, et maintenant je peux démarrer ma recherche Elastic. Donc, pseudo système CTL, redémarrez Elastic Search. Maintenant, une fois le service redémarré, commençons en tant que service. Donc, pseudo système, CTL, status, Elastic Search, assurez-vous que le service est actif et en cours d'exécution. Passons maintenant à notre serveur de terrain, qui se trouve sur le terminal 3. Je vais passer à un serveur fluide sur cette machine nous devons d' abord télécharger l'agent Elastic. Je vais donc copier la commande curl et coller sur le terminal pour télécharger Elastic Agent. Maintenant, une fois l' application Elastic Agent téléchargée, nous devons extraire le fichier tar, copier cette commande étoile moins Z F, coller sur le terminal et appuyer sur Entrée. Maintenant, nous allons passer à la page Web de Kibana. J'ai donc la page Web de Kibana ici depuis le menu de navigation de gauche. Je vais descendre sous la direction. Je cliquerai sur la flotte, puis j'irai dans Paramètres. Maintenant, je vais cliquer sur Actions et les sorties laisseront le nom par défaut et le type serait Elastic Search car nous voulons envoyer sortie des serveurs fluides à Elastic Search et à l'hôte, Je vais passer de HTTP à HTTPS. Ensuite, je remplacerai la valeur de l'hôte local par l'adresse IP privée de mon instance ELK. Je vais donc le copier à partir d'ici et je le remplacerai. Ensuite, nous devons revenir à notre code Visual Studio, puis passer à Elastic Search. Et sur l'instance Elasticsearch, je dois d' abord faire sudo SU, puis CD EDC, Elastic Search, puis rechercher. Maintenant, si je fais un ls dans ce répertoire, vous verrez qu' il a mon CSRP. Nous allons donc obtenir ce certificat. Alors obtenez un trait de soulignement DB CA point CRT. Maintenant que vous avez obtenu la sortie de la commande cat pour le certificat de l'autorité de certification, nous devons mettre à jour le certificat de l'autorité de certification dans la configuration YAML avancée. De cette façon, nous informons le système que nous utilisons ce certificat d'autorité de certification pour établir la confiance entre notre serveur fluide et le serveur Elasticsearch. Vous pouvez le faire de deux manières. Vous pouvez soit utiliser l'empreinte digitale approuvée de l' autorité soit coller le certificat de l'autorité de certification pour cette démonstration, nous allons coller le certificat de l' autorité de certification. Maintenant, la façon dont vous le faites est d'utiliser un paramètre appelé autorités de certification SSL, puis de coller l'ESC un certificat et de me permettre de le développer. Il s'agit donc d'un exemple de l'écran. Donc, sous les autorités de certification SSL, copiez ce certificat pour votre machine, qui serait différent de ce qu'il affiche sur la mienne. Donc, copions tout ça et je remplacerai celui-ci et je le collerai ici. Vous devrez peut-être maintenant mettre un peu à jour la mise en forme. Maintenant, copions simplement toute cette commande et passons à notre configuration YAML avancée sur ma page Kibana et collons ceci ici comme ceci. Maintenant, une fois cela fait, nous pouvons enregistrer cela, enregistrer et appliquer des paramètres et sept, déployer. Après cela, nous devons aller voir des agents. Maintenant, sur la page de l'agent, il est indiqué que des basculements sont nécessaires avant que nous puissions commencer à inscrire des agents. Nous allons donc le faire maintenant. Maintenant, sous Adafruit, le serveur va laisser la stratégie de l'agent par défaut. Nous avons déjà téléchargé le serveur fluide sur notre flotte de machines virtuelles Server, pour que nous puissions ignorer cela. Sous Choisir un mode de déploiement, nous utiliserons QuickStart pour cette démonstration. Cela permet au serveur fluide générer des certificats auto-signés pour votre système de production, vous devrez choisir la production et fournir votre propre certificat dans votre fluide. configuration du serveur. Maintenant, à l'étape quatre, nous devrons fournir l' URL de notre hôte de serveur fluide. Donc HTTPS, nous devons maintenant accéder aux instances de VM et copier l'adresse IP interne de notre serveur de fruits et la coller ici et soulager le port comme Etudes 0 par défaut pour cette démonstration et cliquer sur Ajouter un hôte. Une fois que vous avez ajouté l'hôte, nous devons cliquer sur Générer un jeton de service. Maintenant, après cela, à l'étape six, il nous donne l'ordre de commencer nos basculements. Il va copier cette commande et revenir à notre code Visual Studio. Et je suis sur les flottes, notre terminal. Mais avant de pouvoir coller cette commande, nous devons apporter quelques modifications. Maintenant, j'ai l'exemple de commande qui va fonctionner. Je vais donc coller la commande que nous avons copiée depuis l'instance Kibana. À partir de cette commande, nous allons prendre l'URL ES du serveur flood et je modifierai la valeur de basculement sur ES pour cela. Pour l'URL, nous devons maintenant fournir l' adresse IP privée de notre serveur de flotte. Je vais donc aller sur les instances de VM, copier cette adresse IP privée du serveur fluide, revenir en arrière, puis nous modifierons la valeur du serveur d' inondation IP privé l'adresse IP réelle du serveur d'inondation. Ensuite, nous devons fournir le jeton de service que nous venons de générer. Il copiera tout cela et modifiera le jeton de service de valeur avec la nouvelle valeur de la stratégie de serveur de flotte, non pour votre système. Cela peut être différent, et après cela, nous devons ajouter deux autres valeurs. Fleet server ES n'est pas sécurisé, cette commande est nécessaire car notre serveur Elasticsearch utilise des certificats auto-signés. Et le dernier problème est également dû au fait que notre serveur inversé notre serveur inversé utilise également des certificats auto-signés. Maintenant, dans votre déploiement de production, puisque vous n'utiliserez pas de certificats auto-signés, vous n'avez pas besoin de ces deux dernières commandes. Au revers, notre terminal, permettez-moi de l'agrandir un peu. Si je fais un ls, vous verrez qu'il existe un répertoire pour Elastic Agent. Je vais céder dans ce répertoire. Maintenant, je vais taper dans sudo dot slash Elastic Agent install et moins F, puis j'utiliserai le caractère d'échappement. Nous allons d'abord fournir l' URL de notre serveur fluide. Je vais donc le copier à partir des notes, coller ici et appuyer sur Entrée. Ensuite, je vais fournir l'URL ES du serveur de flotte. Donc, l'URL de mon serveur Elasticsearch à laquelle se connecter et elle est entrée. Ensuite, je vais fournir le jeton de service, le copier, le coller ici et il est entré. Après cela, nous fournirons la stratégie en vertu de laquelle nous allons inscrire ce serveur fluide, qui est la stratégie par défaut entrée. Ensuite, nous fournirons la commande ES insecure, qui est à nouveau des certificats auto-signés sur Elastic Search. Enfin, nous fournirons la commande non sécurisée, qui est des certificats auto-signés sur le serveur de flotte. Maintenant, je vais appuyer sur Entrée et cela devrait démarrer le déploiement de notre agent Elastic sur mon serveur fluide. Le premier journal indique qu' il génère des certificats auto-signés pour un serveur fluide. Ensuite, il essaie de démarrer le serveur fluide. Vous pouvez alors constater que la vérification SSL et TLS a été désactivée car nous utilisons le mode non sécurisé. Et enfin, vous avez obtenu que l'agent Elastic soit inscrit avec succès. Maintenant, ce que nous pouvons faire c'est que nous pouvons reculer la page Kibana, et vous devriez être en mesure de voir que le serveur Flood était connecté et je cliquerai sur Continuer. Maintenant, si vous êtes un serveur fluide a été connecté avec succès et qu'il est correctement configuré, vous devriez voir l' état comme sain. Et lorsque vous cliquez dessus, vous pourrez voir quelques détails. Et ensuite, nous devons vérifier s'il est capable d' envoyer des journaux à Elastic Search, ce qu'il peut. Maintenant, si vous rencontrez des problèmes lorsque vous déployez ce serveur de flotte, ce que vous pouvez faire est que si je retourne à mon code Visual Studio et que je nettoie tout, vous pouvez taper sudo system CTL, agent élastique de data, regardez les journaux et vous devriez pouvoir voir les journaux ici. À part cela, si vous avez déployé le fluide Server Agent, mais pour une raison quelconque, il ne se connecte pas et vous devez le désinstaller. Si vous le faites en allant dans le bac utilisateur, puis dans l'agent élastique. Et ici, si je fais un moins h, je dois ajouter un pseudo. Vous devriez pouvoir voir les différentes commandes disponibles avec le script Elastic Agents. Il existe une commande Android si vous souhaitez inscrire agents dans cette flotte qui est installée, nous venons d'utiliser pour installer le fluide Server Agent. Vous pouvez redémarrer le démon, exécuter le démon, vous pouvez statuer sur le démon et désinstaller cet agent Elastic. Il peut donc y avoir des scénarios où vous devez désinstaller, réinstaller le démon. C'est ainsi que vous pouvez le faire. Fondamentalement, il suffit d'aller à l'agent élastique de bin utilisateur et taper la désinstallation de sortir de celui-ci maintenant et de sortir de l'écran. Maintenant, étant donné que l'agent classique est installé et sain, ce que nous pouvons faire, c'est que nous pouvons installer l' agent Elastic sur notre serveur Web. Pour ce faire, passons à notre terminal sur le serveur Web. Maintenant, sur le serveur Web, nous devons d'abord télécharger Elastic Agent. Je vais donc copier tout cela de nos notes et coller la commande sur le terminal et appuyer sur Entrée. Maintenant, une fois le fichier téléchargé, nous pouvons extraire ce point star moins l'agent plastique Z F et appuyer sur Entrée. Maintenant, une fois que vous avez fait cela, revenons à notre page Kibana, puis revenons à la flotte. Maintenant, il y a un bouton Ajouter un agent. Si je clique sur Ajouter un agent, la stratégie d'agent par défaut sera laissée. Nous avons déjà téléchargé l'agent Elastic. Ensuite, il nous donne un commandement. Nous allons donc copier ceci et retournons à notre terminal. Je vais coller cette commande, mais je ne l'exécuterai pas. Mais je dois le faire, c'est que je dois ajouter moins, moins non sécurisé pour cette commande parce que nous utilisons des certificats auto-signés. Encore une fois, pour votre déploiement de production, vous n'aurez pas besoin de l'ajouter. Maintenant, si je clique sur Entrée, j'ai oublié d'aller d' abord dans le répertoire Elastic Agent et de faire un ls. Et à partir de là, nous devons exécuter ce script. Je vais appuyer sur la flèche vers le haut jusqu'à ce que j'obtienne la commande et maintenant je vais l' exécuter et taper. Oui, et j'ai installé Elastic Agent avec succès. Je retournerai donc à mon Kibana et fermerai que l'agent a été installé correctement. Je devrais pouvoir le voir sur cette page. Maintenant, vous pouvez voir, je peux voir le serveur Web. Encore une fois, nous allons cliquer sur ce serveur Web. Nous nous assurerons que nous avons également des journaux qui circulent depuis le serveur Web, ce que nous avons. Avant de vous laisser partir, je veux vous montrer encore une chose. Maintenant, Elastic Agent utilise les intégrations. Maintenant que notre serveur Web est un serveur Web Apache, nous pouvons améliorer la surveillance du serveur Apache. Ce que nous allons faire, c'est que nous retournerons à la flotte. Et ce que nous allons faire, c'est d'ajouter une stratégie d'agent. Nous allons donc créer une stratégie d'agent, conserverez cette stratégie de serveur Web de nom de stratégie. Nous allons maintenant ajouter une description. Cette stratégie est utilisée pour collecter des métriques et des journaux Apache. Nous laisserons tout par défaut et je cliquerai sur Créer une stratégie d'agent. Cette stratégie est maintenant créée. Ce que nous devons faire, c'est d'ajouter quelques intégrations à cette politique. Je clique sur le menu de navigation de gauche, et cela va passer aux intégrations. Ainsi, sous les intégrations de gestion, nous pouvons voir ici les différentes intégrations disponibles. Pour l'instant. Nous sommes intéressés par Apache, serveur HTTP Apache, je vais donc cliquer dessus. Cette page vous donne maintenant un aperçu de l' intégration du serveur HTTP Apache. Ce que nous allons faire, c'est de cliquer sur Ajouter un serveur HTTP Apache. Maintenant, à partir de la configuration du discours d' intégration, nous pouvons lui donner un nom, donc nous allons le laisser comme Apache par défaut. Ensuite, nous garderons les journaux de collecte de l'instance Apache activés. Je ne veux pas activer la fonctionnalité expérimentale et nous laisserons également les mesures collectées d' Apache et les capteurs. Ensuite, nous devons spécifier une politique où appliquer cette intégration. Nous allons donc cliquer sur la liste déroulante, puis choisir la stratégie de serveur Web que nous venons de créer. Ensuite, nous allons cliquer sur Enregistrer et continuer. Et maintenant, le message indique que pour terminer cette intégration, ajoutez Elastic Agent à votre hôte pour collecter des données. Et je cliquerai simplement sur Ajouter un agent élastique plus tard. Ce que nous devons maintenant faire, c'est que nous devons retourner dans notre flotte, notre flotte. Nous devons aller sur le serveur Web. Je vais donc cliquer là-dessus. Et ici, ce que je vais faire, c'est de cliquer sur Actions et de cliquer sur Affecté à une nouvelle stratégie. Ensuite, je choisirai la stratégie du serveur Web, puis je cliquerai sur Attribuer une stratégie. Maintenant, avant de le faire, il est écrit la stratégie de l' agent sélectionné, mais elle collecte des données à partir de deux intégrations, le système, qui est par défaut et l'intégration du serveur HTTP Apache que nous venons de configuré. Je vais donc cliquer sur Attribuer une stratégie. Maintenant, une fois que nous avons fait cela, cliquez dessus et il indique les entrées de cette intégration, nos journaux et nos mesures de notre instance Apache. Et l' intégration du système collectera des journaux lors des journaux et des mesures de notre système d'exploitation. Passons maintenant au menu de navigation de gauche, puis passons aux tableaux de bord. Vous verrez maintenant que d' autres tableaux de bord sont à votre disposition. Ce que nous allons faire, c'est que nous allons taper Apache maintenant pour vérifier si nous obtenons les journaux Apache, nous pouvons cliquer sur les journaux d'accès et les journaux d'erreurs. Et dans la liste déroulante de gauche sous nom d'hôte, nous sélectionnerons notre serveur Web. Maintenant, si votre intégration est correctement configurée, vous devriez commencer à voir certaines données comme ici. Je vois tous les scores de réponse. Maintenant. Ensuite, nous allons vérifier un autre tableau de bord. Je vais donc aller sur le tableau de bord et cliquer sur Apache, taper à nouveau Apache. Et cette fois, je cliquerai sur les mesures, vue d'ensemble d' Apache pour voir si vous recevez des données de mesure de notre serveur Apache ou non. Maintenant, dans les requêtes par seconde, vous pouvez voir que certaines données circulent. C'est ainsi que vous pouvez installer un serveur de flotte, puis inscrire vos serveurs Web ou tout autre serveur d'applications dans votre flotte. Vous pouvez ensuite utiliser des intégrations pour collecter des données significatives à partir de vos applications ou de vos serveurs Web. C'est ainsi que nous sommes arrivés à la fin de cette conférence. Merci d'avoir regardé. Je vous verrai dans le prochain. Au revoir.