Transcription
1. Bienvenue: Bienvenue dans mon cours la semaine dernière. Un tel guide en tête-à-tête, un
guide pour débutant sur Elastic Stack. Il s'agit d'un
cours pratique axé sur le déploiement et la gestion
d'Elastic Stack. m'appelle Ricardo et je suis architecte
principal de solutions, avec plus de 15 ans d'
expérience en informatique. Je travaille actuellement dans une
multinationale que j'ai conçue et déployée
Elastic Stack dans un environnement de production. J'ai enseigné plus de
3400 enfants sur Udemy et j'
ai une note moyenne de
4,4 dans tous mes cours. Il s'agit d'un cours pratique, axé sur l'apprentissage
pratique. Dans ce cours, vous allez déployer Elastic Stack, puis ajouter
des données à votre cluster. Deux méthodes différentes telles que les intégrations
Log Stretch et
Kibana. Et vous allez également transformer ces données afin d'en extraire
une certaine signification. Enfin, vous allez
déployer Elastic Agent qui extrait facilement les
données
matricielles et journalisées de vos serveurs
d'applications et stocke et analysera ces
données dans Elasticsearch. Alors, joignez-vous à moi
dans ce voyage pour apprendre Elastic Stack.
2. Introduction à elasticsearch 101: Salut les gars, bienvenue dans mes
partitions débutantes sur Elastic Stack. Je suis ravi que vous m'ayez
donné l'occasion de vous
guider sur la voie de
devenir un professionnel de
la recherche élastique. Ce cours adopte
une approche
pratique de l'apprentissage et
est axé sur apprentissage et
est axé professionnels
DevOps
qui seront responsables du déploiement et
de la gestion des clusters
Elasticsearch. Il prend en charge le personnel responsable de la prise en charge des déploiements
Elastic Stack. Et cela pourrait être avantageux pour
les développeurs de logiciels s'ils ont besoin d'une compréhension de la façon dont les
clusters Elasticsearch sont diploïdes, veuillez noter qu'il s'
agit d'un score débutant, donc j'éviterai de plonger en profondeur dans n'importe lequel des sujets
de ce cours. Nous commencerons par quelques éléments de base, tels que les
différents types de données que vous rencontrerez dans un environnement d'
entreprise. Ensuite, nous
examinerons la différence entre
les bases de données relationnelles et
non relationnelles avant passer à une
compréhension des
API JSON et Rest une fois que vous aurez
les connaissances préalables requises, ce qui est essentiel si vous
souhaitez travailler sur Elastic Search, nous examinerons
Elastic Search et Elastic Stack d'
un point de vue d'ensemble, puis il est temps de
vous salir les mains. abord, nous allons configurer notre
environnement de laboratoire , puis nous
examinerons comment vous pouvez fournir la recherche
élastique de
différentes manières. Et nous allons
suivre cela
en ajoutant des données à notre cluster via des intégrations
Kibana. Ensuite, je vous aiderai à créer votre première visualisation Kibana. Ensuite, nous allons mettre
en place des tableaux de bord. Après cela, je vous
aiderai à organiser vos tableaux de bord en différentes catégories
telles que le marketing, opérations, etc., en
utilisant les espaces Kibana. Ensuite, je vais
vous donner un aperçu de la gestion des utilisateurs
dans Elastic Search. Nous
examinerons également Elastic Search, les utilisateurs
intégrés, les rôles intégrés et la façon dont vous pouvez utiliser les utilisateurs
et les rôles qui créent des contrôles d'accès
basés sur pour votre cluster Elasticsearch. Ensuite, nous examinerons Log Stash, qui est un
composant essentiel d' Elastic Stack si vous
souhaitez transformer vos données. Ensuite, nous allons ingérer des données CSV en utilisant des pipelines obliques de
journal. Dans la section suivante,
je vais vous aider à comprendre les agents beats et différents cas d'utilisation que vous pouvez résoudre en utilisant différents beats. Il indique que vous devez
utiliser le Btu métrique ingérer des données de mesure dans
votre cluster Elasticsearch. Vous devez également utiliser
5 bits pour ingérer données de journal
basées sur des fichiers dans
votre cluster Elasticsearch. Après cela, nous déploierons un cluster
Elasticsearch multimode. Et je vais
vous donner un aperçu des
différents nœuds de l'environnement
Elastic Search. Dans la dernière section, nous examinerons ce qui a changé dans Elasticsearch version huit ,
puis déploierons un
cluster de version huit sur un seul nœud. Enfin, il
installera Elastic Agent, qui est un agent unique
nécessaire pour expédier un nouveau type de journaux de vos
serveurs d'applications à Elastic Search. Commençons donc.
3. Aperçu des données: Hé les gars, si vous
travaillez sur Elastic
Search, nous travaillons principalement sur les données. Il est donc
important de comprendre les différents
types de données disponibles. Parlons tout d'abord des données structurées. Les données structurées sont hautement organisées et
correctement formatées. Il s'agit du type de données pouvant être stockées
dans une feuille de calcul. Base de données relationnelle telle que SQL. Les chiffres de ventes
trimestriels d'une entreprise ou d'un
employé sont un exemple de données
structurées trimestriels d'une entreprise ou d'un
employé sont un exemple ,
telles que l'ID d'employé, nom de l'
employé et le salaire. Ce type de données est plus facile
à stocker et à rechercher, car comme son nom l'indique, il a une structure. Examinons ensuite les données non structurées. Les données non structurées sont
plus difficiles à rechercher. Il s'agit de données qui ne sont ni
organisées ni formatées. Un exemple de ce type de données est celui
des fichiers texte, des fichiers vidéo ou audio, des mentions J'aime et des commentaires sur les réseaux
sociaux. Ces données représentent près de 80 % du
dossier de données dans le monde réel. Et comme son nom l'indique,
il n'est pas structuré. Il est donc plus complexe de stocker ce type de
données et de rechercher. Examinons maintenant les données semi-structurées. Les données semi-structurées sont mélangées entre données structurées et
non structurées. Ce sont des données qui ne peuvent pas être organisées dans une base de données
relationnelle, mais qui ont toujours une
structure lâche. Par exemple, des données qui peuvent
être organisées autour d'un sujet. de messagerie constituent un bon exemple de ce
type de données. Puisque les e-mails peuvent être
organisés à travers des champs tels que l'objet, le
message, le corps, etc. Ensuite, les données numériques sont essentiellement des données exprimées en
chiffres plutôt que en textes, par
exemple, capteurs,
température, âge, etc. Un autre type de données
que vous pourriez
rencontrer est celui des données géospatiales. Les données géospatiales sont
les données relatives à un
objet sur Terre. Il contient des éléments
tels que l'emplacement, qui est la longitude et la latitude, la taille et la forme d'un objet. Avec cela, nous sommes arrivés à
la fin de cette conférence, un aperçu des
différents types de données que vous
verrez sur le terrain
lorsque vous travaillez sur n'importe quel outil de
transformation
ou d'analyse de traitement des données . J'espère que ça vous a plu et je vous
verrai dans le prochain.
4. Différence entre les bases de données relationnelles et non relationnelles: Hé les gars, il existe différents types de bases de données
que vous
rencontrerez dans chacune offre
ses propres avantages uniques. Ceux-ci peuvent être principalement
classés dans Sequel, bases de données
relationnelles et NoSQL ou
bases de données non relationnelles. Tout d'abord, jetons un coup d'œil
à une base de données relationnelle. La base de données relationnelle est un type de
base de données qui stocke
des données dans des tables. Dans une base de données relationnelle, chaque ligne de la table est un enregistrement avec un
identifiant unique appelé clé. Les colonnes de la table
contiennent des attributs des données et chaque enregistrement a généralement
une valeur pour chaque attribut, ce qui facilite l'
établissement de relations
entre les points de données, et donc le nom relationnel système de gestion de bases de données ou SGBDR. Ce type de base de données ne
peut fonctionner que sur des données
structurées et des langages de programmation
structurés tels que SQL Il
peut être
utilisé efficacement pour insérer,
rechercher, mettre à jour ou
supprimer des enregistrements de base de données. Certains exemples courants
de SGBDR sont Oracle, MySQL, Microsoft SQL
Server et Postgres SQL. Voici maintenant un exemple de ce à quoi ressemble une
base de données relationnelle. Supposons que vous ayez une table
dont la source utilise des détails. Et disons que cette
table s'appelle utilisateurs. La table de cet utilisateur contient désormais
des détails tels que l'ID utilisateur, prénom de l'utilisateur, nom de famille de l'
utilisateur et son âge. Voyons maintenant qu'il existe
un autre tableau qui stocke les diplômes éducatifs
des utilisateurs. Il peut également être lié à la table des utilisateurs à l'aide de
la colonne ID utilisateur. Comme vous pouvez le constater,
ce type de données est structuré et
stocké dans des tables, et il peut être lié les
unes aux autres à l'aide de colonnes, la colonne ID utilisateur
dans cet exemple. Parlons maintenant des bases de données
non relationnelles. La base de données non relationnelle est une base de données qui fonctionne sur des données semi-structurées
ou non structurées. Elle est également appelée base de données
NoSQL et possède un schéma dynamique pour le stockage de données
non structurées. Ces données peuvent être
stockées de plusieurs façons, ce qui signifie qu'elles peuvent être
orientées documents, orientées colonnes, basées sur des graphiques
ou un magasin de valeur clé. Cette flexibilité signifie
que la base de données peut être créée sans avoir de structure
définie au préalable. Maintenant, si vous comparez cela
avec des bases de données relationnelles, vous devez toujours
prédéfinir la structure et adhérer à cette structure pendant toute la durée
de vie de la base de données. bases de données Nosql stockent des données dans documents constitués
de paires clé-valeur. La syntaxe varie d'une
base de données à l'autre, et vous pouvez ajouter des
champs au fur et à mesure. La plupart des bases de données égales fournissent un modèle de données
flexible avec
la possibilité de
stocker et de combiner facilement les
données de n'importe quelle structure sans avoir à
modifier le schéma. Par conséquent, il convient aux Big Data et aux applications Web en temps réel. Elastic Search est un type de base de données
NoSQL qui stocke des données sous forme de document JSON joint à un lien provenant du blog
Elastic Search. Si vous souhaitez en savoir
plus à ce sujet, regardons
maintenant un
exemple de base de données NoSQL. Ici, à l'écran, j'ai une base de données NoSQL
composée de deux documents. Comme vous pouvez le constater, la structure
des deux documents diffère. Par exemple, le document numéro deux comporte une
paire clé-valeur pour l'éducation, qui n'est pas présente dans
le document numéro un. De plus, si vous regardez les passe-temps, il y a un passe-temps supplémentaire de
natation pour notre utilisateur. Cette flexibilité permet désormais utiliser des bases de données
NoSQL
pour les applications Big Data. Il existe maintenant une autre différence entre les bases de données NoSQL et SQL, c'est-à-dire la façon dont elles évoluent. bases de données relationnelles
évoluent verticalement et bases de données
NoSQL ou non relationnelles évoluent horizontalement. Cela signifie que lorsque vous devez augmenter la capacité
de votre base de données, la seule façon de le faire dans un modèle de base de données relationnelle
est d'avoir une machine plus grande. Maintenant, cela signifie que les
temps d'arrêt sont nécessaires pour augmenter
la capacité et la tâche de
maintenance
afin d'éviter d'avoir un
temps d' arrêt ultérieurement, c'est de
préprovisionner la capacité. Cependant, le
revers est que
toute cette capacité serait essentiellement gaspillée
jusqu'à ce qu'elle soit nécessaire. bases de données non relationnelles ou
NoSQL résolvent ce problème en effectuant une mise à l'échelle
horizontale. Cela signifie que
chaque fois que vous avez besoin de capacité, vous pouvez ajouter davantage de capacités en ajoutant simplement plus de
machines à votre cluster. De cette façon, vous n'
avez pas besoin de pré-provisionner capacités et vous
n'avez pas besoin de temps d'arrêt non plus. Avec cela, nous sommes arrivés à
la fin de cette conférence. Merci d'avoir regardé, et je vous
verrai dans le prochain. Au revoir.
5. Aperçu de JSON: Hé les gars, Elasticsearch stocke les
données sous forme de documents JSON. Il serait donc judicieux d'
avoir un aperçu de JSON. notation d'
objet Json ou JavaScript est un format d'
échange de données basé sur le texte. Et le mot clé ici
est l'échange de données. Puisque JSON est principalement
utilisé pour partager des données, JSON repose sur deux structures. abord, un objet, qui est une collection non ordonnée de valeur de nom ou une paire clé-valeur. Deuxièmement, une
liste ordonnée de valeurs, également appelée tableau. Voyons maintenant
un exemple de données JSON. Nous avons ici un objet JSON. Comme je l'ai déjà dit, un objet est un ensemble non ordonné de paires
valeur-clé-valeur. Il commence par une accolade
gauche bouclée et se termine par l'accolade
droite, chaque nom ou clé, et sa valeur est séparée par paires deux-points et nom-valeur. Par exemple, le nom John et 29
ans est séparé par une virgule. Notre exemple contient également
un tableau qui est constitué tableaux de
contacts commençant par un crochet carré gauche et se terminant par un crochet carré droit. Désormais, les objets JSON peuvent comporter sept
types de valeurs différents. Une chaîne est une séquence de 0 caractères ou plus
encapsulés entre guillemets doubles. Par exemple, Mon nom est John, voici une chaîne, un nombre, par exemple, 1234 ou une clé JSON peut également avoir un autre
objet JSON comme valeur. Il peut également s'agir d'un tableau, et il peut également être booléen, ce qui est vrai ou faux. Enfin,
la valeur adjacente peut également être nulle. Si vous souhaitez en
savoir plus sur JSON, j'ai inclus quelques liens
avec la description de cette conférence afin que vous
puissiez mieux comprendre. Étant donné qu'avec Elastic Search, il
travaillera principalement avec
des documents JSON pour accompagner la
fin de cette conférence. Merci d'avoir
regardé. Je vous verrai dans le prochain. Au revoir.
6. Aperçu de l'API Rest: Hé les gars, dans cette conférence, Jetons un coup d'
œil aux API RESTful, qui est une méthode populaire pour communiquer entre les applications
informatiques. Api est un acronyme pour Application Programming
Interface Editor n'est qu'un ensemble de définitions
et de protocoles pour création et
l'intégration de logiciels d'application. Par exemple, vous pouvez utiliser une API dans
laquelle un utilisateur peut fournir
un ID d'étudiant et votre API répondra avec raisons d'examen de
cet étudiant, l'avantage de l'utilisation d'API est que votre application
le logiciel n'
a pas besoin de savoir comment le
logiciel de l'application cliente est implémenté. Rest est un acronyme de transfert d'état
représentatif. Cela signifie
qu'il transfère une représentation de l'
état de la ressource. Et cette représentation n'
est pas un élément de données dont vous avez
besoin auprès de votre application. Rest fonctionne sur le modèle
client-serveur. Cela signifie que la ressource solaire
détient ces données. Un client demande cet élément
de données à l'aide de l'opération
grossir, créer, lire, mettre à jour
ou supprimer. Et pour faire cette demande, il
utilise des méthodes HTTP uniques. Une fois que cette demande a
été effectuée par
le client, le serveur répond avec la
donnée qu'il
détient sur une représentation de l' élément de données
dont dispose le serveur. Examinons maintenant
certaines des méthodes STDP. Post vous permet de créer une nouvelle ressource sur
le port du serveur, vous
permet de mettre à jour une
ressource existante sur le serveur, get vous permet de récupérer une ressource existante et de supprimer, vous
permet de supprimer
une ressource existante. Voici quelques-uns des
exemples des méthodes que vous pouvez implémenter à
l'aide d'API Rest. Une autre chose à noter est que les demandes d'
API Rest sont sans état. Cela signifie que toutes les demandes des
clients sont traitées comme de nouvelles demandes et aucun historique de session n'est
stocké sur le serveur. Maintenant, avant de passer à autre chose, regardons un
exemple ici à l'écran. J'ai un exemple d'appel
d'API
utilisé pour vérifier l'état d'
un cluster Elasticsearch. Nous avons d'abord la méthode
qui pourrait être GET, PUT, post ou delete. Dans notre cas, nous
utilisons GET et ceci teste le serveur que nous voulons
récupérer certaines informations. Après cela, nous avons
spécifié le point de terminaison sur le serveur que nous voulons
envoyer une demande d'ajout. C'est http localhost
sur le port 9000. Cela est important car nous pouvons avoir
plusieurs serveurs et notre environnement et chaque serveur peut exécuter
plusieurs services. Par exemple, le même serveur peut également exécuter un
serveur Web sur le port 80, mais nous voulons nous connecter à
un service
exécuté sur le port 9200 sur un hôte local. Une fois que nous avons spécifié le point de terminaison, nous devons spécifier la ressource sur ce
point de terminaison à laquelle nous voulons nous connecter dans notre exemple que l'intégrité du cluster de
ressources. Maintenant, chaque point de terminaison
peut exécuter plusieurs ressources dans notre cas parce que nous voulions obtenir
la santé du cluster. Nous utilisons des points de terminaison
d'
intégrité du cluster pour vous connecter et
obtenir l'état. Enfin, nous pouvons
spécifier un paramètre. Par exemple, dans cet exemple, nous voulons que le serveur réponde
avec les informations dans un
format lisible par l'homme ou qu'il soit prêt pour nous une fois cette demande
soumise, le serveur répond ensuite
par un réponse. Dans cet exemple, l'
été a répondu avec l'état de santé du
cluster au format JSON. Vous pouvez également obtenir cette réponse
dans plusieurs autres formats, par
exemple HTML, XML ou texte brut, etc. Plusieurs
outils sont disponibles pour vous
salir les mains lors des appels d'API. Vous pouvez utiliser des outils spécialisés tels que les postiers, les swagger, etc. Ou vous pouvez utiliser la commande plane ou curl depuis votre terminal
Linux ou Mac. Enfin, vous pouvez
également créer une API appelée par programmation à partir de votre code en fonction d'une logique. Maintenant, avant de passer à autre chose,
faisons un peu de pratique. J'ai la
fenêtre du terminal de mon macOS. Et à partir de là, nous allons essayer d'
invoquer une API publique pour des blagues. D'abord, je dois taper bouclé. Après cela, j'avais
besoin des points de terminaison. Donc HTTPS, nous faisons l'API de blague
point, la profondeur de point et ensuite je dois fournir la ressource
sur le point de terminaison. Donc je vais taper une barre oblique, blague barre oblique et appuyer sur Entrée. Comme vous pouvez le constater, le
serveur de blagues a répondu par une blague. Vous pouvez désormais utiliser
cette API pour créer une section blague sur votre
site Web si vous le souhaitez. Ou vous pouvez simplement lire ces blagues ou à votre
entreprise à vous de décider. Avant de passer à autre chose, je voulais vous montrer comment faire exactement
la même chose à l'aide
d'un outil appelé Postman. Maintenant, j'ai l'entretien de cet outil pour créer
une demande d'API, je vais cliquer sur plus. Cela ouvrira
le formulaire API ici, je peux choisir la
méthode dont j'ai besoin. Dans ce cas, j'ai besoin d'obtenir, puis je dois spécifier
les points de terminaison. Donc HTTPS, nous faisons de la
blague API dot dev. Et puis je dois taper
la ressource qui
est une blague slash. Et pour exécuter
cela, je n'ai
qu'à cliquer sur envoyer. Et vous pouvez voir que j'
ai de nouveau reçu une réponse
du serveur. Il s'agit maintenant d'un exemple très
basique, mais comme il ne s'agit pas
d'un cours d'API
STI, je vais
vous laisser le soin de vous
renseigner sur ce sujet
si vous ne le connaissez pas déjà. J'ai ajouté quelques ressources dans la description
de cette conférence, afin que vous puissiez
l'utiliser comme point de départ de
vos études ultérieures. Maintenant, avant de passer
à la façon de couvrir une dernière chose, ce code d'état. Maintenant, si vous voyez ici, vous verrez le statut 200, d'accord, et si vous survolez ce dernier, vous obtiendrez une
explication des scores de statut. Désormais, chaque fois que vous faites
une demande au serveur, il renvoie un code
au client, ce qui vous indique l'
état de la demande. Maintenant, à l'écran, j'ai différents types de réponses que vous pouvez attendre du serveur. Une réponse qui
commence par 22 chiffres après cela signifie généralement
que la demande a
été couronnée de succès. Par exemple, comme nous l'avons
vu chez les facteurs, nous avons obtenu 200 OK, qui signifie que tout va bien. Et il répond
par trois ou quatre, ce qui
signifie que le client peut utiliser la version mise en cache de
la ressource demandée. N'importe quoi. Pour XXX, c'est-à-dire quatre et deux chiffres
après cela, ou cinq,
XX signifiant cinq, puis deux chiffres après cela signifie
qu'une erreur pour XX
signifie un autre côté client, ce qui signifie qu'il y a quelque chose qui
ne va pas sur le client. Phi de x. X signifie qu'il s'agit d'une erreur
côté serveur, ce qui signifie qu'il y a des
problèmes avec le serveur. Il s'agissait donc d'une
introduction rapide aux appels d'API Rest. Il y a un peu plus à
cela et je veux que vous soyez 100% confiants car vous l'utiliserez pour gestion et
l'administration d'Elastic Search. Veuillez parcourir
les liens que j'ai joints avec la
description de cette vidéo. C'est ainsi que nous sommes arrivés à
la fin de cette conférence. Je vous verrai dans
le prochain. Au revoir.
7. Introduction à la recherche élastique: Hé les gars, Elastic Search est un moteur de recherche
et d'analyse distribué, qui est au cœur
d'Elastic Stack ou du moteur de recherche distribué, est un moteur où la
tâche d'indexation et de traitement des requêtes
est distribué entre plusieurs ordinateurs au lieu d'un seul superordinateur qui
gère tout. Il est construit sur Apache Lucene
et est développé en Java. Il vous permet de stocker, de rechercher et d'analyser d'énormes volumes de données rapidement et presque en
temps réel et de
donner des réponses en millisecondes requêtes qui
prennent normalement dix secondes ou plus
renvoie les résultats en moins dix millisecondes
dans Elastic Search utilisant le même matériel, Elastic Search peut gérer
tous les types de données, par
exemple, un
demi-cercle structuré, etc. des
cas d'utilisation pour Elastic Search. Par exemple, vous pouvez
ajouter une zone de recherche à une application ou à un site Web pour effectuer une recherche rapide dans
votre catalogue. Vous pouvez également stocker
et analyser les journaux, les mesures et les données d'événements de sécurité. Vous pouvez également utiliser l'apprentissage
automatique pour modéliser
automatiquement le comportement de vos données en temps réel. Elastic Search
fournit une API Rest pour gérer votre cluster, indexer et rechercher des capacités de recherche informatique dans vos données capacités de recherche informatique Elasticsearch prend en charge
trois types de requêtes. requêtes structurées vous
permettent de rechercher des données
structurées et sont
exactement comme les requêtes SQL pour les requêtes
textuelles
vous permettent de rechercher champs de texte d'
analyse
tels que le corps d'un e-mail vous allez faire.
des éléments tels que la recherche d'un mot particulier dans un
paragraphe des requêtes complexes, la
combinaison de requêtes structurées
et de requêtes en texte intégral. Passons maintenant aux documents
et aux index dans Elastic Search, la plus petite unité de
données est appelée champ. Chaque champ possède un type de données
défini et contient un
élément de données spécifique. Par exemple, le nom John, non, les
documents constituent l'unité
de stockage de base dans Elastic Search. Ou le document est constitué de
plusieurs champs dans le monde de base de données
relationnelle ou le document sera équivalent
à une ligne d'une table. Les données d'un document sont stockées sous forme champs qui sont des paires
nom-valeur, et il y a des
aliments réservés dans notre document. Maintenant, à l'écran,
j'ai un exemple de données
stockées dans un document. Dans cet exemple, ID est l'identificateur
unique du document. Type est le type d'index. Ce document fait
partie d'un index, c'est le nom de cet index. Par exemple, l'
analyse de documents représente un article d'encyclopédie ou des
entrées de journal provenant d'un serveur Web. Dans cet exemple, nous faisons référence à quelque chose
appelé index. Jetons donc un
coup d'œil à ce que c'est. Un index est un ensemble de documents
logiquement liés qui présentent des
caractéristiques similaires. Par exemple, vous pouvez
avoir un index pour les utilisateurs, un index
pour les produits et un autre pour
les commandes, etc. Il s'agit de l'entité de plus haut niveau laquelle vous pouvez interroger. Une recherche élastique est similaire
à celle d'une base de données
relationnelle. Dans Elastic Search, c'est en fait ce qu'on appelle un index inversé. Et l'index inversé est un mécanisme par lequel tous les moteurs
de recherche fonctionnent. Fondamentalement, cet index
consiste en une liste de mots uniques étranges qui
apparaissent dans chaque document. Et pour chaque mot, il s'agit d'une liste de tous les documents dans lesquels
ce mot apparaît. Maintenant, jetons un coup d'œil
aux phrases suivantes que chaque code conteneur de la série
télévisée Game of Thrones, hiver arrive dans
notre système, et le choix vous appartient. Nous allons maintenant créer notre index
en ordre. Nous allons donc d'abord écrire les termes dans les trois documents
dans une colonne, puis nous
écrirons la fréquence telle qu'elle apparaît dans
les trois centres, dans la deuxième colonne. Ensuite, dans la troisième colonne
, écrivez le document dans lequel ce terme apparaît
sur le point de prendre un exemple, l'
hiver n'apparaît qu'une seule fois dans les trois phrases et
n'est pas une police de document, alors qu'il s'agit de la seconde
le terme dans le document 1 vient
en fait trois fois et
apparaît dans les trois documents. On en a donc 123 ici. De même, cela apparaît deux fois dans le document deux et dans l'arborescence de
documents comme celui-ci, nous pouvons construire
notre index inversé, une combinaison de termes et une fréquence est
appelée dictionnaire. Si nous revenons en arrière, et que la fréquence est appelée
dictionnaire et que le nombre de documents ou de termes particuliers apparaît s'appelle des publications. Donc ce sera un
dictionnaire et ce sera des publications en utilisant cette façon. Si vous voulez faire une
recherche rapide pour n'importe quel terme, disons que Fury Elasticsearch regardera son index
inversé et trouvera cette fureur une PS1 et apparaît sur le
document pour donc, un index term est la plus petite unité de
recherche dans Elastic Search, c'est l'
astuce
qu'Elasticsearch utilise pour effectuer des recherches rapides. J'ai également inclus un lien
vers un blog Elastic Search qui peut vous
aider à mieux comprendre fonctionnement de la recherche
dans Elastic Search. C'est ainsi que nous sommes arrivés à
la fin de cette conférence. Je vous verrai dans le prochain. Au revoir.
8. Pile élastique - une vue à l'oeil des oiseaux: Avant de commencer le déploiement, j'aimerais vous donner un
bref aperçu de chacun de ces produits Elastic Search que nous déploierons dans cet atelier, Elasticsearch est une liste
open source pour un distribué un tel moteur d'
analyse dépendant Apache Lucene Log Stash est un pipeline de
traitement de données open source
côté serveur qui ingère des données provenant de plusieurs sources, les transforme, puis les
envoie. à Elasticsearch. Kibana est
un tableau de bord de
visualisation de données open source pour Elasticsearch. En termes simples,
supposons que vous disposez des données du journal des
applications provenant de serveurs
d'applications. Désormais, si vous n'avez pas besoin traiter ces données,
vous pouvez les envoyer directement à Elastic Search
pour les restaurer. Toutefois, si vous devez effectuer traitement personnalisé, par
exemple, vous devrez peut-être ajouter
un identifiant client qui est un événement
enregistré afin de
pouvoir lier un journal particulier, un événement de
journalisation à un client
particulier. Vous devrez d'abord envoyer
ces données à Log Stash, Buddha traitement
ou transformation, puis les envoyer à Elastic
Search pour être stockées. Une fois les données stockées et
indexées dans Elasticsearch, vous pouvez utiliser Kibana qui crée des visualisations
en plus de leurs données. Parlons
maintenant du côté bead, essentiellement comme des agents très
spécialement conçus qui ont acquis des données puis les alimentent à
Elastic Search beats ou battus sur un framework de bits
éclairé. Et cela facilite la création bits
personnalisés pour
n'importe quel type de données Si vous souhaitez envoyer
à Elasticsearch, Beats avait des récifs standard disponibles,
que j'ai répertoriés à l'écran. Si l'un de ces beats
ne fait pas le travail, vous pouvez utiliser le framework lipidique pour créer votre vitesse personnalisée. Parlons donc
de certains des battements standards. abord, il y a
quelque chose qui se battrait, nous trouverions que beat est léger moins cher pour transférer et
centraliser les données de journal. Au début, en tant qu'agent sur l'été cible,
combattez de grands moniteurs. Les fichiers journaux sont
des emplacements que vous avez spécifiés, que vous collectez, consignez les événements et les
transfère à Elasticsearch sont des recherches de journaux pour
indexation ou deadbeat. Est-ce probablement
moins cher que vous puissiez installer sur vos serveurs pour
auditer les activités des utilisateurs et des processus
sur votre système ? Par exemple, vous
pouvez utiliser l'audit V8, la version gauche et centralisée
ou les événements à partir de Linux, mais une offre de mesure différente
est légèrement moins chère que
vous pouvez l'installer sur vos serveurs pour
collecter périodiquement des mesures. à partir du système d'exploitation et des services exécutés
sur la métrique Silver, Big X, les mesures et
statistiques qu'elle collecte et déplace la sortie vers la recherche
Elastic pour Log Stash. Heartbeat est un démon léger que vous installez sur
un serveur distant. Vérifiez périodiquement l'état de vos services et
déterminez s'ils sont disponibles. La différence entre les
liquides et les battements cardiaques est que cette mesure
vous indique uniquement si vos serveurs
sont en hausse ou en panne. Attendu que Heartbeat, savoir si vos
services sont disponibles. Par exemple, il est dit que vous
avez installé Apache sur un liquide Southern make vous
indiquera si le
serveur est en marche ou en panne. Heartbeat
vous indiquera si votre site Web est terminé. Packet Beat est un analyseur de paquets
en temps réel que vous pouvez utiliser
avec Elastic Search. Fournissez un
système
de surveillance des applications et d'analyse
des
performances qui pourrait battre et
offre une visibilité sur les communications entre les
serveurs de votre réseau. En général, Beat est un
expéditeur léger pour transférer et centraliser les données
de journal à partir du système lu
par les journalistes. Il s'agit également d'installer un
agent sur vos serveurs et il surveille les
emplacements généraux que vous spécifiez, collectez les événements de journal,
puis transférez ces événements à
Elastic Search sur Log Stash, ce ne
sont pas des betteraves. jetons. Les journaux des événements Windows sont enregistrés dans
Elastic Search ou Log Stash. Il est installé en
tant que fonction de service Windows Beat est un élastique que vous déployez en tant fonction dans votre
environnement sans serveur pour collecter des données à
partir des services Cloud et l'
expédier. Avec cela, nous sommes arrivés à
la fin de cette conférence. Merci d'avoir regardé. Je
vous verrai dans le prochain. Au revoir.
9. 11: Hé les gars, Dans cette vidéo, nous allons installer et
configurer Elasticsearch et Kibana sur un système Linux basé sur un seul nœud
DBN. Les étapes de cette
conférence sont d'abord, nous allons installer la clé de signature publique Elastic
Search. Ensuite, nous installerons le package HTTPS
de transport APT. Après cela, nous sauvegarderons définitions du
référentiel
Elastic Search sur notre système Linux. Ensuite, nous effectuerons une mise à jour
du système, puis installerons Elasticsearch
et Kibana. Une fois les trois applications
installées, nous allons configurer
Elasticsearch et Kibana. Je vais consacrer une
conférence distincte à Log Stash. Enfin, nous allons tester la
connectivité à nos services. Commençons donc. Ici, à l'écran, je suis dans mon compte GCP
et sur la page Instances VM, nous utiliserons cette page pour créer notre système Linux à
nœud unique. Nous allons cliquer sur Create Instance. Ensuite, je cliquerai sur une nouvelle instance de
VM à partir du modèle, puis je choisirai le
modèle ELK et je cliquerai sur Continuer. Maintenant, à partir de cet écran, je peux conserver le nom ELK One, mais je vais changer la
région en US West One. Et puis je laisserai tout reste par défaut et je
vais au réseautage. Et dans le cadre du réseautage, je vais m' assurer qu'il a la
bonne étiquette, Kibana. Et je m'
assurerai également qu'il est sous le VPC
Elasticsearch et le sous-réseau de
surveillance. Une fois ces éléments validés, je cliquerai sur Créer pour
créer mon instance Linux. Maintenant, une fois cette machine en marche, je vais accéder à mon code Visual
Studio ici. Sur le côté gauche, j'ai les remarques pour installer ELK Stack sur une machine Linux. Et sur le côté droit, j'ai mon terminal ici. Je vais d'abord accéder à la page
Instances de VM et à partir de là, je copierai l'
adresse IP externe de mon instance Linux. Et puis à l'intérieur du terminal de code
VS, je taperai SSH, élaborer, et je collerai l'adresse IP de mon
instance Linux et je cliquerai sur Entrée. Ici, je vais taper
oui, comme vous pouvez le voir, j'ai pu me
connecter avec succès à mon instance Linux. Maintenant, je vais d'abord taper en clair, et maintenant nous pouvons commencer à
installer nos applications. Tout d'abord, je vais faire une mise à jour
sudo apt-get. Alors sudo APT se
met à jour et appuie sur Entrée. Et maintenant, une fois le
système mis à jour, je vais d'abord effacer l'écran. Ensuite, je dois installer W gate s'il n'est pas déjà
installé sur le système. Je vais donc le faire maintenant. Maintenant, une fois ces conditions préalables
terminées, je peux installer la clé de
signature publique pour Elastic Search Je vais
donc copier tout cela et coller sur le
terminal et appuyer sur Entrée. Une fois que j'ai reçu le message correct, je peux installer le package HTTPS de
transport APT. Donc je vais copier cette commande sudo apt-get install
épithélial transport, STDEV.S et le
oui et appuyez sur Entrée. Une fois cela fait, j'
effacerai à nouveau mon écran. Et maintenant, nous devons enregistrer
les définitions de répertoires. Je vais donc copier tout
cela à partir de mes notes et le coller sur le terminal,
et je cliquerai sur Entrée. Une fois les
définitions de répertoires enregistrées, nous pouvons maintenant installer Kibana session Elastic
Search Log. Donc, la commande est
sudo apt-get
update, mettez à jour le système en premier. Ensuite, nous installerons
Elastic Search, Log Stash et Kibana. Je vais donc copier tout cela et
je le collerai ici, et je cliquerai sur Entrée. Une fois les trois
applications installées, il est maintenant temps de configurer
nos applications. Je vais d'abord m'en sortir. Ensuite, je ferai sudo
SU et ensuite je vais céder dans le premier ATC Elastic Search pour configurer mon service
Elasticsearch. Maintenant, dans le répertoire de
configuration d'Elastic Search, si je fais un LS, il y a un fichier appelé
Elastic Search dot YAML, qui est le
fichier de configuration principal appelé Elastic Search. Donc, tapez pivot dans sudo, le point YAML Elastic Search
pour configurer ce fichier. Dans ce fichier, la
première chose à
modifier est le nom du point en
cluster. Je vais donc d'abord entrer dans Insertion, puis décommenter le nom du point du cluster. Ce paramètre permet de définir un nom descriptif
pour votre cluster. Je vais donc appeler le tableau de démonstration de mon
cluster ELK. Maintenant, le prochain paramètre que je veux
changer est le nom du point de nœud. Ce paramètre permet de configurer un nom descriptif pour
ce nœud sur le cluster. Je vais donc
appeler ça le noeud 1. Maintenant, une fois que j'ai fait cela, je peux laisser les valeurs par défaut
pour les données de points chemin
et les journaux de points de chemin et je
devrai entrer en réseau. Sous paramètre réseau, je souhaite modifier l'hôte de point
réseau. Par défaut, Elasticsearch
n'est accessible que sur l'hôte local. Nous devons changer cela, donc nous allons modifier
cette valeur, passe à 0. Maintenant, nous allons décommenter le port
http dot, mais nous le laisserons tel quel
dans un environnement de production. Si vous souhaitez modifier le port par défaut sur lequel
Elastic Searches est accessible, vous allez
modifier cette valeur. Maintenant, nous allons laisser la découverte telle quelle,
car c'est un cluster à
nœud unique qui va descendre et
vers le bas, ce que nous allons faire, c'est que nous allons mettre dans un paramètre appelé type de point de
découverte. Je vais donc taper le type de point de
découverte. Et la valeur de
ce paramètre est nœud
unique car il s'
agit d'un serveur à nœud unique. Il va vérifier
cela dans mes notes. Type de point découvert
sur un seul nœud. Nous pouvons donc maintenant enregistrer ce fichier. Je vais faire WQ et appuyer sur Entrée. Et pour démarrer
Elasticsearch Service, je vais taper le système CTL, démarrer Elastic Search
et appuyer sur Entrée. Une fois le service
démarré, nous pouvons d'abord vérifier l'état
du service par système de
dactylographie CTL. Un état Elastic Search et le statut indique l'exécution
active. Je vais donc contrôler C, puis
moins tester la connectivité à notre cluster ALK, type de
sol en fille
moins x obtenir comme PIB,
puis localhost puis le port que la recherche élastique
fonctionne sur 90 à 100. Et puis pour vérifier l'
état de la grappe, je vais devoir taper du plâtre de
soulignement puis maintenu. Et je veux que la sortie soit
dans un format lisible par l'homme. Je vais donc taper
jolie et appuyer sur Entrée. Maintenant, le statut est revenu en vert et il y a un seul
nœud sur ce cluster, ce que nous voulions. Le service Elastic est donc
installé et configuré. Je vais me débarrasser de tout et il est temps de
configurer Kibana. J'irai donc dans CD, ATC, puis Kibana et je frapperai Entrée. Maintenant, si je fais un ls, vous verrez qu'il y a un fichier Kibana dot YAML similaire
que nous devons configurer. Je vais donc taper sudo VI
Kibana point YAML et appuyer sur Entrée. Maintenant, à l'intérieur du fichier YAML
Kubernetes va d'abord dans Insertion, puis accédera au port de point d'été, puis non commenté, mais
laissez le paramètre tel quel. C'est le port que
Kibana et ainsi de suite. Dans un paramètre de production, possible que
vous
souhaitiez le remplacer de 5601. Ensuite, nous allons passer de l'hôte à
plusieurs points, le
décommenter et
le changer de l'hôte
local à
0 ou 0 vers 0. Cela permettra à Kibana d'être accessible par le monde extérieur. J'ai changé ça. Maintenant, prochain paramètre que
nous voulons modifier une URL de base publique de points d'été. Je ne commenterai donc pas cela. Et ensuite, ce que je dois
faire, c'est de taper http, puis l'adresse
IP privée de mon instance
Kibana. Passons donc à notre page Instances
VM, et à partir de là, je copierai
l'adresse IP interne. Maintenant, je vais taper http, puis je vais coller l'adresse IP
interne de mon instance Kibana, puis je
spécifierai le port 5601. Ensuite, je dois spécifier un nom descriptif pour
mon instance Kibana. Je vais donc décommenter le nom du point du
serveur, et ici je vais taper
le tableau de bord de démo Kibana. Ensuite, je dois spécifier l'URL
où l' hôte Elastic Search est accessible. Donc, sous Elasticsearch
enseigné aux hôtes, je laisserai la valeur par défaut
car elle s' exécute sur le même serveur où Elastic Searches s'exécute. Nous pouvons donc le laisser tel quel, nous pouvons enregistrer ce fichier et maintenant
il est temps de démarrer Kibana. Donc, système CTL, démarrez
Kibana et je vais appuyer sur Entrée. On dirait que j'ai
fait un système de fautes de frappe CTL démarre Kibana
et je frapperai Entrée. Maintenant, une fois que le
service reviendra, je ferai un statut
CTL système Kibana et l'
activité des services en cours d'exécution. Revenons donc à
nos instances de machines virtuelles. À partir de là, je vais copier l'adresse IP externe
de mon instance. Je vais ouvrir un nouvel onglet de
navigateur, le coller ici, puis spécifier le port sur
lequel Kibana est en cours d'exécution. Donc 5601 et moi allons appuyer sur Entrée si Kibana est installé et
configuré avec succès, vous commencerez à voir
charger Elastic en premier. Maintenant, une fois que Kibana est correctement
chargé, vous verrez la bienvenue dans Elastic. Et si vous cliquez sur
Explore seul, vous accéderez à l'interface utilisateur de Kibana. Maintenant, il y a une dernière
chose que je voulais vous
montrer avant de vous laisser partir, si vous voulez que votre
application
Elasticsearch et Kibana démarre automatiquement lorsque vous redémarrez votre système, ce que vous devrez
faire, c'est que vous devrez taper dans le système CTL activer recherche
élastique et le système CTL activer Kibana, un
autel déplace le point. Et avec cela, nous sommes arrivés
à la fin de cette conférence. Merci d'avoir regardé. Je vous verrai dans le prochain. Au revoir.
10. 12: Hé les gars, Dans cette conférence, nous
allons installer et configurer session de journal
Elasticsearch Kibana sur un système Linux basé sur RPM. Pour ce faire, nous devrons d'abord installer la clé
Elastic Search GPG, puis configurer nos référentiels Kibana de
session Elastic Search Logs sur le système RPM. Après cela, nous
installerons nos applications. Ensuite, nous allons configurer
Elasticsearch et Kibana. Et une fois la configuration terminée
,
nous pouvons démarrer le service Elasticsearch et Kibana et
tester la connectivité. Commençons donc. Maintenant à l'écran, je suis dans mon compte GCP. Et sous les instances VMI, vous pouvez déjà voir le système Linux
basé sur Debian sur lequel nous avons
installé notre système de recherche
Elastic à nœud unique plus tôt dans les conférences
précédentes. Ici, je cliquerai
sur Create Instance, puis je cliquerai sur une nouvelle instance de
VM à partir du modèle, puis je choisirai ELK. Ensuite, je vais appuyer sur Continue. Nous laisserons le nom ELK T2, mais nous changerons la
région en US West One. Ensuite, je vais descendre
et sous le disque de démarrage, je cliquerai sur le changement. Ici. Sous système d'exploitation, nous
allons cliquer sur le menu déroulant, et ici nous choisirons
Red Hat Enterprise Linux. Nous pouvons maintenant modifier
la version de Linux souhaitée
pour cette machine. Je le laisse par défaut
et je cliquerai sur Sélectionner. Une fois que j'aurai fait cela, je vais passer au réseautage. Et sous la mise en réseau, je vais m'
assurer d'avoir la balise réseau
correcte,
Kibana, et que je suis dans le VPC Elastic Search et que je suis
sous le sous-réseau de surveillance. Ensuite, je cliquerai sur Créer. Une fois que mes deux instances
ELK sont en cours d'exécution, je copierai l'adresse IP
externe
, puis je vais accéder à mon code
Visual Studio. Et sur mon code Visual Studio, à gauche, j'ai les notes pour installer Elastic Search sur un système RPM. Et sur le côté droit, j'ai une fenêtre de terminal sous type de
terminal en SSH,
puis je l'ai laborieuse. Ensuite, je collerai
l'adresse IP externe et j'appuierai sur Entrée. Cliquez sur Oui. Maintenant que je me suis connecté
à cette instance, je clique sur Effacer et nous sommes maintenant prêts à commencer à
installer nos services. Nous devons d'abord importer clé
Elasticsearch GPG sur ce système. Je vais donc copier tout cela et je le
collerai sur mon système
et je cliquerai sur Entrée. C'est. Impossible d'ouvrir l'index à
l'aide des indications d'autorisation V5. Ce que je vais faire, c'est que j'exécuterai la
même commande en utilisant sudo, sudo et j'appuierai sur Entrée
et une fois que la clé est correctement importée, je
commencerai à installer les référentiels
RPM. Donc, d'abord, je devrai
créer trois fichiers, Elastic Search dot repo, Kibera, repo et log Slashdot repo dans ma jeune
fille repost ou D. Donc je copierai la
commande première touche et appuyez sur Entrée. Je dois d'abord taper du sudo. Maintenant, je vais passer à Sudo SU. Ensuite, je copierai la
deuxième commande tactile, puis je copierai la
troisième commande tactile. Donc maintenant, si je vais chez
ma jeune fille, reposte ou D, le néphron fait un ls. J'ai mes trois
fichiers, Elasticsearch, dépôt
court, des journaux, une artère
gestuelle Po et un rapport de points Kibana. Ensuite, nous devrons
configurer les fichiers. Nous allons donc d'abord faire VI sur
Elastic Search short repo, et je vais aller dans Insertion
, puis je devrai
configurer ces paramètres
dans le profil Marie. Je cliquerai donc sur coller et
je vais faire un formatage. Maintenant, cette
définition du référentiel n'est rien, mais nous avons d'
abord le nom de
ce paramètre de configuration, puis nous avons l'URL d'
où obtenir le package. Gpt vérifie
si la clé GPG est activée
ou non et le type. Maintenant, je vais enregistrer ce fichier. Prochaine. Nous ferons un VI sur
Kibana Dot Repo, et ils iront dans l'
insertion et je copierai tous les paramètres de mon
clavier ou de mes trois profils. Je les colle ici. Et encore une fois, je vais
devoir faire du formatage. Et maintenant, je peux également enregistrer
ce fichier. Enfin, je vais devoir modifier mon profil d'artère étirée. Je vais insérer une copie paramètres pour
le journal
étiré ou triple, et je vais enregistrer ce fichier. Vous n'avez plus à vous
soucier de ces paramètres
de configuration. Ce que je ferai, c'est que je
joins mes notes et le lien
de description de cette vidéo afin que vous puissiez y accéder
également. Une fois que nous avons configuré
nos trois postes de repos, nous pouvons tout installer. Nous devons donc d'abord
installer Elastic Search et la commande est sudo yum
install enabled repo. Il fait ensuite référence au rapport Elastic Search
que vous venez de configurer. Ensuite, le
nom du service est Elastic Search. Je vais donc le copier, je le collerai
ici et je cliquerai sur Entrée. Si l'assureur vous demande de
télécharger un package Elastic
Search, dites
simplement oui et passez à autre chose. Maintenant, une fois Elastic
Search et stocké, nous pouvons installer Kibana et Log
Stash In type dans sudo yum installer Kibana pour installer Kibana et appuyer sur Entrée,
je vais cliquer sur oui ici. Maintenant, une fois que Kibana est installé, vous pouvez taper sudo yum installer Log Stash pour installer Log
Stash NAL head, oui. Maintenant, une fois que les recherches de journaux sont
également installées, il est temps de configurer
nos services. Cela ressemblerait
à ce que nous avons fait pour notre système basé sur le DBN. Si vous l'avez déjà fait, vous pouvez probablement
les configurer vous-même
si ce n'est pas
le cas, veuillez suivre cette conférence. Tout d'abord, nous allons configurer
Elasticsearch. Donc, CD, ETC slash Elash Elastic Search. Ici, si je fais un ls, je verrai qu'il y a un fichier appelé Elastic Search si je le suis, et c'est le
fichier de configuration pour Elastic Search. Nous allons donc modifier cela. Je vais donc taper VI Elastic
Search point YAML et appuyer sur Entrée. Maintenant, dans ce fichier, je vais d'abord entrer dans Insert. Et le premier paramètre
que je dois
modifier est le nom du point en cluster. Je vais changer
cela pour démo Dash ELK. Ensuite, je voulais changer
le paramètre du nom du point de nœud, donc nous allons
changer cela en ELK dash one. Après cela, je peux
laisser le chemin vers données et le paramètre du
journal des points du chemin tel quel, je devrai passer sous le
réseau et à l'intérieur réseau. Ce que je vais faire, c'est d'
aller à l'hôte de point réseau, pas commenter cela et modifiez cette valeur à 0$ ou 0 vers 0. Désormais, ce qui se passe, c'est par défaut, Elastic Search
n'est accessible
qu'à partir de localhost en la changeant sur 0, 0 ou 000. Nous exposons cela à
n'importe qui dans le monde. Ensuite, nous allons décommenter le port point
STDP, mais nous laisserons le
port comme port 9200 par défaut. Si vous exécutez un cluster
de production, vous voudrez peut-être
le modifier par un autre port, mais nous le laisserons tel quel. Enfin, je vais aller juste
au bas de ce dossier. Et ici, je vais taper un
décor pour le doctype de découverte. Maintenant, cette valeur de paramètres serait une
charge unique car nous
configurons un cluster
Elasticsearch à un seul nœud ou un type de point de découverte. Et la valeur est
un nœud de tiret unique. Et maintenant, je peux enregistrer mon YAML frappé par
Elasticsearch, donc je vais appuyer sur Entrée maintenant je peux démarrer mon service Elasticsearch. Ainsi, le système CTL démarre
Elastic Search. Une fois que le service est
activé, il peut vérifier
l'état du service. Il est actif et en cours d'exécution. Maintenant, pour vérifier la connectivité
à notre cluster, nous allons saisir moins x, obtenir STDP, puis localhost, puis le port
exécuté par Elastic Search sur 90 à 100. Ensuite, nous nous connecterons à l'API du cluster et au service de
santé de cette API. Et ce que nous voulons, c'est que nous voulons la sortie dans un format
lisible par l'homme. Nous allons donc taper
jolie et appuyer sur Entrée. Et comme vous pouvez le
constater, le statut de notre cluster est vert et
le nombre de nœuds est amusant. Nous pouvons maintenant commencer à
configurer notre Kibana. Je vais donc entrer dans la barre oblique,
ETC, barre oblique Kibana, et je vais effacer tout et faire
un ls à l'intérieur
de ce dossier
donné ou, il y a un fichier appelé
clavier AutoML, qui est le
fichier de configuration pour Kibana. Je vais donc faire VI Kibana Dot YAML. Maintenant, je vais d'abord entrer dans Insert. Le premier paramètre que je veux
modifier est notre diagramme de points, mais je laisserai cette valeur telle quelle, car il s'agit d'un système de démonstration. Si vous étiez dans un système
de production, vous voudrez peut-être modifier cette
valeur par autre chose. Ensuite, je vais décommenter l'hôte point
du serveur, puis je le remplacerai
de localhost à $0 point 0. Encore une fois, cela le rend
accessible au monde extérieur. Désormais, l'URL de base
publique de plusieurs points est l'URL sur laquelle
Kibana est accessible. Pour obtenir la valeur ce paramètre, vous devrez
accéder à nos instances de VM. Ensuite, sous IHL k2, je copierai l'
adresse IP interne et je taperai http, et je collerai l'adresse IP
interne, et je vais fournir le
port qui a 5601. Ensuite, nous allons changer
le nom du serveur, mais je vais entrer dans self.name, décommenter et lui donner
le nom demo dash Kibana. Ensuite, je vais voir les hôtes courts d'Elastic
Search. Et je peux laisser la
valeur par défaut car ces
instances Kibana s'exécutent
sur le même serveur que les
services Elasticsearch exécutés. Et une fois que j'ai fait cela, je peux enregistrer mon fichier
de configuration. Et maintenant, je peux commencer Kibana. Une fois que Gibbon j'ai démarré, je peux faire le statut
CTL du système Kibana et le service est
actif et en cours d'exécution. Ensuite, je vais aller sur
mes instances de machine virtuelle, copier l'adresse IP publique
de mon instance Kibana, en la
basant sur l'onglet du navigateur
et taper 5601 pour me
connecter au service Kibana
sur le serveur
sera en mesure d'accéder à l'interface utilisateur de Kibana. Maintenant, une fois que vous arrivez à cet écran, vous cliquez sur Exploré tout seul et ils devraient
vous emmener à l'interface utilisateur de Kibana. Avant de vous laisser partir, je veux vous montrer
une dernière chose. Maintenant, si vous souhaitez que vos services
Elasticsearch et Kibana reviennent automatiquement
après le redémarrage du système, vous devez saisir
CTL système, activer Elastic Search, activer le
service Elasticsearch et système CTL activer Kibana, activer le service Kibana. C'est ainsi que nous sommes arrivés à
la fin de cette conférence. Merci d'avoir regardé. Je
vous verrai dans le prochain. Au revoir.
11. Installer ELK sur le serveur Windows: Hé les gars, dans cette
conférence, nous allons installer Elastic Search
sur un serveur Windows. Pour commencer, nous allons
télécharger quelques logiciels. Nous allons donc d'abord télécharger
Elasticsearch et Kibana. Après cela, nous allons l'
installer appelé NSSS est un gestionnaire de
service non suceur. Cet outil vous aide à installer
une application en tant que service. La raison pour laquelle nous avons
besoin de cet outil est que Kibana
n'est pas fourni avec l'utilitaire de package gratuit qui peut nous aider à installer
Kibana en tant que service. Nous utiliserons donc NSSA
pour Elastic Search. Nous avons un utilitaire
appelé Elastic Search Dans cet obscurité, dans le fichier zip
Elastic Search, qui sera utilisé
pour installer une ressource telle qu'un Service
sur Windows Server. Maintenant, après avoir
téléchargé NSSS, nous allons télécharger
et installer 7-Zip. Une fois les téléchargements
terminés, nous allons configurer Elasticsearch et, compte tenu de nos applications, nous
les exécuterons en tant que service. Et une fois qu'ils auront démarré
avec succès, nous testerons la connectivité à notre cluster Elasticsearch et à d'autres instances Kibana dans
votre esquisse commencée ici. J'ai ma fenêtre quelque part, où que j'installe Elasticsearch et
Kibana sur ce serveur, j'
ouvrirai d'
abord un onglet de navigateur. Et sur le navigateur,
je vais taper dans la recherche
classique Windows
télécharger et appuyer sur Entrée. Et à partir de là, j'irai
sur l'URL qui indique élastique. Il télécharge une recherche élastique. Je vais donc cliquer sur ce lien. Et une fois que je serai sur ce lien, je m'assurerai d'être
sur l'onglet de sortie de l'AG. Et à partir de la première étape, nous allons télécharger classique, comme
si Windows, je cliquerai sur ce bouton
Télécharger. Et pendant que cela a
été téléchargé, j'ouvrirai un autre
onglet et je vais taper Kibana windows télécharger. Et ici aussi, je vais accéder à l'URL de téléchargement de Kibana. Et à partir de cette URL également, je vais passer à la première étape, télécharger et décompresser Kibana. Je vais m'assurer que la
mousse noire est choisie comme Windows, et je cliquerai sur le bouton de
téléchargement pour Windows. Et cela devrait également
commencer le téléchargement pour mon processus Kibana. Maintenant, pendant le
téléchargement, je vais ouvrir un autre
onglet et je vais taper téléchargement et SSM et appuyer sur Entrée. Et à partir des résultats, il choisit le lien pour un point
SSM cc et les téléchargements. Et à partir de cette page Web, je vais passer sous la
dernière version de la section. Vous n'avez pas cliqué sur l'
utilitaire et SSM 2.24. Je vais donc cliquer dessus
et maintenant je vais ouvrir un autre onglet et je vais taper téléchargement 7-Zip et il entrera. Et depuis la page de téléchargement 7-Zip DOT
ORG, je cliquerai sur le
lien pour télécharger l'utilitaire pour Windows 64 bits. Je vais donc cliquer sur ce lien de
téléchargement ici. Maintenant, une fois tous les fichiers
téléchargés, je cliquerai d'abord
sur 7-Zip installé, 7-Zip sur le système. la boîte de dialogue du programme d'installation, je cliquerai sur Exécuter, et à partir de là, je choisirai le
dossier de destination par défaut et je cliquerai sur Installer. Et une fois que l'adresse IP de quelqu'un est
installée, je peux cliquer sur. Et maintenant, je vais ouvrir
mon dossier de téléchargements. Une fois dans le dossier de
téléchargement,
vous pouvez maintenant cliquer avec le bouton droit
sur Elasticsearch zip et utiliser 7-Zip
pour extraire les fichiers. Je vais donc cliquer sur Extraire les fichiers. Et à partir de là, vous pouvez choisir le chemin d'accès où vous
souhaitez extraire ces fichiers. Ce que j'ai fait pour cette
conférence, c'est que j'ai déjà accepté ces fichiers dans
mon dossier de documents. J'irai
dans le dossier Mes documents et comme vous pouvez le voir, j'ai un dossier de
recherche élastique ici, et j'ai également
un dossier Kibana. Commençons donc à
les configurer. Je vais ouvrir le dossier
Elastic Search, et à partir de là, je choisirai
Elastic Search. Une fois encore. Je vais entrer en conflit. Dans le dossier de conflit, nous devons modifier le fichier YAML court
Elasticsearch. Je vais donc cliquer avec le bouton droit de la souris sur ce fichier et j'utiliserai VS Code
pour modifier ce fichier. Vous pouvez utiliser l'éditeur
de votre choix. N'hésitez donc pas à ouvrir
et à modifier ce fichier. Maintenant, une fois que j'ai ouvert le fichier YAML
court Elasticsearch, ce que je ferai, c'est que le
premier paramètre que je dois changer est en
cluster ou en nom. Et je vais changer cela
pour démo Dash ELK. Ensuite, je dois changer
le nom du nœud. Je vais donc changer cela
pour ELK Dash One. Après cela, je n'ai pas besoin
de spécifier un chemin d'accès à mon répertoire de données ou à mon répertoire de journaux car il s'
agit d'une instance de démonstration. Donc je vais le garder, il est dit par défaut. Maintenant, je vais aller
dans la section Réseau et décommenter l'hôte de point réseau. Et je vais changer
cette valeur à 0. Après cela, je ne
commenterai pas http dot porc, mais je garderai le
port par défaut. Enfin, j'irai vers
le bas de ce dossier. Et ici, je vais taper
le type de point de découverte, et je donnerai la
valeur du tableau de bord unique car il s'agit d'une
seule solution Norton. Maintenant, je peux enregistrer ce fichier
et une fois que je l'ai fait, je peux démarrer mon service
Elasticsearch. Pour ce faire, je vais entrer dans ma zone de recherche et je vais
taper PowerShell, et ici je vais choisir l'application de
bureau Windows PowerShell. suis maintenant allé dans ma console
PowerShell. Je vais taper cd si je
dois aller dans Documents, puis je dois aller dossier
Elasticsearch,
puis Elasticsearch à nouveau, puis être dans le
bac si je fais un ls. Maintenant, vous verrez qu'
il existe un fichier appelé Elastic Search service dot Ph.D. Maintenant, nous
devons exécuter ce fichier. Je vais tout d'abord
sortir de mon écran. Et à partir de là, je vais taper dans barre oblique Elastic Search,
tiret, point de service. Et ici, je dois
taper des installateurs. Donc, la barre oblique Elasticsearch
service dot TVA installe l'espace, et je cliquerai sur Entrée. Maintenant, cela devrait commencer l'installation d'un
actif tel qu'un service. Une fois cela terminé, ce que vous pouvez faire, c'est que vous
pouvez accéder aux services dot MSC à partir de votre champ de recherche. Ici, vous trouverez le service
Elasticsearch et vous pouvez maintenant
démarrer le service. Mais tout d'abord, nous allons changer
le type de démarrage du service de
manuel à automatique afin que le service
démarre une fois que
les démarrages cellulaires
entrent automatiquement dans les propriétés. Nous allons passer au
type de démarrage et
le modifier en automatique
et cliquer sur Appliquer. Une fois cela fait, vous
pouvez cliquer sur Démarrer pour commencer. Le service
va cliquer sur OK. Et vous pouvez voir que
les services sont en cours d'exécution. Maintenant, permettez-moi de maximiser
ma publication. Maintenant, vous pouvez également utiliser le même utilitaire pour gérer
ce service. Laissez-moi vous montrer l'utilisation. Si j'avais mis en barre oblique service de recherche
classique
stocké la TVA et appuyez sur Entrée. Vous pouvez maintenant voir l'utilisation. Vous pouvez installer un
service de suppression de service, démarrer l'arrêt et
gérer un service. Maintenant, essayons d'
arrêter ce service l'aide de ces utilitaires pour que je puisse entrer en stock et appuyer sur Entrée. J'ai maintenant reçu le message indiquant que ce
service Elasticsearch a été arrêté. Et je peux valider qu'en
entrant dans mon
point de services MSC et en cliquant sur le bouton Exécuter
cette actualisation, vous pouvez voir que le
service a été arrêté. Commençons maintenant le
service et appuyez sur Entrée, et nous avons le message indiquant
que les services ont démarré. Nous allons donc le valider encore une fois. Je clique donc sur Actualiser et vous pouvez voir que
le service était exécution pour tester la connectivité à notre instance Elasticsearch.
Ce que nous devons
faire, c'est que vous devez ouvrir la fenêtre Chrome. Et depuis Chrome,
ouvrons un autre onglet. Et ici, tapons http
slash slash hôte local ,
puis acheté
90 à 100 et
appuyez sur Enter nervosa services. Vous verrez des informations provenant de votre cluster. Maintenant, ce que vous pouvez également faire c'est que vous pouvez examiner
l'état de santé du cluster. Pour ce faire, vous entrerez une
barre oblique après l'
URL et
soulignerez une autre
barre oblique et une autre tête
, puis un point d'interrogation, puis assez liquide la tête du cluster. Vous pouvez maintenant voir que le
statut du cluster est vert et que le nombre
de nœuds est un. Voici donc comment
installer Elastic Search
sur une machine Windows. Ensuite, nous allons configurer
notre instance Kibana. Maintenant, pour configurer notre Kibana, je vais ouvrir l'explorateur de fichiers. Et à partir de là, j'
irai dans Documents. Et je vais ouvrir
mon dossier Kibana. Et puis le dossier Kibana
à nouveau, puis config. Et dans Config, je vais
devoir modifier le financement Kibera TML, donc je clique dessus avec le bouton droit
de la souris et je clique sur Ouvrir pour ouvrir ce
fichier dans un éditeur. Maintenant, dans ce fichier, je vais décommenter solver.py,
mais le laisser par défaut. Ensuite, je vais décommenter l'hôte point du
serveur et modifier la valeur de l'hôte
local à 0 point 000. Ensuite, je vais modifier l'URL de base publique à
plusieurs points, donc je ne commenterai pas cela. Et pour obtenir sa valeur, vous devez passer aux paramètres
Netflix suivants. Et à partir de là, je
cliquerai à
nouveau sur Réseau pour obtenir l'
adresse IP de cette machine, qui est standard de
0 point à point 15. Ainsi, l'URL de base publique
sera STDP 10 points 0 point 15. Et puis le livre a pris le 601. C'est donc l'URL sur laquelle donner honneur
sera accessible. Je vais descendre un peu. Ensuite, je changerai plusieurs noms de points
et je changerai le nom descriptif de mon instance Kibana à partir du tableau de bord de
démonstration amélioré de votre hôte Kibana. Ensuite, je vais décommenter les hôtes de points
Elastic Search. Mais je peux laisser cela par défaut
car cette instance Kibana est installée localement sur le même serveur avec des recherches
élastiques. Maintenant, par défaut, Kibana se connecte, il se
connecte à STD out. Nous voulons changer cela
et nous voulons configurer notre Kibana ou enregistrer ses journaux sur le journal
sanguin quelque part. Pour ce faire, nous
devons descendre et trouver la ligne qui
indique login dot t ESD. Il est en ligne 97,
je ne commenterai pas cela. Et avant de modifier sa valeur, j'ouvrirai mon explorateur de fichiers
et je vais monter d'un niveau. Et ici, je vais créer un
nouveau dossier appelé journaux. Et je vais ouvrir ça. Ensuite, je cliquerai avec le bouton droit de la souris
sur les journaux dans la barre supérieure. Et je vais copier des textes d'adresses, et maintenant je vais remplacer l'
estradiol par ce texte. Ici, je vais faire une autre barre oblique et je suis
allé appeler mon fichier journal
Kibana dark low. Ainsi, Kibana va
écrire les journaux dans ce fichier. Maintenant, nous pouvons également
décommenter le
point de journalisation silencieuse et la
journalisation des points silencieux, mais nous garderons ces
valeurs comme fausses. Maintenant, si vous voulez une journalisation détaillée, vous pouvez annuler les commentaires
et modifier sa valeur de false à true. Cela vous donnera des
détails de niveau
granulaire sur Kibana est verrouillé. Maintenant, nous pouvons enregistrer ce fichier. Avant d'utiliser un SSM pour
démarrer Kibana en tant que service, je veux vous montrer comment
démarrer Kibana manuellement. Je vais donc aller dans mon
PowerShell et à partir d'
ici et taper le CD
et les documents, j'irai dans Kibana
puis Kibana à nouveau. Et puis, de l'intérieur, Kibana va
se plier cette fois. Et ici, si je fais un ls, vous verrez qu'il y a un
fichier appelé Kibana dot dot. Nous devons exécuter ce fichier. D'abord. Je vais m'en débarrasser, puis je taperai Kibana barre oblique, et
je frapperai Enter. Après cela, passons à
la fenêtre de notre navigateur et tapez un point
oblique http, point à
point 15 et
recevons un port 5601 et
je vais appuyer sur Entrée. Et cela devrait
me prendre ma page Kibana, sans dépendre de la puissance de
votre serveur Windows. Le chargement de Kibana peut prendre un certain temps
, alors donnez-lui un peu de temps. Après cela, voyons comment installer Kibana en tant que service. Tout d'abord, je vais ouvrir PowerShell et j'arrêterai cette instance. Appuyez sur Control C et il entrez et gérez la toile de
fond de minute système que je peux taper, oui, je vais dominer cela. Et une fois que je ne serai plus là, je sortirai de Kibana, ouvrira mon explorateur de
fichiers qui télécharge, extrait un SSM. Donc 7-Zip. Si les fichiers, et je choisirai les documents et cliquez sur OK, puis à nouveau OK. Et une fois qu'un FSM est
à l'intérieur de mes documents, je peux revenir sur PowerShell,
CD et SSM et faire un LS ici. Maintenant, il y a un autre
dossier appelé SSM, donc nous allons y faire un CD
et faire un LS à partir d'ici. J'ai besoin d'entrer dans
quand 64 parce que ma machine est jamais
connue 64 machine. Si vous utilisez une machine Windows
32 bits, vous devez accéder à
ce répertoire. J'entrerai quand 60 quarts, donc CD en 64. Si je fais un LS ici, il y aura un fichier EXE
appelé SSM dot EXE. Je vais donc faire des barres obliques
et SSM dot EXE. Et pour vous montrer l'usage, je vais finir ici. Maintenant, l'utilisation est inutile, l'
une des options,
puis quelques arguments. Installez un service, nous
devons utiliser une installation SSM. Donc ici, nous allons
taper dans la barre oblique de points et l'espace SSM EXE en magasin. Et maintenant, nous devons
donner le nom du service. Alors Kibana et frappez Entrée. Une fois que vous avez appuyé sur Entrée, une boîte de dialogue s'ouvre. Et dans cette boîte de dialogue de l'
onglet Application, nous devons spécifier le chemin du fichier batch pour Kibana. Je vais cliquer sur ce bouton ici. Ensuite, nous allons voir Documents, Kibana, Kibana, puis bin. Et à partir de là, je
spécifierai garder notre fichier batch et cliquer sur Ouvrir maintenant et ouvrir
l'étape détaillée. Je peux taper quelques détails, donc je vais taper Kibana et la description
sera également Kibana. Vous pouvez spécifier que le
type de démarrage peut être automatique, automatique, retardé,
manuel ou désactivé. Nous allons laisser ça automatique. Vous pouvez spécifier ici la connexion
en tant qu'informations, les dépendances de ce service, le comportement d'
arrêt de la priorité du processus. Mais nous laissons tout
par défaut et cliquons sur le
service d'installation après que j'ai reçu une confirmation que les
services Kibana sont installés, je peux cliquer sur OK. Et cela supprimera
la boîte de dialogue, protégera l'état
du service Kibana. Je peux taper NASM, cmd.exe statut de l'espace Kibana, et appuyer sur Entrée,
il est indiqué Stock de service. abord, nous devons démarrer le service nsf dot EXE Space Stark Space key
bouton et j'appuie sur Entrée. J'ai maintenant la confirmation que cette opération de service s'est
terminée avec succès. Je vais donc aller à la fenêtre MSC de mes
services, rafraîchir ça, et je vais
aller à mon service Kibana. Et je vois que les services
Kibana fonctionnent. Je vais donc ouvrir
un autre onglet du navigateur et cliquer sur Actualiser et
sécuriser les charges virales. Cela pourrait prendre encore un certain temps. Je vais poster la vidéo ici. Maintenant, il a fallu quelques minutes pour mon encens
Kibana remonte, mais je peux maintenant
cliquer sur
Explore seul et commencer à travailler
sur mon interface utilisateur Kibana. Maintenant, avant de vous laisser passer ensuite, vérifiez que notre instance
Kibana se connecte au
fichier journal qu'elle spécifie. Je vais donc
documenter Kibana, Kibana, puis
j'irai dans les journaux. Je peux voir que mon fichier journal de points
Kibana est là et qu'il possède des centres de
données. Ouvrez-le. Et ici, vous pouvez
voir que Kibana écrit des données x log
dans ce fichier journal. C'est ainsi que nous sommes arrivés
à la fin de cette conférence. Je vous ai montré comment installer Elasticsearch et Kibana
sur Windows Server. Merci d'avoir regardé. Je
vous verrai dans le prochain. Au revoir.
12. 14: Hé les gars, dans cette conférence,
nous allons configurer les attentes de sécurité sur notre cluster
Elasticsearch. Tout d'abord, nous arrêterons Kibana
dans le service Elasticsearch. Ensuite, nous allons activer
les attentes à
l'intérieur de ce fichier de
configuration Elastic Search. Ensuite, nous lancerons le service
Elasticsearch. Après cela, nous allons configurer informations d'identification
par défaut pour les utilisateurs intégrés à
Elastic Search. Nous allons ensuite configurer
Kibana pour qu'il utilise l' authentification par
mot de passe
pour se connecter à notre cluster Elasticsearch. Enfin, nous allons lancer notre service Kibana et
tester la connectivité. Commençons. Ici, à l'écran, j'ai
mes notes à configurer sur notre cluster
Elasticsearch et sur le côté droit, ma connexion SSH à l'intérieur de
ma machine ELL donnée. Il s'agit d'un cluster ELK à
nœud unique que nous avons déployé
sur un package DBN. Donc ici, d'abord, je dois arrêter
Kibana, une recherche élastique. Je vais donc taper le système CTL, arrêter Kibana et le
directeur technique des systèmes arrêtera la recherche élastique. Une fois que j'aurai d'abord
des services de conseil d'administration solides, je devrai
permettre d'attendre à l'intérieur d'Elastic
Search frappé Yammer. Nous allons donc passer à Elasticsearch. Et puis ici, nous allons taper
VI Elastic Search point YAML. Et sur ce fichier
va descendre en bas, et je passerai en mode insertion. Et vers le bas, j'ajouterai que le paramètre attend que la
sécurité soit activée comme vraie. Je vais donc le copier et
je le collerai ici. Et maintenant, je peux enregistrer ce fichier. Maintenant, je vais devoir démarrer
mon cluster Elasticsearch. Je vais donc taper le système
CTL, démarrer Elastic Search. Maintenant, une fois les
services Elasticsearch démarrés, examinons
l'état en tapant état CTL
système Elasticsearch, il est actif et en cours d'exécution. Dans notre vidéo précédente, nous avons utilisé la commande curl pour tester la connectivité
à ce cluster. Maintenant, si je fais un contrôle
R et que je tape Curl, et si nous lançons à
nouveau cette commande, voyons ce qui se passe. Nous obtenons une exception de sécurité indiquant que nous manquons les informations
d'identification d'authentification. Ce que nous devons faire maintenant,
c'est que nous devrons générer les informations d'identification d'authentification
pour nos utilisateurs intégrés. Je vais donc vider l'écran. Et pour ce faire, nous devrons aller à usr, partager Elastic Search,
puis bin. Et si je fais un LS ici, vous verrez qu'il y a beaucoup d'
utilitaires dans ce dossier. Ce que nous recherchons est l'utilitaire de
mots de passe d'installation d'Elastic Search. Je vais donc taper des mots de passe de
configuration du tiret Elasticsearch. Et ici, j'ai deux modes. Je peux soit passer en mode
interactif et définir moi-même
chaque mot de passe. Permettez-moi donc de vous montrer
que je vais d'abord taper interactif
et que je vais cliquer, et cela indique
le lancement de la configuration du mot de passe
pour les utilisateurs réservés. Et il donne un nom aux utilisateurs
et indique que vous serez invité à entrer des mots de passe au
fur et à mesure que le processus progresse Veuillez confirmer que vous
souhaitez continuer. Je vais d'abord taper ici. Ce que j'aimerais, c'est Elastic Search
génère automatiquement des mots de passe pour moi. Nous allons donc le faire. Je vais
taper auto et appuyer sur Entrée. Et maintenant, il est répété, mais cette fois, il indique que les
mots de passe seront
générés au hasard et imprimés sur
la console à l'aide de l'auto, les mots de passe sont
générés automatiquement, alors qu'ils sont
interactifs saisis manuellement par l'utilisateur. Nous allons donc saisir oui, pour
générer automatiquement mes mots de passe. J'ai le mot de passe ici, donc je vais les copier et
je paierai dans mes notes. Maintenant, une fois que j'ai fait cela, laissez-moi m'en sortir. Faisons un CD pour sortir
de tout et éclaircir. Maintenant, lançons à nouveau notre commande
curl. Mais cette fois, ce que je veux
faire, c'est utiliser l'option moins u pour spécifier le nom d'utilisateur et le mot de passe
juste après Carl, je vais taper
moins u et je vais taper Elastic comme nom d'utilisateur. Elastic est un superutilisateur sur
le cluster Elasticsearch. Ensuite, je spécifierai le mot de passe de mon superutilisateur
Elastic. Je vais donc contrôler C. Je vais coller ici et ensuite
je mettrai un espace. Et maintenant, si je clique sur Entrée, vous verrez que je suis en mesure d'
obtenir des informations de cluster. Encore une fois, cela signifie que notre
cluster est correctement
configuré avec une sécurité et une authentification par
mot de passe. Maintenant, l'instance Ikebana, si nous essayons de la démarrer maintenant, nous
donnera une erreur car elle ne peut pas se connecter à Elasticsearch. Nous devons donc fournir les informations d'identification
Elastic Search pour que mon instance Kibana se connecte au cluster
Elasticsearch. Pour ce faire, nous allons
faire CD ADC, Kibana, puis sous Kibana, nous allons
éditer le fichier Kibana dot YAML. Et à l'intérieur de ce fichier, je vais entrer dans l'insertion et j'
irai dans la section
où il est écrit qu' Elasticsearch a enseigné le nom d'utilisateur
et le nom d'utilisateur intégré utilisé pour cette intégration est le système de soulignement
Kibana. C'est donc un nom d'utilisateur. Il suffit donc de décommenter
le mot de passe, de supprimer
la valeur par défaut, de
copier le mot de passe pour l'utilisateur du système Kibana
et de le coller ici. Et une fois cela fait, vous pouvez enregistrer ce fichier. Et commençons le service Kibana. Je suis la star du CTO Kibana. Faisons maintenant un statut et le service est
actif et en cours d'exécution. Maintenant, lorsque nous chargeons la page Web de
Kibana, elle devrait nous
demander de nous authentifier. Je vais donc fermer cet onglet. Je copierai à nouveau l'
adresse IP publique de ma machine, je la collerai et
je vais taper 5601. Et voyons ce qui se passe
maintenant, il nous demande
le
nom d'utilisateur et le mot de passe. Et ici, sous le nom d'utilisateur, je vais taper Elastic et
sous mot de passe je vais coller le mot de passe pour le
superutilisateur élastique un identifiant. Et maintenant, vous pouvez voir que
je suis à l'intérieur de Kibana en utilisant mon
élastique utilisateur intégré pour regarder tous les profils utilisateur de
cette instance de Kibana. Vous pouvez vous lancer dans la gestion,
puis vous lancer dans la gestion des piles
et comprendre la gestion. Vous pouvez accéder aux utilisateurs. Et à partir de là, vous
pourrez voir tous les utilisateurs intégrés
qui ont été créés lors de la configuration qui s'attendent à
la sécurité de ce système. Avec cela, nous sommes
arrivés à la fin de cette vidéo.
Merci d'avoir regardé. Je vous verrai dans le prochain. Au revoir.
13. Ajouter des données à notre cluster à l'élan avec Kibana: Hé les gars, lors des
dernières conférences, nous avons installé notre cluster
Elasticsearch. Il est maintenant temps d'intégrer des
données dans notre cluster. Tout d'abord, nous
téléchargerons des données autres que des séries chronologiques, puis nous chargerons des données de séries
chronologiques. Ensuite, je vais vous montrer la
différence entre les deux. Alors, nous allons nous
salir les mains ici sur mon écran. J'ai mon instance
Elasticsearch. Je vais donc copier son adresse IP
externe, ouvrir un autre onglet de navigateur, coller, et il y a eu 5601 et me connecter à
mon instance Kibana. Maintenant, une fois que je suis sur la page
d'accueil de mon instance Kibana, il y a un modèle
appelé charger un fichier, donc je clique dessus pour
télécharger des données. Maintenant, à l'aide de ce modèle, vous pouvez télécharger des fichiers d'une
taille
maximale de 100 Mo et ils peuvent être
au format suivant. Il peut s'agir d'un fichier
texte délimité comme CSV ou TSV, fichier JSON délimité ou d'un fichier journal avec un
format commun pour l'horodatage. Pour cette conférence, nous téléchargerons fichiers texte
délimités qui
peuvent être CSV ou TSV. Maintenant, pour obtenir un jeu de données
pour ce tutoriel, je vais ouvrir un autre onglet de
navigateur et je
vais accéder à un site Web
appelé kaggle.com. Et sur Kaggle.com, j'
irai dans les jeux de données. Je vais donc toucher Entrée. Maintenant,
sous ce site Web, vous devrez vous
inscrire ou y
inscrire pour
télécharger les jeux de données. Et une fois que vous l'avez fait depuis le menu de navigation de
gauche, si vous êtes sur des jeux de données
à
la recherche des jeux de données à l'aide de ce bouton Quitter l'état de la
recherche. Vous pouvez désormais également filtrer
les jeux de données souhaités. Par exemple, comme je
ne peux télécharger que jusqu'à 100 Mo de fichiers, je vais saisir 100 Mo ici
et taper, en type CSV. Et la
taille initiale du fichier peut être comprise entre 0 et b et les militaires s'appliquent. Maintenant, à partir des résultats, je vais cliquer sur le jeu de données
appelé émissions Netflix. Et ici, je peux voir la taille de cet ensemble de données qui
est d'environ 90 Ko. Si je clique sur Compact, je peux voir des exemples de
données à l'intérieur du jeu de données. Et maintenant, je vais cliquer sur le téléchargement
pour télécharger ce fichier. Ce fichier est téléchargé
sous forme de fichier zip. Je vais donc afficher dans le Finder
et à partir d'une fenêtre du Finder, c'est dans mes téléchargements. Je vais donc double-cliquer
dessus pour extraire ce fichier. Et maintenant, vous pouvez voir que j'ai le fichier netflix dot csv sur ma machine va maintenant
retourner à Kibana. Je peux soit
glisser-déposer ce fichier, mais je peux télécharger ce fichier. Je vais donc accéder à mes téléchargements ici. Je vais chercher ce dossier. Donc Netflix dot CSV, et je cliquerai sur Ouvrir. Ce que
fait Kibana, c'est qu'elle analyse
les mille premières
lignes de ce fichier et recueille des
données sur ce fichier. Par exemple, il a
découvert qu'il s'agit d'un fichier délimité et que le
délimiteur est une virgule et qu'il possède également une ligne d'en-tête. Nous pouvons maintenant cliquer sur le paramètre d'écrasement pour remplacer certains
paramètres de ce fichier. Ou je peux examiner l'explication de l'
analyse pour savoir comment Kibana est parvenue
à cette conclusion. Je vais donc cliquer dessus et vous pouvez voir
une explication de cette
analyse
que je vais le plus proche maintenant, vous pouvez également voir
quelques démarrages de fichiers. Par exemple, il existe 13
valeurs de notation distinctes dans 999 documents. Une fois que j'ai passé tout cela, je cliquerai sur
Importer pour importer ces données sur la page suivante
qui me demande de créer un index. Je peux le faire en utilisant une méthode simple ou une
méthode avancée pour cette démonstration, nous utiliserons simplement la
méthode simple et le nom de l'index. Je vais devoir spécifier le nom du nouvel index qui
va être créé. Je vais donc l'appeler index Netflix. Maintenant, encore une fois, l'index est la
façon dont vous stockez les données
dans Elasticsearch. L'option suivante consiste à
créer un spectre d'index. Comparé à un index, un modèle d'index est la façon dont vous pouvez rechercher et analyser
ces données dans Kibana, l'index sert à stocker
des données dans Elasticsearch, un modèle d'index consiste
à analyser ces données. Et Kibana, je veux créer un
modèle d'index car je veux visualiser
ces données et Kibana. Je vais donc cliquer sur Importer. Vous pouvez ensuite dire qu'il
traite d'abord le fichier, puis crée l'index, crée un pipeline d'ingestion
et télécharge les données, puis crée un
modèle d'index pour ces données. Une fois que tout cela est fait, vous recevrez un message d'importation
complète. Vous pouvez soit effectuer ces données dans une certaine gestion d'
index. Par exemple, vous
pouvez spécifier quand ces données sont à nouveau
supprimées du bouton index,
etc. , gestionnaire, index. Et nous parlerons de
File un peu plus tard. Mais pour l'instant, nous
voulons découvrir cet index dans notre onglet historique pour
accéder à la page Découvrir.
Une autre façon consiste à cliquer
sur ces trois lignes en haut
à gauche, Une autre façon consiste à cliquer
sur ces trois lignes en puis sous Analytics, puis en discuter. sous la page découverte
sur le côté gauche, la première information
est l'urine index. Si vous avez plusieurs index, vous pouvez cliquer sur
cette liste déroulante et sélectionner l'index dans lequel
vous souhaitez vous trouver, puis vous disposez des champs
disponibles. Et si vous avez plus de
quelques champs, par exemple, certains index peuvent comporter
100 mètres ou plus, vous pouvez également rechercher des noms de
champs dans cette zone. Si je voulais laisser dire
chercher une note et j'obtiendrai tous les champs qui ont
le mot « huile de notation ». Enlevez ça. Maintenant, à droite, la première
information est le nombre de visites ou le nombre de
documents dans cet index. Nous avons donc 1000 documents,
puis chaque document individuel Si je le développe, vous pouvez voir tous les champs et leurs valeurs qui se trouvent
dans ce document. Maintenant, contre chaque champ,
vous verrez quatre boutons. La valeur du premier bouton est
filtrée. Donc si je le voulais, dans
mon filtre d'index pour tous les documents dont
la description est de 80, je peux cliquer sur ce
bouton et mon filtre
apparaîtra en haut à gauche ici. Et il filtrera les résultats
sur mon onglet découvert, tous les résultats qui
correspondent à mon filtre. Vous pouvez donc voir sur 1000, j'ai 15 résultats où la description de l'évaluation
était de 82 filtres de suppression. Je vais simplement cliquer là-dessus. dette de Xnor était lorsque vous
souhaitez filtrer pour une valeur
particulière, vous pouvez également filtrer une valeur. Par exemple, je veux tous les films qui n'
ont pas été sortis en 2004. Filtrez pour l'année
de sortie 2004. Je vais donc cliquer sur ce point négatif, et cela
me donnera tous les films où l'année de sortie n'est pas 2004. Et encore une fois, je vais supprimer cela et expérimenter
les documents. Ensuite, les
colonnes basculées dans un tableau sont maintenant affichées. Donc, sur ce tableau, il n'
y a pas de colonnes pour le moment, si vous souhaitez introduire
des colonnes pour rendre votre table plus soignée
pour que vous puissiez effectuer une recherche. Par exemple, si je veux que la
première colonne soit titre, je vais peigner le titre. Je vais cliquer sur la
colonne Basculer dans le tableau. Et maintenant, vous pouvez voir que tous mes
documents sont triés par titre. Ensuite, je veux que ma
chronique soit Elisa. Je cliquerai sur la colonne Basculer dans le tableau à côté de l'année de sortie. Et ensuite, je veux que ma prochaine colonne
soit le score d'évaluation des utilisateurs. Et je cliquerai sur la colonne
Basculer dans le tableau pour inclure également le score
de notation des utilisateurs. Pour ne supprimer aucune
des colonnes à bascule, je vais simplement accéder à ce champ
et je supprimerai cette colonne. Maintenant, je peux aussi trier par
cette colonne. Par exemple, si je
clique sur cette flèche, il est indiqué que le score
de classement des utilisateurs est ascendant. Laissez-moi donc minimiser cela. Et si je clique dessus, il triera le score de notation des
utilisateurs manière ascendante. Et si je veux le déplacer
en descendant,
je cliquerai à nouveau dessus et il va maintenant trier cela
par décroissant. Vous pouvez maintenant utiliser
cette barre de recherche ou recherche dans votre jeu de données à l'aide du langage de requête
Kibana. Voyons d'abord
tous les films
sortis en l'an 2
000 de mes champs. Je vais voir quel champ me
donne la libération ici. Le champ
s'appelle donc l'année de sortie. Je vais donc taper cette Elisa et maintenant je peux appliquer certains opérateurs. Par exemple, deux-points
signifie que cette version ici est égale à une
valeur inférieure à, égale à la
Louisiane inférieure ou égale à une valeur supérieure ou égale à ce qu'elle
suggère, moins que, supérieur à deux points et une étoile pour spécifier si mon jeu de données
contient une année de publication sous quelque forme que ce soit qui filtrera tous les documents dont les valeurs sont nulles ou vides pour
ce champ particulier. Disons qu'en 2004. Et maintenant, je vais cliquer sur la mise à jour. Et cela va me montrer tous les titres
sortis en 2004. Pour vérifier que j'
ajouterai publié ici
en cliquant sur ce
signe plus sur ma table également. Et maintenant, vous pouvez le
voir un peu plus facilement. Supposons maintenant que je souhaite ajouter un autre critère à ma recherche. Ce que je peux faire, c'est que je
peux mettre un espace après ma recherche initiale et je
peux faire un AND
ou, OR ADD est fondamentalement que les deux
arguments doivent être vrais. Je vais donc taper N Et dans
mon jeu de résultats cette fois, je ne veux que les films qui ont un
score de 80 et plus. Je vais donc saisir l'utilisateur et sélectionner le score
d'évaluation des utilisateurs. Et je veux que la valeur
soit de 80 ans et plus, si supérieure à
un signe égal. Et cette fois, je vais taper
80 et cliquer sur Mettre à jour. Maintenant, sur ces
premières tentatives, nous n'avons que quatre coups sûrs. C'est ainsi que vous pouvez utiliser langage de requête
Kibana pour effectuer une
recherche dans votre jeu de données. Maintenant, si vous souhaitez enregistrer
cette requête, par exemple, si cette requête est
répétée plusieurs fois, vous pouvez l'enregistrer en cliquant
sur l'icône de cette disquette. Je cliquerai dessus et je
cliquerai sur Enregistrer la requête actuelle. Et je dirai ma requête de démonstration
comme nom de cette requête. Maintenant, comme notre jeu de données
n'a pas de champ d'horodatage, je ne vais pas spécifier de filtre d'heure d'
inclusion, mais s'il y avait des
filtres dans mon jeu de données, si je voulais les inclure, je peux le choisir comme oui, je n'ai mis aucun filtre, donc je vais le supprimer
et je cliquerai sur Enregistrer et ma requête a été enregistrée. Maintenant, la prochaine fois, si je
veux réutiliser ma requête enregistrée. Disons donc que si je
supprime tout cela, cliquez sur Mettre à jour pour accéder
à mon ensemble d'origine, puis cliquez sur ce
menu déroulant à côté l'icône de disquette et
cliquez sur ma requête. Vous pouvez voir que je peux rapidement réexécuter la même
requête sur mon jeu de données. Maintenant, ensuite, téléchargez quelques données
de séries temporelles renvoyant à Kaggle, je vais aller aux jeux de données
sous jeux de données. Je cliquerai à nouveau sur Filtres. La taille du fichier serait comprise entre 0 et 100 Mo. Et sur les étiquettes, je vais
taper des séries chronologiques, puis je cliquerai sur, c'est maintenant hors des réserves. Je cliquerai sur le premier résultat, Omicron Daily Cas par pays. Et ici, si je descends, je
peux voir le statut qui est environ quatre Mo et il y a un seul fichier CSV de
variance COVID. Et je peux cliquer sur un
aperçu compact de quelques exemples de données. Nous allons donc télécharger ces données. Maintenant, une fois ce
fichier de données téléchargé, j'ouvrirai à nouveau le Finder,
extraire ce fichier. J'ai maintenant le fichier de variance
COVID. Je retournerai donc à
ma page Découvrir, à la page d'accueil de Kibana. Je peux cliquer sur télécharger un fichier. Ici. Je vais vous montrer une autre méthode
pour faire la même chose. J'irai donc ici,
puis sous gestion, je vais passer aux intégrations. Ici, je peux voir
qu'il y a beaucoup d' intégrations
par défaut
intégrées à Kibana. Je vais donc d'abord taper
une intégration si je clique sur charger
un fichier
pour accéder à mon téléchargement
d'une intégration de fichier. Nous parlerons des intégrations
lors d'une prochaine conférence. Encore une fois, je vais sélectionner le
fichier, donc la variance COVID, je clique sur Ouvrir, et cela analysera mes données. Maintenant, après avoir analysé
les 11000 premières lignes, on a découvert que les données
sont délimitées par une virgule. Il possède une ligne d'en-tête et
un horodatage. Et le format du champ
temporel est ISO 8601. Maintenant, je vais cliquer sur
Importer et j'
utiliserai à
nouveau la méthode simple pour spécifier un index et je
donnerai un nom à cet index de l'indice de
soulignement COVID. Maintenant, je peux cliquer sur Importer. Maintenant que vous avez reçu le message
indiquant que l'importation est terminée, voyons cette découverte
d'indexation. Maintenant, si je clique
sur cette liste déroulante, vous pouvez voir que je
peux basculer entre index en utilisant mon menu déroulant d'
index. Je vais revenir à l'indice COVID. Je peux voir tous les
champs disponibles sur le côté gauche. Et ce qui est nouveau cette fois-ci,
c'est le filtre temporel. Donc, en gros, mes données contiennent des valeurs de champs
temporels entre le 11
mai 20252022. Je peux m'en servir
pour rétrécir
à une date précise. Supposons donc que je ne
souhaite rechercher des données qu'
entre le 20 décembre 21 janvier 2021. Ce que je peux faire, c'est que je clique sur ce bouton contre le début, et ici je dois
spécifier une date de début. Je cliquerai donc sur
Absolu pour l'instant, et je cliquerai sur décembre. Et je veux que ce soit le
premier décembre 2020, et cela peut commencer à 0. Si je clique dessus,
je clique ensuite sur Terminé. Et ici, je vais préciser 2021. Je peux laisser ça en
janvier et je
cliquerai sur un, qui
était un vendredi. Maintenant, je peux spécifier
un autre moment, mais les données
jusqu'à 2330 ou 1130. Cliquez dessus avec le bouton droit de la souris et
je cliquerai sur Mettre à jour. Il ne m'affichera que le sous-ensemble de données correspondant à cette
heure à titre de référence, c'est la différence entre les données de séries
chronologiques et les données
non chronologiques. Si vous regardez à nouveau votre index
Netflix, il n'y avait pas de filtre temporel
pour filtrer leurs données, car nos données
n'avaient pas d'horodatage. En revenant à
l'index COVID, vous pouvez également spécifier des périodes
relatives. Par exemple, vous pouvez
spécifier des données y a un mois, si j'en ai une et vous pouvez spécifier un des champs
latéraux , par
exemple
1 seconde , 1 minute, etc. etc. Cliquez donc dessus. Et qu'est-ce qui s'est terminé ? Je vais encore une fois Relatif. C'est-à-dire il y a un
mois, il y a dix jours, d'il y a un mois
à dix jours, et cliquez sur Mise à jour. Et cela me donnera toutes les données d'il y a un mois
à dix jours. Maintenant, au lieu d'il y a dix jours, je peux également spécifier maintenant et définir la date
et l'heure de fin jusqu'à maintenant, et cela me donnera nos
données pour le dernier mois. Il s'agit donc de la
différence entre les séries
chronologiques et les données non chronologiques. Vous n'avez pas de valeur de filtre
temporel dans les données autres que les séries chronologiques. C'est ainsi que nous sommes arrivés à
la fin de cette conférence. Merci d'avoir regardé. Je vous verrai dans
le prochain. Au revoir.
14. Créer des visualisations avec Kibana: Hé les gars, Maintenant que
nous avons des données dans notre cluster et
que nous pouvons explorer ces données à l'aide de
l'onglet Découvrir. Il est temps pour nous de
visualiser ces données. Les visualisations de
données
permettent aux utilisateurs professionnels de comprendre très facilement
de grandes quantités de données. Et c'est là que l'on peut
vraiment voir la puissance de Kibana. Il existe deux façons de créer des
visualisations dans Kibana. abord, vous pouvez créer
des visualisations spécifiques au tableau de bord ou utiliser la bibliothèque de visualisation où vous pouvez ajouter des visualisations dont vous avez besoin sur plusieurs éléments
tels
que les tableaux de bord.
ou tampons de travail en toile. Il existe maintenant
quelques options
à choisir lorsque vous créez
vos visualisations. Tout d'abord, vous avez un objectif, qui est un simple éditeur de
glisser-déposer. Ensuite, nous avons TSV, qui est utilisé pour l'
analyse avancée des données de séries chronologiques. Ensuite, vous pouvez également
utiliser l'agrégation basée sur l'agrégation, qui est utilisée pour les données graphiques
basées sur l'agrégation. Vous pouvez également choisir des cartes si vos données possèdent des coordonnées de
géolocalisation Vous pouvez également créer des visualisations
personnalisées
à l'aide de la syntaxe plus vague. Ce cours est hors
de portée. Nous ne
parlerons pas de cette option. Commençons maintenant. Dans cette démo, nous allons
créer une visualisation qui montre la
note moyenne des films par année de sortie. Tout d'abord, dans le menu de
navigation de gauche et sous Analytics,
il va visualiser la bibliothèque. À partir de là, nous allons
cliquer sur Créer une nouvelle visualisation pour créer
notre première visualisation. Et ensuite, nous choisirons l'objectif. Désormais, dans l'éditeur d'objectif, vous pouvez d'
abord choisir l'index sur lequel
vous souhaitez travailler dans le menu de gauche . Par exemple, si je
voulais travailler sur l'index COVID, je choisirai l'
index COVID et il m'affichera tous les champs disponibles
dans l'index COVID. Mais pour cette démo, je vais
choisir l'index Netflix au milieu où
votre graphique s'affichera. À partir de là, vous pouvez choisir
le type de graphique souhaité. Par exemple, si vous souhaitez
une visualisation de type métrique, une
ligne de visualisation de barre, un donut by, etc. pour cette démonstration, nous
choisirons une barre verticale. Maintenant, à
droite, vous allez
spécifier quels champs
accéderont à quel accès. Nous devrons d'abord définir un axe horizontal
pour nos brouillons, je cliquerai sur Ajouter ou faire
glisser et déposer un champ. Et à partir de là, je vais
choisir le menu déroulant pour le champ de sélection et
choisir release ici. Maintenant, je peux augmenter ou diminuer la granularité
de ce champ, mais nous le laisserons par défaut. Nous pouvons changer le nom complet, je vais
donc mettre en majuscule le
premier alphabet de chaque mot. Vous pouvez également spécifier
le format de valeur. Je le laisserai par défaut
et je cliquerai sur Fermer. Maintenant, nous pouvons choisir
l'axe vertical. Je cliquerai sur Ajouter ou
faire glisser un champ à nouveau. Ensuite, à partir du champ de sélection, je choisirai le score d'évaluation de l'utilisateur. Et puis à partir de la fonction sélecteur, je choisirai en moyenne
pour afficher le score moyen. Maintenant, vous pouvez à nouveau
changer le nom complet afin que je mettrai à nouveau en majuscule le
premier alphabet, moyenne du score d'évaluation des utilisateurs. Vous pouvez ensuite modifier
le format des valeurs. Par exemple, si vous
voulez que le format soit en pourcentages plutôt qu'en
chiffres, vous pouvez le faire. Et cela vous indiquera ensuite le pourcentage de notation des utilisateurs. Je vais le laisser par
défaut pour l'instant. Vous pouvez désormais modifier
la couleur de la série. Par exemple, si je clique sur la couleur
Ceres et que je choisis
le bleu, le graphique deviendra bleu. Je peux également modifier le côté de l'axe que mes données
afficheront si je clique sur la
gauche, ce qui est par défaut. Si je voulais le changer, je peux le modifier à droite. Et cela va commencer à afficher
les données sur l'axe droit. Nous allons laisser sa valeur par défaut, et je cliquerai sur Fermer. Maintenant, sous votre graphique, vous pouvez voir quelques
suggestions de Kibana. Par exemple, si vous aviez
sélectionné un graphique en courbes, c'est ainsi que votre
graphique s'affichera. Si vous aviez sélectionné une mesure, c'est ainsi que votre
visualisation apparaîtra. Nous allons laisser ce que
nous avons conçu maintenant, vous pouvez filtrer davantage ces données en utilisant le langage de requête
Kibana. Par exemple, supposons que
nous voulons uniquement afficher des données pour les films
sortis après 1984. Ce que je peux ensuite
faire, c'est que je peux cliquer ici et ensuite je peux taper
l'année de sortie, puis je peux choisir est
supérieur ou égal à. Et puis je peux taper en
1984 et cliquer sur Mettre à jour. Et maintenant, notre graphique ne
montrera que
les données des films
sortis après 1984. Maintenant, supprimons
le gâteau va filtrer, puis il peut enregistrer
cette visualisation. abord, nous devons lui
fournir un titre, donc je l'appellerai une note moyenne des
films par sortie ici. Nous pouvons maintenant fournir
une description. Cette visualisation montre donc note
moyenne de films de
Lavoisier sur Netflix. Nous pouvons maintenant
l'ajouter à notre tableau de bord, créer un nouveau tableau de bord
pour cette visualisation. Mais pour cette démo, nous
n'en choisirons aucun. Vous pouvez également constater que la case Ajouter à la
bibliothèque a été
cochée par défaut. Ensuite, vous pouvez également utiliser balises pour regrouper les
visualisations ensemble. Maintenant, nous allons cliquer sur les balises
et cliquer sur Créer une balise. Et je vais créer un
tag appelé Netflix. Vous pouvez changer la
couleur de la balise, que je puisse la changer en bleu
et je clique sur l'attaque. Vous pouvez maintenant voir que la balise
Netflix est apparue ici, puis nous pouvons cliquer
sur Enregistrer et ajouter à la bibliothèque. Maintenant, une fois cela fait, si vous revenez à la bibliothèque de
visualisation, vous pouvez voir que votre visualisation a été ajoutée à la bibliothèque. Maintenant, avant de vous laisser partir, je veux juste
vous montrer où les balises sont stockées à partir du menu de
navigation de gauche, si vous allez écrire
sous gestion puis gestion de
pile
ici sous Kibana, vous devez sélectionner des balises. Et c'est ici que vous pouvez voir toutes les balises que vous avez
créées dans Kibana. Avec cela, nous sommes arrivés à
la fin de cette conférence. Merci d'avoir regardé. Je
vous verrai dans le prochain. Au revoir.
15. Tableau de bord: Hé les gars, le tableau de bord
est composé de plusieurs visualisations
qui racontent une histoire commune aux utilisateurs de
votre entreprise. Avant de pouvoir créer un
tableau de bord, il vous faut deux choses. abord, vous avez besoin d'une compréhension
claire de vos données, et deuxièmement, vous devez définir clairement ce que vous souhaitez réaliser à
partir de votre tableau de bord. un premier temps, j'
ai répertorié à l'écran tous les champs disponibles
dans l'index de soulignement COVID,
qui est l'index
que dans l'index de soulignement COVID, nous
utiliserons pour cette démonstration et ce qui est stocké
dans chaque champ. Par exemple, le
champ emplacement contient le nom du pays pour lequel
les informations de variante
sont fournies. Date indique la date
de saisie des données. Variant est le nom de la variante correspondant à cette entrée de données
particulière. séquences de soulignement Num contiennent le nombre de
séquences traitées et séquences de
pourcentage
contiennent un pourcentage de séquences par rapport
au nombre total de séquences. Et enfin, num séquences. Total représente le nombre total de séquences pour la date de fin de cette variante de
pays. Dans le cadre de cette démonstration,
nous allons maintenant créer trois
visualisations dans notre tableau de bord. Tout d'abord, nous allons créer un certain nombre de cas
uniques de COVID
dans le monde entier. Deuxièmement, nous allons créer une
visualisation qui illustre le nombre total de séquences
pour les dix premiers pays. Enfin, nous allons
créer une visualisation qui vous indique la variance
répartie selon les meilleurs pays. Commençons donc. Maintenant, sur la page
Kibana, pour créer un tableau de bord, va d'abord
dans le menu de navigation de gauche. Ensuite, nous allons accéder au tableau de bord
sous Effets analytiques. Et pour créer un tableau de bord cliquez d'
abord sur Créer un
nouveau tableau de bord. Maintenant, à partir de cette page, lorsque vous cliquez sur Créer visualisation pour créer
notre première visualisation, qui fera partie
de ce tableau de bord. Nous allons d'abord modifier
le jeu de données il y a
15 minutes à 15 semaines. Hé les gars, dans cette conférence, nous allons créer un tableau de bord
Kubernetes. Un tableau de bord est composé de plusieurs visualisations
qui racontent une histoire commune aux utilisateurs de
votre entreprise. Avant de commencer, nous avons besoin deux éléments pour créer
notre tableau de bord. abord, nous devons avoir une
compréhension claire de nos données. Deuxièmement, nous devons avoir une compréhension claire
des exigences, qui est essentiellement ce que nous voulons atteindre à partir de
ce tableau de bord. Maintenant, dans le cadre de la
première exigence, j'ai répertorié tous
les champs disponibles dans l'index de
soulignement COVID et les données contenues dans chacun de ces
champs. Par exemple, le
champ emplacement contient le nom
du pays pour lequel les
informations de variante sont fournies. Le champ de
séquence de soulignement numérique contient le nombre de séquences
traitées pour ce pays, cette variante et cette date, etc. Maintenant, ce que nous allons faire dans ce tableau de bord, c'est que nous
aurons trois visualisations. abord, nous aurons la
visualisation qui illustre le nombre de variances
COVID uniques dans le monde entier. Deuxièmement, nous disposerons d'une
visualisation qui illustre nombre
total de séquences
pour les dix premiers pays. Enfin, nous aurons
une visualisation qui fournit des variantes
réparties dans les pays. Commençons donc à créer
un tableau de bord à partir de ma page d'accueil
Kibana. Je cliquerai sur le menu de
navigation de gauche, puis sur le tableau de bord de
la page du tableau de bord, je cliquerai sur créer un
nouveau tableau de bord à partir d'ici, je vais d'abord enchaîner les données au
lieu d'il y a trois mois, il y a trois ans, que nous
recherchons toutes les données cet index et je
cliquerai sur la mise à jour. Une fois cela fait, je
cliquerai sur Créer une visualisation. La première visualisation
que nous devons créer
est maintenant un nombre de
variances COVID uniques dans le monde entier. Nous allons donc d'abord choisir la métrique. Ensuite, sous métrique, je
cliquerai sur Ajouter ou faire
glisser et déposer un champ. Dans le champ de sélection,
je choisirai variante, puis je
cliquerai sur les flux. À partir de cette visualisation,
nous pouvons obtenir la valeur du nombre de variances uniques
dans notre base de données. Maintenant, je vais cliquer
sur Enregistrer et revenir. Après cela, je cliquerai à nouveau sur
Créer une visualisation. Et pour ma deuxième visualisation, je dois décrire le nombre total de séquences pour les dix premiers pays. Je reviendrai donc sur la page Web de mon objectif
Kibana. Maintenant, je vais changer le
graphique de type deux barres verticales, puis pour l'axe horizontal, je vais choisir l'emplacement du
champ, et je choisirai les dix
premières valeurs. Ensuite, je cliquerai sur Fermer. Maintenant, pour l'axe vertical, je vais ajouter ou faire glisser
et déposer à nouveau. Ensuite, je choisirai le champ Num Underscore
Sequences. Et puis je cliquerai sur certains sous la fonction de
sélection. Ensuite, je peux cliquer sur Fermer. Cela me donne maintenant le nombre total de séquences
pour les dix premiers pays. Il s'agit de toutes les variantes
du COVID pour ce pays particulier
dans cette plage de dates. Je cliquerai donc à nouveau sur
sept retour après cela pour notre
troisième visualisation, je cliquerai sur
Créer une visualisation. Et cette fois, j'ai besoin de créer une variante
diffusée par pays de haut niveau. Je vais donc changer à nouveau le
type de graphique deux barres verticales. Et pour l'axe horizontal, je choisirai l'emplacement et le modifierai en dix premiers pays. Maintenant, je vais
choisir l'axe vertical, les séquences de
soulignement des numéros de champ. Et cette fois, je
choisirai la fonction maximum et je cliquerai sur Fermer. Après cela, je vais diviser ces données par
nombre de variantes. Je cliquerai donc sur ajouter ou déposer
un champ et une ventilation, puis je choisirai une variante. Et à partir de là, je peux spécifier le nombre de valeurs
que je voulais afficher. Par défaut, il est trois, donc il ne
représentera que les trois premiers. Mais comme nous avons beaucoup
de variance totale, je peux aussi taper 20 volts ici. Et puis pour chaque pays, il va décomposer les données
en fonction de toutes les variantes affectées, cliquez sur Fermer ici et je
survole les données pour les États-Unis, vous pouvez voir les détails du nombre cas pour chaque variante
particulière de COVID, Il arrive dans une plage de dates
spécifiée, qui est de trois dernières années. Maintenant, je vais cliquer
sur Enregistrer et revenir. Et dans ce tableau de bord, nous pouvons voir les trois
visualisations différentes. Ce que je peux faire, c'est que je peux enregistrer ce tableau de bord.
Je peux lui donner un nom. Donc le tableau de bord COVID
et sous les balises, je cliquerai sur créer une balise, puis je
lui donnerai le nom de la balise COVID et je cliquerai sur créer des balises. Je peux cliquer sur Enregistrer. Maintenant, si vous souhaitez stocker du
temps avec le tableau de bord, vous pouvez le faire, mais
je vais le laisser par défaut et cliquer sur Enregistrer. Une fois que le tableau de bord est enregistré, vous pouvez revenir au tableau de bord. Encore une fois, il
suffit de cliquer
dessus et de regarder des dates
différentes,
tout ce dessus et de regarder des dates
différentes, que vous avez à faire
est, par exemple, si je passe d'il y a trois ans
à il y a trois semaines
et de cliquer sur mise à jour, vous verrez que les résultats
changeront seuls. Ou nous n'avons pas eu de données
depuis trois semaines. C'est pourquoi il s'
agit d'un avertissement. Mais si je devais dire, disons qu'il y a
trois mois et que je
clique sur Mettre à jour, je recommencerai à voir
les données. Voici maintenant comment créer un tableau de bord Kibana avec cet accueil à la
fin de cette conférence. Merci d'avoir regardé. Je vous verrai dans
le prochain octet.
16. Toile: Hé les gars, Gabbana Canvas est un outil de visualisation
et de présentation des données qui vous permet de
mettre des données en direct à partir Elasticsearch, puis de les
enrichir avec des couleurs, images et des manuels scolaires, créer puissants présentations
destinées aux utilisateurs de votre entreprise. Canvas utilise désormais des tampons de travail
pour ajouter des visualisations, des platines d'
images, etc., pour
créer votre présentation. Alors laissez-nous nous salir les mains, pas de la page d'accueil de Kibana. Pour accéder à Canvas, vous devez cliquer sur le menu de navigation de
gauche. Ensuite, sous Analytics, vous devez cliquer sur Canvas pour
ne pas créer notre première œuvre, mais je dois cliquer
sur Créer un classeur. Et à partir de ce vert, vous pouvez ajouter votre premier élément en
cliquant sur le bouton
Ajouter un élément. Le premier élément
utilise des textes. Vous pouvez maintenant utiliser
cet élément pour
ajouter du texte à votre présentation en utilisant le langage Markdown. Je vais donc changer ce
texte par mot de bienvenue dans la présentation de l'
index Netflix. Je vais supprimer ce
texte et je dirai, voici l'aperçu des données
dans l'index de soulignement Netflix. Ensuite,
vous verrez qu'il fait référence à certaines informations contenues
dans les données de démonstration. Par exemple, il
vous donne la longueur de la ligne,
puis il vous
donne tous les noms de colonnes l'
aide de chaque attribut de colonnes. Il a donc tous les noms de colonnes, mais cela reflète les données de
démonstration de cet élément. Je vais donc d'abord cliquer sur Appliquer. Et une fois cela fait, je cliquerai sur Données et je modifierai la source de données de démonstration
à Elastic Search. Ensuite, je m'
assurerai que je suis sur l'index
Netflix et
je cliquerai sur Enregistrer. Et dès que je clique sur Enregistrer, vous pouvez voir
que cette zone de texte reflète les données de
mon index Netflix. Maintenant, pour le deuxième élément, ajoutons la visualisation que nous avons ajoutée à notre bibliothèque de
visualisation. Cliquez sur Ajouter un élément, puis je cliquerai sur Ajouter depuis Kibana. Ensuite, je vais sélectionner
la visualisation que nous avons enregistrée dans
la bibliothèque de visualisation. Et ensuite, nous allons le
déplacer sur le côté. Vous pouvez maintenant modifier
le filtre
temporel en cliquant sur l'heure. Par exemple, si je voulais
passer des 15 dernières minutes pour nous laisser dire les 30 dernières
minutes, cela peut le faire. Et ce panel reflétera
le changement dans le temps. Maintenant, en tant que troisième élément, je vais créer un graphique. Je clique donc sur Ajouter un élément, je clique sur Graphique, puis je cliquerai sur métrique, puis je déplacerai cette mesure sous mon élément de
visualisation. Maintenant, pour cette mesure, modifions à
nouveau la source de données en index Netflix. Et je cliquerai sur
Enregistrer pendant une minute. Cela va nous donner une erreur, mais passons à l'affichage. Maintenant, pour mesurer, nous avons besoin
d'une valeur unique de titre. Maintenant, le
format de mesure est numéroté, mais nous devons modifier l'étiquette. Je vais donc remplacer les pays par
des titres de films uniques. Il s'agit maintenant du nombre de titres de films
uniques
dans notre index Netflix. Ensuite, nous pouvons également modifier
les textes des mesures. Disons donc que nous voulons que la
matrice soit en rose. Pourquoi ne pas nous laisser faire cela ? Nous pouvons également modifier la taille, la police et la
couleur de notre étiquette. Disons que je veux que ma
police soit Helvetica. Je vais donc cliquer dessus et
je vais changer un peu la taille, donc je vais la changer à 24. Et disons que je veux que
la couleur soit verte, je vais
donc la sélectionner. En fait, celui-là semble mieux. Je peux maintenant ajuster la taille
de ma visualisation. Sachez ensuite, ajoutons une image. Je vais donc cliquer sur Modifier la limite. Je clique sur Image, puis je cliquerai à nouveau
sur l'image. Cela nous donne maintenant
une image par défaut. Je vais donc minimiser ça un peu. Et je peux importer une image
en utilisant le bouton Importer. Il peut fournir un lien
vers une URL d'image. Pour l'instant, je
cliquerai sur Importer
, puis je cliquerai sur Sélectionner
ou glisser-déposer une image. Maintenant, je vais choisir une image dans mon dossier
de téléchargements. Et disons que je veux montrer mon visage sur cette
présentation ici. Maintenant, pour afficher ce
bloc de travail en plein écran, il
suffit de cliquer sur
ce bouton plein écran et vous verrez toutes les
informations en plein écran. Je vais sortir du
mode plein écran pour l'instant. Maintenant, ce retour est
automatiquement enregistré. Si je vais sur Canvas et que je
peux voir mon lit de livre ici, je peux cliquer sur le
travail, mais encore une fois, j'obtiendrai tous les
éléments de données qui partagent cette œuvre. Mais je peux cliquer sur Partager
et je peux créer un rapport PDF afin de pouvoir sélectionner mise en
page pleine page et
cliquer sur Générer un PDF. Et maintenant, il est dit que
votre licence de base ne prend pas en charge les rapports PDF. Par conséquent, si vous possédez une licence de
production, vous pourrez
télécharger le rapport PDF. Maintenant, cliquons à nouveau sur Partager. Maintenant, si vous cliquez sur
Partager sur un site Web, il vous donnera des
instructions sur la façon de partager ce canevas
sur le site Web. Ensuite, nous pouvons également le
télécharger en JSON. Je clique donc sur
Télécharger en tant que JSON et il téléchargera le
JSON pour ce travail, difficile de changer le
nom de ce livre, mais je peux aller
travailler avec les paramètres Ed comme et changer le
nom pour Netflix. Revenez à pied. Maintenant, je peux modifier
certains détails comme résolution
même si j'ai des variables dans ce travail
portent des paramètres CSS globaux, etc. Mais pour l'instant, c'est ainsi que vous pouvez créer un canevas Kibana
fonctionne mieux avec cela. Venez à la fin de cette conférence. Merci d'avoir regardé. Je vous verrai dans
le prochain. Au revoir.
17. Domaines d'Auth: Hé les gars, Dans cette conférence, je vais vous donner un aperçu
rapide des domaines
d'authentification disponibles
dans Elastic Search, les domaines
d'authentification
sont utilisés pour authentifier les utilisateurs et les applications
contre Elastic recherche, il existe deux principaux types
de domaines d'authentification. Le premier est constitué de nervures
d'authentification internes. Ils sont internes à
Elastic Search et il
n'y a pas d'intégration à
un système externe. Ce type de salle est entièrement
géré par Elastic Search. Il ne peut s'agir que
d'un domaine configuré au maximum, mais de type DLM interne. Voyons maintenant
un exemple de chaque type de loam
interne. Le premier est le domaine
d'authentification natif. Et le
dôme d'authentification natif est l'endroit où
les utilisateurs sont stockés dans un index
Elasticsearch dédié. Ce domaine prend en charge
et un
jeton d'authentification sous la forme d'un nom
d'utilisateur et d' passe. Il est
disponible par défaut lorsque les domaines bas sont
explicitement configurés. Alors n'oubliez pas que lorsque nous
installions Elasticsearch, utilisé un script pour
réinitialiser les mots de passe pour les utilisateurs de
notre système de
soulignement Elastic et Kibana. Ces utilisateurs sont configurés
sous authentification native. Il est disponible uniquement
sur la licence libre. Dossier. Le
domaine de l'authentification est également un domaine d'authentification interne disponible sur la licence libre. Ce domaine est que très
les utilisateurs sont définis dans des fichiers stockés sur chaque nœud
du cluster Elasticsearch. Ce domaine prend en charge
et le
jeton d'authentification sous forme de
nom d'utilisateur et de mot de passe, et il est toujours disponible. Après cela, regardons rapidement les royaumes
extérieurs. L'authentification externe
ne nécessite pas interaction avec des parties et des composants externes
à Elastic Search, tels que Microsoft
Active Directory ou toute autre
application de niveau entreprise. Si vous exécutez un cluster de grille de
production, il est
fort probable que vous deviez configurer
un domaine externe. Sous le
cluster Elasticsearch, vous pouvez avoir autant d'éléments externes, si vous le souhaitez, chacun ayant son propre
nom et sa configuration uniques, la fonction de
sécurité Elastic Stack fournit la référence
externe suivante. type. Ainsi, LDAP, Active Directory, symbole d'authentification
PKI Kerberos ou IDC. Non, le domaine de l'authentification est, utilise un serveur Web externe
pour authentifier ses utilisateurs. Les utilisateurs sont donc stockés dans un serveur
d'authentification externe, et nous nous intégrons à ce
serveur pour authentifier les utilisateurs. Ce domaine prend en charge
un
jeton d'authentification sous la forme
d'un nom d'utilisateur et d'un mot de passe et nécessite une configuration
explicite pour être utilisé. Ensuite, nous avons le domaine
d'authentification Active Directory. Ce cycle utilise un serveur
Active Directory externe, indiquant les utilisateurs dans lesquels vos
utilisateurs sont stockés. Par exemple, les utilisateurs Microsoft AD sont authentifiés à l'
aide de noms d'utilisateur et mots de passe devenus royaumes
authentifient les utilisateurs à l'aide de l'infrastructure à clé
publique, de la clé publique et de la clé privée Ce domaine fonctionne en
conjonction avec SSL et TLS et
identifie l'utilisateur par son
nom distinctif ou son ADN
du certificat d'extraction
509 du client. Par conséquent, si nous utilisons cette ligne, vous aurez besoin de certificats
installés sur les utilisateurs. Sam Hill facilite l' authentification à l'aide du protocole SSO Web
SAML 2. Ce domaine est conçu pour prendre
en charge l'authentification via Kibana et n'est pas
destiné à être utilisé dans l'API Rest. Kerberos est maintenant que le domaine authentifie l'utilisateur à l'aide de l'authentification
Kerberos, les utilisateurs sont authentifiés
sur la base de tickets
Kerberos ou IDC
facilite l' authentification à l'aide d'
OpenID Connect. active la recherche Elastic en
tant que partie de confiance OpenID Connect
et fournit une prise en charge SSO. Tout au long de ces cours,
nous allons maintenant utiliser
l'authentification native pour nous connecter à notre cluster
Elasticsearch. Pour vos clusters de production, il est très probable
que vous deviez configurer l'un de
ces domaines externes. Ce que je vais faire, c'est que je vais fournir des liens vers diverses URL sur façon dont vous pouvez configurer chacun de ces domaines sur vos clusters
de production. C'est ainsi que nous sommes arrivés à la
fin de cette courte conférence. Merci d'avoir regardé. Je
vous verrai dans le prochain. Au revoir.
18. Utilisateurs et rôles: Hé les gars, jusqu'à présent dans cette démo, nous avons utilisé
le superutilisateur Elastic pour nous authentifier
contre notre cluster. C'est très bien pour notre laboratoire de démonstration, mais dans un environnement de production, se peut
que
des centaines de
personnes aient besoin de s'authentifier
et vous ne
voudrez pas partager le mot de passe votre superutilisateur avec chacun d'eux. utilisateur. Saisissez maintenant des rôles. Les rôles sont un ensemble de
privilèges qui vous permettent d' effectuer des actions ainsi que
Kibana et Elastic Search. Ces rôles vous donnent désormais le
privilège d'effectuer des actions contre votre index
Kibana Elasticsearch. Par exemple, certains utilisateurs peuvent uniquement vouloir
créer des tableaux de bord. Pour les autres, vous voudrez
peut-être gèrent davantage vos index, il peut y avoir un groupe
qui doit agir en tant administrateur de
votre instance Kibana, ce que vous devrez
faire, c'est que vous devrez créez des rôles pour chacun de
ces différents types d'utilisateurs. Chaque rôle ayant des
niveaux d'accès différents, vous attribuerez ce rôle, chacun de ces utilisateurs,
les utilisateurs ne se voient pas
accorder directement des privilèges, mais se voient attribuer
une ou plusieurs règles qui décrit le niveau d'accès
souhaité. Ainsi, comme je l'ai dit,
merveilleux pourrait donner aux
utilisateurs uniquement
accès aux tableaux de bord. Désormais, lorsque vous attribuez plusieurs rôles à des
utilisateurs, l'utilisateur reçoit une union
des privilèges des rôles. Supposons que vous ayez
deux indices, index et index b.
Et que vous avez un rôle qui
accorde l'accès à l'index une inscription qui accorde un
excédent à l'index B. Supposons
maintenant que vous
avez un utilisateur et cet utilisateur se voit
attribuer ces rôles. Maintenant, parce qu'il
a ces deux rôles, l'union de ces deux
rôles lui permettra d'
accéder aux données de l'
index et de l'index b. Maintenant, elasticsearch vient
avec quelques rôles intégrés. Par exemple, que tous les systèmes de soulignement des
battements peuvent danser l'accès nécessaire
aux systèmes de plage,
métrique, appât, battement de cœur,
basé sur les fichiers, etc. pour envoyer des
données au niveau du système à Elastic Search. Kibana souligne une règle système qui n'est pas nécessaire pour utilisateur du système
Kibana puisse lire et écrire
dans les indices Kibana. Et si vous vous souvenez,
lorsque nous
configurions Elasticsearch
et Kibana System, nous avons configuré le mot de passe de
cet utilisateur dans notre fichier YAML
Kibana dot. Maintenant, Elastic Search
est également livré avec un
élastique de superutilisateur qui donne accès à
toutes les zones de votre cluster. C'est donc un accès complet au système. Désormais, par mesure de sécurité, vous ne voudriez plus vous connecter avec cet utilisateur après avoir
provisionné le système. Et dans le cadre de
votre provisionnement, vous allez provisionner
l'administrateur et les super-utilisateurs qui peuvent être liés à une personne qui va
jouer ce rôle. Et une fois cela fait, vous voudrez stocker mots de passe de
ces super utilisateurs dans un endroit sûr et
ne plus jamais les utiliser. Revenons à notre
instance Kibana pour voir
comment créer des rôles et des utilisateurs pour
ne pas créer de rôle personnalisé. Nous allons d'abord cliquer
sur Créer un rôle, puis nous devrons spécifier
un nom de rôle pour le nom de Rome, je vais entrer dans l'
administration car il s'agit d'un
rôle d'administrateur que nous
configurons sous
privilèges de cluster, je cliquerai sur Tout. Et puis, sous les privilèges d'index, je peux soit
leur donner accès à l'un de ces index, soit parce que c'
est mon utilisateur administrateur, je vais taper Démarrer ici pour leur
donner accès à
tous les indices. Et puis, sous privilèges, je cliquerai sur Tout. Prochaine. Sous Kibana, je cliquerai d'abord sur
Ajouter le privilège Kibana, nous devons leur donner accès à tous les espaces et ensuite ils
peuvent fournir à ce rôle un accès
personnalisé
à chaque fonctionnalité. Par exemple, sous Analytics, je peux donner accès
à ce rôle pour découvrir le tableau de bord, etc. Ou comme il y a un rôle d'administrateur, nous pouvons lui accorder tous les
privilèges et cliquer sur Créer un
privilège global sur pierre. Cliquez sur Créer un rôle. Maintenant, créons
un rôle qui
n'a accès qu'à certains indices. Je vais donc cliquer sur Créer une règle, et je l'appellerai administrateur COVID. Et nous garderons le
reste des paramètres identiques à ceux que nous avions
auparavant sous indices. Je vais choisir
l'index COVID et je
donnerai à ce rôle l'accès
à tous les privilèges. Et ensuite, c'est la même chose pour Kibana. Je lui donnerai accès à tous les
espaces et à toutes les fonctionnalités. Je clique donc sur Créer un privilège
global et cliquer sur Créer un rôle. Maintenant,
créons trois utilisateurs. Le premier sera
un utilisateur administrateur. Je vais donc cliquer sur Créer un utilisateur. Je vais donner ce nom d'utilisateur admin. Le nom complet serait admin one et les adresses e-mail
admin sur test.com. Ensuite, spécifions
quelques mots de passe. Et après cela, nous devons
attribuer des règles à cet utilisateur. Pour l'instant, nous allons attribuer un rôle d'
administrateur et
nous affecterons également le
rôle d'utilisateur de surveillance car ce rôle est nécessaire pour accéder à la fonction de surveillance de la
pile. Ensuite, je cliquerai
sur Créer un utilisateur. Déconnectons-nous maintenant de ce compte de superutilisateur,
puis nous allons créer notre administrateur nouvellement
créé pour effectuer d'abord le
provisionnement, et nous saisirons le nom d'utilisateur,
puis le mot de passe pour cet utilisateur. Laissez-moi couper cet avertissement ensuite, allons d'abord découvrir
et vérifier si vous avez accès aux deux indices,
Netflix et couverts. Je peux donc voir des données
dans l'index Netflix. Passons maintenant
à l'indice de couverture. Maintenant, je dois
étendre ma recherche temporelle. Il y a 1415 semaines, et je cliquerai sur la mise à jour, et je peux voir que j'ai également
accès à cet index. Passons maintenant aux tableaux de bord. Je peux voir le tableau de
bord COVID que nous avons créé. Maintenant, passons à nouveau à la direction et à
la gestion du personnel. Et ici, les utilisateurs. Nous allons maintenant créer un deuxième utilisateur. Cliquez sur Créer un utilisateur. Et il s'agit d'un utilisateur qui
dispose d'un accès administratif. Il ne s'agit que de l'indice COVID. Nous allons donc l'appeler administrateur du
soulignement COVID, et le nom
serait COVID-19 et adresse
e-mail COVID test.com. Ensuite, je vais
lui fournir un mot de passe maintenant pour le privilège, je lui donnerai le
privilège de l'administrateur COVID, et cliquez sur Créer un
utilisateur appris. Permettez-moi de me déconnecter de cet utilisateur. Et ici, je vais taper
Covid Underscore admin, puis je taperai le
mot de passe pour cet utilisateur. Maintenant, une fois que vous êtes connecté, accédons à notre onglet Découvrir, alors à la maison et à découvrir. Et ici, si vous
choisissez l'index Netflix, vous ne verrez aucun indice
correspondant et aucun résultat ne correspond à vos critères
de recherche. Mais si je choisis l'indice
COVID et que je
change cette date d'il y a 15
minutes,
nous le modifions à il y a 15
semaines et nous cliquons sur la mise à jour. Voyez que je peux voir quelques données. Cet utilisateur peut désormais
également créer des utilisateurs. Donc, si vous accédez à Stack
Management et aux utilisateurs, je peux créer un utilisateur, mais je vais vous montrer
une autre chose, car nous n'avons pas
accordé le privilège de surveiller l'
utilisateur de soulignement à ce compte d'utilisateur. Nous n'avons pas de
surveillance de pile sous gestion pour cet utilisateur. C'est donc une
chose importante à noter, même si vous pouvez fournir
tous les privilèges sous Kibana,
vous devez attribuer spécifiquement un vous devez attribuer spécifiquement rôle
d'utilisateur de soulignement de
surveillance
aux utilisateurs que vous souhaitez attribuer la section de
surveillance de la pile excédentaire
privilégiée sous gestion. Maintenant, nous allons créer un
troisième utilisateur qui n'a accès qu'aux tableaux de bord et qui a
découvert que pour cela , allons d'
abord dans Rôles
et créons un rôle, et appelons ce rôle de rapport de soulignement
COVID. Maintenant, nous ne voulons pas accorder à cet utilisateur de privilèges de cluster, nous allons
donc le laisser vide. Nous voulons uniquement que cet utilisateur ait
accès à l'indice de
soulignement COVID. Et le seul
privilège que nous souhaitons pour cet utilisateur est de pouvoir lire
à partir de cet index. Maintenant, nous devons ajouter
quelques privilèges Kibana, afin de lui donner
accès à tous les espaces. Ensuite, nous le garderons en tant que personnalisation, puis
passerons à l'analyse. Ensuite, nous
leur donnerons accès en lecture seule sur Discover et
en lecture seule sur Dashboard. Et nous
leur donnions également accès à Canvas et visualisons la bibliothèque. Ensuite, nous cliquerons sur
Créer un privilège global. Ensuite, nous cliquerons sur Créer un
rôle pour créer ce rôle. Nous allons maintenant voir les utilisateurs et
nous allons cliquer sur Créer un utilisateur. Et cette fois-ci, nous appellerons cet utilisateur de rapport de soulignement COVID. Le nom serait un utilisateur
déclarant, un e-mail
signalerait un fichier test.com. Nous allons lui donner un mot de passe. Par conséquent, mot de passe, puis
sous privilèges, nous lui accorderons le privilège de rapport de
score COVID-19, puis nous cliquerons
sur Créer un utilisateur. Après cela, déconnectons-nous et voyons l'excédent pour
ce nom d'utilisateur. Je vais taper le
rapport de soulignement COVID et nous
spécifierons un mot de passe. Désormais, une fois que vous êtes à l'intérieur, vous ne verrez que des analyses
sur votre écran d'accueil. Cela est dû au fait que votre utilisateur n'a accès qu'aux fonctionnalités d'
analyse. Maintenant, si vous cliquez sur notre menu de navigation de
gauche, et sous Analytics, nous allons découvrir que nous avons quelques données pour l'indice de
soulignement COVID. Cependant, si nous passons à l'index
Netflix,
une erreur indiquant qu'aucun indice ne
correspond mieux à Netflix index. En effet, notre
utilisateur n'a pas accès à l'
index Netflix sous le tableau de bord. Si je clique simplement sur le tableau de bord
COVID, je pourrai voir toutes les
données de mon tableau de bord COVID. Maintenant, ensuite,
passez à Canvas et ouvrez le travail
Netflix maintenant, puisque cet utilisateur
n'a accès à aucune donnée dans l'
index Netflix, j'obtiendrai des erreurs. Déconnectons maintenant cet utilisateur et reconnectons-nous en
tant qu'utilisateur administrateur, administrateur et mot de passe. Maintenant, cliquons sur le menu de navigation de
gauche et passons directement à la gestion de la
pile. Ensuite, passons
maintenant aux utilisateurs à partir de cet écran, si vous voulez supprimer
l'utilisateur, par exemple, si je voulais supprimer mon utilisateur de rapport de
soulignement COVID, je peux simplement sélectionner
cet utilisateur et cliquer sur supprimez un utilisateur
et cliquez sur Supprimer. Mais je ne vais pas le
faire maintenant, si je veux changer le
mot de passe de cet utilisateur,
je cliquerai dessus, je vais descendre et
cliquer sur Modifier le mot de passe. Et ici, je peux mettre à jour le
mot de passe de cet utilisateur. Soul annule également si je voulais
désactiver cet utilisateur, alors gardez cet utilisateur sur le système, mais empêchez les utilisateurs
d'y accéder. Je peux cliquer sur Désactiver l'utilisateur. Et si je veux modifier les
privilèges de cet utilisateur, je peux venir ici et
lui attribuer un rôle différent. C'est ainsi que vous pouvez utiliser
les utilisateurs et les rôles pour fournir des contrôles d'accès
basés sur les rôles à
votre cluster Elasticsearch. C'est ainsi que nous sommes arrivés à
la fin de cette conférence. Merci d'avoir regardé. Je vous verrai dans le prochain. Au revoir.
19. Espaces: Salut les gars, puis Enterprise. Il y aura plusieurs équipes qui auront besoin d'accéder à Kibana. Par exemple, l'équipe marketing peut avoir besoin d'accéder aux tableaux de bord
marketing. L'équipe des opérations aura besoin d'accéder aux tableaux de bord des opérations. Maintenant, cela peut encombrer les
choses très rapidement pour
vous aider dans cette situation, Kibana a une fonctionnalité
appelée espaces. Il vous permet d'organiser
vos objets enregistrés, tels que les tableaux de bord, en catégories
significatives. À partir de notre exemple, vous allez
créer un espace de marketing et ils créeront
tous leurs tableaux à l'intérieur de cet espace. De même, vous allez
créer un espace pour les opérations et
ils effaceront leurs tableaux de bord dans l'espace
informatique, le marketing ne
pourra pas voir ce qu'il y a à l'intérieur des opérations ni même noter qu'un l'espace d'opérations existe. De même, les opérations ne
connaîtront pas l'espace marketing. Désormais, pour qu'un utilisateur
puisse voir un espace, vous devez spécifiquement attribuer un
excédent à cet
espace à cet utilisateur. Par exemple, tous les membres l'équipe
marketing auront
accès à un espace marketing. Tous les membres de l'équipe des opérations
auront accès à l'espace opérationnel. Et si quelqu'un a besoin d'accéder à la fois au marketing
et aux opérations, vous lui attribuerez
l'accès aux deux espaces. Maintenant, Kibana crée
un espace par défaut pour vous et tous les objets que nous avons créés
jusqu'à présent dans ce cours ont été créés dans l'espace par défaut du
deck. Enfin, pour gérer les espaces, vous avez besoin que le rôle d'
administrateur de soulignement Kibana soit équivalent. Maintenant, allons craquer
sur ma page Web Kibana. Je me suis connecté en utilisant
mon compte administrateur, administrateur pour configurer des espaces, je dois cliquer sur le menu de
navigation de gauche, puis passer directement à la gestion de
la pile sous gestion. Je vais donc cliquer dessus. Et la configuration
des espaces se trouve sous
Kibana et espaces. Maintenant, vous pouvez voir que je viens d'avoir mon
espace par défaut pour l'instant. Nous allons créer un nouvel espace ici. Je vais donc cliquer sur Créer un espace, et je nommerai cet espace de soulignement
COVID. Maintenant, je peux
créer un avatar. Par défaut, il est
défini sur les initiales, mais vous pouvez également télécharger
une image pour votre avatar, laissera comme initiée
par défaut, mais je vais changer la couleur d'
arrière-plan en vert. Désormais, sous fonctionnalités,
nous pouvons spécifier quelles fonctionnalités sont
disponibles sous l'espace. Je vais donc tout supprimer,
sauf l'analyse, car je
veux simplement accéder aux
fonctionnalités d'analyse en utilisant cet espace. Et puis je cliquerai
sur Créer un espace. Maintenant, une fois que j'ai noté l'espace, nous avons besoin de quelques objets
dans cet espace. Désormais, tous nos objets se trouvent par défaut dans
l'espace par défaut. Pour l'instant,
nous allons copier l'index COVID et le bord
COVID dans l'espace de soulignement
COVID. Donc pour ce faire, je dois aller à sauvegardé, puis je dois trouver COVID
et le tableau de bord de partition. Et à partir de ces trois boutons situés à l'extrême gauche de cette ligne, je dois cliquer dessus et je dois cliquer sur Copier dans l'espace. Une fois sur place, je peux
choisir Copier les actions. Par exemple, la création de
nouveaux objets avec des identifiants
aléatoires est vérifiée
pour les objets existants. Je le laisse par défaut
car je sais qu'il
n'y a pas d'objets dans mon espace de
soulignement COVID. Ensuite, je dois cliquer
sur l'espace de soulignement COVID, sous certains espaces, puis je cliquerai sur Copier dans un espace. Une fois la copie terminée, elle affiche le
nombre d'objets à copier et vous pouvez
cliquer sur Terminer. De même, je dois copier l'index
de soulignement
COVID cliquez dessus, puis cliquez sur Copier dans l'espace également. Ensuite, je cliquerai sur COVID, soulignerai l'espace, puis je cliquerai sur une
entreprise ou un espace. Maintenant, s'il y a des erreurs, vous les verrez ici. Pour l'instant, je vais cliquer sur Terminer. Une fois que les objets ont été
déplacés dans cet espace, il a commencé à attribuer cet
espace à un rôle. Donc, notons à la
sécurité, puis roulons et découvrons que le
soulignement COVID a tout rapporté. Une fois
à l'intérieur, nous devons descendre directement à Kibana, puis cliquer
sur cette icône de crayon. Et à partir des espaces où
il est indiqué tous les espaces, nous devons supprimer cela,
puis choisir l'espace de
soulignement COVID. Une fois
cela fait, vous pouvez cliquer
sur Mettre à jour les privilèges d'espace. Cette règle ne peut donc donner
accès qu'à l'espace COVID maintenant. Ensuite, vous pouvez
cliquer sur la règle de mise à jour. Une fois cela fait, déconnectons-nous cet utilisateur administrateur et reconnectons-nous à l'aide de
l'utilisateur déclarant. À partir de cet écran, je vais saisir
le nom d'utilisateur COVID et le rapport de score, fournir mon mot de passe et cliquer sur Connexion. Maintenant, tout de suite,
vous remarquerez que je ne suis
plus dans l'espace par défaut. Et maintenant, je vais cliquer sur le menu de navigation de
gauche. Et nous allons d'abord accéder
à notre onglet Découvrir. Maintenant, vous pouvez voir par défaut
que je suis dans l'index COVID, mais affectez le clic
sur le menu déroulant. Je ne vois même pas
l'index Netflix. C'est parce qu'il n'est pas
affecté à cet espace. Maintenant, pour afficher les données, je dois modifier la recherche
temporelle d' 15 semaines et je
clique sur Mettre à jour. Et vous pouvez voir que j'
ai accès aux données. Voyons maintenant si notre
tableau de bord fonctionne toujours. Je clique donc sur Dashboard
et sur le tableau de bord COVID. Et vous pouvez voir que j'ai également
des données dans mon
tableau de bord. Si quelqu'un parle de cette erreur, maintenant, si je vais sur Canvas, vous pouvez voir que
je ne vois même plus
le Wordpad Netflix. Spaces est donc un bon moyen de garder vos objets organisés
pour différentes catégories. Par exemple, le marketing ne peut avoir accès qu'à leurs
tableaux de bord, etc. De toute évidence, si vous créez un nouvel objet dans cet espace, il sera
automatiquement affecté à cet espace et non
à l'espace par défaut. Donc, si je clique sur le menu de navigation de
gauche et que je clique sur Visualize library. Et si je clique sur créer une
nouvelle visualisation, je choisirai l'objectif. Supposons que je souhaite le nombre total de
pays dans ma base de données. Je vais donc cliquer sur métrique,
Analytique sur emplacement. Maintenant, j'ai un type
d'emplacement unique qui est 64. Maintenant, je ne peux pas enregistrer
cela car mon utilisateur déclarant des utilisateurs ne dispose
pas d'autorisations appropriées
sur cette base de données. Mais si je me déconnecte et que je
me connecte en tant qu'utilisateur administrateur, et ici je sélectionnerai l'espace de soulignement
COVID. Et vous pouvez voir que même si mon utilisateur dispose de beaucoup
plus de privilèges, je ne peux voir que ce qui est
alloué à mon espace. Je ne reçois donc pas toutes les fonctionnalités de recherche et de disponibilité, etc. Je ne reçois que des analyses
et une gestion de pile. À partir de là, je vais cliquer
sur Visualize library. Je cliquerai sur créer une nouvelle
visualisation et une nouvelle lentille. Ensuite, je modifierai le type de
mesure de
visualisation et je modifierai
la date à il y a 15 semaines. Et à partir de là, je vais encore
faire glisser l'emplacement, voir qu'un nombre unique
de lieux est de 64. Et maintenant, j'ai de nouveau le bouton
Enregistrer. Je cliquerai donc sur Enregistrer et je l'
appellerai des pays uniques. Et je le déplace vers un tableau de bord
existant, qui est le tableau de bord de
score COVID-19. Et je cliquerai sur Enregistrer
et accéder au tableau de bord. Et ici, j'ai ajouté le quatrième
élément à mon tableau de bord pour pays
uniques ou cliquez sur Enregistrer pour enregistrer les modifications apportées
à ce tableau de bord. Et maintenant, si je retourne à mon utilisateur de reporting
couvert par le rapport de score, et que je clique sur le bord
COVID et que
je modifie
la date à il y a quelques semaines, je peux également voir la nouvelle
visualisation. C'est ainsi que vous
pouvez utiliser des espaces pour classer vos
objets à l'intérieur de Kibana. C'est ainsi que nous sommes
arrivés à la fin de cette conférence.
Merci d'avoir regardé. Je vous verrai dans
le prochain combat.
20. Introduction à Logstash: Hé les gars,
parlons de la session de journal. Cette section, Log
Stash, vous permet agréger vos données
provenant de différentes sources, transformer,
puis de les envoyer à Elastic Search ou à toute autre
application de votre choix. Par exemple, si vous
souhaitez analyser les données, vous pouvez les envoyer à Elastic
Search ou MongoDB. Toutefois, si vous
souhaitez simplement stocker les données, vous pouvez les envoyer
à quelque chose comme Amazon S3 stocké dans un fichier
sur votre système de fichiers local. Il existe de nombreuses destinations en fonction de votre cas d'utilisation. Et j'ai joint un lien vers
un article où vous trouverez plus d'informations sur les
destinations et Log Stash. Maintenant, avant d'en savoir plus
sur les recherches dans les journaux et les détails de
niveau inférieur, il est toujours judicieux de comprendre
certains cas d'utilisation. Par conséquent, le premier cas d'utilisation de Log
Stash est celui des journaux et des mesures. n'existe parfois aucun moyen standard de comprendre vos données de journalisation. Dans ces scénarios, Log
Stash peut vous aider à définir logique afin que vous puissiez transformer et
donner un sens à vos données de journal. Ensuite, vous pouvez également consommer
des données du service Web HTTP ou générer des événements en
regroupant et en terminant HTTP. Par
exemple, vous pouvez
extraire Twitter et obtenir des données de
Twitter à l'aide de Log Stash. Vous pouvez également utiliser des statues de journal pour
transformer et comprendre les données relationnelles ou
non relationnelles stockées dans
vos bases de données. Enfin, Log Stash est une colonne vertébrale commune de
collecte d'événements pour l'ingestion de données
provenant d'appareils mobiles, de maisons
intelligentes, de véhicules
connectés, capteurs de
soins et de nombreux autres secteurs d'activité, applications IoT
spécifiques. Désormais, le pipeline Log Stash
comporte trois étapes. Il a une entrée de
filtre, puis une sortie. Par exemple, vous avez des
données dans votre magasin de données. Il peut s'agir d'un magasin de données IoT ou d'une
application ou d'une base de données, n'importe quoi, vous envoyez ces
données à Log Stash. Maintenant, dans ce pipeline
anglais, vous devez d'
abord
définir une entrée. Et c'est vous qui expliquez Log Stash comment vous
allez obtenir ces données. Par exemple, vous pouvez l'
obtenir à partir d'un fichier. Vous pouvez également l'obtenir
sur un port TCP ou UDP. Il peut également s'agir de données de journal système. Vous allez donc définir toutes les
dettes dans l'entrée Suivant. Une fois que vous avez obtenu ces données, vous devez les traiter. Et cette logique de traitement est configurée à l'intérieur des filtres de
filtre, ou comment
transformer vos données. Vous pouvez également utiliser
des conditions
à l'intérieur du filtre pour effectuer certaines transformations uniquement lorsqu'elles correspondent
à certains critères. Maintenant, certains filtres couramment utilisés
sont le grok crop
a environ 120 modèles qui vous permettent de
transmettre des données non structurées. Nous examinerons Grok
un peu plus en détail lors d'
une conférence à venir. Mutate effectue des
transformations générales sur un champ événementiel. Vous pouvez effectuer des opérations telles que
Renommer un champ de suppression à partir de vos données, remplacer un champ et modifier des champs dans ses événements. Dropped vous
permet de supprimer
complètement un événement et le clone
vous permet de dupliquer un événement. Maintenant, la sortie est qu'une fois que vous avez obtenu les données
via votre entrée, vous avez effectué une transformation. Vous devez définir où ces
données doivent aller plus loin. La sortie est donc la façon dont vous transmettez un événement à une ou
plusieurs destinations. Maintenant, il s'agit le plus
souvent de la recherche élastique. Si vous utilisez la recherche de journaux, vous souhaitez intégrer
Elastic Search. Mais il peut aussi s'agir d'une sortie de fichier ou envoyer à quelque chose
comme une file d'attente Kafka. C'est à vous de décider, essentiellement la
prochaine destination des données, une fois qu'elle quitte le pipeline
Log Search est configurée sous sortie. Avant de
commencer à configurer les pipelines
Elasticsearch,
il y a encore une
chose que vous devez
comprendre, c' commencer à configurer les pipelines
Elasticsearch, il y a encore une
chose que vous devez est-à-dire les codecs. codecs sont des
filtres de flux qui peuvent fonctionner en
entrée ou en sortie. Un codec vous permet
de séparer facilement le transport de votre message du processus de sérialisation. Prenons essentiellement un exemple
de codec multiligne. Pensez maintenant à un journal d'
application, qui est réparti sur
plusieurs lignes par défaut, ce que la recherche Locks
va essayer de faire. Il essaiera de faire de chaque ligne
un événement Log Stash. Il se peut que vous ne
puissiez plus comprendre ce fichier journal s'il est
réparti sur plusieurs événements. Vous voulez donc que tout cela
se déroule en un seul événement. Dans ce cas, vous
utiliserez le codec multiligne. De même, si vous souhaitez encoder ou décoder vos données en JSON, vous utiliserez le codec décent. codecs sont donc des filtres
qui vous aident à séparer le transport de
votre message
du processus de stérilisation de Log Stash. C'est ainsi que nous sommes arrivés à
la fin de cette conférence. Merci d'avoir regardé. Je vous
verrai dans le prochain. Au revoir.
21. Indignation et transformation des données CSV à l'aide de la logstash: Hé les gars, dans cette conférence, nous allons transformer les
données CSV à l'aide de Log Stash. Nous allons créer un fichier
de configuration de pipeline en trois phases. Une phase d'entrée avec une entrée de fichier
nous aidera à ingérer un fichier CSV. Ensuite, nous utiliserons une phase de filtrage et nous utiliserons le filtre CSV
pour transformer nos données CSV. Enfin, dans
la phase de sortie, nous utiliserons deux sorties. La sortie standard sera utilisée
pendant la phase de test. Une
sortie Elastic Search sera utilisée pour finalement stocker les données dans
notre cluster Elasticsearch. Une fois que nous serons prêts avec le fichier de configuration du pipeline, nous allons le tester en exécutant Log
Stash. Commençons. Ici, à l'écran. Mon cluster
Elasticsearch à nœud unique. Ce que je vais faire en premier, c'est que je vais créer deux connexions SSH, puis je copierai
l'adresse IP externe et j'essaierai de voir si je peux me
connecter à mon instance Kibana. Je suis en mesure de me connecter à mon instance
Kibana sur le port 5601. Nous allons maintenant revenir à
notre instance SSH, puis je cliquerai en
haut sur l'icône Paramètres, puis je cliquerai
sur Charger le fichier. Et à partir de là, à partir de mes téléchargements, téléchargez le classement de
la
compétition, l'ESV, et je cliquerai sur Ouvrir. Une fois le téléchargement du fichier
terminé, je peux taper ls dans mon répertoire personnel pour m'
assurer que le fichier est là. Avant de commencer la
transformation de ces données, nous devrons d'abord
comprendre ces données. Je vais donc taper le chat, classements de
compétition,
commencer CSV et frapper Enter. Il y a donc environ 5 000
enregistrements dans ce dossier. Maintenant, je vais m'en sortir et nous allons faire un CSV de
classement en tête de compétition pour examiner les
premiers records. La première ligne est donc l'en-tête, et cette ligne
explique chaque colonne. Par exemple, la première
colonne est classée, la deuxième colonne est de niveau, la troisième colonne est nom d'utilisateur et chaque colonne est
séparée par un point-virgule, Cinq mille enregistrements, et chaque colonne est séparés
par un point-virgule. Nous pouvons maintenant commencer écrire notre fichier
de configuration de pipeline. Pour ce faire, je vais cd dans la barre oblique, ETC Log Stash. Et là, je vais faire un ls. Maintenant, dans Log Stash, il existe un répertoire
appelé point t. Ce qui se passe, c'est lorsque vous exécutez une barre oblique de
journal en tant que service, c'est qu'il récupère tous les
fichiers de configuration à l'intérieur de la construction. d. Nous allons donc écrire nos fichiers de configuration
dans ce répertoire. Il existe un autre fichier
de configuration appelé Locke's —sample.com. Et ce fichier est un exemple de fichier
de configuration fourni par Plastic. Il y a donc une tendance dans ce dossier. Nous allons jeter un coup d'œil. Maintenant, ce fichier a une
entrée qui accepte certaines données sur un port, puis
sans transformation, c'est des données de recensement ou
pointent vers la recherche élastique. Passons donc à froid pour D et écrivons notre fichier de
configuration de pipeline. Je vais donc me débarrasser de tout. Je vais faire un lls. Ce répertoire est vide. Je vais faire sudo touch et nous
appellerons notre
fichier de configuration CSV data.com. Et puis je vais taper
sudo via CSV data.com. Et je fermerai ça
et ici, je ferai un insert. Maintenant dans notre pipeline, nous devons d'
abord
définir une phase de saisie. Je vais donc saisir l'entrée,
puis les crochets bouclés, puis je déplacerai le crochet
bouclé vers le bas. Et ici, nous devons spécifier une entrée de fichier car nous
ingérons des données à partir d'un fichier. Je vais donc refaire des crochets
bouclés et faire du formatage. Maintenant, sous la saisie du fichier, nous devons spécifier
certains paramètres. Ce que je vais faire, c'est que j'
ouvrirai un autre onglet et je taperai l'entrée de
fichier Log Stash, et nous allons entrer dans la documentation du plug-in
d'entrée de fichier. Maintenant, dans cette documentation, vous pouvez lire comment fonctionne
ce plug-in. Par exemple, quels sont
les différents modes ? Il existe un mode conte
qui ne parvient pas à enregistrer, et il existe un mode lecture. Vous pouvez comprendre comment cette entrée suit
la position actuelle dans le fichier qu'elle regarde. Mais ce qui nous intéresse, c'est les options de
configuration d'entrée. Sous Options
de configuration d'entrée, vous verrez tous les paramètres
pouvant être configurés sur cette entrée. De plus, vous pouvez voir quels paramètres sont
requis pour cette entrée. Maintenant, pour le moment, le seul paramètre
requis est le paramètre de chemin. Et ce
paramètre de pièce est un tableau. Ce paramètre de pièce
est donc nécessaire pour spécifier le chemin d'accès du fichier
que vous allez lire. Pour nous. Permettez-moi d'ouvrir l'instance SSH. Et là, je vais faire un LS
et ensuite je ferai un PWD. C'est donc mon chemin d'accès et c'est le nom de fichier que nous
devons spécifier pour cette entrée. Je vais revenir à la configuration de mon
pipeline. Je vais taper, mais ensuite c'est
égal à et ensuite flèche. Et ici, je vais
spécifier le chemin. Je vais donc taper des
guillemets doubles et ensuite je
copierai le tracé et je
collerai cette partie ici, puis je mettrai une barre
oblique, puis je copierai
le nom de mon fichier, puis je copierai
le nom de mon fichier,
puis je le collerai ici également. Maintenant, après cela, jetons
un coup d'œil à quelques autres paramètres. Le paramètre suivant
est la position de départ, et il s'agit d'une chaîne, et il peut s'agir d'un
début ponctuel ou d'un n. Ce qu'il faut
savoir, c'est quelle est la valeur par défaut
de ce paramètre ? Je clique donc sur cette URL et il indique que la valeur
par défaut est. En gros, il
commencera à lire le fichier par le
bas si vous voulez
le configurer pour commencer à lire
le fichier par le haut, ce que nous voulons faire. Nous devrons
le configurer comme début. Revenons en arrière. Ici. Je vais taper la position de
soulignement de début, et la valeur
commencerait. Après cela, je veux vous
montrer une autre valeur. Je vais donc revenir en arrière. Il existe maintenant une valeur
appelée chemin sensible. Fondamentalement, depuis db, il s'agit d'un fichier de base
de données
qui garde une trace de la quantité de fichier
lue par Log Stash. Fondamentalement, si votre fichier contient 100 enregistrements et que la
barre oblique de journal en a lu 50, cette valeur sera stockée
dans le fichier de sensibilité. Maintenant, puisque le chemin de base de données vous donne la partie du fichier sinc TB, le chemin par défaut est les entrées obliques des plug-ins
barre oblique de
données de chemin d'accès. Un fichier dans notre cas parce que nous n'avons qu'un seul
fichier et que nous voulons continuer
à relire ce même fichier car nous allons tester
différentes options. Ce que je vais devoir faire, c'est
que je devrai configurer la partie sensibilité en tant que
barre oblique de dev null. Cela signifie que puisque db n'
écrira pas, ce qui nous permettra de
continuer à relire ce fichier. Je vais donc taper depuis le chemin de soulignement de
base de données et je vais configurer la
valeur du chemin comme barre oblique de dev barre oblique null. Maintenant, une fois que j'ai fait cela, j'en ai fini avec la saisie de mon fichier. Ensuite, je devrai spécifier le filtre, transformer nos données. Nous allons donc taper des filtres
et des crochets bouclés. Maintenant, sous filtre, ce que je
dois spécifier, c'est un filtre CSV. Donc CSV et crochets bouclés à nouveau, maintenant sous CSV
devra spécifier certains paramètres. Jetons donc un coup d'
œil à la documentation. Csv, fruits et Log Stash. Et je vais ouvrir le
lien pour obtenir de la documentation. Et ici, j'irai dans les options
de configuration. Donc, d'abord, nous pouvons
détecter automatiquement les noms de
colonnes ou
spécifier des noms de colonnes. Ce que je vais faire, c'est que je veux spécifier manuellement les
noms des colonnes ici. Je dois donc spécifier un paramètre appelé colonnes, et
c'est un tableau. Je vais donc revenir à mon filtre, et ici je spécifierai des colonnes. Et puis je vais taper entre
crochets car il
s'agit d'un tableau. Maintenant, pour obtenir les noms de colonnes, je vais revenir à la
deuxième instance SSH. Et ici, je vais taper dans classement de la compétition de
tête tri csv, et je copierai les noms des
colonnes d'ici. Puis j'ai reculé
et je les colle. Maintenant, je dois faire
un formatage. En gros, ce que je dois
faire, c'est que nous devons abord toutes ces colonnes à
l'intérieur de guillemets doubles comme celui-ci. Ensuite, je dois
changer le point-virgule en coma. Je vais le faire maintenant. Une fois que j'en ai fini, la prochaine chose que je voulais
faire est de préciser quel est le personnage qui
sépare mes colonnes. Revenons donc à
la documentation. Et ce que nous devons spécifier, c'est un paramètre appelé séparateur,
et c'est une chaîne. Je vais donc revenir en arrière, appuyer sur Entrée. Et ici, je vais taper dans le
séparateur est égal à flèche. Les tribunaux internes
spécifieront un point-virgule car nos données sont
séparées par un point-virgule. Maintenant, une fois que j'ai fait cela, je veux vous montrer
deux autres paramètres. Tout d'abord, nous pouvons ignorer
les colonnes vides et ignorer les lignes vides. Pour la démonstration, je
spécifierai sauter les colonnes vides. Nous pouvons également ignorer
le champ d'en-tête. Donc, si vous regardez nos données, la première ligne est un en-tête. À l'aide de ce paramètre de saut d'en-tête, ils peuvent demander
à Log Stash d'ignorer la première ligne. Maintenant, il y a une mise en garde à ce sujet. Vous devez vous assurer
que les noms de vos colonnes correspondent
exactement à la première
ligne de vos données. S'ils ne le font pas, Log, Stash ne sautera pas les en-têtes. Donc, quel que soit le contenu de cette ligne, les noms des colonnes doivent
correspondre exactement à ce que vous spécifiez comme nom de
colonne pour que le paramètre
d'en-tête saute fonctionne. Configurons donc cela. Ignorez les colonnes vides comme true. Et sauter l'en-tête est également vrai. Vous pouvez désormais ajouter des commentaires dans le fichier de configuration de
votre pipeline à
l'aide du symbole de hachage. Je vais donc taper du hachage. hachage vous permet de sauter la première ligne
du fichier source. Les noms des colonnes
doivent correspondre exactement. Nous sommes donc prêts à
spécifier la sortie. Pour commencer, nous utiliserons une sortie
standard comme sortie. Un autre type en
sortie, les accolades bouclées. Et je vais baisser ça. Et ici, je vais taper
STD comme sortie. Et à l'intérieur de cela, je vais taper Kodak et Kodak
serait un débogage de rubis. Et maintenant, nous sommes prêts
à faire fonctionner ce pipeline. Je vais enregistrer ce fichier. Et pour exécuter un pipeline, ce que vous devez faire est de taper une barre
oblique sudo,
utiliser la barre oblique de partage de barre oblique Log Stash. Et puis j'ai eu un
aperçu quand il y a un utilitaire appelé Log Stash
que nous utiliserons. Cet utilitaire représente
le chemin d'accès complet au fichier de
configuration de votre pipeline. Mais comme nous sommes dans
le même répertoire
que celui du fichier
de configuration du pipeline, nous pouvons simplement spécifier
un chemin relatif. Donc CSV data.com et appuyez sur Entrée. Maintenant, si votre pipeline
a été correctement configuré, vous obtiendrez un résultat comme celui-ci. Vos données sont ensuite
divisées en différents champs. Par exemple, il est joint dans un champ appelé date de jointure, nombre de
problèmes, métaux, etc. Il existe des champs
générés par le système. Il existe un champ de message, qui est un
champ généré par le système qui contient chaque horodatage individuel de
version de ligne. Maintenant, ce champ d'horodatage correspond l'heure à laquelle Log Stash a
ingéré ce fichier de données. Et nous utiliserons ce champ pour rechercher et explorer nos
données dans Kibana. Avec cela, nous pouvons maintenant spécifier la sortie Elastic Search en utilisant le contrôle C, ce qui arrêtera le pipeline. Maintenant, je vais modifier nouveau le
fichier de configuration de
mon pipeline ou c'est fait. Je peux soit supprimer le STD soit
ajouter une autre sortie. Je vais donc passer en mode insertion et je veux simplement
ajouter une autre sortie. Nous allons donc saisir Elastic
Search et des crochets bouclés. Déplacez cette pierre. Maintenant, sous la sortie Elasticsearch, le premier paramètre que je
dois fournir est une liste d'hôtes
vers lesquels je voulais envoyer ces données. type dans les hôtes est
égal à une flèche, et ce paramètre prend un tableau. J'ai donc mis des guillemets doubles et
http localhost, puis 90 à 100 parce que j'
exécute la recherche de journaux localement sur la même machine
que celle de mon
cluster Elasticsearch. Ensuite, je peux également spécifier un index sur Elastic Search où ces données
seront écrites. Nous allons donc taper l'index
et je lui donnerai ensuite le nom de l'index, indice de soulignement
CSV. Maintenant, une chose à noter avec cela, si je ne crée pas d'index
sur Elastic Search en premier, cela créera automatiquement l'index sur mon
cluster Elasticsearch pour moi. Essayons donc d'abord, je sauvegarderai ce fichier et ensuite je réexécuterai mon
pipeline. Et pendant que cela fonctionne, si vous regardez mon
Kibana et si je vais dans la gestion des index
et du personnel,
puis la gestion des index, il n'y a pas d'index ici. Pour que cela se termine, aucun vote n'
a été écrit par le pipeline. Il semble qu'il y ait des
difficultés à se connecter à Elastic Search parce que j'
ai un message disant élastique, si inaccessible fera un contrôle C pour
arrêter ce pipeline. On dirait donc que les services de
recherche Elastic s'exécutent. Jetons donc un coup d'œil à notre fichier
de configuration. Maintenant, la raison pour laquelle elle
a échoué est qu'il y a une faute de frappe, donc Altcoin à insérer
et je corrigerai
ma faute de frappe localhost 9200,
puis j'enregistrerai ma faute de frappe localhost 9200, puis j'enregistrerai ce fichier et relançons
le pipeline. Une fois que le pipeline a
terminé le traitement de nos données, son score sur
la gestion des index n' est plus
occupé sur une page et
rechargeons les indices. Ici. Vous pouvez voir l'index CSV. Il a été créé
automatiquement, je vais
donc rejeter et il
contient 5 000 documents. Essayons maintenant d'explorer
ces données dans notre onglet Découvrir. Je cliquerai donc sur
ces trois lignes haut
à gauche, puis
j'irai découvrir. Mais ici, vous ne pouvez voir aucune donnée car il est dit que pour visualiser
et explorer les données et Kibana, vous devez créer un bouton d'index. Jetons donc un coup d'œil à
ce qu'est un modèle d'index. Si vous vous souvenez de cours
précédents, un index est l'entité de niveau le
plus élevé que vous pouvez interroger par rapport à
une recherche Elastic. L'utilisation de notre
pipeline de recherche de journaux permet stocker nos données dans un index. À l'aide des API Rest Elastic Search, nous pouvons interroger les données
par rapport à cet index. Toutefois, un
modèle d'index identifie un ou plusieurs indices
de recherche élastiques que vous souhaitez
explorer avec Kibana. Pour explorer ces données et Kibana, nous devons créer
un modèle d'index. Maintenant, ce que fait Kibana, il recherche des noms d'index
correspondant à un bouton spécifié. Par exemple, un astérix sera un caractère générique qui correspond à
0 caractères ou plus. Par exemple, si notre
pari sur une étoile de tiret CSV correspondra à tous les noms d'index
qui sont CSV dash one, CSV dash T2 ou CSV, etc. Créons un
modèle d'index sur notre Kibana. Ici, sur le Kibana, je vais devoir me lancer dans la gestion des
piles. Je vais donc cliquer ici
sous gestion et
gestion pile
et je dois
passer sous Kibana
dans les boutons d'index. Je vais maintenant devoir
créer un bouton d'index. Maintenant, notre index était si je vais dans
mon pipeline et Control C
et que j'ouvre mon fichier de
configuration ou les index CSV Underscore index. Ce que je vais faire, c'est que je vais créer un
modèle d'index avec CSV. Et sur le côté droit,
vous pouvez voir que ce bouton d'index
correspond à un index source, CSV et
discorde en quelques jours. Maintenant, si nous voulons utiliser
le filtre temporel global, nous devons spécifier un horodatage comme je vous l'ai montré précédemment. Chaque fois, laissez-moi
sortir de là. Chaque fois que le
pipeline Log Stash s'exécute, il crée automatiquement un champ d'horodatage
appelé Ajouter un horodatage, qui contient l'heure à
laquelle le fichier a été ingéré. Par conséquent, puisque nos données ne comportent aucun champ d'horodatage natif, nous utiliserons ce champ comme
champ de filtre temporel. Je vais donc aller dans Index
Patterns et sélectionner Ajouter un horodatage, puis je
créerai mon spectre d'index. Maintenant, une fois le
bouton d'index créé, vous pouvez voir tous les champs
à l'intérieur de ce modèle d'index. Maintenant, cette horloge représente que ce champ d'horodatage est le champ horaire qui
sera utilisé pour le filtrage. Revenons maintenant à notre onglet Découvrir pour voir si
nous pouvons explorer ces données. Maintenant, comme vous pouvez le constater, fois que nous avons créé un
modèle d'index pour cet index, nous sommes maintenant en mesure de
rechercher ces données. N'oubliez donc pas qu'un index vous permet d'interroger ces données
par rapport
à Elastic Search, alors qu'un
bouton d'index vous permet d'
explorer ces données à l'aide de Kibana. Maintenant, une fois que nous en avons fini, permettez-moi de vous montrer comment supprimer un
bouton d'index et un index. Nous allons donc nous intéresser à la gestion
et à la gestion du personnel. Tout d'abord, je vais passer à
Index Management. Sélectionnez mon index, cliquez sur Gérer l'index
, puis supprimer l'index. Ensuite, j'irai sur les boutons d'index, cliquez sur CSV et supprimez-le. Je voulais maintenant vous montrer comment
créer un index et
Elastic Search. Pour cela, nous cliquerons à nouveau
sur ces icônes puis accéderons à la gestion,
puis à DevTools. Nous pouvons maintenant utiliser DevTools pour exécuter certains appels d'API sur notre cluster
Elasticsearch. Et cette fois, je vais
utiliser la méthode PUT pour créer un index appelé index de soulignement
CSV. Et le nombre de graphiques dans
cet indice serait un. Je peux donc configurer
certains paramètres. Et ici, je vais taper tous les champs que je
veux dans cet index. Cliquez sur cette flèche, et cet index
sera effacé. Maintenant, nous pouvons revenir
à notre pipeline et devons d'
abord nous assurer
que ce nom d'index, le paramètre d'index,
est exactement le même que l'index que
nous venons de créer. Sinon, si ce journal
est différent, Sasha va
créer un autre index et vous n'obtiendrez pas les
données stockées dans votre index. Ils ont donc veillé à
ce que ce nom soit
identique s'échappera de ce fichier et nous allons
exécuter notre pipeline. Maintenant que le pipeline
a terminé son traitement, revenons à notre Kibana. Et ici, je vais d'abord passer à la gestion des
piles et à la gestion des
index, vous pouvez voir que j'ai un index. Il existe une certaine taille de stockage, mais la colonne du document indique 0. Nous devrons donc nous pencher sur les brevets d'
index et créer
un modèle d'index. Et encore une fois, ce sera CSV et
cela correspondra à notre indice. Et j'utiliserai le champ
horodatage et je vais créer
le modèle d'index. Et une fois que c'est
le bouton Il est créé. Si je vais vérifier sous Gestion des
index, maintenant, je peux voir le
document en cours plus 5 000. Encore une fois, nous pouvons explorer nos données à l'aide
de l'onglet Découvrir. Je vais minimiser ce message et
il y a 5 000 visites. Maintenant, vérifions si notre rover
d'en-tête a sauté. Je vais donc entrer dans ma deuxième connexion
nécessaire et je
chercherai un nom d'utilisateur de valeur
dans le champ du nom d'utilisateur. Ce que je vais faire, c'est que j'irai
découvrir et j'
écrirai mon nom d'utilisateur. Je vais rejeter ce
message, nom d'utilisateur. Et je voulais que ce
soit le même nom d'utilisateur. Et je mettrai à jour résultats du nœud
correspondant à vos critères. Maintenant, choisissons un nom d'utilisateur
valide. Par exemple, BSI, découvrez,
je vais supprimer ça. Ils tapent PSI et
je vais cliquer sur Mise à jour. Et vous pouvez voir que
les valeurs valides ou toutes les données correctes
ont été stockées dans mon cluster
Elasticsearch. Et les anciennes
lignes d'en-tête sont ignorées. La clé était de
s'assurer que les colonnes que vous définissez
correspondent exactement aux colonnes
de votre fichier CSV. Avant de vous laisser partir, je voulais
vous montrer une dernière chose, à savoir comment envoyer
des
données de Log Stash vers une instance Elasticsearch avec configuration d'authentification par mot de
passe. Pour cette démo, j'ai
créé un ELK séparé. Une machine s'attend configuration
de sécurité pour l'authentification par
mot de passe. Si je copie l'adresse
IP externe de cette instance et que je
vais sur ma page Web Kibana. Il me demandera de fournir
mon nom d'utilisateur et mon mot de passe. Maintenant, j'ai un nom d'utilisateur
et un mot de passe intégrés appelés Elastic, qui est le compte de superutilisateur. Je vais utiliser cette
connexion à mon Kibana. Maintenant, une fois dans Kibana, je cliquerai sur ces
trois lignes en
haut à gauche, puis je
vais accéder à Stack Management. Ensuite, sous
sécurité et utilisateurs, je peux trouver tous les noms d'utilisateur configurés
sur ce système. Ce sont tous des noms d'utilisateur
intégrés. Nous allons donc utiliser Elastic pour
intégrer notre Log Stash à intégrer notre Log Stash à l'
instance Elasticsearch sur ELK. Je cliquerai donc sur SSH sur ELK T2 pour ouvrir une connexion
SSH. Maintenant, une fois que j'ai ouvert la connexion
SSH dans tous les types de sudo,
V slash, ETC, barre oblique Log Stash d. Et puis nous allons modifier notre
fichier de configuration appelé données CSV. Et à l'intérieur de ce
fichier pour configurer la sortie pour passer à
Elastic Search sur ELK 1. abord, je vais changer
la valeur d'hôte à partir de adresse IP interne de Bouddha de l'hôte
local d'ELK one, désolé ,
éditer tout cela
, en insérant et taper 192 points 168 points un point F5. Et maintenant, je dois
fournir le nom d'utilisateur et le mot de passe que je vais
utiliser pour m'authentifier. Je vais donc taper utilisateur, et ici je vais mettre des
guillemets doubles et taper élastique, puis je
taperai un mot de passe. Et ce que je vais faire, c'est que je mettrai guillemets
doubles et je copierai
le mot de passe de mes notes. Maintenant que j'ai copié
le mot de passe, nous pouvons enregistrer ce fichier et maintenant nous sommes prêts à
exécuter notre pipeline. Je vais donc taper sudo slash, barre oblique
usr, log slash bin
et Log Stash et moins F. Et je copierai tout cela. Je vais le coller
ici et appuyer sur Entrée. Et une fois le traitement du pipeline
terminé, commencez à accéder à notre instance Kibana et comprenez la gestion. Nous pouvons accéder à la gestion des index et vous pouvez voir un index appelé index soulignement
CSV avec 5 000 documents
a été créé. Et encore une fois, je vais devoir
créer un modèle d'index. Cliquez sur Créer un modèle d'index. Je vais taper CSV
et il a correspondu à mon index et j'utiliserai le champ horodatage et je cliquerai
sur Créer un spectre d'index. Maintenant, pour explorer mes données, je vais passer à l'analyse
et découvrir. Et ici, je devrai changer l'indice de
démarrage des journaux en étoile CSV. Ce faisant, vous devriez être en mesure d'
explorer vos données. Mais cela, nous sommes arrivés à
la fin de cette conférence. Merci d'avoir regardé. Au revoir.
22. Installation du serveur Web Apache: Hé les gars, Dans cette vidéo, je vais vous montrer comment installer le serveur Web
Apache
sur une instance de VM GCP. abord, nous allons
installer le logiciel, puis nous déploierons le
nouveau fichier index.html. Après cela, nous
démarrerons le serveur Web Apache
et, enfin, nous testerons l'accès à notre site Web assemblé. Commençons donc. Ici, à l'écran. J'ai mis place
la console des instances VM pour ma plateforme GCP. Ensuite, je choisirai un nouveau sens de
la vitamine dans Template. Et après cela, je choisirai le modèle de serveur Web
que nous avons créé précédemment. Ensuite, je cliquerai sur Continuer. Après cela, je vais
changer la région en USA West One prochaine vidéo, descendre et cliquer sur réseautage. cadre de
la mise en réseau,
nous nous assurerons que la balise réseau est des
serveurs Web, puis nous devrons modifier
l'interface
réseau dans le réseau de
service Web. Je vais donc passer de la
surveillance aux serveurs Web. Et après cela, je vais
descendre et cliquer sur Créer. Cela créera
notre instance de machine virtuelle, que nous utiliserons
pour un serveur Web. Une fois que la machine virtuelle est
opérationnelle, nous pouvons passer à
Visual Studio Code. Maintenant, sur la console de code Visual
Studio, j'ai les remarques pour installer un serveur Web sur le
côté gauche, et à droite
, j'ai ma connexion SSH
sur ce serveur Web. Nous allons donc d'abord
mettre à jour notre système. Donc sudo APT obtient mise à jour moins y. Maintenant, sortons ensuite, je vais taper sudo apt-get installer Apache deux moins
y et appuyer sur Entrée. Prochaine. Je vais m'en débarrasser
et ensuite je copierai cette commande
pour créer un nouveau fichier
index.html et
y mettre un exemple de code
pour créer notre site Web. Collez-le ici et appuyez sur Entrée. Maintenant, une fois cela fait, je peux démarrer mon service Apache. Donc, le pseudo système CTL démarre
Apache deux et frappe Entrée. Maintenant, vérifions le statut. Donc, pseudo système CTL, statut Apache à son
actif et en cours d'exécution. Revenons maintenant
à notre console GCP. Et ici, je vais copier l'adresse IP
externe de cette machine, et je la collerai ici
et je cliquerai sur Entrée. Maintenant, comme vous pouvez le voir, nous
avons mis en place notre exemple de page Web. Voici comment installer un serveur Web sur une instance de machine virtuelle GCP. Merci d'avoir regardé. Je vous verrai dans le prochain. Au revoir.
23. Installer et configurer Metricbeat: Hé les gars, nous avons notre cluster
Elasticsearch
qui l'a ajouté au travail. Il est maintenant temps de commencer à
utiliser le cluster. Dans cette démonstration, nous collectons des données d'audit
système telles que l'utilisation du
processeur et de la mémoire, des données de
journalisation telles que les journaux système, effacé des
tableaux de bord sympas comme celui-ci, encore une fois, des informations sur
nos systèmes IP. Désormais, Elastic Search utilise expéditeurs
légers
appelés beats installés sur les machines
cibles et envoient des données opérationnelles au cluster
Elasticsearch. Nous pouvons également utiliser ces données
opérationnelles pour créer des rapports
et des tableaux de bord. Maintenant, l'un des cas d'utilisation les plus
courants consiste à alimenter des données de
mesure système dans Elastic Search et à les
utiliser pour surveiller éléments tels que
l'utilisation du processeur ou de la mémoire, le disque, etc. consiste à alimenter des données de
mesure système dans
Elastic Search et à les
utiliser pour surveiller des
éléments tels que
l'utilisation du processeur ou de la mémoire, le disque, etc. Factor Elastic Search utilisant
un beat appelé métrique, qui est léger et moins cher que vous pouvez installer
sur votre serveur. Collectez périodiquement des
mesures à partir du système d'exploitation et des services
exécutés dessus. Il prend donc ces mesures
et statistiques et
les déplace vers la sortie de
votre choix, par exemple, il peut s'agir de votre choix, par exemple, il peut s'agir Log Stash ou de Elastic Search. Pour vous donner un exemple, supposons que vous souhaitiez un intervalle de votre machine Linux pour données de mesures de
notre système telles l'utilisation du
processeur et de la mémoire, etc. que l'utilisation du
processeur et de la mémoire, etc. poids
métrique sur le
serveur et activer système de
module qui collecte toutes ces informations et
Chip-Seq à Elastic Search. Ce module
vous permet de surveiller beaucoup de choses que j'ai
répertoriées à l'écran. Chacun de ces éléments s'
appelle individuellement une matrice. Vous pouvez soit choisir d'activer. Tous ces éléments ne sont que ceux
qui vous intéressent. Celles qui
ne vous intéressent pas, nous devons être commentées à
partir de votre fichier de configuration. Par conséquent, en théorie, un module de perles
magnétiques, il trouve la logique de base
pour collecter des données à partir d'un service spécifique tel que le serveur Web
Apache HTTP. Le module spécifie des
détails sur le service, y compris la façon de se connecter
à ce service, fréquence de collecte des
mesures et les
mesures à collecter. Chaque module possède une
ou plusieurs matrices. C'est une matrice qui
est la partie de la molécule qui touche
et structure les données. Il existe de nombreux
modèles que vous pouvez activer dans l'appât métrique
dans la description de cette vidéo vers le haut dans une URL de la
documentation Elasticsearch. Et vous pouvez
le parcourir pour voir tous les modules disponibles. Et vous pouvez choisir
ceux dont vous avez besoin en fonction de la configuration requise de
votre système. Examinons ensuite comment fonctionne la
métrique, quel service fonctionne ? cordon métrique fonctionne en quatre étapes. abord, les services installés et configurés sur
la machine cible malades et collectent des
informations
de surveillance en fonction sont
malades et collectent des
informations
de surveillance en fonction des modules activés et des mesures
configurées. Ces données sont stockées et indexées dans
Elastic Search. Enfin, nous pouvons
créer des rapports et des
tableaux de bord intéressants sur ces
données à l'aide de l'interface utilisateur Kibana. Vous pouvez également utiliser les tableaux de bord par
défaut fournis par cette succession. Voici l'espoir de
configurer l'enchère métrique pour cette démonstration sur le serveur
Web Apache
pour activer le module Apache, qui fournit l'état du serveur Web Apache. Nous allons également activer
le module système, qui fournit des mesures système. Enfin, nous avions également activé le module
beats expectative. Ce buret Mohr nous
aidera à surveiller le service Apache sur le serveur ELK, activera le module
Elastic Search attente, qui nous aidera à surveiller
Elasticsearch lui-même, permettra également d'activer le module
Kibana attend qui nous aidera à
surveiller Kibana. Activera le module expert bits, qui nous aidera à activer d'autres bits
installés sur leur service. Maintenant, une chose à noter est
que nous allons utiliser la même métrique avec de l'encens
pour se surveiller. Ce n'est pas ce que vous verrez dans un environnement de production. Votre cluster de production
peut ressembler davantage à ceci, où vous disposez d'un cluster
de production distinct et d'un cluster
de surveillance distinct. Parce qu'en cas de panne
du cluster de surveillance, services de production peuvent toujours être surveillés via
le cluster de production. En cas de défaillance du cluster
de production,
vous pouvez également déterminer pourquoi il
a échoué à l'utilisation du cluster
de surveillance. Passons maintenant
à notre système de laboratoire. Enchère métrique installée. Maintenant, une fois que la mesure est installée, la première chose à
faire est d' activer la surveillance sur
le cluster Elasticsearch. Donc ce que nous allons faire, c'est
aller à Elasticsearch, frapper des fichiers EML pour que je puisse sudo nano slash, ETC,
slash Elasticsearch. Elasticsearch commence au Yémen. Il a frappé aller jusqu'
au bas de ce dossier. Pourtant, comment faire un commentaire
pour une nouvelle section. Et je le nommerai
attentivement à la surveillance. Et j'ai fini par s'attendre à une surveillance. Je vais copier ces deux paramètres. Attendez-vous à ce que la
collecte de surveillance soit activée comme vraie et attendez-vous La collection Elastic Search
activée est vraie. Ces deux paramètres permettent la
surveillance de notre cluster. Copiez ceci et collez-le ici. Disons maintenant ma finale. Après cela, je redémarre mon service
Elasticsearch, le système CTL, redémarre
Elastic Search. Une fois les ressources informatiques telles que AP, nous pouvons installer et
configurer une
mesure, prototyper sudo
nano slash ETC, mesures obliques, mesures obliques. Ici, le premier paramètre de
configuration est le chargement de la bibliothèque. Ou le paramètre
est qu'il recherche le
fichier de configuration du module sous cette partie. Et s'il y a des modifications apportées
à ce fichier de configuration, il
les rechargera automatiquement sans redémarrer le service
Metric beats. Je vais changer ça en vrai. Bienvenue et rechargez la période des points. Maintenant, un agenda et un nom, nous pouvons spécifier un
nom personnalisé pour l'expéditeur. Par défaut, le bit métrique prend le nom d'hôte de la machine sur laquelle l'
expéditeur s'exécute. Je peux taper
un tableau de bord ELK et les œufs. Je vais spécifier qu'il s'
agit de la machine ELK, donc je vais me débarrasser de toute cette balise
spécifiée appelée ELK. Sous les tableaux de bord. Nous pouvons soit configurer tableaux de bord Kibana
par défaut pour l'enchère
métrique pour l'expéditeur, mais ne pas commenter cela et
définir cette valeur vraie, vraie. Ou nous pouvons utiliser le
tableau de bord Kumar. Ce que je vais faire, c'est que je
mettrai cela à vrai ici. Mais lorsque nous faisons le serveur Web et que nous vous montrons comment le
faire via la commande. Maintenant, sous Kibana, il faut
décommenter l'hôte, mais nous pouvons le laisser
comme hôpitaux locaux, l'expéditeur fonctionne sur
la même machine que Kibana. Même chose pour Elastic Search, nous pouvons
donc
le laisser comme hôte local. Et le protocole,
décommentons cela et passons de
STDEV.S à Azure DB. Sous nom d'utilisateur, nous devons
spécifier l' utilisateur Elastic
et le mot de passe. Vous devez spécifier le
mot de passe pour l'utilisateur Elastic. Maintenant, nous devons
spécifier la journalisation. Nous allons passer à la section
qui s'appelle la journalisation. Et ici, nous devrons
décommenter le niveau de journalisation, mais nous
le laisserons par défaut et décommenterons également
les sélecteurs de journalisation. Nous allons donc le laisser comme électeur à impulsions
par défaut. Après cela, nous devons
copier ces paramètres. Le premier paramètre configure
la journalisation pour qu'elle aille dans Fichier. Et après cela, nous spécifions un
bot pour le fichier de journalisation. Et nous spécifions le nom
du fichier de journalisation. Après cela, nous spécifions le
nombre de fichiers que nous devons
continuer à suivre et nous devrons spécifier les
autorisations pour la journalisation. Je vais juste copier tout
ça et coller ici. Enfin, nous devons
configurer la surveillance de notre instance de beat
métrique. Je vous recommanderai donc d'activer
la surveillance. Et maintenant, ajoutons cela à vrai. Cela ira en bas, là où il est
indiqué surveiller le point Elastic
Search et décommenter. Ce paramètre que personne ne fait est
qu'il capte tout ce que nous avons spécifié dans les sorties pour
Elastic Search comme sortie, il récupérera la
sortie à partir d'ici. Nous pouvons enregistrer ce fichier et
démarrer le service métrique big. Donc, pseudo système CTL, commencez. Et nous pouvons taper dans le
système sudo CTL activer les métriques, activer les appâts de mesure également. Après cela, nous devons configurer un
activation de certains modules. Donc, si je vais aux mesures obliques ETC. Ici, si je fais un ls, vous verrez qu'il y a un
répertoire appelé modules. Je vais aller dans les modules
ou D, faire un ls. Vous verrez que tous les modules sont présents dans ce répertoire, mais tous sont désactivés à
l'exception du module système. Maintenant, pour le serveur ELK, permettez-moi de vider à nouveau
l'option Sauf. Maintenant, pour ELK Solver, ce que nous devons faire, c'est d'
activer la recherche élastique, d'attendre le module, d'
attendre le
module Kibana et de désactiver le
système ou le faire. Nous allons donc d'abord le faire. Donc, l'enchère pseudo-métrique a activé
Elastic Search dash attendre. Après cela, nous pouvons
activer Kibana attend. Maintenant, nous devons également activer les attentes
bêta. Ce module sera utilisé pour surveiller les autres expéditeurs que nous avons installés sur le serveur. Il faudrait s'y attendre. Maintenant, si nous le
choisissons, nous pouvons désactiver le
système ou le désactiver. Configurons maintenant
ElasticSearch en premier. Sudo nano Elastic
Search dash s'attend. Ici, nous devons spécifier
le nom d'utilisateur et le mot de passe de notre utilisateur de
surveillance à distance pour
Elastic Search. Je viens tous les deux
et je vais dans mes fichiers, vais dans Ansible et sous le magasin
d'informations d'identification TM. Bien sûr, toutes
les références. Ils copieront d'abord le nom d'utilisateur et le mot de passe
indiquera dans quel ordre l'utiliser. Nous allons juste le sauver. Et maintenant, modifions les
attentes de Kibana et faisons de même. Maintenant, nous pouvons donner un pourboire. viens de remarquer que j'ai désactivé l'attente bêta au lieu
de désactiver le système. Ce que je vais faire, c'est que je vais
m'attendre à le modèle système soit désactivé d'
abord. Maintenant, laissez-moi configurer que
nous attendions. Maintenant, nous devons
spécifier l'utilisateur du
système beat, nom d'utilisateur. Je vais donc copier les
informations d'utilisation pour les utilisateurs du système B. Donc système de soulignement bêta. Maintenant, permettez-moi de le recommander
et je vais coller ceci, et je vais enregistrer ce fichier. Maintenant, l'enchère métrique doit être
configurée sur mon serveur ELK. Je peux donc accéder à la console GCP, copier l'
adresse IP publique de mon serveur ELK. Instructions au
navigateur avec 45601. Depuis la page d'accueil de Kibana. Je peux cliquer sur le
menu en haut à gauche. Laissez-moi juste frapper mon docteur. Je peux me lancer dans la surveillance de la pile et si j'ai configuré le battement
métrique correctement, je devrais commencer à voir d'autres
choses. Des piles sur ma pile. Ici, je dois
cliquer sur la démo ELK. Et comme vous pouvez le constater, j'ai
des informations de surveillance pour mon Elasticsearch,
Kibana et mes beats. Cliquons donc sur beat
et cliquons sur ELK one. Vous pouvez voir que j'
ai les tarifs de mes événements. Maintenant, je peux aller à la
démonstration ELK et cliquer sur Vue d'ensemble sous
ma recherche Elastic pour voir la santé de
mon index Elastic Search, je peux regarder les saturés, tels que la latence, la
latence d'indexation et les taux. Je peux cliquer sur les nœuds, regarder mes notes, accorder des hauteurs OneNote
en vert, je peux regarder la charge du processeur et l'espace discret
pour ce nœud. Je peux également consulter mes index. Je viens d'obtenir un indice
appelé offre métrique. Maintenant, je peux aller à Kibana
et cliquer sur Overview. Regardez Kibana. Comme ici, je peux examiner les demandes de l' usine et le temps de
réponse. La mémoire. Combien d'instances de temps de réponse
maximal ? Si je clique sur des instances, je peux regarder les instances de Kibana que j'ai aussi. Il s'agit maintenant de la configuration
de notre serveur ELK. Ensuite, nous devrons
configurer un serveur Web. Ce que je vais faire, c'est
à partir de la console GCP, je copierai l'
adresse IP publique de mon serveur Web. Je vais ouvrir un nouveau terminal
basé sur l'adresse IP publique. Désormais, sur le côté gauche, on appelle
les instructions d'installation et de configuration
d'un serveur Web. Sur le côté droit, j'ai ma connexion SSH sur
le serveur Web. La première étape consiste donc à installer la clé de signature publique pour Elasticsearch. Faisons donc ça. Après cela,
contrôlons simplement le transport
en tant que package UDP. Après cela, nous devons enregistrer
les définitions de répertoires. Maintenant, nous pouvons faire une mise à jour, une mesure d'installation bat. Donc sudo apt-get update, sudo apt-get install metric, bêtas
non métriques et stockés. Commençons par effacer l'écran. Maintenant, nous pouvons les empêcher
de trouver des perles métriques. Maintenant, cette configuration
serait similaire à ce que nous avons fait pour l'été ELK. Configurons le chargement de la bibliothèque. Le prénom serait le serveur Web. J'ai été frappé de configurer les tableaux de bord Kibana
par défaut parce que je veux vous montrer comment le faire via
la ligne de commande. L'hôte de Kibana, je dois entrer
l' adresse IP interne
de l'instance. Il va donc aller dans la console GCP, copier ceci et le coller ici. Même chose pour Elastic Search. Nous pouvons maintenant activer la
journalisation. Après ça. Activons la surveillance. Enfin, nous pouvons
décommenter la surveillance du point Elastic Search
et enregistrer notre fichier. Commençons maintenant le service
Metric Beats. Ainsi, le pseudo système CTL
active le service. Examinons maintenant l'état du service en cours
d'exécution. Ensuite, ce que nous allons faire, c'est que
nous commencerons à activer les modules. Le premier module va
activer ce module est le module Apache. Après cela, nous avons activé le rythme. Attendez-vous à plus de faire. Jetons maintenant un coup d'œil à la liste des modules d'activation supplémentaires
sur cette machine. Vous pouvez le faire en
tapant un pseudo. embout. Plus de choses à faire la liste des qui enregistrent trois modules
activés sur cette machine. Apache Beta s'attend à
ce que nous venons activer et que les retards système ou
retards soient activés par défaut. Jetons un coup d'œil aux configurations des
modules. Il est clair, cette première barre
oblique sudo nano, etc bit métrique oblique, plus déformé d slash apache. Ici, nous allons décommenter le statut de
Matrix. Nous n'avons pas besoin de saisir
le nom d'utilisateur et le mot de passe car notre serveur Web par défaut ne possède aucune
authentification. Ce que je recommande,
c'est que nous
changions la valeur sous host de 127001 par l'
adresse IP ou le nom
de domaine de notre serveur Web. Cela nous aiderait à identifier ce serveur Web
dans notre tableau de bord. Ce que je vais faire, c'est
que je vais supprimer tout ça. Je vais copier l'
adresse IP interne de mon serveur Web. Retournez au terminal,
et je vais le coller ici. Maintenant, je peux enregistrer ce fichier. Jetons maintenant un coup d'œil à la configuration
Beat Expert. Ici. Nous devons fournir le
nom d'utilisateur et le mot de passe
afin de pouvoir nous authentifier
contre les beats. Ce serait l'utilisateur du système de
plage. Il s'agit du mot de passe
de l'utilisateur système V8. Maintenant, ce bit est utilisé pour surveiller d'autres buttes
sur le système. Mais comme nous n'avons pas encore
rien installé
sur le système, cela ne fera rien. Alors
sortons de ce dossier. Je l'ai promis plus tôt. Je vais maintenant vous montrer comment
configurer les tableaux de bord
via la ligne de commande. Pour ce faire, vous devez saisir configuration des enchères
sudo Metric, Dash, Dash,
Dash, Dash, Dashboard. Une fois les
tableaux de bord chargés, un
message
indiquant les tableaux de bord chargés s'affiche. Revenons maintenant à
notre instance Kibana. Ici. Allons d'abord aux clusters et démonstration ELK
comprennent la surveillance. Allons juste aux betteraves. Maintenant, vous pouvez voir que
nous avons deux bits, un et l'autre
devrait être un observateur. Ces données proviennent donc de la surveillance interne
au-dessus de la plage elle-même. Maintenant, pour obtenir des informations
sur la banlieue, vous devez aller à la matrice. Ici. Vous verrez que nous avons
commencé à obtenir des mesures et des détails sur nos serveurs Web. Nous allons donc cliquer dessus et
cliquer sur la matrice de l'hôte. Vous pouvez constater que nous avons
commencé ensemble tous les détails concernant
nos serveurs Web. Mais après cela, passons
aux tableaux de bord sous Kibana. Examinez un exemple
de tableau de bord produit par un appât métrique pour
un serveur Apache. Ici, sous la zone de recherche du tableau de bord, je vais taper Apache. Ensuite, j'ouvrirai
le tableau de bord nommé métrique avec Apache Overview ECS. Il s'agit maintenant d'un exemple de tableau de bord. Nous pouvons obtenir des éléments tels que les
noms d'hôtes dans notre environnement, disponibilité de nos serveurs, nombre total d'octets d'accès, les travailleurs
occupés et inactifs,
différents types de connexions, le différents types de connexions, lobe du
processeur, le nœud réseau, etc. Maintenant, je vais vous laisser configurer un
serveur Web avec ça, nous sommes arrivés à la
fin de cette vidéo. Merci d'avoir regardé. Je vous verrai dans le prochain.
24. Filebeat: Hé les gars, installons et configurons le fichier
dans cette conférence. File Beat est un outil léger moins coûteux pour
transférer et alléger les données enregistrées. Il est installé en tant qu'agent
sur vos serveurs et surveille les fichiers journaux comme
des emplacements que vous spécifiez, collecte les événements de journaux à partir de
ces fichiers et les
transmet à
Elastic Search ou Log Stash. Il comporte deux composantes. La première est
appelée moissonneuse et la seconde est une entrée. Un moissonneur est
responsable de la lecture
du contenu d'un seul fichier. Ligne par ligne. Input
est responsable de la
gestion des
moissonneuses et de la recherche toutes les sources à partir desquelles lire les données des
journaux. Voyons maintenant comment fonctionne File Beat. Maintenant, une fois que vous démarrez le fichier, quel service il démarre
une ou plusieurs entrées qui examinent l'emplacement que vous spécifiez pour les données du journal. Par exemple, saisissez un, nous examinerons la malchance et
tout fichier journal dans Verilog. Maintenant, pour chaque fichier journal découvert à l'intérieur de
cet emplacement, il commence un nouvel ester de location. Cette moissonneuse est responsable de lire le fichier journal ligne par ligne et d'envoyer ces
données à un liquide. Maintenant, ce lipide agrège
les événements et puisque les données agrégées vers
la sortie que vous spécifiez, par
exemple, il peut
envoyer les données à Log Stash Elastic Search. Dans cette démonstration, nous allons d'
abord configurer file beat sur notre serveur ELK. Il y a six étapes. Nous allons donc d'abord
vérifier que les journaux sont correctement configurés
sur le serveur ELK. Après cela, nous allons installer et configurer le service de démarrage des
fichiers. Après cela, nous allons configurer mesures pour surveiller notre
fichier, quel service. Nous avons donc également une sorte de
surveillance en place. Ensuite, nous lancerons un service
de battement de fichiers activé. Enfin, nous allons
activer et configurer les modules ELK de notre
cluster pour File Beat. Donc, Elasticsearch, Kibana
et System vont le faire maintenant. Deuxièmement, nous allons configurer File
Beat pour nos serveurs Web. Les étapes sont similaires. La seule différence est que
les modules configurés sur le service 5 bits pour les serveurs
Web seront Apache et que le système nous
permettra de démarrer. Maintenant, dans mon labo. Et puisque j'ai les
étapes pour installer et configurer le dossier Britton Hill sur le côté gauche, et la connexion SSH dans mon IELTS sur le
côté droit. Ce que je vais faire, c'est que je vais joindre ces étapes à la description de cette vidéo afin que
vous puissiez également
accéder à ce document. Maintenant que l'EMACS est terminé, la première étape consiste à
valider que la journalisation est configurée pour les instances de
recherche Elastic. Je vais donc taper sudo
nano slash ETC, Elastic Search slash
Elastic Search point YAML. Maintenant, dans ce document, je vais aller
sur les chemins et vérifier que journaux de points
achetés sont définis sur
var log Elastic Search. Et il n'est pas commenté. Si cela est
commenté pour vous,
vous devrez le décommenter
et vous assurer que les journaux de points de chemin sont configurés. Après avoir vérifié que
nous pouvons sortir de cela. Passons ensuite à
notre instance Kibana. Donc sudo nano slash TTC slash Kibana slash
garder sur elle sait Tiamat. Maintenant, il va falloir
passer à la journalisation. Désormais, par défaut, vous verrez que Kibana se connecte à la sortie
standard. Ce que nous devrons faire, c'est que
nous devrions changer cela. Je vais faire de la place ici. Copiez tout cela, collez-le
sur le côté droit. Maintenant, ces paramètres font d'abord
qu'ils configurent destination du point de
journalisation
pour qu'elle soit sous un mauvais journal, puis le fichier Kibana. Ensuite, nous avons activé la rotation
des journaux et nous avons traité le système que nous voulons conserver les fichiers journaux de
quelqu'un. Une fois cela fait, nous pouvons
enregistrer ce fichier et entrer. Maintenant, un problème avec Kibana
est
qu' il ne peut pas créer le
fichier Kibana sous Verilog. Ce que nous allons faire, c'est que
nous devrons faire Kibana barre oblique, créant un nouveau fichier appelé
Kibana Underbar law. Laissez-moi simplement faire ça
avec le sudo. Après cela, nous
avons changé de propriété de ce fichier journal Kibana appartient à
l' utilisateur Kibana et groupe
sudo C-H sur Kibana. Lobe oblique de Kibana. Surtout. Maintenant, ce fichier appartient à l'utilisateur
Kibana et au groupe Kibana. Maintenant, après cela,
nous pouvons redémarrer le service Kibana. Donc, pseudo système
CTL, redémarrez le coupon. Jetons un coup d'œil
au statut de Kibana. Voyons maintenant si le fichier Kibana
que vous venez de créer dans le journal var a commencé recevoir des données enregistrées
à partir de l'instance Kibana. Faisons une queue
moins un lit oblique. droit anglais, surtout
comme vous pouvez le
constater, selon lequel nous avons commencé insérer des données
enregistrées dans notre fichier
journal pour Kibana. Sortons de ça. Laissez-moi éclaircir à partir d'ici. Maintenant, la prochaine étape d' ELK Stack qui installe le
serveur est celle des temps métriques. Vérifions donc
que l'appât métrique est configuré avec la journalisation sudo nano slash abc slash
metric main.xml. Ce fichier, passons à
la section de journalisation. Configurons maintenant la
journalisation dans ce fichier. Copiez tout cela en fonction ici. Maintenant, ensuite, enregistrez ce fichier également. Redémarrons la métrique.
Quel service ? Donc, pseudo système
CTL, pile métrique. Mais jetons un coup d'œil à l'
état de l'enchère métrique en cours. Nous avons maintenant
configuré la journalisation sur notre cluster ELK. Après cela, ce que nous
pouvons faire, c'est que nous pouvons maintenant installer le fichier quel service ? Donc sudo apt-get install. Maintenant, une fois installé, nous pouvons aller au fichier
YAML de point de fichier et configurer le service
hybride. Donc pour ce faire,
saisissons sudo, ETC slash slash point phobique YAML. Maintenant, dans ce fichier, nous allons commencer par descendre et configurer le chargement de la
bibliothèque. Par conséquent, sous Modules de bits de fichier, nous allons recharger point activé et changer la
valeur de false à true. Nous allons décommenter,
recharger la période de points et la laisser
par défaut dix secondes. Maintenant, nous allons dans la
section genre et nous lui donnons une étiquette. Donc, comme il s'agit d'un cluster ELK, donnez-lui
simplement une étiquette ELK. Passons maintenant aux tableaux de bord et au fichier activé,
quels tableaux de bord ? Je vais décommenter ce tableau de bord de
point de configuration démarré Activer et changer
la valeur sur true. Après cela, sous la section Kibana, je commande l'URL de l'hôte Kibana, et je la laisserai comme locale
ou excédentaire est 01 car cet encens en fibre
est démarré localement. instance de Kibana
est tout à fait pour l'installer. Après cette sortie
en tant qu'Elastic Search. Et je quitterai la
section hôte en tant que localhost 9200. Je modifie le
protocole pour utiliser GDB. Changez le mot de passe en mot de passe des utilisateurs
Elastic, et je ne commenterai pas le
nom d'utilisateur et le mot Après cela, je vais aller section de connexion et configurer
la
journalisation pour la lecture du fichier, niveau de point de journalisation
non validé. Et je vais le laisser
comme débogage par défaut. Et je vais décommenter les sélecteurs de points de
journalisation et je le laisserai comme étoile par défaut. Copiez tout cela, collez-le ici. Maintenant, enfin, je peux configurer la surveillance
via mon attribut, descendre sur ce fichier. Et je vais copier comme gdb dot
activé un port ester db dot. Ce que cela fait maintenant, c'est qu'il permet aux métriques de surveiller les battements de
fichiers sur STDP. Basez ça ici. Maintenant, je
peux enregistrer ce fichier. Maintenant que nous avons activé la surveillance des appâts
métriques sur le port 5067 x plus vérifiez si le module beat attend dans l'enchère métrique est activé ou non. Pour ce faire,
vérifions d'abord la liste des enchères sudo Electric, listons tous les modules et
ceux qui ont été activés. Maintenant, si vous voyez que nous n'
avons pas le module Beta, attendez-vous à ce que le module soit activé. Commençons par activer ce module car
ce module est utilisé pour surveiller d'autres bits installés sur le serveur à matriculer. Modules d'enchères pseudo-métriques activés. Nous nous attendons à ce que ce
module soit activé. Nous devrons configurer ce
module pour regarder le port 5067. Pour ce faire, permettez-moi d'abord de tout
éclaircir. Ensuite, je tape sudo nano slash, dc slash
slash bead attendez-vous. Dans ce fichier, ce qu'il
faudra faire, c'est que nous devrions abord modifier l'URL sous les hôtes du
surplus local 6625067, car c'est le port vers lequel le
fichier exporte les données. Maintenant, sous nom d'utilisateur et mot de passe, nous devons utiliser le nom d'utilisateur et le mot de passe
du système de plage. Je n'ai pas bougé ça.
Modifiez le nom d'utilisateur. Système de soulignement. Et modifiez le mot de passe pour qu'il soit tenu de souligner le mot de passe utilisateur
du système. Et laissez-moi enregistrer ce dossier. Enfin, vérifiez cette mesure
quels services exécutent bit rhétorique d'
état CTL du système
sudo. Nous pouvons maintenant démarrer le service
de démarrage de fichiers. Donc, pseudo système CTL. Voyons maintenant
l' état du fichier,
quel service ? Maintenant, le service est en cours d'exécution. Ensuite, nous allons devoir activer les
modules sur cette surface. Laissez-moi d'abord me débarrasser de
tout. Laissez-moi plonger dedans. Pseudo. Les modules peuvent
activer la recherche Elastic, pour activer le module Elastic
Search. Après cela, permettez-moi d'avoir été activé des
pseudo-modules 5 bits, Kibana, pour activer les modules
Kibana. Et enfin, nous ferons le système
compatible avec les modules vibrants
sudo pour permettre
au système de le faire. Nous allons maintenant devoir configurer
ces trois modules. Allons à sudo, nano dash abc slash, slash star d slash
Elasticsearch Ottoman. Dans ce module, vous pouvez voir
qu'il y a quelques parties. Par défaut, il x les robots en
fonction de votre distribution. Comme nous n'avons pas changé ces pièces
par des chemins personnalisés, nous n'avons pas besoin de
modifier quoi que ce soit ici. Mais si vous avez
modifié le pass pour qu'il s'agisse de pièces personnalisées dans
votre installation, vous devrez venir ici et effectuer ces modifications
de configuration. Je vais sortir de ce dossier. De même, pour le système de
rhodamine Gibbon, basé sur la distribution,
prend toutes les parties par défaut. Si vous avez changé les
pièces, vous devrez venir ici et effectuer les modifications. Maintenant, passons à notre instance
Kibana. Je vais copier l'adresse
IP publique 5601, saisir le nom de l'utilisateur
Elastic et le mot de passe. Maintenant, tout d'abord, si l'enchère est correctement
surveillée, nous devrions pouvoir voir
cette race de fichiers
apparaître sous
surveillance de pile, menu CO2. Accédez à la section Surveillance par étapes. Cliquez ici sur Démo
Irrigate, et descendons. Vous pouvez voir que
nous avons deux bouts. Vous avez donné FIB sous le nom d'EL.
Cliquons là-dessus. Il s'agit de notre fichier
avant d'être surveillé correctement et de commencer à voir que vous avez des taux d'
événements à mettre, etc. Après cela, si
vous avez deux clusters, démo et ne regardez jamais
la section sous vous pouvez voir que nous avons
commencé à collecter des journaux. Nous avons donc beaucoup d'
informations et les journaux
et les applications réchauffent les
lobes sur notre Elastic Search. Cela signifie donc que notre
service est en mesure de
capturer des journaux à partir du cluster ELK. Passons maintenant
à la
sortie nominale d'ici K. Et passons
au serveur Web. Bonjour, copiez l'adresse IP
du serveur Web 1, cohere, SSH, collez
l'adresse IP. Ensuite, je vais le fermer dans
les sections pour ***** au-dessus de l'installation
Albert. Et je vais ouvrir celles
pour le serveur Web. Et je les regarde
en mode aperçu. Maintenant sur notre site Web. Mais d'abord, nous devrons valider que la journalisation est
configurée pour la matrice. Alors faisons sudo, nano slash, etc slash prédire bit slash
pourrait liquide point YAML. Maintenant, nous devons passer
à la section de journalisation. Nous allons décommenter le niveau de journalisation avec
débogage et sélectionner étoile. Nous les laissons tous les deux par défaut. Copiez cette section. Contrôlez C, contrôlez V. Maintenant,
sauvegardons ce fichier. Redémarrons MATLAB bit. Maintenant, une fois que la mesure
du service est disponible, nous pouvons d'abord installer un objet fichier pour le statut sur le
grand service de mesure, faisons un clair pour que
nous ayons un écran clair. Et ici, je peux taper
sudo apt-get install. Maintenant, après cela, nous pouvons
configurer notre service vibrate. Laissez-moi d'abord éclaircir. Tapez sudo nano DC
slash, barre oblique cinq. Maintenant, les étapes sont les mêmes, donc nous allons commencer par descendre le chargement
configuré de la bibliothèque. Ensuite, ajoutons simplement une étiquette. Conservez la balise en tant que niveau Web, car il s'agit d'un serveur Web. Tableau de bord de configuration. Démarrage du tableau de bord du
point de configuration activé comme vrai. Après cela, nous avons
miné l'hôte Kibana. Maintenant, pour l'OVNI, nous allons utiliser l'adresse IP interne
de notre serveur Kibana. Je vais donc copier cela et changer l'hôte local par l'
adresse IP interne de notre Q1. Je vais passer à la section de sortie Elastic
Search. Faites la même chose pour l'URL de l'
hôte ici également. Modifiez profondément
les informations du protocole. Entrez le mot de passe du superutilisateur
Elastic. Maintenant, je vais passer à la section de
journalisation, assurez-vous que la journalisation est configurée. Maintenant, enfin, je
vais descendre et activer la mesure pour
surveiller ce service. Enregistrez ce fichier et ajoutez un module
carré Vx de contrôle activé
pour l'enchère métrique ou non. Donc, bit pseudo-métrique. Plus de cotisations activées. Retour Fedex. Je peux
configurer ce module. Donc sudo, nano, surtout ETC, slash slash slash que nous nous attendions. Dans ce fichier. J'ai changé la carte hôte en 5067 car c'est le cinquième
fichier que Peter est configuré. Je perds le
nom d'utilisateur et le mot de passe du système beat. Je peux dire ce dossier. Maintenant, faisons simplement
un statut sur la métrique. Mesure quels services fonctionnent. Commençons maintenant par fichier. Donc, pseudo fichier CTL système. Après cela, nous pouvons d'abord statuer sur le service Fibers pour vérifier
qu'il est réellement démarré. Maintenant, une fois que nous avons vérifié que
le service a démarré, nous pouvons tout effacer
et activer le module. Pseudo. Beat. Les modèles sont activés, activent le module Apache. Ensuite, nous allons activer
cette option en deux modèles. Maintenant, une fois cela fait, nous pouvons revenir à
notre instance Kibana. Ici. Rafraîchissons
tout ce qui se trouve sur une instance Kibana. Si nous descendons, nous verrons que vous
avez quatre battements maintenant, donc nous allons cliquer sur des bits. Et comme vous pouvez le
constater, nous avons également la version
5 bits de notre serveur
Web. Nous pouvons vérifier l'état de ce flux en cliquant
sur le serveur Web. Et cela devrait
nous donner le taux d'événements, taux d'échec du
débit, etc. Ce que
nous pouvons faire, c'est que nous
pouvons jeter un coup d'œil à
l'un des exemples de tableau de bord que ce fichier
pour un serveur Web Apache. Pour ce faire, accédez au
menu, puis au tableau de bord. Ici, sous le tableau de bord,
recherchons Apache. Et cliquons sur le fichier avec Apache Excess et ECS analogique. Il s'agit maintenant d'un exemple de
tableau de bord
créé par FileReader à l'aide des journaux excédentaires et de modification à partir
d'un service Apache. Vous pouvez l'utiliser pour rechercher adresses IP
uniques
qui vous accèdent avec les codes de réponse qui constituent une panne ponctuelle du navigateur, etc. C'est ainsi que vous pouvez
installer et configurer fichier sur un
serveur E et K et un serveur Web. Ce que je veux que vous fassiez,
c'est que je veux que vous alliez installer
et configurer un
fichier sur le Web quelque part. Ce que vous devez vous attendre, c'est
qu'une fois que
vous avez fait cela, vous ne devriez pas être en mesure d'
obtenir de telles
informations pour l'absolu. Et aussi, si vous passez
à l'étape 100, vous aurez six battements. Une mesure est un seul fichier pour
votre deuxième serveur Web. Avec cela, venez à la
fin de cette vidéo. Merci d'avoir
regardé. Je vous verrai dans le prochain. Au revoir.
25. Heartbeat 7: Hé les gars, leçon installez
et configurez Heartbeat. Dans cette vidéo, Heartbeat
vous permet de vérifier périodiquement l'état de vos services et déterminer s'ils
sont disponibles ou non. À présent, par exemple, pensez que vous
disposez d'un serveur Web. Et si vous vous connectez à
la console de leur serveur Web et effectuez une vérification de service sur
le service HTTP. Le service revient en cours d'exécution ou vous
essayez de charger la page Web, la page Web ne se charge pas, vous obtenez un éditeur
sur la page Web, ce qui signifie que vos utilisateurs
sur notre table utilisent votre site Web pour quelle que soit la raison pour laquelle ils
essayaient de l'utiliser. Vous pouvez maintenant utiliser Heartbeat pour surveiller ce
type de scénarios. où le cockpit fera, c'
est qu'il vérifiera si
un code d' état est renvoyé
à partir de son serveur Web. Et s'il ne récupère pas
leur code d'état, cela a vraiment montré que les
services Web ne répondent pas ou ne sont pas en panne. Désormais, il existe trois types de
moniteurs
différents que vous pouvez
configurer dans Heartbeat. Tout d'abord, vous pouvez configurer
un moniteur ping ICMP. Il pense essentiellement que le nom d'hôte du
port d'adresse IP
particulier. Et s'il obtient un ping
réussi, il le montre comme en hausse. Et s'il n'y a pas de succès, il montre cette pierre de moniteur. Ensuite, vous pouvez comprendre TCP. Ce moniteur
vous permet de vous connecter à un point de terminaison particulier
via PCP. Vous pouvez également
modifier ce moniteur pour vérifier que le point de terminaison est activé par la charge utile personnalisée similaire
à partir de ce point de terminaison. Troisièmement, vous
pouvez également configurer un protocole HTTP surveillé pour se connecter
via HTTP à vos points de terminaison. Ce moniteur peut également
être configuré en option pour
vérifier les réponses spécifiques ou les scores d'état
de vos points de terminaison. Ensuite, il y a cinq étapes
pour installer Heartbeat. Tout d'abord, vous devez installer le package
Heartbeat Dash Elastic. Après cela, nous allons configurer
le service hybride. Il va configurer l'appât métrique pour surveiller notre instance de battement de cœur. Quatrièmement, nous allons
configurer les moniteurs SERDP,
ICMP, TCP. Enfin, nous avons commencé à activer
le service hybride. Passons donc à gauche. Maintenant, ici sur le système de laboratoire, conformément
aux instructions d'installation et de configuration d'un battement de cœur
sur ALEKS sur le côté gauche. Et j'ai ma connexion
SSH et fais mon serveur ELK sur
le côté droit. Maintenant, une chose à
noter est que nous n'
installerons Heartbeat que sur ALEKS dans cette
démo. Installez Heartbeat. C'est le type dans sudo
apt-get update. Sudo apt-get installe heartbeat. Ils sont en fait élastiques
et ont frappé Entrée. Une fois que Heartbeat est installé, commençons à configurer
le service Heartbeat. Nous devons taper dans
sudo nano slash, ETC slash heartbeat
slash heartbeat ou PMA. Dans ce fichier YAML. Commençons par configurer
en direct ci-dessous. Changez l'
intégrale Lord dot pour le faire et nous
laisserons la
période de rechargement par défaut à cinq secondes. Après ça. Commentons tout d'abord tous les moniteurs
en ligne. Parce que vous allez
utiliser le spot de surveillance pour configurer ces moniteurs. Le chemin est barre oblique, ETC surveille les battements de cœur
obliques vers D et NAM et le fichier
à l'intérieur du spot. Une fois que vous avez commenté tous les moniteurs en ligne de ce fichier YAML à
point de cœur. Allons aux sacs
et aux sacs de théâtre. Il avait précisé
la cible comme ELK. Après cela,
passons à Kibana. Et sous la section Kibana, nous décommenterons
la partie hôte, mais nous laisserons le localhost 5601
par défaut. Passons maintenant à la sortie
Elastic Search et laissons l'URL
par défaut localhost 90 à 100, modifions le protocole STDP et fournirons les détails
d'authentification. Maintenant, après l'action,
passez à la section de journalisation. Nous allons implémenter le niveau de journalisation. Supprimez également les sélecteurs de
journalisation des commentaires, mais conservez les
valeurs par défaut pour les deux. Je vais copier cette configuration
à partir de mes instructions, spécifier la connexion pour accéder à un fichier. Ceci est configuré,
nous pouvons désormais configurer comme surveillance GDB pour
notre encens battement de cœur. Je vais copier ces deux valeurs. Si vous remarquez que nous utilisons le port 5069 pour surveiller
notre instance Heartbeat, ajouterons cette carte dans notre
fichier de configuration d'attente bêta après cela. Voyons donc ce dossier pour l'instant. Allons d'abord
à notre rythme. Beat. Ou est-ce que tu tries D ?
Et nous nous attendons ventilateur
AutoML configure la
surveillance sur le port 5069. Il avait une virgule d'échelle. Maintenant, j'ai appris l'URL
http localhost 5069. Je peux enregistrer ce fichier. Maintenant, première
matrice de vérification, elle est en cours d'exécution. Donc, pseudo système CTL, statut. Il se répète. Superbe. Non, vérifions également
que nous nous attendons à ce que ce soit activé. Donc, la pseudo liste et vous pouvez
voir la bêta attendue est activée. C'est donc tout bien.
Maintenant, dégageons tout et nous pouvons commencer par
des battements de cœur insensibles. Donc, pseudo système CTL,
démarrez le rythme cardiaque élastique. Nous allons d'abord vérifier l'
état du service. Assurez-vous qu'il est en cours d'exécution. Et maintenant, il est temps de
configurer les moniteurs. Pour ce faire. Allons d'abord à ATC, moniteur
hybride stocké. Ici. Vous verrez qu'il
existe des exemples fichiers de
moniteurs disponibles. Utilisez-le et
personnalisez-les. Qui crée nos propres fichiers de
moniteurs ? Je vais d'abord taper
sudo copy, échantillon, ICMP point yammer désactivé, copier deux Pi sinus PWM. Maintenant, je vais faire un nano sur ICMP dot YAML pour configurer
ICMP surveillé. Maintenant, pour notre moniteur ICMP, il faudra abord changer
l'ID et le nom. Pour pièce d'identité. Je vais utiliser le
statut ICMP Dash pour le nom. Je vais utiliser la vérification de statut ICMP. Décommentons cela
pour activer le moniteur. Nous allons maintenant laisser la
planification par défaut toutes les cinq secondes
afin que nos hôtes, que nous spécifions sous
la baie d'hôtes. Toutes les cinq secondes. Nous devrions spécifier
une liste d'hôtes ici. Ce que je vais faire, c'est que je vais d'abord spécifier l'
adresse IP interne de notre serveur Web. Ensuite, juste pour démontrer à
l'adresse IP externe de notre serveur Web à
193,68 point à point neuf, qui est l'adresse
IP interne de mes hanches sur un espace coma. Et je vais copier l'adresse IP
de mon serveur Web ici. Maintenant, ce que je vais aussi
faire, c'est que je vais ajouter une adresse
IP externe accessible au public, elle aussi. Et cette hybridation d'un accès à
points points-points est toujours en place sans autre soulagement
du mode par défaut, vous pouvez désactiver
IPV6 dès maintenant, mais laissons-le par défaut. Vous pouvez également spécifier un
diamant ou un taux ira à la section Balise ensuite et
agrégera le DAG appelé web. Et maintenant, nous pouvons enregistrer ce fichier. Une fois cela fait, passons à autre chose et
configurons notre PCP. Pour faire un deck, copions simplement l'
exemple de fichier de moniteur TCP. Pseudo copie échantillonnée tcp dot gmail dot désactivée
en point tcp YAML. Et maintenant, modifions
ce RPM de démarrage du PC. Maintenant, ici. Tout d'abord, nous devrions encore
préciser l'idée. Commençons donc parce que
nous utiliserons ce moniteur pour vérifier l'état
de la connexion SSH et sous nom et taper
la vérification de l'état SSS. Une fois cette option activée, le moniteur
quittera sa planification par défaut pendant cinq secondes. Et pour les hôtes, j'ai spécifié l'
adresse IP interne de mon serveur Web. Premièrement, spécifiez le port, sorte que le port SSH est 22. Maintenant, je peux
spécifier le port ici, port spécifie une liste de cartes. Si l'hôte ne contient pas de numéro de port sous
l'option ports. Voici donc les deux endroits où
vous pouvez spécifier des ports. Nous conservons toutes les autres
valeurs par défaut. Une chose à noter est
que vous pouvez utiliser des peintres
personnalisés chèques envoyés et reçus. Nous passons à la section Tag et ajouterons la balise pour European. Et je vais enregistrer ce fichier maintenant. Ensuite, passons à autre chose et copions
le pseudo échantillon du moniteur de télévision. Http dot YAML sont
désactivés pour Esther db.json modifier SGD goo.gl, sudo nano dot fichier YAML ici, ID Je spécifie le
statut Web et le nom pourrait être la vérification du service Web
activé le moniteur. Et sous les hôtes, j'ajouterai mon
Elastic et mon URL Kibana. Après cela, je devrai spécifier une indication car vous avez configuré attendre sur notre système. J'ai été le nom d'utilisateur
et le mot de passe, Elastic et le mot de passe de l'
utilisateur Elastic. Maintenant, nous pouvons utiliser les autres
paramètres pour spécifier une vérification d'état personnalisée ou une peinture personnalisée sur
cette demande. Mais nous allons les laisser
par défaut et passer
à la partie balises,
spécifier que par défaut et passer
à la partie balises, le DAG a adapté
et nous ne commenterons pas cela. Et maintenant, nous pouvons également enregistrer
ce fichier. Avant de passer à autre chose, vérifions l'état
de notre service Heartbeat. Encore une fois, il est en cours d'exécution. Passons maintenant à
notre Kibana, cette page. Maintenant, la première chose
à vérifier serait que le battement de cœur apparaît
une surveillance de pile. Alors, rentrons chez nous. Ensuite, la surveillance de la pile. Ici, cliquons sur la démo, et passons à beats. Et comme vous pouvez le constater, nous
avons un battement de cœur et un peu. Nous pouvons cliquer sur beat
puis sur Heartbeat
pour vérifier l'état de notre instance de
feuillus. Maintenant, pour les moniteurs réels, nous devons aller sur notre page d'accueil puis postuler sous
observabilité. Ici, vous pouvez rechercher tous
les moniteurs qui montent ou descendent. Maintenant, d'après les regards, tous nos moniteurs
sont maintenant debout. Vous pouvez utiliser le
filtre vers le haut et
vers le bas pour filtrer par rapport à un
statut spécifique que vous souhaitez. En haut, à droite, vous
pouvez spécifier l'heure. Par exemple, vous pouvez
spécifier si vous voulez que leurs données datent d'
il y a 15 minutes ou 15 jours ou heures, vous pouvez également spécifier
la durée. Comment pouvez-vous spécifier
un. Maintenant, vous pouvez également
vérifier s'il y a des bateaux. Nous avons trois ports
configurés de 90 à 22560001. Pour nos chèques. Vous pouvez
spécifier le schéma, ICMP, UDP ou TCP pour
filtrer les points de terminaison. Ou vous pouvez rechercher des étiquettes. Nous avons une étiquette ELK et une étiquette de niveau Web. Il y a donc un clic sur le niveau Web. ce cas,
vous ne verrez que
les moniteurs spécifiques
à cette balise particulière. Avec cela, vous arrivez à
la fin de cette vidéo. Merci d'avoir regardé. Je
vous verrai dans le prochain.
26. Auditbeat: Hé les gars, dans cette vidéo, installons et
configurons l'audit V8. Le bit d'audit vous permet de surveiller l'activité et les processus des utilisateurs
dans votre système Linux, communiquer directement avec
le framework d'audit Linux. Et depuis les données qu'il a collectées à Elastic
Search en temps réel. Il s'agit de quatre étapes pour installer et configurer notre service de
débits. Tout d'abord, nous allons installer un bit d'audit. La deuxième semaine a
été configurée un peu et configurez les trois modèles disponibles
dans le service Audit V8. Actuellement, ces
modules sont l'audit D, l'intégrité des
fichiers
et le système ou le faire. Après cela, nous allons configurer mesure pour surveiller l'
audit, quel service ? Enfin, nous allons commencer et
activer le service de plage d'audit. Maintenant, une chose à noter
est qu'il
n'y a pas d'option de chargement
de bibliothèque pour répondre. Avant de passer
au système de laboratoire, examinons chacun de
ces modules individuellement. Et tout d'abord,
examinons le module bizarrerie. Le module reçoit les événements d' audit
de la structure d'audit Linux, qui fait partie
du noyau Linux. Ce qu'il fait, c'est qu'il
établit un abonnement au coin pour recevoir
les
événements d'audit au fur et à mesure qu'ils se produisent. Maintenant, une chose à noter est
que vous devrez peut-être arrêter d'autres services qui s'
exécutent sur votre système, tels que la bizarrerie. Et généralement, pour que
ce modèle fonctionne, il existe deux
types de règles différents que vous pouvez configurer à l'intérieur du module
commandé. La première règle est un système de fichiers. Cette règle autorise
l'audit
de l' accès à un
fichier ou à un répertoire particulier. Considérez cela comme une montre
sur ce dossier particulier. Vous êtes donc averti
lorsque le fichier est accédé ou modifié. La syntaxe de cette règle
est moins W chemin vers le fichier sur lequel vous avez besoin
pour placer la montre moins p. Quelles sont les autorisations
telles que lire, écrire, exécuter,
moins kx, nom ky. Le prochain type de règle que vous pouvez configurer est un
système appelé règle. Ce que fait cette règle, elle
permet la journalisation du coût
système que n'importe quel programme
spécifié génère. La syntaxe de cette règle est moins une action qui peut
être toujours ou jamais. Cela, qui serait une tâche à
l'exception de l'utilisateur ou de l'exclusion, suivi d'un appel système, qui est spécifié par son nom. Enfin, vous pouvez utiliser le champ et la valeur pour modifier davantage la règle afin de correspondre à des
événements en fonction éléments
spécifiques
tels que l'architecture, le
groupe est l'ID du processus, etc. module d'intégrité des
fichiers et au module d'
intégrité détectent les événements lorsqu'un fichier est modifié, est-à-dire lorsqu'un fichier est créé, mis à jour
ou supprimé sur le disque. ce faire, il crée un abonnement avec
le système d'exploitation pour recevoir notification de modifications apportées à
des fichiers ou à des répertoires spécifiques. Maintenant, lorsque vous démarrez ce module pour la
première fois, il effectue une analyse initiale de tous les chemins que
vous avez configurés. Ensuite, il surveille
ces chemins pour détecter tout changement depuis que
vous avez perdu l'exécution de ce module. Il utilise des
données persistantes localement afin d'envoyer uniquement des événements pour des fichiers nouveaux
ou modifiés. Après cela, examinons le système double ou collectons diverses informations
relatives à la sécurité d'un système. jeux de données envoient à la fois des informations
périodiques , par
exemple un état des processus en
cours d'exécution
et des modifications en temps réel. Par exemple, lorsqu'un processus
démarre ou arrête chaque jeu de données, puisque deux types d'états et d'événements d'
inflammation différents , informations d'
état sont envoyées périodiquement et
sur le système démarré et peuvent être contrôlé à l'aide d'une configuration appelée période
State DOT. Les informations sur l'événement sont
envoyées lorsque l'événement se produit. Par exemple, lorsque vous
démarrez ou arrêtez un processus. Pour obtenir des informations sur les événements ou jeux de données, utilisez
un modèle osseux pour récupérer ces données. La fréquence des sondages peut être contrôlée par le paramètre
de configuration de période. Passons maintenant
au système de laboratoire. Ici, sur mon système de laboratoire, j'ai les instructions
pour installer et configurer audit gros
sur EHS sur le côté gauche. Et sur le
côté droit, j'ai ma connexion SSH dans l'EHS, notre premier nous devrions installer des
auditeurs pour le faire. Tapez sudo apt-get,
installez-le mieux. faut maintenant se rappeler que nous sommes en mesure de le
faire, car nous avons fait toutes les
conditions préalables pour
ajouter le référentiel de recherche Elastic, la clé de signature et le transport
Apigee en tant que GTPase sur ce système déjà lorsque nous avons fait l'
installation d'Elastic Search. Si vous ne l'avez pas fait, vous ne pourrez pas
faire cette étape. Vous devez donc revenir à
l'étape où nous avons installé Elastic Search et utiliser ces conditions préalables
sur cette machine. Maintenant, une fois l'auditabilité
installée, ils peuvent taper
sudo nano slash ETC. slash audit V8 avec point-yammer. Ouvrez le fichier de
configuration des enchères d'audit. Maintenant, dans ce fichier, la
première chose que nous allons faire est de configurer
les modules. Nous allons donc d'abord
configurer le module. Allons en bas et vous verrez qu'il y a une section
intitulée Changements d'identité. Et cette section vous permet d'
insérer des règles de pare-feu qui surveillent des fichiers tels que le groupe
après WD et G. Vous pouvez soit, je viens ici pour activer ces règles, ajoutons une
règle personnalisée pour mettre une montre sur nos fichiers de configuration Elasticsearch et
Kibana. J'ai la règle ici. Moins w fichier FASTA est Tracé sur le diamètre
court Elasticsearch cinq moins b pour les autorisations,
puis les autorisations sont WA, puis la clé est modifiée. Il suffit donc de copier ces
deux-là et de les coller ici. Pour clé. À moins qu'il ne soit également
activé ces règles. Désormais, nous pouvons également surveiller les
tentatives d'accès non autorisé à notre système. Nous allons donc utiliser des
règles par défaut pour ce faire. Maintenant, allons configurer
le motif d'intégrité des fichiers. Maintenant, sous Intégrité des fichiers, vous verrez
que certains chemins sont déjà configurés, tels que ceux utilisés, ont été sbin ou cetera. Ajoutons maintenant nos pièces personnalisées pour Elasticsearch et Kibana. Alors copiez le collage. Après cela, ce que je veux vous montrer ensuite, c'est qu'ils peuvent être rapides et
que vous ne vouliez pas surveiller le chemin que vous spécifiez sous le module
Intégrité des fichiers. Vous pouvez exclure ces fichiers
à l' aide du fichier de
soulignement exclu. Deuxièmement, je vais simplement copier ce paramètre et
le coller dans ce fichier. Ce paramètre fait maintenant qu'
il recherche un nom de fichier ou un back-end pour ce nom de fichier et exclut le lavage
de ces fichiers. J'ai utilisé une expérience qui exclut les fichiers
de référence. Ainsi, le fichier
de
référence courte ou de référence de
point d'enchère métrique Elasticsearch n'est pas surveillé. Examinons ensuite
ce module système. Il existe deux types
d'informations pour
que vous puissiez obtenir des données
depuis le système ou le faire. Tout d'abord, les informations relatives à l'événement. Cela peut ressembler paquet
déjà installé sur votre système ou
supprimé ou mis à jour. La fréquence du moniteur, cette inflammation peut être modifiée en fonction du réglage
des règles. Actuellement, la valeur par défaut est
de deux minutes, alors laissons-nous à cela. Deuxièmement, les
informations d'état de l'étape peuvent être surveillées pour
des éléments tels que la connexion de l'hôte, le processus, le socket et
l'utilisateur par défaut. Et cette inflammation peut être collectée pour une fréquence
de 12 heures par défaut, mais cela peut être
modifié en modifiant la valeur de la
période sombre de l'état où elle
le ferait, mais nous la laisserons par défaut à
grand. Maintenant, nous vivons le reste
des paramètres par défaut et nous allons passer
aux paramètres généraux. D'abord. Configuré, un DAG. Donc, les œufs, je vais le
décommenter et ajouter une étiquette
appelée ELK. Prochaine. Sous tableaux de bord, j'activerai
les tableaux de bord par défaut. Après ça. Passons à
la section Kibana. Il n'avait pas validé
l'URL de l'hôte. Passons ensuite à
la sortie Elasticsearch. Et je viens protocole et change la
valeur du protocole pour qu'elle soit UDP. Ensuite, ajoutons les détails d' authentification
des utilisateurs Elastic. Maintenant,
configurons la journalisation. Je vais donc décommenter le niveau de point de
journalisation, mais le laisser comme sélecteur de
points de journalisation par défaut de la commande de
débogage, et de nouveau le laisser comme sélecteurs entiers
par défaut. Configurons maintenant la
journalisation comme fichier. Copiez cette section,
collez-la ici. Maintenant, après ce test, notez et configurez la surveillance
HTTP. Nous allons donc copier ces paramètres. point Stdev a activé un port point de degré
supplémentaire. Maintenant, pour Audit Beat, nous allons configurer le port de
surveillance pour qu'il soit 5068 car si vous vous en souvenez, 5067 est utilisé par
file beat dans cette démo. Maintenant, nous pouvons enregistrer ce
fichier pas après cela. Vérifions d'abord que
le modèle est activé
dans mon attribut. Donc la liste de sudo pip. Vous pouvez voir que BTEX
back est activé. L'opéra m'a permis de
tout effacer. Maintenant. Le fichier de configuration
modulaire redex back a été modifié. Donc sudo nano slash
ETC slash, tri du module oblique D
doit être attendu ou TML. Maintenant, dans ce fichier, ajoutons le marketing
pour l'hôte. Après la quantité d'
inflammation pour le fichier, je tape http, localhost 68. Maintenant, gardons ça. Maintenant, après cela, nous pouvons démarrer un pseudo système de bits
ordonné
CTL, start ou deadbeat. Maintenant, vérifions l'état du statut du
service. Cela a échoué
pour une raison quelconque. Examinons donc
d'abord une bonne idée de ce que nous
examinerions les informations que nous avons saisies et
vérifions que la syntaxe est correcte. Donc sudo, nano, ETC slash audit bit slash
audit beat ou OGM. Maintenant, il semble que les
fichiers soient mal
configurés. Il suffit donc de mettre quelques espaces ici qui suivent
l'index Shamatha. Il suffit de sauvegarder ce fichier. Et essayons simplement de
relancer notre audit. Quel service ? Donc, pseudo
système CTL, commencez par battre. Maintenant, reprenons
un statut, voyons s'il est apparu. Maintenant, il semble que c'était le problème et non ordonné quel
service n'est pas en cours d'exécution ? Passons à notre instance Kibana pour voir certains tableaux de bord qu'elle a
créés par défaut pour nous. Maintenant,
passons d'abord à la surveillance de la pile, démonstration ELK. Passons à Beats. Et vous pouvez voir que nous
avons un audit avec service ici. Maintenant. Nous pouvons cliquer sur le blé ,
puis cliquer sur le service d'étage
commandé. Recherchez des informations
sur l'audit V8. Nous pouvons aller à la page d'accueil,
puis au tableau de bord. Nous pouvons maintenant ouvrir l'un de
ces tableaux de bord de bits d'audit. Il suffit donc d'ouvrir le tableau de bord de l'intégrité des
fichiers. Il s'agit maintenant d'un exemple de tableau de bord que nous pouvons sortir de l'audit V8. Vous pouvez voir que le nombre initial de
numérisations était de 1043. Vous pouvez voir à quel moment l'analyse
initiale a été effectuée. Propriétaires et groupes de nos fichiers, le fichier qui a été le plus
modifié par le nombre de fichiers, certains événements de fichiers de quelqu'un. Après cela,
passons à autre chose et
configurons rapidement l'audit. Attendez notre serveur Web. Maintenant, sur le système de laboratoire, j'ai la connexion SSH
sur mon serveur Web. Je vais donc taper sudo
apt-get install. Maintenant, après cela,
configurons rapidement. Donc sudo nano slash slash audit audit
slash audit avec point YAML. Ajoutons maintenant les montres de fichiers, et non sur le serveur Web. Ce que nous allons faire, c'est que nous n'avons pas modifications
Elasticsearch et Kibana
European. Je viens donc de copier cette règle. Ensuite. Je vais le modifier pour
mes fichiers métriques beat et
fichiers bêta KML, sauvegardez-le ici. Et j'ai changé le passé en fichier
d' Elastic Search à ETC. barre oblique. Modification de la clé pour qu'elle soit modifiée. Je peux copier cela
et coller ici et modifier les
fichiers et les caméras vidéo. Donc, le
fichier slash slash slash meilleur appareil photo. Maintenant que c'est un
fichier important que vous voudrez peut-être regarder sur cet argent
, c'est votre site Apache. Plusieurs fichiers nous pouvons
copier le même et modifier la barre oblique de chemin www dot
slash HTML index.html. Et nous allons changer
la clé Bu Epsilon. Après ça. Passons au module d'intégrité des
fichiers. Ici. Je voulais cette barre oblique WWW HTML. Nous n'avons plus besoin d'
apporter des modifications au système ou de le faire. Passons maintenant
aux œufs et à l'agenda. Ici, décommentez le paramètre x. Et ajoutons la balise pour le niveau
Web active les tableaux de bord
par défaut. Maintenant, descendons
les hôtes et ajoutons l'adresse IP de mon AKS, notre 192 points 0,68 point un point 34. Et essayons de faire de
même pour les plastiques. Une telle sortie a modifié le
protocole ou juif ou DB. Et ajoutons le mot de passe, allons plus loin et ajoutons la journalisation. Enfin, configurons,
attendez-vous à une chose merveilleuse. enregistrez pas nécessairement
ce fichier et n'ajoutez pas ensuite l'
inflammation de surveillance à l'intérieur que nous nous attendions. Donc sudo nano slash slash slash, plus déformé d
slash b à attendre. Ce fichier encore une fois,
espace virgule http localhost 5068. Maintenant, nous pouvons également enregistrer
ce fichier. Commençons maintenant. Donc,
pseudo système CTL. Commencez le pedigreed. Examinons l'état
d'un serveur de redémarrage. Donc, le statut CTL du pseudo système
ou ils étaient en cours d'exécution. Revenons à
notre instance Kibana. Maintenant, ici, leur score doit
empiler un ou obtenir en premier, et cliquons dessus. Et ici, vous pouvez voir que
nous devons vérifier les poids. Vous pouvez également accéder au tableau de bord et choisir un autre
tableau de bord cette fois-ci. Il suffit de choisir le tableau de bord de présentation du
système. Ce tableau de bord
vous donne une vue d'ensemble de vos environnements tels que nombre d'hôtes dans
votre environnement, le nombre de
connexions, les actions de connexion, modifications des
utilisateurs après la distribution, démarrages de
processus et
arrêts, sockets, ouverts et fermés, modifications de
package, etc. Vous pouvez également répertorier les événements
de
votre système en bas à droite. Maintenant, ce que je veux que vous
fassiez après cela, c'est d'installer Audit Beat sur le serveur Web pour
essayer également
d'explorer d'autres tableaux de bord disponibles
et tableaux de bord pour l'audit beat pour voir quel type de informations que vous pouvez
obtenir de ce service. Avec cela, nous arrivons à
la fin de cette vidéo. Merci d'avoir regardé. Je
vous verrai dans le prochain.
27. Packetbeat 7: Dans cette vidéo, expliquons
comment installer et configurer le paquet Bit pour surveiller trafic
réseau entre
vos applications. Packet est un analyseur de
paquets réseau en temps réel que
vous pouvez utiliser avec Elastic Search pour fournir un système de surveillance des applications et d'analyse des
performances. Il permet de capturer le trafic réseau entre les serveurs
d'applications. Et il décode les protocoles de la couche
applicative tels que HTTP, MySQL, etc. Vous pouvez le déployer sur le même serveur que vos
applications résident sur une personne dans
un environnement Cloud ou inexpliquée car ils ont souligné que les périphériques
réseau ne vous
sont pas exposés. Il est difficile de déployer des centaines
de paquets sur quelqu'un. Dans cette démonstration, nous
déploierons le débit des paquets sur notre serveur Web et surveillerons notre trafic HTTP
à l'aide du débit des paquets. Il y a quatre étapes pour
redéployer et nous allons d'
abord installer
Packet Week. La deuxième semaine, configurez le débit des
paquets et le renifleur de trafic
configuré et les flux de
bureau pour notre référentiel de
compartiments. Nous allons configurer la métrique. Nous avons surveillé les
paquets. Enfin, nous allons commencer et activer le paquet. Passons à notre système de laboratoire. Ici, sur le côté gauche, j'ai les instructions
pour installer et configurer paquet sur l'
epsilon, à droite, j'ai ma connexion SSH
et demain 1er octobre, prochain paquet d'installation tarif. Nous pouvons donc taper le
paquet d'installation sudo apt-get et appuyer sur Entrée. Maintenant, une fois le package installé, vous pouvez commencer
à le configurer sur le premier
CD suivant et imprimer la barre oblique, bit de paquet oblique
ETC. Ici, si je fais un ls, vous verrez que
j'ai mon paquet, lisez le fichier de référence, je peux référencer
lorsque je configure mon fichier de
configuration d'installation de package, qui est un paquet avec point YAML. Allons faire du sudo. Numéro. Ça pourrait être sale Emma. Dans ce fichier, la
première chose que je dois configurer est l'interface
réseau à partir de laquelle je veux renifler les données
. Machines Linux. Avoir une valeur de
tout ce qui signifie
renifler ce trafic à partir de
toutes les interfaces connectées. Vous pouvez également spécifier une
interface réseau particulière pour cibler
uniquement le réseau
parfait sur cette interface. Nous allons maintenant le laisser
par défaut et les flux de
paquets seront
activés par défaut. Pour les flux désactivés,
vous pouvez définir activé comme false et
la configuration de flux pour le désactiver, mais nous allons le laisser comme activé. Il est maintenant temps de configurer les protocoles pour lesquels nous
voulons surveiller les flux réseau. Maintenant, c'est sous les protocoles
Bedard par paquets. Nous allons maintenant surveiller les outils
réseau pour ICMP, IPv4, DNS, un HTTP désactivé. Le reste des
flux devra les commenter.
Je vais le faire maintenant. Maintenant, une chose à noter est que le terrain de sport est utilisé pour configurer les
ports pour lesquels vous souhaitez surveiller les
informations de flux pour votre serveur Web peuvent être exécutées sur un port test différent. à partir de l'un de
ces ports par défaut. Par exemple, votre serveur Web peut être exécuté sur le port 8,001. Flux pour votre scénario d'index de
serveur Web, ce que vous devrez
faire est soit d'entrer ici et d'ajouter votre tableau
spécifique comme celui-ci, et d'en supprimer
le reste. Comme nous sommes sur le port 80, ils déplacent tous les autres ports. Et je vais maintenant passer à la section
suivante qui porte sur le genre. Ici. Balises peu courantes. Et je garderai les étiquettes apparaître. Après cela,
installons quelques tableaux de bord. Configuré, le
tri du tableau de bord de configuration est activé comme vrai. Laissez-moi d'abord décommenter
cela et mettre cela à vrai. Activera
les tableaux de bord par défaut pour les paquets avec une instance Kibana. Après cela, nous devrons
annuler les commentaires post-session pour
Kibana et corriger l'URL. Il s'agit de l'adresse IP
interne de notre instance par défaut. Lorsque vous faites 168 points mp4. Après cela,
passons à la sortie. Et la sortie, la première
chose que nous devons faire est de corriger l'URL de ma sortie élastique, section 921681 point 34, qui est
l'adresse IP interne de mon instance ELK. Ensuite, sous protocole, configurons le
protocole pour qu'il soit STDP. Maintenant, après cela, nous devons
configurer l'authentification, l' utilisateur
Elastic et le mot de passe. Ensuite, configurons la journalisation, décommentons le niveau de journalisation,
mais laissez-le comme avant, déboguons les sélecteurs de journalisation, mais
laissez-le comme étoile par défaut, ce qui signifie tout Il y a un
certain fichier Google connu. Je dois copier cette
configuration et la coller ici. que
fait cette configuration, c'est qu'elle permet la journalisation, qu'elle soit envoyée dans un fichier. Ensuite, nous spécifions
les paramètres du fichier qui
doit accéder, par
exemple, le
chemin d'accès du fichier, nombre de fichiers à conserver et
les autorisations sur ce fichier. Après cette conférence, la configuration doit être surveillé
par perle métrique. Copiez ces deux chirurgiens
et collez-les ici. Maintenant, le premier paramètre
permet de boire HTTP, et le second réglage. C'est peut-être le port dont il a besoin pour centrafier les données
de surveillance. Ce que nous allons faire, c'est que nous allons configurer ce port dans notre fichier beat
attend qu'il soit limité. Nous allons donc enregistrer ce fichier. Après ça. Modifions
nos fonds d'experts. Donc les
modèles sudo, nano slash, ETC slash retributive s'attendent certainement. Dans ce fichier et dans
la section hôte, nous devons ajouter l'URL de nos citations de virgules militaires de
lecture de
paquets http localhost. Dans le cortex partie
070. Je peux sauver ça. Après cela,
vérifions d'abord que le
poids métrique est en cours d'exécution. Donc le statut CTL du pseudo système. Maintenant, c'est en cours d'exécution. Commençons maintenant notre
paquet par instance. Donc, le pseudo système CTL démarre. Faisons un état
sur les bits de paquets. Donc, le pseudo kyste à
l'état CTL fonctionne bien. Kibana UI, pour examiner certaines personnes, sont
des tableaux
de bord créés par paquet. Depuis la page d'accueil de mon interface utilisateur Kibana. Je vais d'abord aller au menu. Je vais le tamponner
dessus. Il était impur. Allez à la section quatre battements. Et je peux voir qu'il y a
un paquet beat board avec, donc je peux cliquer sur beats. Cliquons sur le meilleur. Je pouvais lire. Vous pouvez voir qu'il a commencé à
recevoir des données. Vers notre instance principale. Examinez en fait certains
tableaux créés par paquet pour nous dans notre tableau de bord
expert Kibana UI. Ici. Saisissons un paquet. Cliquez ensuite sur le tableau de bord qui
indique que je pourrais lire
comme le PIB est, oui. Maintenant, ce tableau de bord
vous donne les transactions STDP, par
exemple nombre de transactions,
les strates , les scores et les rapports,
l'historique des doctrines, les requêtes DB, etc. médecins. Et ici, vous pouvez voir
les connexions au fil du
temps des publications créant du trafic, publications, du trafic de réception, du trafic
réseau entre les hôtes. Dns plein de vue, vous pouvez
obtenir des données liées au DNS. Par exemple, DNS interroge quelqu'un dans ses
requêtes au fil du temps, les types de questions dans ses adresses IP
client et serveur, souvent des questions pour DNS. Maintenant, vous pouvez également vérifier si
les transactions CPS sont effectuées. Vous pouvez voir les
dénombrements de cou et de déclin, le nombre de transactions, les colonnes
vides, le transfert de données, bandes, simplement taper au fil du temps. C'est maintenant le pôle
de votre tableau de bord. Peut examiner les clients
qui tentent d'
accéder à vos sites Web
dans le cadre de ses transactions. Transactions,
types de transactions, réponse au fil du temps, centiles de temps de
réponse, erreurs ou
transactions réussies, termes qu'ils n'ont pas recherchés, etc. Ce que je veux que vous fassiez
après cela, c'est que je veux que vous à déployer sur un serveur Web. Cela arrivera à la fin de cette vidéo et vous regardez, je vous verrai dans la prochaine.
28. Comment déployer un cluster à plusieurs nœuds: Hé les gars, Dans cette
conférence, nous allons créer un
cluster Elasticsearch à 3 nœuds avec deux nœuds éligibles au
maître, séparera
également notre application Kibana
sur sa propre instance. La communication entre les nœuds de recherche
Elastic se fera via SSL et la communication
entre Kibana et notre cluster Elasticsearch
se fera via HTTPS. Voici quelques étapes. abord, nous allons créer
trois nœuds Elasticsearch sur notre compte d'essai GCP. Ensuite, nous
créerons également une machine virtuelle Kibana sur notre compte d'essai GCP. Après cela, nous allons
installer Elastic Search, les trois nœuds
Elasticsearch et installer Kibana sur sa propre charge. Ensuite, nous allons générer
une autorité de certification Elastic Search et créer tous les certificats. C'est parce que nous utiliserons des certificats
auto-signés. Si vous ne le souhaitez pas, vous pouvez générer des demandes de
signature de certificat et obtenir certification de
votre entreprise ou une autorité de
certification publique pour vous fournir les
certificats de votre cluster. Une fois que vous avez obtenu
les certificats, ces
certificats
seront distribués à tous les nœuds. Ensuite, nous allons configurer
Elasticsearch et Kibana. Enfin, nous veillerons à ce que
les nœuds Elasticsearch rejoignent le cluster Elasticsearch
et que le nœud Kibana puisse communiquer avec Elastic
Search via HTTPS. Commençons donc. Comme vous pouvez le constater, je suis dans ma page Instances de
VM Compute Engine. Ici. Je vais cliquer sur Create Instance. Je cliquerai sur New women
sense from template, et je choisirai le modèle ELK
et cliquez sur Continuer. Je vais changer la région
en US West One. Je garderai le nom d'ELK. Et je vais passer à la section
réseautage, développer cela, puis l'
étendre en travaillant. Je vais m'assurer que cette machine virtuelle est un VPC de recherche Elastic et
dans le sous-réseau de surveillance. Et après cela, je
cliquerai sur Créer. Maintenant, une fois cette machine virtuelle créée, je peux en créer deux autres. Une fois que les trois instances Elastic
Search ont été créées, je cliquerai à
nouveau sur le bouton
Créer une instance pour enfin créer
mon instance de caméra, je cliquerai sur l'instance
de VM à partir du modèle et j'utiliserai à
nouveau mon Modèle ELK
et cliquez sur Continuer ici, je vais changer le nom en Kibana,
changer à nouveau le
cœur de la région en réseau. Assurez-vous qu'il est sous surveillance du
sous-réseau et cliquez sur Créer. Enfin, j'ai prêt mes trois instances
Elasticsearch et mon encens Kibana maintenant, nous allons tester la connectivité
à toutes. Ce que je vais faire, c'est
que je clique d'abord sur ces trois lignes pour
modifier l'affichage des colonnes. Je ne veux pas de zones car je
connais tous les théorèmes des zones. Je ne veux pas que les
recommandations soient utilisées par, et je clique sur OK, maintenant je vais modifier la taille de la fenêtre de mon navigateur pour faire
apparaître mon terminal. J'ai donc maintenant mon compte d'essai
GCP, le côté gauche et mon terminal pour Mac sur le
côté droit. Et je vais vérifier la
connectivité de mon Mac à l'adresse IP externe
de mes instances GCP. Je vais donc taper l'
espace SSH, le faire paraître, puis je copierai
l'adresse IP externe
et collerai et appuyez sur Entrée. Oui, je vais pouvoir me connecter
à la première instance. Ensuite, j'ouvrirai un nouvel
onglet avec profile basic. Ici, je vais taper dans le
laboratoire SSH à la
lumière supplémentaire que nous avons la
deuxième instance et elle entrera, oui, même chose. J'ajouterai un autre onglet,
SSH , puis je
copierai l'adresse IP
de la prochaine instance. Oui. Enfin, je vais copier l'IP externe de l'instance de
microbiologie, ouvrir un nouvel onglet et faire bit de laboratoire
SSH et le
coller ici. Cela a pris des années et maintenant je suis
capable de me connecter à tous. Je vais donc réduire cela et nous commencerons à configurer
nos instances. Nous devrons donc d'abord installer Elastic Search sur toutes les instances R3,
trois instances Elasticsearch. Alors, allez-y
et vous pouvez suivre
les mêmes étapes que celles que je
vous ai montrées dans un déploiement à un seul nœud. Ne configurez pas encore le point
Elastic Search Dot YAML, installez-le et
revenez et je ferai de
même sur ces instances. Après avoir installé
Elastic Search sur les trois notes
Elasticsearch, il est temps d'installer
Kibana sur le nœud Kibana. J'ai déjà installé
la clé de signature publique et j'enregistre cette définition de
répertoire. Donc tout ce que nous devons faire
sur cette instance est sudo APT get Update and end. Sudo APT installez
Kibana et appuyez sur Entrée. Comme vous pouvez le voir,
Kibana a été
installé avec succès sur cette machine
après que Gibbon ne soit pas stocké. Ce que je vais faire, c'est que je vais passer
au terminal Visual Studio afin pouvoir référencer mes notes pendant
la configuration des services. Ici, à l'écran,
ma
fenêtre Visual Studio Code est ouverte avec mes notes sur le côté gauche
et le terminal à droite
et en haut, j'ai utilisé cette icône plus
pour créer quatre onglets chacun dans ma
charge individuelle sur le compte GCP. commencerons donc d'abord à configurer
la machine ELK One. Ici. Je vais faire sudo VI slash, ETC, Elastic Search slash
elash elash search.html. Annihilate entre.
Je vais aller dans Insert. Et la première chose
que je dois faire, c'est définir un
nom pour mon cluster. Cela devra être identique sur tous mes derniers nœuds d'effort ou
limiter le soulignement de démonstration ELK. Ensuite, je vais donner un
nom à ce nœud. Je vais appeler ce nœud ELK un. Nous pouvons conserver le chemin d'accès aux données et répertoire des
journaux, c'est très bien. Ensuite, je vais entrer dans le
réseau et je
modifierai la valeur de l'hôte du
point réseau à 0. point 0 est 0. Ensuite, je vais décommenter le port point STDP. Ensuite, nous devrons spécifier les hôtes initiaux de notre cluster. Ce sont les premiers hôtes. Ce qui formera
notre cluster ici, je mettrai l'adresse IP
privée de tous mes nœuds Elastic Search. Si je vais dans ma console GCP, les adresses IP privées sont 192.6781681. C'est donc ce que nous allons aller ici. Une fois que nous avons fourni des hôtes de départ, nous devons indiquer quels nœuds
peuvent être maîtrisés éligibles. Nous voulons que ELK Wonder Neil
K2 soit éligible au master. C'est donc ce que nous allons aller ici. Je vais taper EL k1 et k2. Maintenant, c'est tout pour ce dossier. Pour l'instant, je peux enregistrer un point d'exclamation
bleu q. Maintenant, une fois que j'ai fait cela, ce que je dois faire,
c'est que je dois aller à utilisateur, partager Elastic Search et être
maintenant dans la poubelle, nous pouvons faire un ls et
vous verrez qu'il existe un utilitaire appelé Elastic
Search. Hôtel Dash 30. Nous utiliserons cela pour créer d'
abord une autorité de certification,
puis générer des certificats
pour une réplication, ces certificats seront des certificats
auto-signés. Commençons donc d'abord, nous devons générer un voyant. Pour ce faire, nous allons taper sudo dot slash Elastic Search
dash sagittal. Et pour générer un voyant, la commande est C,
et nous allons appuyer sur Entrée. Nous pouvons conserver les valeurs par défaut et
aucun mot de passe pour le PDG. Ce fichier point p12 est en partie partagé par
l'utilisateur Elastic Search. Je vais donc faire un LS ici pour
m'assurer que ce fichier est
là. Maintenant, CFI IS est généré. Nous devons maintenant générer les certificats SSL à
utiliser par les charges Elasticsearch. Ce que nous allons faire, c'est que nous
reviendrons nouveau et je cliquerai sur la
flèche vers le haut pour accéder à ma commande
Elastic Search Utility supprime CA, et cette fois, je taperai insert parce que je
voulais générer certificats. Et pour générer
les certificats, je dois fournir une autorité de certification, je vais taper un tiret, un tiret C, et nous copierons le nom
de notre fichier CAP 12 et mettrons ici car le fichier
est en attente pour l'emplacement. Nous n'avons pas besoin de fournir un chemin
complet vers et je cliquerai sur Entrée quand il
demande un mot de passe pour ca, nous n'en avons pas fourni lorsque
nous générons le CS, donc c'est bon, nous pouvons appuyer sur Entrée. Nous allons maintenant
accepter les valeurs par défaut
du fichier
de certificat ou du mot de passe. Maintenant, ce fichier doit également être dans le partage d'utilisateurs Elastic Search. Je vais donc aller dans ce
répertoire et faire un ls. Et c'est notre fichier de certificat Elastic
Search. Maintenant, c'est pour le SSL. Donc, si nous revenons
à notre PowerPoint, il
s'agit de la communication entre les nœuds Elasticsearch. Pour la communication Kibana, nous devons créer un certificat
STDP. Maintenant, pour ce faire, nous pouvons faire un CD en été. Cette fois, je vais taper dans la table sergio de
recherche élastique sudo dot. Et ici, je vais taper STDP, régénérer le SGD
sera des certificats. Je ne veux pas générer de CSR, donc je vais taper maintenant, c'est l'option que vous utilisez
lorsque vous utilisez une autorité de certification tierce, par
exemple, l'autorité de certification publique de votre
entreprise. Mais comme nous utilisons les certificats
auto-signés, je vais saisir 0 et appuyer sur Entrée. Oui, nous voulons utiliser
un CS existant, donc je vais taper oui, le
chemin d'accès à mon fichier CASB T12. Je vais donc copier le chemin qui
est le partage d'utilisateur Elastic Search. Je vais le copier ici est
Elastic Search ca dot p12. Je vais donc copier ça ici
aussi, et je cliquerai sur Entrée. Il n'y a plus de mot de passe
pour ce fichier SCF. Maintenant, il me demande
combien de temps je veux que les
certificats soient valides. Maintenant, je veux la valeur par défaut, donc je vais le garder cinq
ans à venir, il vous demande
si vous voulez générer
un certificat par chargement dans une
configuration de production, vous pouvez le faire. Donc, oui, ici, mais pour l'instant, je clique
sur Non et je clique sur Entrée. Maintenant, il veut les
noms d'hôtes pour tous les nœuds, ou nous pouvons fournir des caractères génériques. Maintenant, je vais vous montrer
quelque chose pendant une minute. Il sera envoyé à une autre instance. Maintenant, nous allons faire sudo V slash, ETC, slash hosts pour
ouvrir mon fichier hôte. Désormais, toutes les instances GCP
ont un DNS interne, qui ressemble à ceci. Supposons le nom d'hôte que
vous avez fourni lors de
la configuration, la région y m point c, puis le projet
dans lequel ils se trouvent, puis point interne. Ce que nous allons faire, c'est que nous allons générer un certificat à l'aide d'un point
étoile interne. Troisième type en étoile pour couvrir
tout, du nom d'hôte, projet
point de la région de points. Et puis je taperai
interne et appuyez sur Entrée, puis appuyez à nouveau sur Entrée, je vais aller oui, c'est exact. Maintenant, il veut que nous fournissions les adresses IP
de tous mes nœuds. Donc je vais le faire. 92
points 168 points un point 6190 point 168 point un point 7192
point 168 point un point huit. Veuillez noter que cela
sera évidemment différent pour vous. Vous devrez
donc vous rendre votre console GCP, regarder les adresses IP internes et
les fournir ici. S'ils ne sont pas corrects, vos nœuds ne
rejoindront pas le cluster. Je vais donc saisir Enter a Enter a
Enter à nouveau pour sortir. Oui, ils sont corrects. Je ne veux pas
changer d'options. Je clique sur Non, je ne
veux pas fournir de mot de passe. Cliquez sur Entrée et j'
accepte toutes les valeurs par défaut. Et cela devrait créer un fichier zip dans mon emplacement
Elastic Search. Passons donc à un niveau au-dessus
d'un clair et faisons un ls. Nous avons maintenant généré un fichier, un certificat pour les
nœuds Elasticsearch et un fichier zip. Voyons maintenant ce qu'il y a
dans le fichier zip. Je vais donc taper le zip de points
Elastic Search. Il ne trouve pas le décompresseur. C'est donc une solution facile. Je vais taper sudo
apt-get install, décompresser, savoir ce qui est
installé. Nous ferons la même
commande et nous attacherons pseudo
délit clair à analyser. Maintenant, nous devons entrer
dans ce dossier. Je vais donc faire CD Elastic Search. Et à moins qu'il n'ait le fichier
STDEV point p12. Passons maintenant à un niveau au-dessus
et refaisons l'analyse, il y avait aussi un dossier Kibana. Allons donc là-dedans. Et chaque fois qu'il y a
un fichier Elastic Search CA Him. Il y a donc un fichier http
dot p12 et
un fichier ca dot vm qui a été
créé dans ce dossier ,
c'est maintenant nous allons déplacer tous
ces fichiers pertinents dans mon répertoire temporaire de barre
oblique pour que je puisse télécharger tous ces éléments et les ont ensuite répartis sur
les prêts. J'ai donc d'abord un niveau
au-dessus du clair, quand Alice, je copierai les certificats Elastic
Dash pour copier d'abord le
fichier de certificat pour obliquer TMP, et je devrai ajouter un pseudo. Maintenant, je dois copier
ma pile élastique CFL, ca dot p12 barre oblique TMP. Ensuite, je dois faire une
copie sudo Elastic Search oblique le fichier STDP dans le
dossier Elastic Search, tmp également. Et enfin, je dois faire
une copie sudo Kibana et le fichier PEM Elastic Search
ca dot dans ce
dossier Kibana pour slash TMP. Maintenant, une fois que j'ai fait cela, je dois entrer dans
le dossier TMP barre oblique. Et ce que je vais faire, c'est
que je vais faire un mod CH et donner des autorisations complètes
à tout le monde sur ces fichiers. Étoile élastique, et
je le ferai en utilisant sudo et enfin
pseudo CH mod 777. Je le ferai pour
mon fichier STDEV.P 12
quand c' est moins l pour m'
assurer que c'est fait, on dirait que
c'est le cas. Maintenant, avant de les télécharger, déplacera directement les fichiers de
certificats pertinents pour ce nœud particulier
dans le conflit. Allons dans ETC. Slash Elastic Search
type dans sudo SU. Nous allons d'abord passer dans CD,
ETC, Elastic Search. Ici, nous allons créer un
répertoire appelé search. Une fois cela fait, nous copierons le certificat SSL de
notre Elastic Search, qui est ce certificat dans recherche Elastic Share
utilisateur
dans le dossier de recherche, copierons les barres obliques des utilisateurs
Elastic Search. Et le certificat est un
certificat élastique stocké B12. Et nous copierons le certificat
dans le dossier source, barre oblique de
recherche, nous appuyons sur Entrée, puis faisons un CD dans
ce dossier de recherche, assurez-vous que le
certificat a été copié correctement, c'est fait. Maintenant, ce que nous devons faire c'est de passer un
niveau au-dessus ici, nous
allons à nouveau modifier notre fichier YAML Elastic
Search dot. Je vais donc faire un VI
Elastic search.html. Et à l'intérieur de ce
fichier, il faudra passer directement à la sécurité et sous sécurité copiera certains paramètres
de sécurité de mes notes. Donc, s'attend à ce que la sécurité activée true active la
sécurité attend que sécurité attend le transport de sécurité SSL enable true active le SSL
sur le transport, nous utilisons le certificat I du
mode de vérification SSL et nous nous assurons qu'il est obligatoire pour les clients
d'être authentifiés. Et enfin, nous devrons
fournir le KeyStore et faire confiance ou partie pour notre fichier Elastic
Certificate dot pupil, que nous venons de copier directement dans le dossier
source dans Della de
ce conflit. Mais avant de le faire,
parce que nous passons
au troisième dossier, nous devons fournir le
nom de domaine complet de cette partie. Nous allons donc taper la barre oblique, barre oblique
ETC Elastic
Search barre oblique de recherche oblique de magasin de
certificats élastique quitte. Eh bien, on copie ça et on le
colle ici aussi. Et maintenant, nous pouvons copier tous ces
paramètres, les coller ici. Avant de passer à autre chose, nous devons
également activer la communication
https ou
un autre cluster pour cela, nous devrons
d'abord activer GDB, un autre cluster, puis nous devrons
fournir un pot au SGD P. volve. Comme nous l'avons fait plus tôt. Je vais fournir le nom de domaine complet parce que
vous avez modifié le fichier de barre oblique
ADC
Elastic Search SRB dot py, et copiez ces deux
paramètres vers le bas de mon fichier YAML de point Elastic
Search. Et maintenant, je peux enregistrer ce fichier. Maintenant, une fois que nous aurons fait cela, je copierai également ce fichier dans
mon dossier Temp. Et encore une fois, je vais faire un CH plus. Et ainsi de suite. Sur mon fichier YAML Elastic Search
point à l'intérieur d'eux se trouvent celui-ci et appuyez Entrée et il y a une copie notre
introducteur de certificat sédentaire. Donc, copiez la barre oblique, la barre oblique de
partage d'utilisateur
Elasticsearch, la barre
oblique Elasticsearch STDP dot py s'attarde dans la
recherche élastique ATC. Et passons dans
le dossier source pour nous assurer que ce fichier existe. Revenons maintenant à fenêtre de
notre console GCP pour
télécharger tous ces fichiers. Maintenant, sur la console pour GCP, je vais cliquer sur SSH
à côté de mon instance ELK One. Cela ouvrira le SSH de cette instance dans
un nouvel onglet de navigateur. Maintenant, une fois les
connexions SSH terminées, cliquez sur le bouton Paramètres en haut à droite et cliquez
sur Télécharger le fichier, puis donnez-lui le nom de domaine complet. Donc, les certificats
élastiques slash temp dot
p12 et cliquez sur Télécharger. Nous avons téléchargé le
premier certificat. Maintenant, nous devons télécharger
notre fichier STDEV dot p12. Donc, slash terms slash std
p.volve est téléchargé cette fois. Cliquez ensuite à nouveau sur le fichier de
téléchargement. Cette fois, nous allons
télécharger le fichier PEM point. Donc, pour obtenir le nom, je vais aller dans mon répertoire
temporaire pour analyser et obtenir le nom
de mon fichier PEM point. Ici. Je l'ai téléchargé. Maintenant. Ensuite, nous devons télécharger notre fichier YAML
court Elasticsearch. Je cliquerai donc sur Télécharger le
fichier et barre oblique les termes Elastic
Search point YAML, et je cliquerai sur Télécharger. Une fois cela fait, je peux fermer cet onglet SSH et ouvrir
un nouvel onglet dans mon ELL k2. Maintenant, une fois le SH2 GLP-2 ouvert, nous cliquerons à nouveau sur le bouton
Paramètres, nous cliquons sur Charger le fichier et nous allons à
l'emplacement où nous avons téléchargé
les certificats. Et le premier fichier, un est le certificat Elastic
Search. Et je cliquerai sur Ouvrir, et cela chargera ce fichier la barre oblique maison de
formation élaborée trois. Et le prochain fichier que je veux
ici est le fichier HTTP. Je cliquerai donc à nouveau sur
charger et télécharger le SGD p.volve
au même endroit. Et enfin, je vais télécharger mon Elastic search.html, ce fichier. Maintenant, une fois cela fait, nous devons également télécharger
ces trois fichiers sur la troisième
instance Elasticsearch. Je vais donc le faire maintenant. Une fois que vous avez téléchargé
les fichiers sur ELL K3, nous devons aller à l'instance de
Kibana, faire la même chose, mais
cette fois, nous devons simplement télécharger le fichier Elastic
Search ca dot vm. Je clique donc sur le bouton
Paramètres, cliquez sur Charger le fichier et le fichier PEM point pour Elastic Search et
je cliquerai sur Ouvrir. Une fois que vous avez téléchargé
tous ces fichiers, ils ont tous été téléchargés le répertoire personnel
de l'utilisateur
exécutant le laboratoire ou de votre
utilisateur individuel sur vos machines Linux. Nous devons les copier
dans la bonne partie. Allons d'abord à l'ELL K2 ici. Passons d'abord à la formation en informatique du laboratoire de
slash home. Et vous pouvez voir si vous avez un fichier YAML Elastic Search dot et deux fichiers de certificats. Tout d'abord pour sudo
SU pour devenir racine. Ensuite, nous allons entrer dans notre
répertoire Elastic Search ici, nous allons créer un nouveau répertoire
appelé search, copier nos certificats
dans ce nouveau répertoire. Donc STDEV point p12
en barre oblique tiers. Et ensuite, le certificat Elastic
Search. Donc, l'outil Elastic Certificate dot
py et pour rechercher, allons
maintenant dans le troisième
sélecteur pour nous assurer qu'ils ont été copiés et faire une analyse
ici, c'est très bien. Nous devons maintenant remplacer notre
fichier YAML de points Elastic
Search existant par le nouveau fichier que
nous venons de copier. Copiez donc slash home slash
laboratoire exécutant trois slash elastic search.html dans
ETC slash Elash Elash Search. Et passons à un niveau
plus haut et faisons un ls moins l.
Et ici, nous devrons modifier
quelques paramètres à l'intérieur de ce fichier YAML
Elastic Search dot. Sudo nano Elastic search.html
devra donc descendre
à notre nom de point de nœud, et nous devrons
changer cela en ELL K2, ec2, et cela devrait être tout. Maintenant, il semble que j'ai fait
une faute de frappe et un nom de point de chargement. Nous avons besoin que ce soit le tableau de bord ELK, le numéro de charge 12 ou trois. Laissez-moi juste vérifier
ce que j'ai fait sur le vrai k1 ici sur mon ELK. Je vais donc aller à ETC, Elastic Search et je vais faire une dernière
chose nano, search.html. Et je vais changer ça
pour en tirer un aussi. Et je vais l'enregistrer maintenant
que nous avons collecté, sauvegardons
également ce fichier et passons à ELK a3. Nous devons donc faire la même chose. Donc, pseudo copie slash home
slash bibliothèque formation trois slash http dot slash élastique search.html
à barre oblique, ETC. Slash Elastic Search a créé le dossier et copié tous les bons certificats
dans son chemin d'accès. Maintenant, ce que nous pouvons faire, c'est que
nous pouvons faire un fichier search.html nano ou non élastique et
nous pouvons changer le nom de chargement. Nous pouvons enregistrer ce fichier. Passons maintenant à
notre instance Kibana. Sur Kibana, il n'y
avait qu'un seul fichier, donc la formation élaborée à domicile
trois selon la liste des fournisseurs. n'y a qu'une seule recherche
Elastic, point PM. Nous allons donc faire un sudo
SU, c'est Co2, ETC. Slash Kibana, créez
un nouveau répertoire appelé search ici et copiez le fichier Elasticsearch ca dot vm à partir de notre
répertoire de formation de niveau pour rechercher. Et maintenant, faisons un nano
sur le clavier AutoML ici, la première chose que nous
devons faire est décommenter le port point
du serveur. Ensuite, nous devons changer les hôtes points
du serveur à 0. Et là où il est dit URL de base publique
du serveur, nous devons fournir l'URL, ce
service Kibana de bureau Goneril, non, nous ne ferons pas HTTPS pour
notre interface graphique Kibana. Ce que je vais faire, c'est que je vais taper
une barre oblique http. Je vais dans les instances de VM, copie l'IP interne de l'instance de
microbiote, je la colle ici et j'ai configuré
Kibana pour fonctionner sur 5601. Je vais donc taper que ceux
qui ont fait que nous devons abord spécifier sont
plusieurs nommés d'après Kibana. Je vais donc décommenter
ce type de rôle dans démo Kibana ici et ici, nous devons spécifier toutes les
instances Elastic Search pour nos requêtes. Donc, si vous souhaitez
simplement que vos requêtes exécutées sur une seule instance
Elasticsearch, vous devrez spécifier l'
adresse IP de cette incidence. Mais parce que nous voulons qu'ils soient
exécutés sur toutes nos instances, je vais fournir toutes les instances
Elasticsearch ici. Je reviendrai à mes notes et je vais copier cette chaîne à partir d'ici, et je vais la supprimer
et je la collerai, et je corrigerai la diapédèse. C'est moi qui ai fait ça. La prochaine chose que nous devons
faire est de
fournir le chemin du fichier dot bm. Pour ce faire, nous devons nous adresser aux autorités de
certification SSL
Elastic Search dot, et je ne commenterai pas cela. Et ici, à gauche pour fournir les pièces à mon fichier ca dot vm. Donc je vais supprimer tout
cela et taper dans barre oblique
ETC Kibana barre oblique de recherche oblique le nom de notre barre oblique
Elasticsearch Search dot vm fichier slash Elasticsearch ca dot pm. Et une fois que j'ai fait cela, je peux suivre enregistrer ce fichier. Il est maintenant temps de démarrer notre cluster
Elasticsearch. Maintenant, je vais aller à ma machine à
rendement donné. Je vais taper le système CTL, démarrer Elastic Search,
puis je vais aller sur ma machine. Dans le directeur technique du système hors d'ici, démarrez Elastic Search
et tapez sudo devant. Et ensuite, j'irai vers ma troisième
machine, mais la même chose. Donc, le pseudo système CTL démarre
Elastic Search et il est entré, voyons si le premier jeu d'instance
Elasticsearch de très bien, semble qu'il y a eu un problème. Donc, pour résoudre tout problème lorsque vous pouvez utiliser CTL général moins f moins u ,
puis le nom du service.
Jetons un coup d'œil. C'est juste de commencer le service. Un autre endroit que vous pouvez chercher est le journal de sous-vêtements Elastic Search. Si nous faisons un ls, il y
aura un fichier journal de points. Faisons donc un chat là-dessus. Il est écrit la nuit excédentaire
dans le dossier du certificat. Revenons donc à notre dossier
Elastic Search. Laissez-moi tout éclaircir ici. Faisons un dossier de certificat ls moins l
r est grossier Elastic Search score. Insérez là et faites un, laissez-moi S moins L. Notre certificat
Elasticsearch a les autorisations r, w, et ensuite rien
pour le groupe. Maintenant, nous devrons peut-être
changer cela, donc nous allons faire le mode CH. Et pour l'instant, je vais
juste taper 777 et
certificat Elastic Search point p12. Et je ferai la même
chose pour mon HTTP. Ou pour le comprendre pour
un déploiement de production, vous devrez peut-être examiner les autorisations sur
le certificat, mais pour l'instant, essayons simplement de démarrer le service avec
ces autorisations. On dirait qu'il
a commencé à trouver cette fois. Faisons donc un système CTL,
statut Elastic Search. Remarquez que c'est fait. Nous pouvons aller à l'
autre instance et ces CDC Elastic Search à
ces CDC Elastic Search
comme sudo SU ici
dessinons ETC, Elastic Search et
ensuite ls moins l et regardons le dossier source à
moins que cela ne coïncide. Et regardons maintenant les autorisations
sur le certificat, regardons l'état
de cette machine. Donc, celui-ci est en cours d'exécution. Jetons un coup d'œil aux
données de la troisième machine. Comme vous pouvez le constater, cas de problème d'autorisations, votre service peut ne pas apparaître. Si je reviens à ma
première instance, tout ce que vous avez à faire
est que si vous
rencontrez des problèmes pour démarrer ce service
Elastic Search, vous pouvez accéder aux journaux Elasticsearch pour analyser
et regarder ce fichier. . Et comme je l'ai montré précédemment, cela vous donnera un indice de l'
endroit où l'erreur est faite pour le moment, je vous ai également montré
comment modifier les autorisations sur divers fichiers pour
résoudre tous les problèmes. Maintenant, comme vous pouvez le constater, avec l'autorisation de 755, ce certificat est correctement
chargé. Donc, ce que
nous devons faire est probablement aller dans ATC Elastic Search
et de passer à la recherche, de
changer les autorisations 755 sur ce
certificat Elastic Search également. Et essayons de faire
la même chose pour notre certificat STDP Bidwell à
moins d'essayer de redémarrer les dollars de service à
un statut CTL système, recherche
plastique est en cours d'exécution. Ne nous éclaircissons pas. Ensuite, nous devons générer les informations d'identification de notre cluster
Elasticsearch. Nous partageons Elastic Search
et avons été dans l'analyse des
avantages,
il y a un fichier de mots de passe et avons été dans l'analyse des
avantages, de configuration, donc nous allons faire une barre oblique de mots de passe Elasticsearch
. Et je vais faire automatiquement pour
générer automatiquement tous mes mots de passe. Allez-y, oui, et il a généré le mot
de passe de ce cluster pour moi, je vais les copier dans des fichiers. Je l'ai eu. Maintenant, avant de faire quoi que ce soit, je dois aller dans mon instance
Kibera ,
puis quarter mon fichier YAML sans point de
clavier. Je vais faire le dossier Sudo SU Kibana. Et ici, j'apprendrai
sur la rhodamine Kibana. Et dans ce fichier, je vais fournir les informations d'identification de mon utilisateur système
Kibana. De cette façon, nous utiliserons l'authentification par
mot de passe pour notre Kibana afin de communiquer
avec Elastic Search. Copiez ce fichier et enregistrez ce fichier. Et commençons Kibana. Faisons un statut sur
ce service est vecteur. Maintenant, ce que nous pouvons faire, c'est de
revenir à notre instance
Elasticsearch, jaune, et
obtenons l'état de ce cluster pour nous assurer que les
trois nœuds sont connectés. Illustrator. Je vais donc
aller dans mes notes, copier la commande curl et ajouter le nom d'utilisateur et le mot de passe de l'
utilisateur Elastic à cette commande moins
u elastic, puis fournirai le mot de passe
pour cet espace utilisateur. Et je vais appuyer sur Entrée et
changer le STDP en HTTPS. Et j'ai compris cette erreur lorsque
vous essayez de vous connecter via curl qu'il y avait un certificat
et une chaîne de certificats auto-signés. Tout ce que vous avez à faire, c'est que vous devez
dire à curl
d'ignorer qu'un certificat auto-signé
ira
juste en haut à droite après Carl et
moins k et appuyez sur Entrée. Et ici, vous pouvez voir que
notre cluster comporte trois nœuds, appelé Demo ELK et que le statut de ce
cluster est vert. Il s'agit d'une réponse positive. Nous allons donc
copier l'adresse IP publique de notre Kibera
et voir s'ils peuvent accéder à l'
interface utilisateur Kibana en utilisant cette adresse et l'interface utilisateur
Kibana est chargée. Ce que nous allons faire ensuite,
c'est que nous allons essayer de voir si nous pouvons nous connecter
avec l'utilisateur Elastic. Copiez le mot de passe. La bande élastique a fourni le mot de passe
ou quoi que ce soit ici. Cliquez maintenant sur Explorer tout seul. Comme vous pouvez le constater, je n'ai pas réussi à
résoudre. C'est ainsi que vous pouvez créer
un cluster ELK multimode. C'est ainsi que nous sommes arrivés à
la fin de cette conférence. Merci d'avoir regardé. Je vous verrai dans le prochain. Au revoir.
29. Nœuds de recherche élasticité: Hé les gars, dans cette conférence, Jetons un coup d'œil à un cluster
Elasticsearch un peu plus
en détail. Et le
cluster Elasticsearch est un groupe d' une ou de plusieurs instances de nœuds
connectées ensemble. Qu'est-ce que la
recherche et le chargement Elastic ? Un nœud de recherche Elastic est un serveur unique faisant partie d'un cluster. Cela signifie que tous ces nœuds
dans le fichier de
configuration YAML élastique ou court
auront le même paramètre de nom de
point de cluster. Ainsi, tous les nœuds qui ont le même nom de
point de cluster
que le même paramètre peuvent former un cluster. Un nœud stocke des données
et participe
aux fonctions d'indexation et de
recherche des clusters lorsqu'un nœud
rejoint ou quitte un cluster, le cluster se
réorganise automatiquement pour distribuer les données
uniformément sur tous les
nœuds disponibles dans ce cluster. Ainsi, en cas de perte d'un nœud, vous ne perdez pas
les données et elles sont disponibles sur tous
les autres nœuds. Maintenant, si vous exécutez une seule instance d'
Elastic Search, ce type de cluster
est entièrement fonctionnel, mais si vous perdez votre nœud, vous perdrez toutes vos données. Par conséquent, si vous avez des exigences en matière de haute disponibilité ou de tolérance aux pannes, il est préférable
d'utiliser le cluster. Désormais, les nœuds d'un cluster
Elasticsearch peuvent avoir plusieurs rôles. Ceci est spécifié par le paramètre d'objectif
Node.js dans votre fichier YAML de
stratégie de recherche Elastic. Maintenant, à l'écran, je vous ai donné un
bref résumé de tous les rôles de nœuds
disponibles dans Elastic Search. Et maintenant, jetons un coup d'
œil à chacun d'entre eux. abord, jetons un coup d'
œil aux nœuds éligibles maîtrisés sont le nœud maître dans un cluster
Elasticsearch est responsable des actions légères à l'
échelle du cluster telles que la création ou la
suppression d'un index, le
suivi les nœuds font
partie du cluster et déterminent les graphiques à
attribuer à quels nœuds. Donc, fondamentalement, quelles
données sont stockées sur nœud il est important
pour la santé du cluster d'avoir un nœud
maître stable, car le nœud musculaire effectue toutes les activités de
gestion du cluster. Et si votre
nœud maître est plus stable, votre cluster ne peut pas
comprendre ce qui se passe. Il existe maintenant deux types
de nœuds principaux éligibles. Vous pouvez avoir un maître
dédié ou un maître de vote uniquement qui est maintenant
un nœud maître dédié, comme son nom l'indique, est un nœud dédié qui agit comme un nœud maître
pour ce cluster. Maintenant, ce type de configuration est bénéfique si vous disposez d'un cluster
très volumineux et les
tâches de gestion de
votre cluster sont tellement importantes que vous devez fournir une norme musculaire
dédiée
aux petits clusters, vous n'avez probablement pas besoin
d'un nœud maître dédié. Vous spécifiez quel nœud est
un maître dédié en
fournissant uniquement le maître de valeur
dans la valeur des rôles points de nœud. Ce nœud n'agira
comme aucun autre nœud. Désormais, un deuxième type de charge maître éligible peut être un nœud maître uniquement
votant. Désormais, ce type de nœud peut participer à une élection
principale, mais il ne peut jamais
être un nœud maître. Il peut donc s'avérer utile lorsqu'un maître est élu, mais il ne jettera jamais son
nom pour être un nœud maître. Examinons
maintenant les normes de données. Les datanodes contiennent les chemises qui contiennent les documents
que vous avez indexés. Ils contiennent donc un élément de données que vous avez
stocké sur votre cluster. anodes ont géré les
opérations liées aux données telles que les opérations de création, lecture, de mise à jour et de
suppression, telles que les opérations d'agrégation. Ces opérations
sont gourmandes en entrées-sorties, en
processeur et en mémoire. Il est donc toujours judicieux de
surveiller ces ressources
sur ces nœuds de données. Et lorsqu'ils sont
surchargés, ajoutez d' autres nœuds de données à votre
cluster pour uniformiser la charge. Vous pouvez désormais disposer
d'un DataNode de contenu qui prend en charge le contenu
créé par l'utilisateur. Ils peuvent également effectuer
des opérations idempotentes telles que grader ou créer, lire, mettre à jour et supprimer telles agrégations
sur votre cluster. Désormais, les nœuds de données peuvent être
configurés à différents niveaux. Jetons donc un coup d'
œil à chacun d'entre eux. Pour vous donner un exemple,
supposons que vos données soient récemment
arrivées dans votre cluster. Supposons que vous ayez
des données CRM qui
sont entrées dans le cluster
et qu'elles viennent d'arriver. De toute évidence, tous vos associés
commerciaux ou toute autre personne qui
a besoin de ces données CRM. Nous examinerons ces
données dès qu'elles seront disponibles. Vous vous attendez donc à une fréquence élevée de recherche pour ce type de données. Vous le stockerez
dans le niveau chaud. Il s'agit donc de données qui viennent et qui font l'objet de recherches
fréquentes. Maintenant, disons que les données probablement de
trois mois, sorte que votre liste de clients est
devenue un peu désuète. se peut que vous deviez
effectuer des recherches
dessus comme c'était le cas lorsque les
données viennent d'entrer, vous stockerez ce type
de données dans le niveau chaud. Après cela, vous
avez l'égalité ici. C'est à ce moment que les données
vieillissent et qu'
elles ont rarement été prises en charge. Vous allez stocker ce type
de données dans le niveau froid. Et enfin, lorsque les données, donc tous les jours seulement ad hoc une fois dans un type de
lune bleue, vous voudrez peut-être stocker ce type de données
dans le niveau gelé. Une chose à noter à propos du niveau
gelé est que vous
ne pouvez stocker que
des indices partiellement montés dans le niveau gelé. En gros, ce qui
se passe, c'est que
les données de ce niveau ne sont pas stockées
dans le cache local. Il existe une geisha partagée
parmi le cluster, et ce type de données est
stocké dans ce cache partagé. Il est donc évident que les
recherches deviennent plus lentes. Maintenant, la principale raison pour
laquelle ce type d' architecture est
que, par exemple ,
pour les nœuds importants,
vous
pouvez fournir plus de ressources , plus de CPU, plus de mémoire, etc. de CPU, plus de mémoire, mais un nœud unique aura
plus de ressources qu' un nœud froid et moins de
ressources qu'un nœud cardiaque. De même, selon le nœud aura toujours un cache local, mais il s'agit probablement d'un
système plus lent qu'un système connu. Ainsi, vous pouvez spécifier des ressources
moins chères aux
niveaux à mesure que vos données vieillissent. Désormais, pour spécifier chacun
de ces niveaux de données. Par exemple, pour spécifier un nœud
comme étant sur le niveau chaud, vous devez spécifier sous aucun
rôle de point, la valeur du volume de
soulignement des données. Et pour votre bénévole
et courtisan, vous spécifierez les données soulignant les données sur les
femmes soulignent le froid. Maintenant, jetons un
coup d'œil au nœud d'ingestion. Et le nœud d'ingestion peut exécuter
des pipelines de prétraitement, composés d'un
ou de plusieurs processeurs d'ingestion. Après cela, nous avons des nœuds
de coordination. Les nœuds coordonnateurs se comportent désormais
comme des équilibreurs de charge intelligents. Ce que font ces nœuds, c'
est supposons que vous disposez d'un cluster volumineux et que vous disposez d'une grande quantité de données
qui pénètrent dans votre cluster. Ces nœuds peuvent agir comme équilibreur de charge et bénéficier
au cluster en déchargeant la
partie coordination de la tâche vers certains nœuds spécifiques afin que vos nœuds de données
ne soient pas surchargés. Maintenant, vous avez maintenant des lobes éligibles
à distance. Ce que ces nœuds peuvent
faire, c'est par exemple que vous avez le cluster
1, puis notre cluster
distant
appelé cluster vers. Vous pouvez désormais activer recherche
croisée
entre ces deux clusters. Vous pouvez également définir un nœud
en tant que charge éligible à distance. Les requêtes
qui touchent ce nœud
peuvent donc effectuer une recherche
sur le cluster distant. Ainsi, vous pouvez combiner
les données dans deux clusters, mais les recherches sur un
cluster distant seront plus lentes. Vous avez maintenant des nœuds
d'apprentissage automatique. Maintenant, ces nœuds exécutent des tâches et gèrent les demandes d'
API d'apprentissage automatique. Vous pouvez également spécifier ce nœud en configurant la règle de nœud en tant que ML. Enfin, vous avez
transformé des nœuds qui transforment et géraient les demandes d'API de
transformation. Vous pouvez configurer ces fonctions Bye en configurant le
rôle de point de chargement en tant que transformation. Il s'agit donc des types
de nœuds que vous pouvez configurer dans votre cluster
Elasticsearch. C'est ainsi que nous sommes arrivés à
la fin de cette conférence. Dans cette conférence, j'ai essayé de vous
donner un aperçu des différents types de nœuds dans
un cluster Elasticsearch. Où que ce
soit, je vais joindre quelques liens dans la
description de cette vidéo. Vous pouvez donc étudier un peu plus en détail les différents types de nœuds
d'un cluster Elasticsearch. Merci d'avoir regardé et je vous
verrai dans le prochain. Au revoir.
30. Elasticsearch 8x: Hey les gars, Elastic.co, la société
mère
d'Elastic Search, a récemment annoncé la disponibilité
générale a récemment annoncé la disponibilité
générale d'Elasticsearch
version huit points x. version la société
mère
d'Elastic Search,
a récemment annoncé la disponibilité
générale d'Elasticsearch
version huit points x.
les étapes d'installation
sont également un peu différentes. Jetons un coup d'œil à ces questions maintenant. Ici, à l'écran,
j'ai ouvert la page
Nouveautés de la documentation
Elasticsearch. Tout d'abord, il introduit plusieurs modifications révolutionnaires aux API Rest
Elastic Search. Mais ce qu'ils ont
fait, c'est que cela a permis compatibilité 7X, ce qui devrait
vous donner suffisamment de temps pour
préparer une mise à niveau. Ensuite, les fonctions de sécurité sont activées et configurées
par défaut. Lorsque vous installez Elastic Search, il doit déjà créer des certificats auto-signés et inclure certains paramètres de sécurité dans votre fichier YAML Elasticsearch
stroke. Après cela, il y a la sécurité
sur les indices système. Dans la version huit points 0, même le
superutilisateur élastique ne dispose
pas d'un accès natif
aux index système. Pour fournir l'accès à
un index système,
vous devez configurer,
autoriser les indices de soulignement indices de soulignement
restreints à true pour un utilisateur particulier. Après cela, il y a
quelques améliorations dans la recherche, stockage, l'indexation et le traitement du langage
naturel. Examinons ensuite les notes
de publication. Maintenant, sur la page des notes de publication, vous verrez quelques problèmes connus, ce qui est fondamentalement incertain. plates-formes Linux, le mot de passe utilisateur
Elastic et le jeton d'inscription de l'armoire ne
sont pas générés automatiquement, mais il vous donne une liste de commandes que vous pouvez exécuter pour les
générer après
le installation. Il répertorie ensuite toutes les
modifications de cette version. Maintenant, si vous prenez déjà en
charge un cluster de production, je vous recommanderai d'examiner chacune de ces modifications pour vous assurer qu'il n'
y a pas de surprises
après la mise à niveau. Avec cela, nous pouvons
passer à l'installation d' Elasticsearch huit
points 0 sur nos machines virtuelles. Maintenant que je suis dans ma
plate-forme GCP et mes instances de VM, j'ai une machine ELK sur laquelle nous
allons installer
Elasticsearch np.zeros. Je vais copier l'
adresse IP externe de cette machine. Et puis sur mon code
Visual Studio, j'ai quelques marches
sur le côté gauche et mon terminal sur
le côté droit. Je vais donc taper l'espace SSH
, le faire paraître, puis l'adresse IP
externe. Et je cliquerai sur Entrée
ici, saisissez oui. Et une fois à l'intérieur de la
machine, je taperai sudo apt-get update
pour mettre à jour le système. Ensuite, je vais sortir de cela
et taper sudo apt-get install W pour installer
duplicate sur cette machine. Une fois que nous avons fermé et stocké, nous pouvons commencer par l'
installation d'ELK Stack. Donc, tout d'abord, je vais télécharger et installer
la clé de signature publique. Je vais donc copier la
commande et la
coller dans mon terminal
et appuyer sur Entrée. Maintenant, ce que je vais faire,
c'est que je vais inclure toutes ces commandes avec la
description de cette vidéo. Vous pouvez donc également avoir accès
à ces commandes. Ensuite, nous allons installer le paquet HTTPS de
transport sbt. Après cela, j'effacerai mon écran et ensuite nous sauvegarderons la définition du
répertoire. Une chose importante à
noter est que lorsqu'il est écrit huit points x pour les
paquets 7.6 à cet endroit, il indiquera sept points x. Il n'y a rien de
majeur dans l'URL. Juste un petit changement
de sept à huit et collez-le ici. Et cela devrait télécharger
les définitions du
référentiel Elastic Search Adx sur cette machine. Maintenant, je suis prêt à installer ma pile ELK
sur cette machine. Je vais donc copier cette commande et je la collerai ici,
et je cliquerai sur Entrée. Désormais, pendant l'installation, vous verrez quelques
informations contextuelles sous les informations de
configuration automatique de sécurité. Sous cette rubrique, vous verrez le mot de passe
élastique du superutilisateur intégré. Donc, sous cette ligne, le mot de passe
généré pour superutilisateur intégré
élastique se trouve ceci. Vous devez enregistrer ce mot de passe car nous
l'utiliserons ultérieurement. Je vais passer dans mes notes. Je vais le sauvegarder ici. Maintenant, une fois que tout
est installé, je vais vider mon écran. À partir de là, nous allons d'abord
configurer notre recherche Elastic. Donc, pseudo via barre oblique ATC, barre oblique Elasticsearch,
elasticsearch start ML. Maintenant, dans ce fichier, nous
allons d'abord changer le nom du cluster. Je l'appellerai démo ALK. Ensuite, je vais changer
le nom du nœud, que j'appellerai ELK un. Ensuite, je vais passer à l'hôte
du point réseau et changer la valeur de la
valeur par défaut à 0 point 0000. Après cela, je vais
décommenter le port, mais je le laisserai
par défaut 90 à 100. Puisqu'il s'agit d'un cluster à nœud
unique, nous n'avons pas besoin de
faire quoi que ce soit en cours découverte jusqu'au port
http dot. La configuration était
similaire à ce que nous avons dû
faire pour 7 x à partir d'un
sommet Vous commencerez à voir une
section intitulée Configuration
automatique de sécurité Pickin dans le fichier YAML court d'
Elasticsearch. En effet, comme
je vous l'ai dit précédemment, Elasticsearch
inclut désormais par défaut certaines options de sécurité. Si vous pouvez le voir ici, la sécurité s'attend la sécurité soit activée par défaut. L'inscription de sécurité est
également activée par défaut. Il a créé un chemin
KeyStore pour la communication
HTTP et les assertions et le fichier est http dot p12. Il a également créé authentification
mutuelle, une
clé de voûte et terrestre. Maintenant, nous laissons tous les
paramètres par défaut, et nous allons enregistrer cela. Maintenant, si j'y vais. Mon répertoire Elasticsearch. Donc sudo SU, et si
je fais un LS ici, vous verrez qu'il y a un
répertoire appelé certs. Et si je me lance dans la recherche
et que je fais une liste, vous verrez l'assertion C, qui est le
soulignement STDP CA dot CRD, ce certificat de transport sous point de
transport p12 et le certificat HTTPS
sous http dot py 12. Nous pouvons maintenant démarrer le système de service
Elasticsearch, CTL, démarrer Elastic Search. Maintenant, une fois que le service
a commencé, si j'essaie de faire un curl, comme je le
faisais pour le système 7 x. Donc curl moins x GET http localhost ou 9200 Underscore cluster
et tenu joli. Et si je fais une entrée ici, j'obtiendrai une erreur car un
cluster est en fait sur HTTPS. Je devrai donc d'abord
passer de HTTP à HTTPS. Mais même quand je lance ça,
je devrais avoir une erreur. Il est dit problème de certificat SSL, certificats
auto-signés
et chin de certificat. Pour surmonter ce problème, je vais appuyer sur la flèche vers le haut et
juste avant que x n'arrive, je taperai moins
k et je frapperai Entrée. Et cette fois, j'ai les
informations d'authentification manquantes. Nous n'avons pas encore configuré les
mots de passe utilisateur sur cette machine,
mais par défaut, Elastic a
configuré le mot de passe de l'
utilisateur Elastic pour nous. Je vais donc copier ce mot de passe
et je cliquerai sur la flèche vers le haut. Et après l'option moins p, qui était d'ignorer la cellule, envoyer des certificats
chaque type dans moins u espace élastique
puis deux-points,
puis je vais fournir le
mot de passe mis utilisateur Elastic. Et maintenant, si je clique sur Entrée, je devrais obtenir le
cluster de santé. Comme vous pouvez le constater, le
statut du cluster est vert. Avec les
certificats auto-signés, vous devez utiliser l'option moins
K par défaut. Vous devez maintenant
utiliser Elastic user, obtenir l'état de santé du cluster
pour la première fois. Une fois que vous avez fait cela,
sortons de l'écran. Avant de configurer Kibana, nous devons définir le mot de passe pour
l' utilisateur du système de soulignement
Kibana. Donc, d'abord, je vais entrer dans usr, partager Elastic Search été, et je fais un LS à partir de ce bac, j'utiliserai l'utilitaire de mots de passe de
configuration Elastic Search. De là, j'utiliserai utilitaire de
réinitialisation
du mot de passe Elastic Search. Je vais donc taper un mot de passe de réinitialisation
Elastic Search . Et je vais taper le groupe
moins u dire au système quel mot de passe réinitialisé. Et je taperai le système de soulignement
Kibana Entrée
et je ne
taperai jamais à proximité ici. Et j'ai le mot de passe de
mon utilisateur du
système de soulignement Kibana. Il va copier ça et je le
collerai ici aussi. Maintenant, une fois que j'ai fait cela, je peux maintenant configurer Kibana. Donc pseudo VA ATC Kibana,
Kibana point YAML. Et encore une fois, je vais
décommenter le port Silver Dot, décommenter plusieurs points hôtes et changer d'
hôte local ou de zéros 000. Et ensuite, décommentez l'URL de base publique du
point de la barre latérale. Et ici, je vais taper http, et maintenant nous avons besoin l'adresse IP interne
de notre instance Kibana. Je vais copier l'adresse IP interne collée ici et
fournir le port. Ensuite, nous pouvons configurer
le nom de self.name. Et ici, je vais taper une
démo, une bannière poussiéreuse. Ensuite, nous allons passer au
système Elastic Search. Et en dessous, je vais fournir la valeur du nom d'utilisateur Elastic
Search. Gardez le
système de soulignement par défaut. Ensuite, nous devrons
fournir le mot de passe que nous venons de générer. Copiez ceci ici et collez-le. Et maintenant, si vous passez
sous System Elastic, tel facultatif parce que nous
utilisons des
certificats auto-signés pour cette démonstration, je vais décommenter le mode de vérification SSL Elastic Search
dot et modifier la valeur
de plein à aucun. Cela va ignorer les avertissements
concernant les certificats auto-signés. Maintenant, une autre chose
à noter est qu' partir de la version huit
points X, Kibana enregistre par défaut
Il se connecte à un fichier. Dans certaines versions précédentes,
les journaux de Kibana par défaut, mais uniquement disponibles
en sortie standard. C'est donc aussi un bon changement. Maintenant, sauvegardons ce fichier
et commençons Kibana. Donc sudo system
CTL, démarrez Kibana. Voyons maintenant ce statut. Il est actif et en cours d'exécution. Revenons à notre instance, copions l'adresse IP publique, collez-la dans un navigateur, puis fournissons le port 5601. Maintenant, je reçois un
serveur Kibana n'est pas prêt erreur. Je vais donc revenir
à mon déploiement. Et ici, je vais ouvrir à nouveau
mon fichier YAML, et je vais chercher des erreurs. Maintenant, dans mon fichier
Gibbon ou DML, j'ai oublié de mettre
la valeur d'hôte pour Elastic Search pour la
version dot huit. Ce que vous devez faire, c'est que
vous devez venir ici et passer
de HTTP à HTTPS. Maintenant, je vais enregistrer ce fichier à nouveau et redémarrons Kibana. Maintenant, une fois
le service redémarré, vérifions l'état
actif et en cours d'exécution. Nous avons le message indiquant que le serveur
HTTP exécute des annonces
zéros, zéros 005601. Revenons maintenant au
navigateur. Laissez-moi le rafraîchir. Maintenant. Nous avons la page de
connexion de Kibana. Je vais donc taper
Elastic ici et je copierai le mot de passe
de mon superutilisateur Elastic, je
retournerai en arrière et je mettrai le
mot de passe et je
cliquerai sur Connexion. Cliquez sur jamais, et nous y sommes. Voici comment installer Elasticsearch
version huit points 0. Les étapes sont un
peu différentes de celles Elasticsearch version 7 x, mais elles ne sont pas si différentes. La plupart des paramètres
disent que si vous faites attention, je suis presque sûr que vous
serez en mesure de
créer vos propres
clusters en toute confiance , nous sommes arrivés à la
fin de cette conférence. Je vous verrai dans
le prochain. Au revoir.
31. Installer des agents élastiques et analyser les journaux des apaches: Hé les gars, il existe
deux façons d'envoyer des données de vos serveurs
à Elastic Search. abord, vous pouvez utiliser beats, qui sont des
expéditeurs de données légers qui envoient des données à un
cluster Elasticsearch pour chaque cas d'utilisation, il y a une enchère spécifique. Par exemple, pour les données matricielles, vous utilisez une enchère métrique pour des données de fichier telles que les fichiers journaux,
vous utilisez FileReader. Cela rend la
gestion un
peu encombrante , car en
fonction de votre cas d'utilisation, vous devrez peut-être installer
plusieurs bits sur la même machine virtuelle. Maintenant, la deuxième méthode
est l'agent élastique. Elastic Agent est un agent
unique pour les journaux, les mesures, la sécurité et les données de prévention des
menaces. Comme il s'agit d'un agent unique, il est plus facile et plus rapide de déployer la surveillance dans
votre environnement. Elastic Agent utilise les
intégrations et Kibana, qui offrent un moyen
facile de connecter Elastic Search à
des systèmes et services externes. Par exemple, si vous devez
collecter des journaux à partir du serveur Web
Apache, vous utilisez l'
intégration Apache pour demander à l'agent Elastic de
collecter ces données à partir
d'un serveur Apache. Ces intégrations sont
gérées via l'interface utilisateur Kibana. Désormais, toutes les communications entre les agents Elastic et Elastic Search se
font via le serveur de flotte. Désormais, ce serveur de flotte
est un composant utilisé pour
gérer de manière centralisée tous les agents Elastic. C'est ainsi que cela fonctionne. Si vous créez une
stratégie dans Kibana, chaque fois que cette stratégie est créée, elle est enregistrée dans Elastic Search. L'agent Elastic générera une clé
d'authentification
ou une clé d'inscription, qu'il utilisera pour s'authentifier auprès
du serveur de fruits. Une fois cela fait, il demandera une stratégie au
serveur flood. Maintenant, ce serveur inversé
obtiendra cette stratégie à partir Elastic Search, puis la fournira à
l'agent Elastic. C'est ainsi que cela fonctionne lorsqu'une nouvelle stratégie d'
agent
créée dans Kibana est enregistrée sur Elasticsearch. Pour s'inscrire à la stratégie, agents
Elastic envoient une
demande au serveur de flotte l'aide de la clé d'inscription
générée pour l'authentification. Fluid Server
reçoit ensuite cette demande et obtient la stratégie de l'agent
à partir d'Elastic Search. Ensuite, elle déplace cette stratégie vers tous les agents inscrits
à cette stratégie. Elastic Agent utilise ensuite les informations de
configuration stockées dans cette stratégie pour collecter et envoyer des données à Elastic Search. Prenons maintenant un exemple. Supposons que vous ayez
installé Apache sur cet agent et que MySQL soit installé sur
cet agent ici à Kibana, vous allez attribuer une
stratégie d'Apache. Cet agent s'inscrira à cette stratégie auprès du serveur
de
flotte solaire flare , puis envoie cette stratégie
à cet agent qui lui
indiquera de collecter les journaux du serveur
Apache. Une fois la stratégie définie, il peut envoyer ces journaux et
d'autres données sur Elasticsearch. Maintenant, cet agent qui
a MySQL dessus ne
sera pas inscrit
à la politique de dette. Vous allez attribuer une autre
stratégie à cet agent. De cette façon,
différents serveurs peuvent envoyer
différentes couches de données
Elasticsearch Cluster. Ensuite, il existe deux méthodes
pour déployer des agents Elastic. Tout d'abord, vous pouvez
les gérer par une flotte. Cela permet de gérer les stratégies et
les cycles de vie des agents de
manière centralisée. Dans Kibana, il existe une
autre option d'âge élastique autogéré, qui est un cas d'
utilisation avancé dans lequel vous
devez gérer manuellement chaque agent. Pour cette conférence, nous
utiliserons des agents de gestion de flotte. Voici maintenant les étapes
de configuration. abord, vous configurez YAML court
Elasticsearch, puis vous installez un serveur de fruits. Après cela, vous installez
un agent élastique. Une fois que vous avez installé l'
agent sur les serveurs, vous configurez
une stratégie d'agent. Enfin, vous confirmez
que les données ont été envoyées correctement en examinant les
tableaux de bord et autres mesures. Commençons donc. Maintenant sur l'écran, j'ai mon serveur Elastic à
nœud unique. Je devrai donc d'abord
créer un serveur frit. Je cliquerai donc sur
Create Instance, puis je cliquerai sur Nouvelle instance
et VM à partir du modèle, choisissez ELK,
puis continuez. Je changerai le
nom pour que le serveur flip change la région
en US West One,
puis
passera sous le réseau. Je vais m'assurer que je suis dans le VPC Elastic Search
et le sous-réseau de surveillance, puis cliquez sur Créer. Maintenant que ces fruits
ou sont en cours de création, nous cliquons à
nouveau sur Create Instance pour créer notre serveur Web. Je clique donc sur une nouvelle
instance de machine virtuelle à partir du modèle, choisis les observateurs
et cliquez sur Continuer. Ici, je vais changer la
région en USA West One. Vous pouvez garder le nom tel quel, et je vais passer au réseautage. Et le réseau,
je vais changer l'interface réseau de surveillance au sous-réseau du serveur Web. Ensuite, je clique sur Créer. Maintenant que les trois machines
virtuelles sont prêtes, nous pouvons commencer par
l'installation. Je vais maintenant passer à mon code
Visual Studio. Maintenant, dans mon code
Visual Studio, j'ai mes notes pour
installer Elastic Agent sur serveur
Flood et sur le
serveur Web sur le côté gauche. Et j'ai mis mon terminal dans les trois machines
du côté droit. Donc le terminal un est donné EL, terminal deux est un serveur Web et terminal trois est
mon serveur de fruits. Commençons donc d'abord, nous devons aller sur le serveur ELK. Je vais donc passer au terminal 1. Et sur le serveur ELK, nous devons ajouter ces deux paramètres dans
nos fichiers de configuration
YAML frappés par Elasticsearch ,
plusieurs taper sudo VI slash,
ETC, barre oblique Elastic Search Elastic Recherchez le point
YAML et appuyez sur Entrée. Maintenant, dans ce fichier, vous verrez que le
premier paramètre attendu ou point de sécurité activé est vrai. Je vais passer en mode Insertion. Et ici, juste en dessous du point
de sécurité attendu activé, je vais coller le paramètre point de sécurité
attendu, clé API
point activée comme vrai. Il va donc le copier
et le coller ici. Et une fois que j'ai fait cela,
je peux enregistrer ce fichier. Alors évadez-vous et j'
écrirai dans ce fichier, et maintenant je peux démarrer
ma recherche Elastic. Donc, pseudo système CTL,
redémarrez Elastic Search. Maintenant, une fois
le service redémarré, commençons en tant que service. Donc, pseudo système, CTL,
status, Elastic Search, assurez-vous que le service
est actif et en cours d'exécution. Passons maintenant
à notre serveur de terrain, qui se trouve sur le terminal 3. Je vais passer à un
serveur fluide sur cette machine nous devons d'
abord télécharger
l'agent Elastic. Je vais donc copier la commande
curl et coller sur le terminal
pour télécharger Elastic Agent. Maintenant, une fois l'
application Elastic Agent téléchargée, nous devons extraire le fichier tar, copier cette commande étoile
moins Z F, coller sur le
terminal et appuyer sur Entrée. Maintenant, nous allons passer
à la page Web de Kibana. J'ai donc la page Web de
Kibana ici depuis le menu de
navigation de gauche. Je vais descendre sous la direction. Je cliquerai sur la flotte, puis j'irai dans Paramètres. Maintenant, je vais cliquer sur Actions et les sorties
laisseront le nom par défaut et le type serait Elastic Search car
nous voulons envoyer sortie des serveurs fluides à
Elastic Search et à l'hôte, Je vais passer de HTTP à HTTPS. Ensuite, je remplacerai
la valeur de l'hôte local par l'adresse IP privée
de mon instance ELK. Je vais donc le copier à partir d'ici
et je le remplacerai. Ensuite, nous devons revenir
à notre code Visual Studio, puis
passer à Elastic Search. Et sur l'instance
Elasticsearch, je dois d'
abord faire sudo SU, puis CD EDC, Elastic Search, puis rechercher. Maintenant, si je fais un ls
dans ce répertoire, vous verrez qu'
il a mon CSRP. Nous allons donc obtenir ce certificat. Alors obtenez un trait de soulignement DB
CA point CRT. Maintenant que vous avez obtenu la sortie de la commande cat
pour le certificat de l'autorité de certification, nous devons mettre à jour le certificat de l'autorité de certification dans la configuration YAML
avancée. De cette façon, nous informons
le système que nous utilisons ce certificat d'autorité de certification
pour établir la confiance entre notre serveur fluide et
le serveur Elasticsearch. Vous pouvez le faire de deux manières. Vous pouvez soit utiliser l'empreinte digitale approuvée de l'
autorité soit coller le
certificat de l'autorité de certification pour cette démonstration, nous allons coller le certificat de l'
autorité de certification. Maintenant, la façon dont vous le
faites est
d'utiliser un paramètre appelé autorités de
certification SSL, puis de coller l'ESC un certificat et de
me permettre de le développer. Il s'agit donc d'un exemple
de l'écran. Donc, sous
les autorités de certification SSL, copiez ce certificat
pour votre machine, qui serait différent
de ce qu'il affiche sur la mienne. Donc, copions
tout ça et je
remplacerai celui-ci et
je le collerai ici. Vous devrez peut-être maintenant mettre un peu à jour
la mise en forme. Maintenant, copions simplement
toute cette commande et passons à notre
configuration YAML avancée sur ma page Kibana et collons
ceci ici comme ceci. Maintenant, une fois cela fait, nous pouvons enregistrer cela, enregistrer et appliquer des paramètres
et sept, déployer. Après cela, nous
devons aller voir des agents. Maintenant, sur la page de l'agent, il est indiqué que des basculements sont nécessaires avant que nous puissions
commencer à inscrire des agents. Nous allons donc le faire maintenant. Maintenant, sous Adafruit, le serveur va laisser la
stratégie de l'agent par défaut. Nous avons déjà téléchargé
le serveur fluide sur notre flotte de machines virtuelles Server, pour que nous puissions ignorer cela. Sous Choisir un mode de déploiement, nous utiliserons QuickStart
pour cette démonstration. Cela
permet au serveur fluide générer des
certificats auto-signés pour votre système de production, vous devrez choisir
la production et fournir votre propre certificat dans votre
fluide. configuration du serveur. Maintenant, à l'étape quatre, nous devrons fournir l'
URL de notre hôte de serveur fluide. Donc HTTPS, nous devons maintenant accéder aux instances de
VM et copier l'adresse IP
interne de notre serveur de fruits et la coller ici et soulager le port comme Etudes 0
par défaut pour cette
démonstration et cliquer sur Ajouter un hôte. Une fois que vous avez ajouté l'hôte, nous devons cliquer sur
Générer un jeton de service. Maintenant, après cela, à l'étape six, il nous donne l'ordre de
commencer nos basculements. Il va copier cette commande et revenir à notre code
Visual Studio. Et je suis sur les
flottes, notre terminal. Mais avant de pouvoir
coller cette commande, nous devons apporter quelques modifications. Maintenant, j'ai l'exemple de
commande qui va fonctionner. Je vais donc coller la
commande que nous avons copiée depuis l'instance Kibana. À partir de cette commande, nous allons
prendre l'URL
ES du serveur flood et je modifierai la
valeur de basculement sur ES pour cela. Pour l'URL, nous devons maintenant
fournir l'
adresse IP privée de notre serveur de flotte. Je vais donc aller sur les instances de VM, copier cette adresse IP privée
du serveur fluide, revenir en arrière, puis nous modifierons la valeur
du serveur d'
inondation IP privé l'adresse IP réelle
du serveur d'inondation. Ensuite, nous devons fournir le jeton de service que
nous venons de générer. Il copiera tout cela et
modifiera le
jeton de service de valeur avec la nouvelle valeur
de la stratégie de serveur de flotte, non pour votre système. Cela peut être différent, et après cela, nous
devons ajouter deux autres valeurs. Fleet server ES n'est pas sécurisé,
cette commande est nécessaire car notre serveur
Elasticsearch utilise
des certificats auto-signés. Et le dernier problème est également
dû au fait que
notre serveur inversé notre serveur inversé utilise
également des
certificats auto-signés. Maintenant, dans votre
déploiement de production, puisque vous n'utiliserez pas de certificats
auto-signés, vous n'avez pas besoin de ces deux
dernières commandes. Au revers,
notre terminal, permettez-moi de l'agrandir un peu. Si je fais un ls, vous
verrez qu'il
existe un répertoire pour
Elastic Agent. Je vais céder dans ce répertoire. Maintenant, je vais taper dans sudo dot slash Elastic Agent
install et moins F, puis j'utiliserai
le caractère d'échappement. Nous allons d'abord fournir l'
URL de notre serveur fluide. Je vais donc le copier à partir des notes, coller ici et appuyer sur Entrée. Ensuite, je vais fournir l'URL ES du serveur de
flotte. Donc, l'URL de mon serveur Elasticsearch à laquelle
se connecter et elle est entrée. Ensuite, je vais fournir
le jeton de service, le
copier, le coller
ici et il est entré. Après cela, nous fournirons la stratégie en vertu de laquelle nous allons
inscrire ce serveur fluide, qui est la
stratégie par défaut entrée. Ensuite, nous fournirons la commande
ES insecure, qui est à nouveau des
certificats auto-signés sur Elastic Search. Enfin, nous fournirons
la commande non sécurisée, qui est des
certificats auto-signés sur le serveur de flotte. Maintenant, je vais appuyer sur Entrée
et cela devrait démarrer le déploiement de notre
agent Elastic sur mon serveur fluide. Le premier journal indique qu'
il génère des
certificats auto-signés pour un serveur fluide. Ensuite, il essaie de démarrer
le serveur fluide. Vous pouvez alors constater que la vérification SSL et
TLS a été désactivée car nous utilisons le mode
non sécurisé. Et enfin, vous avez obtenu que l'agent Elastic soit inscrit
avec succès. Maintenant, ce que nous pouvons faire c'est que nous pouvons
reculer la page Kibana, et vous devriez être en mesure de
voir que le serveur Flood était connecté et
je cliquerai sur Continuer. Maintenant, si vous êtes un
serveur fluide a été
connecté avec succès et qu'il est correctement
configuré, vous devriez voir l'
état comme sain. Et lorsque vous cliquez dessus, vous pourrez
voir quelques détails. Et ensuite, nous devons
vérifier s'il est capable d'
envoyer des journaux à Elastic
Search, ce qu'il peut. Maintenant, si vous
rencontrez des problèmes lorsque vous
déployez ce serveur de flotte, ce que vous pouvez faire est que
si je retourne à mon code Visual Studio et que je
nettoie tout, vous pouvez taper sudo system CTL, agent élastique de data, regardez les journaux et vous devriez pouvoir
voir les journaux ici. À part cela, si vous avez déployé le
fluide Server Agent, mais pour une raison quelconque, il ne se connecte pas et vous
devez le désinstaller. Si vous le faites en allant dans le bac
utilisateur, puis dans l'agent élastique. Et ici, si je fais un moins h, je dois ajouter un pseudo. Vous devriez pouvoir voir les différentes commandes disponibles
avec
le script Elastic Agents. Il existe une commande Android
si vous souhaitez inscrire agents dans cette flotte
qui est installée, nous venons d'utiliser pour
installer le fluide Server Agent. Vous pouvez redémarrer le démon, exécuter le démon, vous pouvez statuer sur le démon et désinstaller
cet agent Elastic. Il peut donc y avoir des
scénarios où vous devez désinstaller,
réinstaller le démon. C'est ainsi que vous pouvez le faire. Fondamentalement, il suffit d'aller à l'agent élastique de
bin utilisateur et taper la désinstallation de
sortir de celui-ci maintenant et de
sortir de l'écran. Maintenant, étant donné que l'agent classique est installé et sain, ce que nous pouvons faire, c'est que nous pouvons
installer l'
agent Elastic sur notre serveur Web. Pour ce faire, passons à notre terminal sur
le serveur Web. Maintenant, sur le serveur Web, nous
devons d'abord télécharger Elastic Agent. Je vais donc copier tout cela
de nos notes et coller la commande sur le
terminal et appuyer sur Entrée. Maintenant, une fois le fichier
téléchargé, nous pouvons extraire ce
point star moins l'agent plastique
Z F et appuyer sur Entrée. Maintenant, une fois que vous avez fait cela, revenons à notre
page Kibana, puis revenons à la flotte. Maintenant, il y a
un bouton Ajouter un agent. Si je clique sur Ajouter un agent, la stratégie d'agent par défaut sera laissée. Nous avons déjà téléchargé
l'agent Elastic. Ensuite, il nous donne un commandement. Nous allons donc copier ceci et
retournons à notre terminal. Je vais coller cette commande, mais je ne l'exécuterai pas. Mais je dois le faire, c'est que je
dois ajouter moins, moins non sécurisé pour cette commande parce que nous utilisons des certificats
auto-signés. Encore une fois, pour votre déploiement de
production, vous n'aurez pas besoin de l'ajouter. Maintenant, si je clique sur Entrée, j'ai oublié d'aller d'
abord dans le répertoire
Elastic Agent et de faire un ls. Et à partir de là, nous
devons exécuter ce script. Je vais appuyer sur la
flèche vers le haut jusqu'à ce que j'obtienne la commande et maintenant je vais l'
exécuter et taper. Oui, et j'ai installé
Elastic Agent
avec succès. Je retournerai donc à mon Kibana et fermerai que l'agent a été
installé correctement. Je devrais pouvoir le
voir sur cette page. Maintenant, vous pouvez voir, je peux voir le serveur Web. Encore une fois, nous allons cliquer
sur ce serveur Web. Nous nous assurerons que nous
avons également des journaux qui circulent depuis le serveur Web, ce
que nous avons. Avant de vous laisser partir, je veux vous montrer encore
une chose. Maintenant, Elastic Agent
utilise les intégrations. Maintenant que notre serveur Web
est un serveur Web Apache, nous pouvons améliorer la surveillance
du serveur Apache. Ce que nous allons faire, c'est que nous
retournerons à la flotte. Et ce que nous allons faire, c'est
d'ajouter une stratégie d'agent. Nous allons donc créer une stratégie d'agent, conserverez cette stratégie de serveur Web de
nom de stratégie. Nous allons maintenant ajouter une description. Cette stratégie est utilisée pour collecter des métriques et des journaux
Apache. Nous laisserons tout
par défaut et je
cliquerai sur Créer une stratégie d'agent. Cette stratégie est maintenant créée. Ce que nous devons faire,
c'est d'ajouter quelques intégrations
à cette politique. Je clique sur le menu de navigation de
gauche, et cela va passer
aux intégrations. Ainsi, sous
les intégrations de gestion, nous pouvons voir
ici les différentes intégrations
disponibles. Pour l'instant. Nous sommes
intéressés par Apache, serveur HTTP
Apache,
je vais donc cliquer dessus. Cette page
vous donne maintenant un aperçu de l' intégration
du
serveur HTTP Apache. Ce que nous allons faire, c'est de cliquer
sur Ajouter un serveur HTTP Apache. Maintenant, à partir de la configuration du discours d'
intégration, nous pouvons lui donner un nom, donc nous allons le laisser comme Apache
par défaut. Ensuite, nous garderons
les journaux
de collecte de l'instance Apache activés. Je ne veux pas activer la fonctionnalité
expérimentale et nous laisserons également les mesures
collectées d' Apache et les capteurs. Ensuite, nous devons spécifier une politique où appliquer
cette intégration. Nous allons donc cliquer sur la
liste déroulante, puis choisir la stratégie de serveur Web
que nous venons de créer. Ensuite, nous allons cliquer sur
Enregistrer et continuer. Et maintenant, le message indique que pour
terminer cette intégration, ajoutez Elastic Agent à votre
hôte pour collecter des données. Et je cliquerai simplement sur
Ajouter un agent élastique plus tard. Ce que nous devons maintenant
faire, c'est que nous devons
retourner dans notre flotte, notre flotte. Nous devons aller sur
le serveur Web. Je vais donc cliquer là-dessus. Et ici, ce que
je vais faire, c'est de cliquer sur Actions et de cliquer sur
Affecté à une nouvelle stratégie. Ensuite, je choisirai la stratégie du serveur
Web, puis je cliquerai
sur Attribuer une stratégie. Maintenant, avant de le faire,
il est écrit la stratégie de l'
agent sélectionné, mais elle collecte des données à partir de
deux intégrations, le système, qui est par défaut et l'intégration
du
serveur HTTP Apache que nous venons de configuré. Je vais donc cliquer sur Attribuer une stratégie. Maintenant, une fois que nous avons fait cela, cliquez dessus et il indique les entrées de cette intégration, nos journaux et nos mesures de
notre instance Apache. Et l'
intégration du système collectera des journaux lors des journaux et des
mesures de notre système d'exploitation. Passons maintenant au menu de navigation de
gauche, puis passons aux tableaux de bord. Vous
verrez maintenant que d'
autres tableaux de bord sont à votre
disposition. Ce que nous allons faire, c'est que
nous allons taper Apache maintenant pour vérifier si nous
obtenons les journaux Apache, nous pouvons cliquer sur les journaux d'accès
et les journaux d'erreurs. Et dans la
liste déroulante de gauche sous nom d'hôte, nous sélectionnerons notre serveur Web. Maintenant, si votre intégration
est correctement configurée, vous devriez commencer à voir
certaines données comme ici. Je vois tous les scores de
réponse. Maintenant. Ensuite, nous allons vérifier
un autre tableau de bord. Je vais donc aller sur le tableau de bord
et cliquer sur Apache, taper à nouveau Apache. Et cette fois, je
cliquerai sur les mesures, vue d'ensemble d'
Apache pour
voir si vous recevez des données de
mesure de notre serveur
Apache ou non. Maintenant, dans les
requêtes par seconde, vous pouvez voir que
certaines données circulent. C'est ainsi que vous pouvez installer
un serveur de flotte, puis inscrire vos serveurs Web ou tout autre serveur d'applications
dans votre flotte. Vous pouvez ensuite utiliser
des intégrations pour collecter des données significatives à partir de vos applications
ou de vos serveurs Web. C'est ainsi que nous sommes arrivés à
la fin de cette conférence. Merci d'avoir regardé. Je vous verrai dans
le prochain. Au revoir.