Transcrições
1. Boas-vindas: Bem-vindo ao meu curso na semana passada. Um a um, um
guia para iniciantes para o Elastic Stack. Este é um
curso prático com foco na implantação e gerenciamento
do Elastic Stack. Meu nome é Ricardo e sou arquiteto
sênior de soluções, com mais de 15 anos de
experiência em TI. E atualmente estou trabalhando em uma
empresa multinacional que
projetei e implantei o
Elastic Stack em um ambiente de produção. Ensinei mais de
3400 crianças na Udemy e tenho uma classificação média de
4,4 em todos os meus cursos. Este é um curso prático, focará na aprendizagem
prática. Neste curso, você implantará o Elastic Stack e adicionará
alguns dados ao cluster. Dois métodos diferentes, como log stretch e integrações
Kibana. E também você
transformará esses dados para extrair
algum significado deles. Por fim, você
implantará o agente elástico que extrai facilmente
dados de
matriz e registrados de seus servidores de
aplicativos e armazenará e analisará esses
dados no Elasticsearch. Então, por favor, junte-se a mim nesta
jornada para aprender Elastic Stack.
2. Introdução à pesquisa elasticsearch 101: Ei pessoal, bem-vindos às minhas
pontuações para iniciantes no Elastic Stack. Estou encantado que você me
deu a oportunidade de
guiá-lo no caminho para se tornar um profissional de
busca elástica. Este curso adota
uma abordagem prática para o aprendizado e
é focado em profissionais de
DevOps
que serão responsáveis por implantar e gerenciar clusters do
Elasticsearch. Ele oferece suporte à equipe que será responsável pelo suporte às implantações do
Elastic Stack. E isso pode beneficiar
os desenvolvedores de software se eles precisarem de
uma compreensão de como clusters do
Elasticsearch são diploides, observe que esta
é uma pontuação iniciante, então evitarei o mergulho profundo em qualquer um dos tópicos
Neste curso. Começaremos com alguns conceitos básicos, como quais são os
diferentes tipos de dados que você encontrará em um ambiente
corporativo. E então vamos dar uma
olhada na diferença entre
os bancos de dados relacionais e
não relacionais antes avançar para ter uma
compreensão das APIs JSON e rest depois que você tiver
o conhecimento pré-requisito, o que é essencial se você quiser
trabalhar no Elastic Search, veremos o
Elastic Search e Elastic Stack a partir de
uma visão panorâmica, e então é hora de sujar as mãos. Primeiro, configuraremos nosso
ambiente de laboratório e
,
em seguida, veremos como você pode provisionar pesquisa
elástica de maneiras
diferentes. E vamos
acompanhar isso adicionando alguns dados em nosso cluster por meio de integrações do
Kibana. Então vou ajudá-lo a criar sua primeira visualização do Kibana. E então vamos
configurar alguns painéis. Depois disso,
ajudarei você a organizar seus painéis em diferentes categorias,
como marketing, operações, etc.,
usando espaços Kibana. Em seguida,
darei uma visão geral do gerenciamento
de usuários
no Elastic Search. E
analisaremos o Elastic Search, usuários
internos, funções internas e como você pode usar usuários
e funções que criam controles de acesso
baseados em função para o seu Elasticsearch Cluster. Em seguida, analisaremos o Log Stash, que é um
componente essencial do Elastic Stack se você
quiser transformar seus dados. E então vamos ingerir alguns dados CSV usando pipelines de barra de
log. Na próxima seção,
vou ajudá-lo a entender agentes de batidas e vários casos de uso que você pode resolver usando batidas diferentes. Ele diz que você
precisa usar a métrica Btu ingest dados métricos em
seu cluster do Elasticsearch. E você precisa usar
5 bits para ingerir dados de log
baseados em arquivos em
seu cluster do Elasticsearch. Depois disso, implantaremos um cluster
Elasticsearch multimodo. E eu
lhe darei uma visão geral de vários nós no ambiente do
Elastic Search. Na seção final,
veremos o que mudou
na versão oito do Elasticsearch e, em seguida, implantaremos um
cluster da versão oito em um único nó. Por fim, ele
instalará o agente elástico, que é um único agente
necessário para enviar um novo tipo de logs de seus
servidores de aplicativos para a pesquisa elástica. Então, vamos começar.
3. Visão geral dos dados: Ei pessoal, se você está
trabalhando no Elastic Search, produza predominantemente
nós trabalhando em dados. Portanto, é importante ter uma compreensão de diferentes
tipos de dados disponíveis. Primeiro, vamos falar
sobre dados estruturados. Os dados estruturados são altamente organizados e formatados
corretamente. Esse é o tipo de dados que podem ser armazenados
em uma planilha. dados relacional, como SQL. Um exemplo de dados estruturados
serão os números de vendas por trimestre para informações de uma empresa ou funcionário,
como ID do
funcionário, nome do funcionário e salário. Esse tipo de dados é mais
fácil de armazenar e pesquisar,
pois, como o nome sugere, ele tem uma estrutura para ele. Em seguida, vamos dar uma
olhada em dados não estruturados. Dados não estruturados são
mais difíceis de pesquisar. São dados que não estão
organizados ou formatados. Um exemplo desse tipo de dados são arquivos
de texto, arquivos vídeo ou áudio, curtidas e comentários
nas mídias sociais. Esses dados representam quase 80% da
pasta de dados no mundo real. E, como o nome sugere, não
é estruturado. Portanto, é mais complexo
armazenar esse tipo de
dados e pesquisar. Agora, em seguida, vamos dar uma
olhada em dados semiestruturados. Dados semiestruturados são
mistos entre dados estruturados e
não estruturados. São dados que não podem ser organizados em um banco de dados
relacional, mas ainda têm uma
estrutura solta para ele. Por exemplo, dados que podem
ser organizados em torno de um tópico. E um bom exemplo desse
tipo de dados são os dados de e-mail. Como os e-mails podem ser
organizados através de campos como assunto,
mensagem, corpo, etc. Em seguida, os dados numéricos são basicamente dados expressos em
números em vez de textos, por exemplo, sensores,
temperatura, idade, etc. Outro tipo de dados
que você pode
encontrar são dados geoespaciais. Dados geoespaciais são os dados que pertencem a um
objeto na Terra. Ele contém coisas
como localização, que é longitude e latitude, tamanho e forma de um objeto. Com isso, chegamos
ao final desta palestra, uma visão geral de
diferentes tipos de dados que você
verá no campo
quando você trabalha em qualquer ferramenta de transformação
ou análise de
processamento de dados . Espero que você tenha gostado e eu
o vejo no próximo.
4. Diferença entre bases relacionais e não relacionais: Ei pessoal, existem diferentes tipos de bancos de dados
que você encontrará em cada um oferece
seus próprios benefícios exclusivos. Eles podem ser
categorizados principalmente em Sequel, dados
relacionais e bancos NoSQL ou não relacionais
. Primeiro, vamos dar uma
olhada em um banco de dados relacional. O banco de dados relacional é um tipo de
banco de dados que armazena
dados em tabelas. Em um banco de dados relacional, cada linha da tabela é um registro com um
ID exclusivo chamado chave. As colunas da tabela
contêm atributos dos dados e cada registro geralmente tem
um valor para cada atributo, facilitando o estabelecimento de relacionamentos
entre os pontos de dados
e, portanto, o nome relacional sistema de gerenciamento de banco de dados ou RDBMS. Esse tipo de banco de dados só
pode funcionar em dados
estruturados e linguagens de programação estruturadas, como SQL, podem ser efetivamente
usadas para inserir, pesquisar, atualizar ou
excluir registros de banco de dados. Alguns exemplos comuns
de RDBMS são Oracle, MySQL, Microsoft SQL
Server e Postgres SQL. Agora, aqui está um exemplo de como é um
banco de dados relacional. Digamos que você tenha uma tabela
que a fonte use detalhes. E digamos que essa
tabela seja chamada de usuários. Agora, a tabela deste usuário
terá detalhes como ID do usuário, nome do usuário, sobrenome do
usuário e sua idade. Agora vamos ver também que há outra tabela que armazena o grau educacional
dos usuários. E isso pode ser relacionado
à tabela de usuários usando
a coluna ID do usuário. Como você pode ver,
esse tipo de dados é estruturado e
armazenado em tabelas, e pode ser relacionado
entre si usando colunas, a coluna ID do usuário
neste exemplo. Agora, vamos falar sobre bancos de dados
não relacionais. Banco de dados não relacional
é um banco de dados que funciona em dados semiestruturados
ou não estruturados. Ele também é chamado de banco de dados
NoSQL e tem um esquema dinâmico para armazenamento de dados
não estruturados. Esses dados podem ser
armazenados de várias maneiras, o que significa que eles podem ser
orientados a documentos, orientados a colunas, baseados em gráficos
ou um armazenamento de valor chave. Essa flexibilidade significa
que o banco de dados pode ser criado sem ter uma estrutura
definida primeiro. Agora, se você comparar isso
com bancos de dados relacionais, sempre
precisará
predefinir a estrutura e aderir a essa estrutura ao longo
da vida útil do banco de dados. bancos de dados Nosql armazenam dados em documentos que consistem em pares
de chave-valor. A sintaxe varia de
banco de dados para banco de dados, e você pode adicionar
campos à medida que avança. A maioria dos bancos de dados iguais fornece um modelo de dados
flexível com
a capacidade de
armazenar e combinar facilmente dados de qualquer estrutura sem a necessidade de
modificar o esquema. E, portanto, é adequado para big data e aplicativos da Web em tempo real. Elastic Search é um tipo de banco de dados
NoSQL que armazena dados como um documento JSON anexado a um link do blog de pesquisa
elástica. Se você quiser ler
mais sobre isso, agora vamos dar uma olhada em um
exemplo de um banco de dados NoSQL. Aqui na tela, tenho um banco de dados NoSQL que
consiste em dois documentos. Como você pode ver, a estrutura
de ambos os documentos é diferente. Por exemplo, o documento número dois tem um
par de valores-chave para educação, que não está presente no
documento número um. Além disso, se você olhar para passatempos, há um hobby extra de
natação para nosso usuário. Agora, essa flexibilidade permite que bancos de dados
NoSQL sejam usados
para aplicativos de big data. Agora, há outra diferença entre bancos de dados NoSQL e SQL, que é como eles são dimensionados. bancos de dados relacionais são
dimensionados verticalmente e bancos de dados
NoSQL ou não relacionais são dimensionados horizontalmente. O que isso significa é que quando você
precisa aumentar a capacidade
do seu banco de dados, a única maneira de fazê-lo em um modelo de banco de dados relacional
é ter uma máquina maior. Agora, o que isso significa é tempo de inatividade para aumentar
a capacidade e a tarefa de
manutenção
para evitar um tempo de inatividade mais tarde é
pré-provisionar a capacidade. No entanto, o
outro lado disso é que toda essa capacidade seria essencialmente desperdiçada
até que seja necessária. não relacionais ou
NoSQL resolvem esse problema dimensionando
horizontalmente. O que isso significa é que
sempre que você precisar de capacidade, você pode adicionar mais capacidade apenas adicionando mais
máquinas ao cluster. Dessa forma, você não
precisa pré-provisionar nenhuma capacidade e também
não precisa de tempo de inatividade. Com isso, chegamos
ao final desta palestra. Obrigado por assistir, e
verei você no próximo. Tchau.
5. Visão geral do JSON: Ei pessoal, o Elasticsearch armazena
dados como documentos JSON. Portanto, seria uma boa ideia
ter uma visão geral do JSON. Json ou JavaScript
Object Notation é um formato de
troca de dados baseado em texto. E a palavra-chave aqui
é a troca de dados. Como o JSON é
usado principalmente para compartilhar dados, JSON é construído em duas estruturas. Primeiro, um objeto, que é uma coleção não ordenada de valor de nome ou um par de valores-chave. Em segundo lugar, uma
lista ordenada de valores, também chamada de matriz. Agora vamos dar uma olhada em
um exemplo de dados JSON. Aqui temos um objeto JSON. Um objeto, como eu disse anteriormente, é um conjunto não ordenado de
valores de nome ou pares de valores-chave. Começa com uma chave curvada
esquerda e termina com a chave
direita, cada nome ou chave, e seu valor é separado por pares
de dois pontos e nome-valor. Por exemplo, nome João e os 29
anos são separados por uma vírgula. Nosso exemplo também contém
uma matriz que é matrizes de
contato que começam com um colchete esquerdo e terminam com um colchete quadrado direito. Agora, os objetos JSON podem ter sete
tipos diferentes de valores. Uma string é uma sequência de 0 ou mais caracteres
envoltos em aspas duplas. Por exemplo, Meu nome é John, aqui está uma string, um número, por exemplo, 1234 ou chave JSON também pode ter outro
objeto JSON como seu valor. Também pode ser um array, e também pode ser booleano, o que é verdadeiro ou falso. E, por último, o
valor adjacente também pode ser nulo. Se você quiser
ler mais sobre o JSON, incluí alguns links
com a descrição
desta palestra para que
você possa entender mais profundamente. Como com o Elastic Search ele
trabalhará principalmente com documentos JSON com isso para acompanhar o
final desta palestra. Obrigado por
assistir. Vejo você no próximo. Tchau.
6. Visão geral da API de Restos: Ei pessoal, nesta palestra, vamos dar uma
olhada nas APIs RESTful,
que é um método popular para se comunicar entre aplicativos de
computador. Api é um acrônimo para Application Programming
Interface Editor não passa um conjunto de definições
e protocolos para construção e integração de software de
aplicativos. Por exemplo, você pode
querer usar uma API que um usuário possa fornecer
um ID de aluno e sua API responderá com os motivos do exame
desse aluno o benefício de usar APIs é que sua inscrição
o software não precisa saber como o
software do aplicativo cliente é implementado. Rest é um acrônimo para transferência de estado
representacional. O que isso significa é
que ele transfere uma representação do
estado do recurso. E essa representação não
é nada um pedaço de dados que são solicitados
necessidades de seu aplicativo. O resto funciona no modelo
cliente-servidor. O que isso significa é que o recurso solar contém
esse pedaço de dados. Um cliente solicita esse pedaço
de dados usando a operação crud, create, read, update
ou delete. E para fazer essa solicitação, ele
usa métodos HTTP únicos. Depois que essa solicitação tiver
sido feita pelo cliente, a resposta do servidor com aquele
pedaço de dados que ele está mantendo em uma representação daquele pedaço de dados
que o servidor possui. Agora, vamos dar uma olhada em
alguns dos métodos STDP. Post permite que você crie um novo recurso
na porta do servidor, permite atualizar um
recurso existente no servidor, obter permite recuperar um recurso existente e excluir, permite que você exclua
um recurso existente. Esses são alguns dos
exemplos dos métodos que você pode implementar
usando APIs restantes. Outra coisa a observar é que as solicitações de API
rest são sem estado. O que isso significa é que todas as solicitações
do cliente são tratadas como novas solicitações e nenhum histórico de sessão é
armazenado no servidor. Agora, antes de seguirmos em frente, vamos dar uma olhada em um
exemplo aqui na tela. Tenho um exemplo de
uma chamada de API usada para verificar a integridade de
um cluster do Elasticsearch. Primeiro, temos o método
que pode ser qualquer GET, PUT, post ou delete. No nosso caso, estamos
usando o GET e esse teste o servidor que queremos
recuperar algumas informações. Depois disso,
especificamos o endpoint
no servidor que queremos
enviar uma solicitação para adicionar. É http localhost
na porta 9000. Isso é importante porque podemos ter
vários servidores e nosso ambiente e cada servidor pode estar executando
vários serviços. Por exemplo, o mesmo servidor
também pode estar executando um
servidor Web na porta 80, mas queremos nos conectar a
um serviço que está sendo executado na porta 9200 no host local. Depois de especificarmos endpoint, precisamos especificar o recurso nesse
endpoint ao qual queremos nos conectar em nosso exemplo que a integridade do cluster de
recursos. Agora, cada endpoint
pode estar executando vários recursos em nosso caso porque queríamos obter
a integridade do cluster. Estamos usando endpoints de
integridade do cluster para se conectar e
obter o status. E, finalmente, podemos
especificar um parâmetro. Por exemplo, neste exemplo, queremos que o servidor responda
com as informações em um
formato legível por humanos ou isso para nós depois de
enviarmos essa solicitação, faça
isso para nós depois de
enviarmos essa solicitação,
o servidor responde
com um resposta. Neste exemplo, o
verão respondeu com a integridade do
cluster no formato JSON. Você também pode obter essa resposta
em vários outros formatos, por exemplo, HTML, XML ou textos simples, etc. Agora, existem várias
ferramentas disponíveis para você
sujar as mãos em chamadas de API. Você pode usar ferramentas especializadas como carteiros, swagger, etc. Ou você pode usar o comando plane ou curl do seu terminal
Linux ou Mac. E, por fim, você
também pode criar uma API chamada programaticamente de dentro do seu código com base em alguma lógica. Agora, antes de seguirmos em frente,
vamos fazer algumas práticas. Tenho a
janela do terminal do meu macOS. E a partir daqui tentaremos invocar uma API pública para piadas. Primeiro, preciso digitar curly. Depois disso, eu
precisava ter os endpoints. Então, HTTPS, fazemos API de piadas de
ponto, profundidade de pontos e, em seguida, preciso fornecer o recurso
no endpoint. Então vou digitar barra, brincar barra qualquer e pressionar Enter. Como você pode ver, o
servidor de piadas respondeu com uma piada. Agora, você pode usar
essa API para criar uma seção de piadas em seu
site, se quiser. Ou você pode ler essas piadas ou para sua
empresa depende de você. Agora, antes de seguirmos em frente, eu queria mostrar como fazer exatamente
a mesma coisa usando
uma ferramenta chamada Postman. Agora aqui tenho a entrevista desta ferramenta para criar
uma solicitação de API, vou clicar em mais. Isso abrirá
o formulário da API aqui, posso escolher qual
método preciso. Nesse caso, preciso obter, então preciso especificar
os endpoints. Então, HTTPS, fazemos dot
piada API dot dev. E então eu preciso digitar o recurso que
é uma piada barra qualquer. E para executar isso, tudo o que preciso fazer
é clicar em enviar. E você pode ver que eu tenho uma resposta
do servidor novamente. Agora este é um exemplo muito
básico, mas como este não é
um curso de API
STI, deixarei para
você ter mais conhecimento sobre esse tópico
se você ainda não o souber. Eu adicionei alguns recursos Na descrição
desta palestra, para que você possa usá-lo como ponto de partida de
seus estudos futuros. Agora, antes de avançarmos como
cobrir uma última coisa, que são esses códigos de status. Agora, se você vir aqui, você verá o Status 200, ok, e se você passar o mouse sobre ele, você receberá uma
explicação sobre as pontuações de status. Agora, toda vez que você faz
uma solicitação para o servidor, ele retorna um código de
volta ao cliente, o
que fornece o
status da solicitação. Agora, aqui na tela, tenho vários tipos de resposta que você pode esperar do servidor. resposta que começa
com 22 dígitos depois disso geralmente significa que a solicitação
foi bem-sucedida. Por exemplo, como
vimos nos carteiros, temos 200 OK, o que significa que está tudo bem. E ele responde
com três ou quatro, significa que o cliente pode usar a versão em cache
do recurso solicitado. Qualquer coisa. Para XXX, significando quatro e depois dois dígitos
depois disso, ou cinco,
XX, significando cinco e
depois dois dígitos depois
disso significa um erro para XX
significa um outro lado do cliente, que significa que há algo
errado no cliente. Phi de x. X significa que é um erro no
lado do servidor, o que significa que há alguns
problemas com o servidor. Portanto, essa foi uma rápida
introdução às chamadas de API rest. Há um pouco mais e eu quero que você esteja 100% confiante porque você o usará para sua gestão e
administração do Elastic Search. Por favor,
veja os links que
anexei com a
descrição deste vídeo. Com isso, chegamos
ao final desta palestra. Vejo você
no próximo. Tchau.
7. Introdução à pesquisa elástica: Ei pessoal, Elastic Search é um mecanismo de pesquisa
e análise distribuído, que é o coração
do Elastic Stack ou do mecanismo de pesquisa distribuído, é aquele em que a
tarefa de indexação e processamento de consultas
é distribuído entre vários computadores em vez de um único supercomputador
lidando com tudo. Ele é construído no Apache Lucene
e é desenvolvido em Java. Ele permite que você armazene, pesquise e analise grandes volumes de dados rapidamente e quase em
tempo real e
devolva respostas em
consultas de milissegundos que normalmente
levariam dez segundos ou mais do que dez milissegundos
na pesquisa elástica usando o mesmo hardware, Elastic Search pode lidar com
todos os tipos de dados, por exemplo,
semicírculo estruturado, etc. sequência
retornará resultados em menos de
dez milissegundos
na pesquisa elástica
usando o mesmo hardware, o
Elastic Search pode lidar com
todos os tipos de dados,
por exemplo,
semicírculo estruturado, etc.
de
casos de uso para o Elastic Search. Por exemplo, você pode
adicionar uma caixa de pesquisa a um aplicativo ou site para pesquisa rápida
do seu catálogo. Você também pode armazenar
e analisar registros, métricas e dados de eventos de segurança. Ou você pode usar o aprendizado
de máquina para modelar automaticamente o comportamento de seus dados em tempo real. Elastic Search
fornece uma API rest para gerenciar seu cluster, indexar e pesquisar seus dados para recursos de pesquisa, Elasticsearch oferece suporte a
três tipos de consultas. Consultas estruturadas
permitem pesquisar dados
estruturados e são
exatamente como consultas SQL para consultas de
texto
permitem pesquisar em campos de texto de
análise,
como o corpo de um e-mail aqui que você estará fazendo
coisas como encontrar uma palavra específica em consultas complexas de um
parágrafo,
combinação de consultas de texto estruturado
e completo. Agora vamos passar para documentos e índices na pesquisa elástica, a menor unidade de
dados é chamada de campo. Cada campo tem um tipo de dados
definido e contém uma
parte específica de dados. Por exemplo, nome John, não, documentos são a unidade base
de armazenamento no Elastic Search. Ou documento é composto por
vários campos no mundo do banco de dados
relacional ou documento será equivalente
a uma linha em uma tabela. Os dados em um documento são armazenados como um campo que são pares
nome-valor, e existem alguns
alimentos reservados em nosso documento. Agora, aqui na tela,
tenho um exemplo de dados
armazenados em um documento. Neste exemplo, ID é o identificador
exclusivo do documento. Tipo é o tipo de índice. Este documento faz
parte de um índice, é o nome desse índice. Como exemplo, a
varredura de documentos representa um artigo de enciclopédia ou
entradas de registro de um servidor da Web. Agora, neste exemplo, nos referimos a algo
chamado índice. Então, vamos dar uma
olhada no que é. Um índice é uma coleção de documentos
relacionados
logicamente com características semelhantes. Por exemplo, você pode
ter um índice para usuários, você pode ter um índice
para produtos e um para pedidos e assim por
diante e assim por diante. É a entidade de nível mais alto que você pode consultar. Uma pesquisa elástica é semelhante ao banco de dados em um banco de dados
relacional. No Elastic Search é, na verdade o que é chamado de índice invertido. E o índice invertido é um mecanismo pelo qual todos os mecanismos de
busca funcionam. Basicamente, esse índice
consiste em uma lista de palavras únicas ímpares que
aparecem em cada documento. E para cada palavra, consiste em uma lista de todos os documentos nos quais
essa palavra aparece. Agora, vamos dar uma olhada
nas seguintes frases que cada código de contêiner da série de
TV Game of Thrones, inverno está chegando
nossa fúria do sistema, e a escolha é sua. Agora vamos fazer nosso
índice em ordem. Então, primeiro, escreveremos os termos em todos os três documentos
em uma coluna
e, em seguida,
escreveremos a frequência como aparece nos
três centros, está na segunda coluna. E então, na terceira coluna,
escreverá o documento no qual esse termo aparece
prestes a dar um exemplo, inverno aparece apenas uma vez nas três frases e
não é fonte do documento, enquanto que é o segundo
termo no documento um na verdade vem três vezes e
aparece em todos os três documentos. Então, temos 123 aqui. Da mesma forma, isso aparece duas vezes no documento dois e na árvore de
documentos como esta, podemos construir
nosso índice invertido, uma combinação de termos e uma frequência é
chamada de dicionário. Se voltarmos burros, e a frequência for chamada de
dicionário e o número de documentos ou termo específico aparecer é chamado de postagens. Então, este será um
dicionário e isso será postagens usando dessa maneira. Se você quiser fazer uma
pesquisa rápida por qualquer termo, digamos que fúria Elasticsearch examinará seu índice
invertido e descobrirá que fúria um PS1 e aparece no
documento para, portanto, um índice termo é a menor unidade de
pesquisa no Elastic Search, esse é o
truque que o Elasticsearch usa para realizar pesquisas rápidas. Também incluí um link
para um blog de pesquisa elástica que pode ajudá-lo a entender melhor como a pesquisa funciona
no Elastic Search. Com isso, chegamos
ao final desta palestra. Vejo você no próximo. Tchau.
8. Stack elástico - uma vista de olhos de pássaros: Antes de iniciarmos a implantação, gostaria de lhe dar uma
breve visão geral de cada um
desses produtos de pesquisa elástica que implantaremos neste laboratório, Elasticsearch é uma lista de código
aberto para um distribuído esse mecanismo de
análise dependente do Apache Lucene Log Stash é um pipeline de
processamento
de dados do lado do servidor de código aberto que ingere dados de várias fontes, transforma e, em seguida, os
envia para Elasticsearch. Kibana é
um painel de
visualização de dados de código aberto para o Elasticsearch. Em palavras simples,
digamos que você tenha dados de log de
aplicativos de servidores de
aplicativos. Agora, caso você não precise
fazer nenhum processamento nesses dados, você pode enviá-lo diretamente para o Elastic Search
para restaurá-los índice. No entanto, se você precisar fazer algum processamento personalizado, por
exemplo, talvez seja necessário adicionar
um ID de cliente que
esteja registrado evento para que você
possa vincular um evento de log específico, log a um
determinado cliente. Primeiro, você terá
que enviar esses dados para Log Stash, processamento
ou transformação de
Buda
e, em seguida, enviá-los para o Elastic
Search para serem armazenados. Depois que os dados são armazenados e
indexados no Elasticsearch, você pode usar o Kibana que cria algumas visualizações
sobre seus dados. Agora vamos falar sobre o lado do bead
beat, essencialmente como agentes muito
criados para fins específicos que adquiriram dados e depois os alimentam para batidas do
Elastic Search
ou batem em uma estrutura de bits
iluminada. E facilita a criação bits
personalizados para
qualquer tipo de dados, se você quiser enviar
para o Elasticsearch, Beats tinha recifes
padrão disponíveis, que eu listei na tela. Se uma dessas batidas não
fizer o trabalho, você pode usar a estrutura lipídica para criar sua velocidade personalizada. Então, vamos falar sobre algumas
das batidas padrão. Primeiro, há
algo que lutaria, acharíamos que o beat é leve, mais barato para encaminhar e
centralizar dados de log. No início, como agente
no verão alvo,
luta contra grandes monitores. Os arquivos de log são
locais que você especificou, coleta, registra eventos e os
encaminha para o Elasticsearch são pesquisa de log para
indexação ou deadbeat. Essa probabilidade é
mais barata que você possa instalar em seus servidores para auditar as atividades de usuários e processos
em seu sistema. Por exemplo, você
pode usar a auditoria V8, a esquerda e centralizada
ou eventos do Linux, mas um lance de métrica diferente é um pouco mais barato que
você pode instalá-lo em seus servidores para
coletar métricas periodicamente do sistema operacional e serviços que estão sendo executados
na métrica prata, grande X, as métricas e
estatísticas que ele coleta e desloca a saída para qualquer pesquisa
elástica para Log Stash. Heartbeat é um demônio leve que você instala em
um servidor remoto. Verifique periodicamente o status de seus serviços e determine
se eles estão disponíveis. A diferença entre
líquidos e pulsação é que a métrica só informa se seus servidores
estão ativos ou inativos. Enquanto pulsação, como você se seus
serviços estão disponíveis. Por exemplo, diz que você
tem o Apache instalado em um líquido Southern make
dirá se o
servidor está ativo ou inativo. Heartbeat realmente informará
se o seu site está pronto. Packet beat é um analisador de pacotes
em tempo real que você pode usar
com o Elastic Search. Forneça um
sistema de
monitoramento de aplicativos e análise de
desempenho que possa superar, fornece visibilidade
da comunicação que acontece entre os
servidores em sua rede. Geralmente, a batida é um
remetente leve para encaminhar e centralizar dados
de log do sistema
que lê os jornalistas. Ele também é instalar um
agente em seus servidores e monitora
locais gerais que você especifica,
coleta eventos de log
e, em seguida, encaminha esses eventos para a pesquisa
elástica no Log Stash, eles não são beterraba batatas fritas. Registros de eventos do Windows para o
Elastic Search ou Log Stash. Ele é instalado como uma função de serviço do Windows beat é um elástico que você implanta como uma função em seu
ambiente sem servidor para coletar dados dos serviços
de nuvem e
enviá-lo conjunto elástico. Com isso, chegamos
ao final desta palestra. Obrigado por assistir.
Vejo você no próximo. Tchau.
9. 11: Ei pessoal, neste vídeo, vamos instalar e
configurar o Elasticsearch e Kibana em um único nó do sistema Linux baseado em
DBN. As etapas para esta
palestra são as primeiras, instalaremos a chave de assinatura pública do Elastic
Search. Em seguida, instalaremos o pacote HTTPS de
transporte APT. Depois disso, salvaremos definições de
repositório de pesquisa
elástica em nosso sistema Linux. Em seguida, faremos uma atualização do
sistema e, em seguida, instalaremos o Elasticsearch
e o Kibana. Depois que os três aplicativos
tiverem sido instalados, configuraremos o
Elasticsearch e o Kibana. Vou dedicar uma
palestra separada para Log Stash. E, finalmente, testaremos a
conectividade com nossos serviços. Então, vamos começar. Aqui na tela, estou dentro da minha conta do GCP
e na página Instâncias de VM, usaremos esta página para criar nosso sistema Linux de
nó único. Clicaremos em Criar instância. Em seguida, clicarei em nova instância de
VM no Modelo
e, em seguida, escolherei o
modelo ELK e pressionarei Continuar. Agora, a partir desta tela, posso manter o nome como ELK um, mas vou mudar a
região para US West One. E então deixarei todo o resto como padrão e
vou para a rede. E em rede, vou me certificar de que ele tem a tag
correta, Kibana. E também vou me
certificar de que ele esteja em Elasticsearch VPC e sub-rede de
monitoramento. Depois de validar essas coisas, clicarei em Criar para
criar minha instância do Linux. Agora, quando esta máquina estiver ligada, irei ao meu Visual
Studio Code aqui. No lado esquerdo, tenho as notas para instalar o ELK Stack em uma máquina Linux. E do lado direito, tenho meu terminal aqui. Primeiro irei para minha página
Instâncias de VM e, a partir daqui, copiarei o
endereço IP externo da minha instância Linux. E então, dentro do
VS Code Terminal, vou digitar SSH, elaborar em e colarei o endereço IP da minha
instância Linux e pressionarei enter. Aqui vou digitar
sim, como você pode ver, consegui me
conectar com sucesso à minha instância do Linux. Agora vou primeiro digitar claro, e agora podemos começar a
instalar nossos aplicativos. Primeiro, farei uma atualização
sudo apt-get. Então sudo APT obtenha
atualização e pressione Enter. E agora, quando o
sistema for atualizado, primeiro
limparei a tela. Então eu preciso instalar o portão W se ele ainda não estiver
instalado no sistema. Então vou fazer isso agora. Agora, depois que esses pré-requisitos
tiverem sido feitos, posso instalar a chave de
assinatura pública para o Elastic Search, então copiarei tudo isso e colarei no
terminal e pressionarei enter. Depois de receber a mensagem ok, posso instalar o pacote HTTPS de
transporte APT. Então eu copiarei este comando sudo apt-get install
epitelial transport, STDEV.S e
sim e pressione enter. Assim que isso for feito, vou
limpar minha tela novamente. E agora temos que salvar
as definições do diretório. Então, copiarei tudo
isso das minhas anotações e colarei no terminal,
e pressionarei Enter. Agora, uma vez que
as definições de diretório tenham sido salvas, agora
podemos instalar a sessão de log de
pesquisa elástica Kibana. Portanto, o comando é
sudo apt-get update, atualize o sistema primeiro. Em seguida, instalaremos o
Elastic Search, Log Stash e Kibana. Então eu copiarei tudo isso e
vou colá-lo aqui, e eu pressionarei Enter. Agora, uma vez que todos os três
aplicativos tenham sido instalados, agora é hora de configurar
nossos aplicativos. Então, primeiro vou limpar isso. Então farei o sudo
SU e depois vou fazer o cd no primeiro ATC Elastic Search para configurar meu
Elasticsearch Service. Agora, dentro do diretório de
configuração do Elastic Search, se eu fizer um LS, há um arquivo chamado
Elastic Search dot YAML, que é o
arquivo de configuração principal chamado Elastic Search. Então, digite essencial no sudo, o ponto Elastic Search YAML
para configurar este arquivo. Neste arquivo, a
primeira coisa que
precisamos alterar é o nome do ponto em
cluster. Então, primeiro entrarei em Inserir e depois descomentar o nome do ponto do cluster. Essa configuração é usada para definir um nome descritivo
para o cluster. Então vou chamar meu
cluster demo dash ELK. Agora, a próxima configuração que quero
alterar é o nome do ponto do nó. Essa configuração é configurar um nome descritivo para
esse nó no cluster. Então, vou
chamá-lo de nó um. Agora, depois de fazer isso, posso deixar os padrões
para dados de ponto de caminho e logs de pontos de caminho e
precisarei entrar na rede. Em configuração de rede,
quero alterar o host de pontos de
rede. Por padrão, o Elasticsearch só pode ser acessado no host local. Precisamos mudar isso, então vamos alterar
esse valor, vai 0. Agora, em seguida, descomentaremos a porta de ponto
http, mas vamos deixá-la como está
em um ambiente de produção. Se você quiser alterar
a porta padrão na qual o
Elastic Search acessível, você virá aqui e
alterará esse valor. Agora vamos deixar a descoberta como está, porque é um cluster de
nó único
irá para baixo e
para baixo, o que faremos é colocar em uma configuração chamada tipo de ponto de
descoberta. Então, vou digitar o tipo de ponto de
descoberta. E o valor
dessa configuração é um nó único porque este
é um servidor de nó único. Vai verificar
isso nas minhas anotações. Tipo de ponto descoberto
um único nó. Então, agora podemos salvar esse arquivo. Farei WQ e pressionarei Enter. E para iniciar o
Elasticsearch Service, digitarei CTL do sistema, iniciarei o Elastic Search
e pressionarei enter. Agora, uma vez iniciado
o serviço, podemos primeiro verificar o status
do serviço por sistema de
digitação, CTL. Um status Elastic Search e o status mostram a execução
ativa. Então eu vou controlar C, depois
menos testar
a conectividade com nosso cluster ALK, tipo de
solo em menina
menos x obter como PIB e, em seguida, localhost e , em seguida, a porta que a pesquisa elástica
é executada em 90 a 100. E, em seguida, para verificar a
saúde do cluster, vou precisar digitar o gesso
sublinhado e depois mantido. E eu quero que a saída esteja
em um formato legível por humanos. Então vou digitar
bonito e clicar em Enter. Agora, o status voltou como verde e há um único
nó neste cluster, que é o que queríamos. Portanto, o serviço elástico está
instalado e configurado. Vou limpar tudo e seguida, é hora de
configurar o Kibana. Então vou entrar em CD, ATC, depois Kibana e pressionarei enter. Agora aqui, se eu fizer um ls, você verá que existe um arquivo YAML de ponto Kibana semelhante
que precisamos configurar. Então vou digitar sudo VI
Kibana dot YAML e pressionar Enter. Agora, dentro do arquivo YAML do
Kubernetes primeiro
entrará em Inserir, depois vá para a porta de ponto de verão e depois não comentou, mas
deixará a configuração como está. Este é o porto que
Kibana e assim por diante. Em uma configuração de produção, talvez
você queira
alterá-la de 5601. Em seguida, iremos para
vários host de pontos, descomente isso e
alterá-lo de host
local para 0 ou
0 para 0 para 0. Isso permitirá que Kibana seja acessível pelo mundo exterior. Eu mudei isso. Agora, a próxima configuração que
queremos alterar um URL de base pública de ponto de verão. Então, vou descomentar isso. E então aqui o que preciso
fazer é digitar
http e, em seguida, o endereço
IP privado da minha instância
Kibana. Então, vamos para nossa página Instâncias de
VM
e, a partir daqui, copiarei
o endereço IP interno. Agora, aqui vou digitar http, depois colarei o endereço IP
interno da minha instância Kibana
e, em seguida,
especificarei a porta 5601. Em seguida, preciso especificar um nome descritivo para
minha instância do Kibana. Então, vou descomentar o nome do ponto do
servidor, e aqui vou digitar
o traço de demonstração Kibana. Em seguida, preciso especificar o URL em
que o host do Elastic Search está acessível. Então, aqui em hosts
ensinados pelo Elasticsearch, deixarei o valor
como padrão porque ele está sendo executado no mesmo servidor em
que o Elastic Search está sendo executado. Então podemos deixá-lo como está agora, podemos salvar esse arquivo e agora
é hora de iniciar o Kibana. Então, sistema CTL, inicie o
Kibana e eu pressionarei Enter. Parece que eu
fiz um sistema de erro de digitação CTL iniciar Kibana
e eu vou pressionar enter. Agora, quando o
serviço voltar, farei um status
CTL do sistema Kibana
e a atividade de serviços em execução. Então, vamos voltar às
nossas instâncias de VM. A partir daqui, copiarei o endereço IP externo
da minha instância. Vou abrir uma nova guia
do navegador, colá-la aqui
e, em seguida, especificar a porta em
que o Kibana está sendo executado. Então 5601 e eu pressionaremos Enter se o Kibana estiver instalado e
configurado com sucesso, você começará a ver o
carregamento elástico primeiro. Agora, uma vez que o Kibana tenha
carregado corretamente, você verá bem-vindo ao elástico. E se você clicar em
Explorar por conta própria, você chegará à interface do usuário do Kibana. Agora, há uma última
coisa que eu queria mostrar antes de deixar você ir, que é se você quiser que seu
aplicativo
Elasticsearch e Kibana iniciem automaticamente quando você reiniciar seu sistema, o que você terá que
fazer é
digitar no sistema CTL habilitar pesquisa
elástica e sistema CTL habilitar Kibana, um
altar mover o ponto. E com isso, chegamos
ao final desta palestra. Obrigado por assistir. Vejo você no próximo. Adeus.
10. 12: Ei pessoal, Nesta palestra
vamos instalar e configurar sessão de log do
elasticsearch Kibana
em um sistema Linux baseado em RPM. Para fazer isso, primeiro
teremos que instalar a chave GPG do
Elastic Search
e, em seguida,
teremos que configurar nossa
sessão de registros de pesquisa elástica repositórios Kibana no sistema RPM. Depois disso,
instalaremos nossos aplicativos. Em seguida, configuraremos o
Elasticsearch e o Kibana. E depois de
termos feito a configuração, podemos iniciar o serviço Elasticsearch e Kibana e
testar a conectividade. Então, vamos começar. Agora, aqui na tela, estou dentro da minha conta do GCP. E nas instâncias VMI, você já pode ver o sistema Linux
baseado no Debian no qual
instalamos nosso sistema de pesquisa
elástica de nó único anteriormente nas palestras
anteriores. Aqui, clicarei
em Criar Instância
e, em seguida, clicarei em nova instância de
VM do Modelo
e, em seguida, escolherei o ELK. Então eu vou clicar em Continuar. Deixaremos o nome como ELK T2, mas mudaremos a
região para US West One. Então vou descer
e, no disco de inicialização, clicarei em alterar. Aqui. No sistema operacional,
clicaremos no menu suspenso, e aqui escolheremos o
Red Hat Enterprise Linux. Agora, podemos alterar
a versão do Linux que queremos
para esta máquina. Deixo como padrão
e pressionarei Selecionar. Uma vez que eu fizer isso, vou para o networking. E em rede, vou me certificar de que tenho a tag de rede
correta, Kibana, e estou dentro da VPC de pesquisa elástica e
na sub-rede de monitoramento. E, em seguida, clicarei em Criar. Quando minhas instâncias ELK estiverem
em execução, copiarei o endereço IP
externo e seguida, irei para o meu
Visual Studio Code. E no meu código do Visual Studio, no lado esquerdo, tenho as notas para instalar o Elastic Search em um sistema RPM. E no lado direito, tenho uma janela de terminal sob tipo de
terminal em SSH
e, em seguida, laboratório em. E então eu colarei
o endereço IP externo e pressionarei Enter. Clique em sim. Agora, depois de me
conectar a essa instância, clicarei em Limpar e agora estamos prontos para começar a
instalar nossos serviços. Primeiro, temos que importar a chave GPG do
Elasticsearch neste sistema. Então, copiarei tudo isso e
colarei no meu sistema
e pressionarei Enter. É. Não é possível abrir o índice usando
as denotas de permissão V5. O que vou fazer é executar o
mesmo comando usando sudo,
sudo e pressionarei Enter
e uma vez que a chave for importada
com sucesso
começará a instalar repositórios
RPM. Então, primeiro terei que
criar três arquivos, Elastic Search dot repo, Kibera, repo e log Slashdot repo dentro do repost da minha
filha pequena ou D. Então eu copiarei o
comando de primeiro toque e pressionarei Enter. Vou ter que digitar sudo primeiro. Agora vou me mudar para o sudo SU. Em seguida, copiarei o
segundo comando de toque
e, em seguida, copiarei o
terceiro comando de toque. Então agora, se eu entrar na
minha filha, repostar ou D, néfron faz um ls. Tenho meus três
arquivos, Elasticsearch, repositório
curto, registros, artéria
gestual Po e relatório de pontos Kibana. Em seguida, teremos
que configurar arquivos. Então, primeiro faremos o VI no repositório curto do
Elastic Search, e entrarei em Inserir
e depois terei que definir essas configurações
dentro do perfil Marie. Então, vou clicar em colar e
farei alguma formatação. Agora, essa
definição de repositório não é nada além de
primeiro ter o nome
dessa configuração, depois temos o URL de
onde obter o pacote. Gpt verifica a chave GPG se ela está ativada
ou não e o tipo. Agora, vou salvar esse arquivo. Em seguida. Faremos um VI no repositório de pontos
Kibana, e eles entrarão em
insert e eu copiarei todas as configurações do meu
teclado ou três perfis. Colo-os aqui. E novamente terei que
fazer alguma formatação. E agora eu posso salvar
esse arquivo também. E finalmente, terei que editar meu perfil de artéria esticada. Vou inserir uma cópia das configurações do log
esticado ou triplo, e salvarei esse arquivo. Agora você não precisa se
preocupar com essas configurações. O que vou fazer é
anexar minhas anotações e o link
de descrição deste vídeo que você possa ter acesso
a elas também. Assim que configurarmos
nossos três repositórios, agora podemos instalar tudo. Então, primeiro temos que
instalar o Elastic Search e o comando é sudo yum
install enabled repo. E, em seguida, ele faz referência ao Elastic Search Report
que você acabou de configurar. E, em seguida, o
nome do serviço é Elastic Search. Então eu vou copiar, colarei
aqui e pressionarei enter. Se a seguradora pedir que você baixe um pacote de
pesquisa elástica, basta dizer sim e seguir em frente. Agora, uma vez que o Elastic
Search e armazenado, podemos instalar Kibana e Log
Stash In digite no sudo yum instale Kibana para instalar o Kibana e pressione Enter,
eu vou pressionar sim aqui. Agora, uma vez instalado o Kibana, você pode digitar sudo yum install Log Stash para instalar Log
Stash NAL head, sim. Agora, uma vez que as pesquisas de log
também instaladas, é hora de configurar
nossos serviços. Isso seria semelhante
ao que
fizemos pelo nosso sistema baseado em DBN. Se você já fez isso, provavelmente
poderá
configurá-los por conta própria,
se não o fez, acompanhe esta palestra. Primeiro, configuraremos o
Elasticsearch. Então CD, ETC barra elástica pesquisa. Aqui, se eu fizer um ls, verei que há um arquivo chamado Elastic Search se eu estiver, e esse é o
arquivo de configuração do Elastic Search. Então, vamos editar isso. Então, vou digitar o ponto VI Elastic
Search YAML e pressionar enter. Agora aqui neste arquivo, primeiro
entrarei em Inserir. E a primeira configuração
que preciso
alterar é o nome do ponto em cluster. Vou mudar
isso para o traço de demonstração ELK. Em seguida, eu queria alterar
a configuração do nome do ponto do nó, então vamos mudar isso
para ELK dash one. Depois disso, posso
deixar o caminho para configuração de
log de pontos de
dados e caminho como está, terei que ir para a
rede e dentro rede o que farei é
ir para o host de pontos de rede, descomentar isso e esse valor para US$0 ou 0 para 0. Agora, o que acontece é, por padrão, pesquisa
elástica
só é acessível a partir do localhost
, alterando-a para 0 ou 0 ou 000. Estamos expondo isso a
qualquer pessoa no mundo. Em seguida, descomentaremos a porta de ponto
STDP, mas deixaremos a
porta como padrão 9200. Se você estiver executando um cluster de
produção, talvez queira alterar
isso para outra porta, mas deixaremos isso como está. Agora, finalmente, vou direto
na parte inferior deste arquivo. E aqui vou digitar uma
configuração para o doctype de descoberta. Agora, esse valor de configurações seria uma
carga única porque estamos configurando um único nó do Elasticsearch cluster
ou tipo de ponto de descoberta. E o valor é nó de traço
único. E agora posso salvar meu
Elasticsearch atingido YAML, então vou pressionar Enter agora posso iniciar meu Elasticsearch Service. Portanto, o sistema CTL inicia o
Elastic Search Agora, quando o serviço estiver ativo, ele pode fazer o status para verificar
o status do serviço. Ele está ativo e em execução. Agora, para verificar
a conectividade com nosso cluster, digitaremos menos x,
obteremos STDP e, em seguida, localhost e, em seguida, a porta
que o Elastic Search está sendo executado em 90 a 100. E, em seguida, nos conectaremos
à API do cluster e ao serviço de
integridade nessa API. E o que queremos é que queremos a saída em formato
legível por humanos. Então, vamos digitar
bonito e apertar Enter. E, como você pode
ver, o status do nosso cluster é verde e
o número de nós é divertido. Agora, podemos começar a
configurar nosso Kibana. Então vou entrar na barra,
ETC, slash Kibana, e vou limpar tudo e fazer um ls dentro deste
dado ou pasta, há um arquivo chamado
teclado AutoML, que é o
arquivo de configuração para
Kibana. Então eu vou fazer VI Kibana dot YAML. Agora vou primeiro entrar no Insert. A primeira configuração que eu quero
alterar é nosso gráfico de pontos, mas vou deixar esse valor como está, porque este é um sistema de demonstração. Se você estivesse em um sistema de
produção, talvez queira alterar esse
valor para outra coisa. Em seguida, descomentarei o host de pontos
do servidor
e, em seguida, vou alterá-lo
de localhost para $0 ponto 0. Então, novamente, isso o torna
acessível para o mundo exterior. Agora, vários URL de base
pública de pontos são o URL no qual o
Kibana está acessível. Para obter o valor dessa configuração terá que
ir para nossas instâncias de VM. Em seguida, no IHL k2, copiarei o
endereço IP interno e digitarei http, e colarei o endereço IP
interno e fornecerei a
porta que tem 5601. Em seguida, alteraremos
o nome do servidor, mas vou entrar em self.name, descomentá-lo e dar-lhe
o nome demo dash Kibana. Então irei para anfitriões curtos do Elastic
Search. E posso deixar o
valor padrão porque essas
instâncias do Kibana são executadas
no mesmo servidor que os
serviços do Elasticsearch em execução. E depois de fazer isso, posso salvar meu arquivo de
configuração. E agora posso começar o Kibana. Uma vez que o gibbon eu
comecei, posso fazer o status
CTL do sistema Kibana e o serviço está
ativo e em execução. Em seguida, irei para
minhas instâncias de VM, copiarei o endereço IP público
da minha instância Kibana, com base na guia do navegador
e digite 5601
para se conectar ao serviço Kibana
no servidor,
será capaz de acessar a UI Kibana. Agora, uma vez que você chegar a esta tela, você clica em explorado por conta própria e eles devem
levá-lo para a interface do usuário do Kibana. Agora, antes de te deixar ir, quero mostrar
uma última coisa. Agora, se você quiser que seus serviços
Elasticsearch e
Kibana voltem automaticamente
após a reinicialização do sistema, você precisa digitar o sistema
CTL habilitar pesquisa elástica, ativar o
serviço Elasticsearch e sistema CTL habilitar Kibana, habilitar o serviço Kibana. Com isso, chegamos
ao final desta palestra. Obrigado por assistir.
Vejo você no próximo. Tchau.
11. Instale ELK no servidor do Windows: Ei pessoal, nesta
palestra vamos instalar pesquisa elástica
em um servidor Windows. Para começar, vamos
baixar alguns softwares. Então, primeiro vamos baixar
Elasticsearch e Kibana. Depois disso, vamos
instalá-lo chamado NSSS são gerenciadores de
serviços não sugadores. Essa ferramenta ajuda você a instalar
um aplicativo como um serviço. Agora, a razão pela qual
precisamos dessa ferramenta é porque o Kibana
não vem com o utilitário de pacote gratuito que pode nos ajudar a instalar o
Kibana como um serviço. Então, usaremos o NSSA
para o Elastic Search. Temos um utilitário
chamado Elastic Search Neste escuro de volta dentro do arquivo zip de pesquisa
elástica, que será usado
para instalar um ativo como um Serviço
no Windows Server. Agora, depois de
baixarmos o NSSS, vamos baixar
e instalar o 7-Zip. Depois que os Downloads
terminarem, configuraremos o Elasticsearch e forneceremos nossos aplicativos, então
os executaremos como um Serviço. E depois que eles tiverem começado
com sucesso, testaremos
a conectividade com nosso Elasticsearch Cluster e outras instâncias do Kibana em
seu esboço iniciado aqui. Tenho minha janela em algum lugar, onde quer que eu esteja instalando Elasticsearch e o
Kibana neste servidor, primeiro
abrirei uma guia do navegador. E no navegador,
vou digitar o
download do Windows de pesquisa
clássica e clicar em Enter. E a partir daqui vou para
o URL que diz elástico. Ele baixa uma pesquisa elástica. Então, vou clicar neste link. E quando estiver neste link,
vou me certificar de que estou
na guia de versão do GA. E a partir do primeiro passo, vamos baixar
o clássico, como se o Windows, eu clicarei neste botão
Download. E enquanto isso tiver
sido baixado, abrirei outra
guia e vou digitar
o download do Windows Kibana. E aqui também, irei para o URL de downloads do Kibana. E a partir desse URL também, irei para o primeiro passo,
baixarei e descompacte o Kibana. Vou me certificar de que a
espuma preta seja escolhida como Windows e clicarei no botão de
download do Windows. E isso também deve
iniciar o download do meu processo Kibana. Agora, enquanto isso estiver
sendo baixado, abrirei outra
guia e digitarei download e SSM e pressionarei Enter. E a partir dos resultados, ele escolhe o link para um ponto
SSM cc e downloads. E a partir desta página da Web, irei na seção versão
mais recente. Não clique no
utilitário e no SSM 2.24. Então, vou clicar nisso
e agora abrirei outra guia e vou digitar o download 7-Zip e ele entrar. E na página de download 7-Zip DOT
ORG, clicarei no
link para baixar
o utilitário para Windows de 64 bits. Então, vou clicar neste link de
download aqui. Agora, uma vez que todos os arquivos
tiverem sido baixados, primeiro
clicarei
em 7-Zip instalado, 7-Zip no sistema. caixa de diálogo do instalador, clicarei em executar
e, a partir daqui, escolherei a
pasta de destino padrão e clique em Instalar. E uma vez
instalado o IP de alguém, posso clicar em. E agora vou abrir
minha pasta de downloads. Agora, uma vez dentro da pasta de
download, você pode
clicar com o botão direito do mouse no Elasticsearch zip e usar o 7-Zip
para extrair os arquivos. Então, vou clicar em Extrair arquivos. E a partir daqui, você pode escolher o caminho onde
deseja extrair esses arquivos. Agora, o que eu fiz para esta
palestra é que eu já aceitei esses arquivos dentro da
minha pasta de documentos. Vou para a
pasta Meus Documentos e, como você pode ver, tenho uma pasta de
pesquisa elástica aqui e também tenho
uma pasta Kibana. Então, vamos começar a
configurá-los. Vou abrir a pasta
Elastic Search
e, a partir daqui, escolherei o
Elastic Search. Mais uma vez. Vou para o conflito. Dentro da pasta de conflitos, precisamos editar o arquivo YAML curto do
Elasticsearch. Então, vou clicar com o botão direito do mouse neste arquivo e usarei o VS Code
para editar esse arquivo. Você pode usar o editor
de sua escolha. Portanto, sinta-se à vontade para abrir
e editar este arquivo. Agora, uma vez que eu tenha aberto o arquivo YAML
curto do Elasticsearch, o
que farei é a
primeira configuração que
preciso alterar é
agrupada ou nome. E eu vou mudar isso
para o traço de demonstração ELK. Então eu preciso alterar
o nome do nó. Então eu vou mudar isso
para ELK dash one. Depois disso, não preciso especificar um caminho
para meu diretório de dados ou diretório de registros porque esta
é uma instância de demonstração. Então eu vou manter, diz padrão. Agora irei para
a seção Rede e descomentarei o host de pontos de rede. E vou mudar
esse valor para 0. Depois disso,
descomentarei http dot pork, mas manterei a
porta como padrão. E finalmente, irei para
a parte inferior deste arquivo. E aqui vou digitar o tipo
de ponto de descoberta e darei o
valor único painel porque esta é uma
única solução do Norton. Agora posso salvar esse arquivo
e, depois de fazer isso, posso iniciar meu
Elasticsearch Service. Então, para fazer isso, entrarei na minha caixa de pesquisa e
digitarei o PowerShell, e aqui escolherei o aplicativo de
desktop do Windows PowerShell. Agora entrou no meu console
PowerShell. Vou digitar cd se
precisar ir para Documentos
e, em seguida, preciso ir para a pasta
Elasticsearch e, em
seguida, Elasticsearch novamente, e então estive dentro do
bin se eu fizer um ls. Agora aqui você verá que
há um arquivo chamado Elastic Search service dot Ph.D. Agora precisamos
executar este arquivo. Primeiro vou
sair da minha tela. E a partir daqui vou digitar barra de pontos Elastic Search,
traço, ponto de serviço. E aqui preciso
digitar instaladores. Então, barra de pontos Elasticsearch
service dot VAT space instale, e eu clicarei em Enter. Agora, isso deve iniciar a instalação de um
ativo, como um Serviço. Depois que isso for concluído, o que você
pode fazer é ir para serviços ponto MSC da sua caixa de pesquisa. Aqui, você pode encontrar o serviço
Elasticsearch e agora você pode
iniciar o serviço. Mas primeiro, alteraremos
o tipo de inicialização
no serviço de
manual para automático para
que o serviço
seja iniciado após
as inicializações celulares
entrarem automaticamente nas propriedades. Vamos para o
tipo de inicialização e alteraremos isso para automático
e clicaremos em Aplicar. Depois de fazer isso, você
pode clicar em Iniciar para começar. O serviço
vai clicar em OK. E você pode ver que
os serviços estão sendo executados. Agora, deixe-me maximizar
minha publicação. Agora, aqui, você também pode usar o mesmo utilitário para gerenciar
esse serviço também. Deixe-me mostrar o uso. Se eu colocasse em ponto, o serviço de pesquisa
clássico
armazenado VAT e pressionasse Enter. Agora você pode ver o uso. Você pode instalar um
serviço de remoção de serviço, iniciar a parada e
gerenciar um serviço. Agora, vamos tentar
interromper esse serviço usando esses utilitários para que eu possa digitar estoque e pressionar Enter. Agora recebi a mensagem de que este Elasticsearch
Service foi interrompido. E posso validar isso
entrando em meus serviços ponto MSC e clicar no botão Executar
esta atualização, você pode ver que o
serviço foi interrompido. Agora vamos iniciar o
serviço e pressionar Enter, e temos a mensagem de
que os serviços foram iniciados. Então, vamos validar isso novamente. Então, clicarei em atualizar e você pode ver que
o serviço estava sendo executado para testar
a conectividade com nossa instância do Elasticsearch, o que precisamos
fazer é abrir a janela do Chrome. E a partir do Chrome, vamos
abrir outra guia. E aqui vamos digitar http
slash slash host local e, em seguida, compramos de
90 a 100 e pressione Enter nervosa services up. Você verá algumas informações voltando do cluster. Agora, o que você também pode fazer é observar
a integridade do cluster. Para fazer isso, você digitará
barra após o
URL e sublinhará o
gesso outra
barra e cabeça e, em barra após o
URL e sublinhará o
gesso outra
barra e cabeça e seguida, ponto de interrogação e, em seguida, líquido
bastante a cabeça do cluster. Agora você pode ver que o
status do cluster está verde e o número
de nós é um. Então, é assim que você pode instalar a pesquisa elástica
em uma máquina Windows. Em seguida, configuraremos
nossa instância Kibana. Agora, para configurar nosso Kibana, abrirei o explorador de arquivos. E a partir daqui
irei para Documentos. E abrirei
minha pasta Kibana. E depois a pasta Kibana
novamente e depois config. E dentro do Config, precisarei editar o Kibera TML finance, então vou clicar com o botão direito do mouse
sobre ele e clicar abrir para abrir este
arquivo em um editor. Agora, dentro desse arquivo, vou descomentar solver.py,
mas deixá-lo como padrão. Em seguida, descomentarei o host de pontos do
servidor e alterarei o valor do host
local para 0 ponto 000. Em seguida, alterarei o URL de base pública de
vários pontos, então vou descomentar isso. E para obter seu valor, você precisa ir para as próximas configurações do
netflix. E a partir daqui,
clicarei em Rede novamente para obter o
endereço IP desta máquina, que é padrão
0 ponto a ponto 15. Portanto, o URL da base pública
será STDP dez pontos 0 ponto 15. E então o livro pegou o 601. Portanto, este é o URL no qual dar honra
estará acessível. Vou descer um pouco. Em seguida, alterarei o nome de
vários pontos
e alterarei o nome descritivo da minha instância Kibana do
seu host melhorou
o traço de demonstração Kibana. Em seguida, descomentarei os hosts de pontos do
Elastic Search. Mas posso deixar isso como padrão porque essa instância do Kibana é instalada localmente
no mesmo servidor com pesquisas
elásticas. Agora, em seguida, por padrão, o Kibana registra, é
logon STD out. Queremos mudar isso
e queremos configurar nosso Kibana ou registrar seus registros no registro de
sangue em algum lugar. Para fazer isso, precisamos
descer e encontrar a linha que
diz login dot t ESD. Está online 97,
vou descomentar isso. E antes de alterar seu valor, abrirei meu explorador de arquivos
e vou subir um nível. E aqui vou criar uma
nova pasta chamada logs. E eu vou abrir isso. E então vou clicar com o
botão direito do mouse nos logs na barra superior. E copiarei textos de endereços, e agora vou substituir o
estradiol por este texto. Aqui, farei outra barra e fui chamar meu arquivo de log
Kibana dark low. Então, com isso, o Kibana
gravará registros nesse arquivo. Agora, também podemos
descomentar o
ponto de registro silencioso e
registrar o ponto silencioso, mas manteremos esses
valores como falsos. Agora, se você quiser um registro detalhado, você pode descomentar
isso e alterar seu valor de false para true. Isso lhe dará
detalhes de nível
granular do Kibana bloqueado. Agora, podemos salvar esse arquivo. Agora, antes de usarmos um SSM para
iniciar o Kibana como um serviço, quero mostrar como
iniciar o Kibana manualmente. Então irei ao meu
PowerShell e daqui e digito cd
e a partir de documentos, entrarei no Kibana
e depois Kibana novamente. E então, de dentro, Kibana vai
se dobrar desta vez. E aqui se eu fizer um ls, você verá que há um
arquivo chamado Kibana dot dot. Precisamos executar esse arquivo. Primeiro. Vou limpar isso, e então vou digitar barra de
pontos Kibana, e
pressionarei Enter. Agora, depois disso, vamos passar
para a janela do nosso navegador e digitar o ponto de
barra http, ponto para ponto 15 e receber uma porta 5601 e
eu pressionarei Enter. E isso deve
me levar minha página do Kibana, não dependendo de quão poderoso
seu servidor Windows seja. Pode levar algum tempo
para o Kibana carregar, então dê algum tempo. Agora, depois disso, vamos ver como instalar o Kibana como um serviço. Primeiro, abrirei o PowerShell e interromperei essa instância. Pressione Control C e ele entra e gerenciou o plano de
fundo minuto do sistema que posso digitar, sim, vou dominar isso. E uma vez que eu estiver fora disso, sairei por Kibana, abrirei meu explorador de
arquivos que baixar, extrair um SSM. Então 7-Zip. Se arquivos, e eu escolherei documentos e clique em OK e, em seguida, em OK novamente. E quando um FSM estiver
dentro dos meus documentos, posso voltar ao PowerShell e CD e SSM e fazer um LS aqui. Agora, aqui há outra
pasta chamada SSM,
então vamos fazer um cd para isso
e fazer um LS daqui. Preciso entrar em
quando 64 porque minha máquina já
conhece 64 máquinas. Se você estiver em uma máquina Windows de
32
bits, precisará entrar
nesse diretório. Vou entrar em quando 60 quartos, então CD em 64. Se eu fizer um LS aqui, haverá um arquivo EXE
chamado SSM dot EXE. Então, vou fazer barra de pontos
e ponto SSM EXE. E para mostrar o uso, vou terminar aqui. Agora, o uso é desnecessário, uma das opções e,
em seguida, alguns argumentos. Instale um serviço, precisamos
usar uma instalação SSM. Então, aqui vamos
digitar a barra de pontos e o espaço SSM EXE na loja. E agora precisamos
dar o nome do serviço. Então Kibana e pressione enter. Depois de pressionar Enter, ele abre uma caixa de diálogo. E dentro dessa caixa de diálogo
na guia do aplicativo, precisamos especificar o caminho para o arquivo em lote do Kibana. Vou clicar neste botão aqui. Em seguida, iremos para Documentos, Kibana, Kibana e depois bin. E a partir daqui vou
especificar manter
nosso arquivo em lote e clicar em abrir agora e abrir
a etapa detalhada. Posso digitar alguns detalhes, então vou digitar Kibana e a descrição também
será Kibana. Você pode especificar que o
tipo de inicialização pode ser automático, automático, atrasado,
manual ou desativado. Vamos deixar isso como automático. Você pode especificar o login
como informações aqui, dependências desse serviço, o comportamento de
desligamento da prioridade do processo. Mas deixamos tudo como
padrão e clicamos no
serviço de instalação depois que ele me der uma confirmação de que os
serviços Kibana instalados, posso clicar em Ok. E isso
tirará a caixa de diálogo, protegerá o status
do serviço Kibana. Posso digitar NASM, cmd.exe status de espaço Kibana e pressionar Enter lá, ele diz Estoque de serviço. Primeiro, temos que iniciar o
botão da tecla espaço stark
space stark service nsf dot EXE e pressiono Enter. Agora tenho a confirmação de que essa operação de serviço foi
concluída com sucesso. Então, irei para a janela MSC do ponto dos meus
serviços, atualizarei isso e
irei ao meu serviço Kibana. E posso ver que os serviços
Kibana estão sendo executados. Então, vou abrir
outra guia do navegador e clicar em Atualizar e carregar cargas virais
de segurança. Pode levar algum tempo novamente. Vou postar o vídeo aqui. Agora demorou alguns minutos para meu incenso
Kibana voltasse, mas agora é possível
clicar em Explorar sozinho e começar a trabalhar
na minha UI do Kibana. Agora, antes de deixar você ir em seguida, valide que nossa instância do
Kibana está fazendo logon no
arquivo de log que eles especificam. Então eu vou para
documentos Kibana, Kibana, e depois
vou entrar em registros. Posso ver que meu arquivo de log
de pontos
Kibana está lá e tem alguns
data centers. Abra-o. E aqui você pode
ver que o Kibana está escrevendo dados de log x
dentro desse arquivo de log. Então, com isso, chegamos
ao final desta palestra. Mostrei a você como instalar o Elasticsearch e o Kibana
em um Windows Server. Obrigado por assistir.
Vejo você no próximo. Tchau.
12. 14: Ei pessoal, nesta palestra
vamos configurar segurança de
espera em nosso
Elasticsearch Cluster. Primeiro, vamos parar o Kibana
no serviço Elasticsearch. Em seguida, habilitaremos
as esperanças de ir para o dia dentro desse arquivo de
configuração do Elastic Search. Em seguida, iniciaremos o serviço
Elasticsearch. Depois disso, configuraremos credenciais
padrão para usuários internos do
Elastic Search. Em seguida, configuraremos o
Kibana para usar a autenticação
por senha
para se conectar ao nosso Elasticsearch Cluster. E, finalmente, começaremos nosso serviço Kibana e
testaremos a conectividade. Vamos começar. Aqui na tela, tenho
minhas anotações para configurar a
segurança esperada em nosso
Elasticsearch Cluster e, no lado direito, minha conexão SSH dentro do
meu computador ELL fornecido. Este é um cluster ELK de
nó único que implantamos
em um pacote DBN. Então aqui, primeiro, tenho que parar
Kibana, uma busca elástica. Então vou digitar o sistema CTL, parar o Kibana e o
CTO dos sistemas interromper a busca elástica. Uma vez que eu tenha
serviços de placa fortes primeiro, terei que
habilitar a espera dentro do Elastic
Search atingiu o Yammer. Então, iremos para o Elasticsearch. E então aqui vamos digitar o ponto
VI Elastic Search YAML. E neste arquivo vai
direto para baixo, e entrarei no modo de inserção. E na parte inferior, adicionarei a configuração espera que a
segurança seja ativada como verdadeira. Então eu vou copiá-lo e
colarei aqui. E agora posso salvar esse arquivo. Agora, em seguida, terei que iniciar
meu cluster do Elasticsearch. Então vou digitar o sistema
CTL, iniciar o Elastic Search. Agora, uma vez que os
serviços do Elasticsearch foram iniciados, vamos dar uma olhada
no status do sistema CTL Elasticsearch, ele estará ativo e em execução. Agora, em nosso vídeo anterior, usamos o comando curl para
testar
a conectividade com esse cluster. Agora, se eu fizer um Control
R e digitar Curl, e se executarmos esse comando
novamente, vamos ver o que acontece. Recebemos uma exceção de segurança de que estamos perdendo as credenciais de
autenticação. O que teremos que fazer agora
é que teremos que gerar as credenciais de autenticação
para nossos usuários internos. Então, vou limpar a tela. E para fazer isso, teremos que ir para usr, compartilhar o Elastic Search
e depois bin. E se eu fizer um LS aqui, você verá que há muitos
utilitários dentro dessa pasta. O que procuramos é o utilitário de
senhas de configuração do Elastic Search. Então, vou digitar as senhas de
configuração do traço do
Elasticsearch na barra de pontos . E aqui eu tenho dois modos. Eu posso entrar no modo
interativo e definir
cada senha sozinho. Então, deixe-me mostrar
que primeiro vou digitar interativo
e eu vou clicar, e diz que iniciando a configuração da senha
para usuários reservados. E ele dá um nome de usuários
e diz que você será solicitado a inserir senhas à
medida que o processo avança, confirme que você
gostaria de continuar. Vou digitar aqui primeiro. O que eu gostaria é Elastic Search
gerasse senhas automaticamente para mim. Então, faremos isso. Vou
digitar auto e pressionar enter. E agora diz novamente, mas desta vez diz que
as senhas serão
geradas aleatoriamente e impressas
no console usando auto, as senhas são
geradas automaticamente,
enquanto que, usando
interativo, elas são inserido manualmente pelo usuário. Então, vamos digitar sim, para
gerar minhas senhas automaticamente. Tenho a senha aqui, então copiarei tudo isso e
pagarei dentro das minhas anotações. Agora, uma vez que eu tenha feito isso, deixe-me limpar isso. Vamos fazer cd para sair
de tudo e limpar. Agora, vamos executar nosso comando
curl novamente. Mas desta vez o que eu quero
fazer é usar
a opção menos u para especificar o nome de usuário e a senha
logo após Carl, vou digitar
menos u e vou digitar elástico como nome de usuário. Elastic é um superusuário
no cluster Elasticsearch. E então especificarei a senha para meu superusuário
elástico. Então eu vou fazer o controle C.
Colarei aqui e depois
colocarei um espaço. E agora, se eu pressionar Enter, você verá que consigo
obter informações de cluster. Novamente, isso significa que nosso
cluster está
configurado corretamente com a autenticação de segurança e
senha esperada. Agora a seguir, a instância do Ikebana, se tentarmos iniciá-la agora, nos
dará um erro porque
não pode se conectar ao Elasticsearch. Portanto, temos que fornecer as credenciais do
Elastic Search para minha instância do Kibana para se conectar ao cluster do
Elasticsearch. Para fazer isso, faremos
cd ADC, Kibana
e, em seguida, em Kibana,
editaremos o arquivo YAML de ponto Kibana. E dentro desse arquivo, entrarei na inserção e
entrarei na seção
onde diz que o Elasticsearch ensinou nome de usuário
e o nome de usuário interno usado para essa integração é o sistema de sublinhado
Kibana. Portanto, esse é o nome de usuário. Então, tudo o que precisamos fazer é descomentar
a senha e remover o valor padrão e
copiar a senha para o usuário do sistema Kibana
e colá-lo aqui. E depois de fazer isso, você pode salvar esse arquivo. E vamos começar o serviço Kibana. Sou a estrela do CTO Kibana. Agora vamos fazer um status e o serviço está
ativo e em execução. Agora, quando carregamos a página da Web do
Kibana, ela deve nos pedir
para autenticar. Então, vou fechar esta guia. Copiarei o
endereço IP público da minha máquina novamente, e vou colá-lo e
digitarei 5601. E vamos ver o que acontece
agora, neste momento, ele está nos pedindo o
nome de usuário e a senha. E aqui, em nome de usuário, vou digitar elástico e,
sob senha, colarei
na senha para um login
do superusuário elástico. E agora você pode ver que
estou dentro do Kibana usando meu
elástico de usuário interno para examinar todos os perfis de usuário
nesta instância do Kibana. Você pode entrar no gerenciamento
e, em seguida,
entrar no gerenciamento de pilhas
e entender o gerenciamento. Você pode entrar em usuários. E a partir daqui você
poderá ver todos os usuários internos
que foram criados quando o configurarmos esperam
segurança neste sistema. Com isso,
chegamos ao final
deste vídeo.
Obrigado por assistir. Vejo você no próximo. Tchau.
13. Como adicionar dados ao nosso cluster de elk usando Kibana: Ei pessoal, nas
últimas palestras, instalamos nosso cluster
Elasticsearch. Agora é hora de colocar alguns
dados em nosso cluster. Primeiro, enviaremos dados que
não sejam de séries temporais
e, em seguida, enviaremos dados de
séries temporais. E então mostrarei a
diferença entre ambos. Então, vamos
sujar nossas mãos aqui na minha tela. Tenho minha instância do
Elasticsearch. Então, copiarei seu endereço IP
externo, abrirei outra guia do navegador, colarei e houve 5601 e me conectarei à
minha instância do Kibana. Agora, uma vez que eu estiver na página inicial
da minha instância do Kibana, há um padrão
chamado upload de um arquivo, então eu vou clicar nele,
fazer upload de alguns dados. Agora, usando esse padrão, você pode fazer upload de arquivos de
até 100 MB tamanho e eles podem estar
no seguinte formato. Pode ser um arquivo de
texto delimitado como CSV ou TSV, ou arquivo JSON delimitado
ou um arquivo de log com um
formato comum para carimbo de data/hora. Para esta palestra, enviaremos arquivos de texto
delimitados que
podem ser CSV ou TSV. Agora, para obter algum conjunto de dados
para este tutorial, abrirei outra guia
do navegador e
irei para um site
chamado kaggle.com. E no Kaggle.com
irei para conjuntos de dados. Então, vou apertar enter. Agora,
neste site, você terá que se
registrar ou
se inscrever neste site para
baixar os conjuntos de dados. E depois de fazer a partir do menu de navegação
à esquerda, se você estiver em conjuntos de dados
em busca dos conjuntos de dados usando este botão Sair do status de
pesquisa. Agora, você também pode filtrar
os conjuntos de dados desejados. Por exemplo, como
só posso fazer upload de até 100 MB arquivos, vou digitar 100 MB aqui
e digitar, no tipo CSV. E o
tamanho inicial do arquivo pode ser de 0 e b e aplicação militar. Agora, a partir dos resultados, clicarei no conjunto de dados
chamado de programas da Netflix. E aqui posso ver o tamanho desse conjunto
de dados, que
é de cerca de 90 KB. Se eu clicar em compacto, poderei ver alguns
dados de amostra dentro do conjunto de dados. E agora vou clicar no download
para baixar este arquivo. Este arquivo é
baixado como um arquivo zip. Então, vou mostrar no Finder
e, em uma janela do Finder, está nos meus downloads. Então, vou clicar duas vezes
nele para extrair esse arquivo. E agora você pode ver que eu tenho o arquivo netflix dot csv na minha máquina agora
voltará para Kibana. Posso arrastar
e soltar esse arquivo, mas posso fazer o upload desse arquivo. Então eu vou para meus Downloads aqui. Vou procurar este arquivo. Então netflix dot CSV, e eu clico em Abrir. Agora, o que o Kibana
faz é analisar as primeiras mil
linhas deste arquivo e coletar alguns
dados sobre esse arquivo. Por exemplo, ele
descobriu que é um arquivo delimitado e o
delimitador é uma vírgula, e também tem uma linha de cabeçalho. Agora podemos clicar na
configuração de substituição para substituir algumas
configurações neste arquivo. Ou posso olhar para a explicação da
análise para descobrir como Kibana chegou
a essa conclusão. Então eu vou clicar
nisso e você pode ver alguma explicação dessa
análise que vou mais perto agora, você também pode ver
alguns arquivos iniciados. Por exemplo, existem 13
valores de classificação distintos em 999 documentos. Depois de passar por tudo isso, clicarei em importar
para importar esses dados
na próxima página me pedir
para criar um índice. Eu posso fazer isso usando método
simples ou
método avançado para esta demonstração, usaremos apenas o
método simples e o nome do índice. Terei que especificar o nome do novo índice que
será criado. Então, vou chamá-lo de índice Netflix. Agora, novamente, index é a forma como você armazena dados
no Elasticsearch. A próxima opção é
criar um espectro de índice. Agora comparado a um índice, um padrão de índice é como você pode pesquisar e analisar
esses dados no Kibana, índice é para armazenar
dados no Elasticsearch, um padrão de índice é
analisar esses dados. E Kibana, quero que um
padrão de índice seja criado porque eu quero visualizar
esses dados e o Kibana. Então, vou clicar em importar. Em seguida, você pode dizer que primeiro
processa o arquivo, depois cria o índice, cria pipeline de ingestão
e carrega os dados
e, em seguida, cria um
padrão de índice para esses dados. Quando tudo isso for feito, você receberá uma mensagem de importação
completa. Você pode fazer esses dados descobertos para algum gerenciamento de
índice. Por exemplo, você
pode especificar quando esses dados forem novamente excluídos
do índice etcetera, etcetera manager, botão de índice. E falaremos sobre
File bit mais tarde. Mas, por enquanto, queremos
descobrir esse índice em nossa guia histórica para
chegar à página Descobrir, outra maneira é
clicar nessas três linhas
do canto superior esquerdo e depois análise e depois discutir na página descoberta no lado esquerdo, a primeira informação
é o índice de urina. Se você tiver vários índices, você pode clicar
nesta lista suspensa e selecionar o índice em que
deseja estar, então você tem os campos
disponíveis. E se você tiver mais de
alguns campos, por exemplo, alguns índices podem ter
100 metros ou mais, também
podem procurar nomes de
campo nesta caixa. Se eu quisesse dizer, procure
por classificação e obterei todos os campos que têm
a palavra óleo de classificação. Remova isso. Agora, no lado direito, a primeira
informação é o número de acessos ou o número de
documentos neste índice. Portanto, temos 1000 documentos e em seguida, cada documento individual, se eu expandir isso, você poderá ver todos os campos e seus valores que estão
neste documento. Agora, em cada campo,
você verá quatro botões. O primeiro botão é
filtrado por valor. Então, se eu quisesse, no
meu filtro de índice para todos os documentos que têm
uma descrição de classificação de 80, posso clicar neste
botão e ele
mostrará meu filtro
no canto superior esquerdo aqui. E ele filtrará os resultados
na minha guia descoberta, todos os resultados que
correspondem ao meu filtro. Então você pode ver em 1000, eu tenho 15 hits onde a descrição da classificação
era 82 filtro de remoção. Só vou clicar nisso. dívida Xnor era quando você
quer filtrar por um valor
específico, você também pode filtrar um valor. Por exemplo, neste, quero todos os filmes que não
foram lançados em 2004. Filtre para o ano
de lançamento de 2004. Então eu vou clicar neste menos, e isso
me dará todos os filmes em que o ano de lançamento não é 2004. E novamente, removerei isso e
experimentarei os documentos. Agora, a seguir,
as colunas alternadas em uma tabela. Então, nesta tabela, não
há colunas a partir de agora, se você quiser introduzir
colunas para deixar sua tabela mais limpa
para você pesquisar. Por exemplo, se eu quiser que a
primeira coluna seja título, vou pentear contra o título. Vou clicar na
coluna Alternar na tabela. E agora você pode ver todos os meus
documentos são classificados por título. Em seguida, quero que minha
coluna seja Elisa. Vou clicar na coluna Alternar na tabela ao lado do ano de lançamento. E, em seguida, quero que minha próxima coluna seja
a pontuação da classificação do usuário. E eu vou clicar na coluna
Alternar na tabela para incluir a pontuação da
classificação do usuário também. Para não remover nenhuma
das colunas alternadas, simplesmente
irei para esse campo
e removerei essa coluna. Agora eu posso classificar por
esta coluna também. Por exemplo, se eu
clicar nessa seta, ela diz classificar a pontuação da
classificação do usuário crescente. Então deixe-me minimizar isso. E se eu clicar nisso, ele classificará a pontuação
da classificação
do usuário de forma crescente. E se eu quiser
movê-lo para descendente, clicarei nisso novamente e agora
ele classificará isso
descendo. Agora, em seguida, você pode usar
esta barra de
pesquisa ou pesquisar seu conjunto de dados usando a linguagem
de consulta Kibana. Então, primeiro vamos ver
todos os filmes que foram lançados no ano 2
mil dos meus campos. Vou ver qual campo me
dá liberação aqui. Então, o campo é
chamado de ano de lançamento. Então vou digitar essa Elisa e agora posso aplicar alguns operadores. Por exemplo, dois pontos
significa que esta versão aqui é igual a algum
valor menor que, igual a é basicamente a
Louisiana menor ou igual a algum valor maior ou igual a é o que
sugere, menos que, maior que dois pontos e uma estrela para especificar se meu conjunto de dados
contém um ano de lançamento em qualquer forma que filtrará todos os documentos que tenham valores
nulos ou vazios para
esse campo específico. Digamos que em 2004. E agora vou clicar em atualizar. E isso me mostrará todos os títulos que
foram lançados em 2004. Para verificar se
adicionarei lançado aqui
clicando neste
sinal de mais na minha tabela também. Então, mais, e agora você pode
ver isso um pouco mais fácil. Agora digamos que eu queira adicionar mais
um critério à minha pesquisa. O que posso fazer é colocar um espaço após minha pesquisa inicial e eu
posso fazer um AND ou,
OU ADD é basicamente ambos os
argumentos precisam ser verdadeiros. Então vou digitar N E no
meu resultado definido desta vez, quero apenas aqueles filmes que tenham uma
pontuação de avaliação do usuário igual ou superior a 80. Então, vou digitar o usuário e selecionar a pontuação da classificação
do usuário de preenchimento. E eu quero que o valor
seja 80 e acima, então maior que
um sinal igual a. E desta vez vou digitar
80 e clicar em Atualizar. Agora, fora dessas tentativas
iniciais, só
temos esses quatro hits. Então, é assim que você pode usar linguagem
de consulta Kibana para
pesquisar em seu conjunto de dados. Agora, se você quiser salvar
essa consulta, por exemplo, se essa consulta for
repetida várias vezes, você pode
salvá-la clicando neste ícone de disquete. Vou clicar nisso e
clicarei em Salvar consulta atual. E direi minha consulta de demonstração
como o nome dessa consulta. Agora, como nosso conjunto de dados não
tem um campo de carimbo de data/hora, não
especificarei filtro de tempo de
inclusão, mas se houver algum
filtro no meu conjunto de dados, se eu quiser incluí-los, posso escolher isso como sim, não coloquei nenhum filtro, então removerei isso
e clicarei
em Salvar e minha consulta foi salva. Agora, da próxima vez, se eu quiser
fazer uma reutilização minha consulta salva. Então, digamos que se eu
remover tudo isso, clique em Atualizar
para acessar meu conjunto original e clique neste
menu suspenso ao lado do ícone de disquete e
clique na minha consulta. Você pode ver que posso executar rapidamente a mesma consulta no
meu conjunto de dados. Agora, em seguida, baixe alguns dados de séries temporais
voltando para o Kaggle, vou para os conjuntos de dados que
estão em conjuntos de dados. Vou clicar em Filtros novamente. O tamanho do arquivo seria de 0 a 100 MB. E em tags vou
digitar séries temporais, e então eu vou clicar em, Agora está fora das reservas. Vou clicar no primeiro resultado, omicron casos diários por país. E aqui, se eu descer,
posso ver o status que é aproximadamente quatro MB e há um único arquivo COVID
variance dot CSV. E posso clicar em uma
olhada compacta de alguns dados de amostra. Então, vamos baixar esses dados. Agora, uma vez que esse
arquivo de dados for baixado, abrirei novamente o localizador,
extrair esse arquivo. Agora eu tenho o arquivo de variância
COVID. Então vou voltar à
minha página do Discover, ir para a página inicial do Kibana. Posso clicar em fazer upload de um arquivo. Aqui. Vou mostrar outro método
para fazer a mesma coisa. Então vou aqui e,
em seguida, sob gestão, vou para integrações. Aqui posso ver que
há muitas integrações padrão
incorporadas ao Kibana. Então, primeiro vou digitar
uma integração para se eu clicar em carregar um arquivo para acessar meu upload de
uma integração de arquivo. Falaremos sobre integrações
em uma próxima palestra. Novamente, selecionarei o
arquivo, então a variação do COVID, clicarei em Abrir, e isso analisará meus dados. Agora, depois de analisar
as primeiras 11000 linhas, descobriu-se que os dados
são delimitados por uma vírgula. Ele tem uma linha de cabeçalho e também
tem um carimbo de data/hora. E o formato para o campo de
tempo é ISO 8601. Agora vou clicar em
Importar e
usarei o método simples
novamente para especificar um índice e
darei um nome a esse índice do índice de
sublinhado COVID. Agora posso clicar em Importar. Agora, depois de receber a mensagem
dizendo que a importação foi concluída, vamos ver essa descoberta
de indexação. Agora, aqui, se eu
clicar neste menu suspenso, você pode ver que
posso alternar entre índice está usando meu menu suspenso de
índice. Voltarei ao índice COVID. Posso ver todos os
campos disponíveis no lado esquerdo. E o que há de novo desta vez
é esse filtro de tempo. Então, basicamente, meus dados contêm valores de campo de
tempo entre 11 de
maio de 20252022. Eu posso usar isso para basicamente diminuir
em uma data específica. Então, digamos
que eu só queira procurar dados entre primeiro
de 20 de
dezembro de 2021. Então, o que posso fazer é
clicar neste botão contra o início, e aqui tenho que
especificar uma data de início. Então, vou clicar em
absoluto por enquanto, e clicarei em dezembro. E eu quero que isso seja o
primeiro de dezembro de 2020, e pode começar em 0. Se eu clicar nisso, em seguida, clicarei em terminou. E aqui vou especificar 2021. Posso deixar isso em
janeiro e vou clicar em um, que
era uma sexta-feira. Agora posso especificar
outra hora, mas os dados apenas
até 2330 ou 1130. Clique com o botão direito do mouse sobre isso e
clicarei em Atualizar. Ele só me mostrará o subconjunto de dados que corresponde a esse
tempo para sua referência, essa é a diferença entre séries temporais e dados que
não são de séries temporais. Se você olhar para o índice
Netflix novamente, não
havia filtro de tempo
para você filtrar os dados
deles porque nossos dados
não tinham um carimbo de data/hora. Agora, voltando
ao índice COVID, você também pode especificar períodos
relativos. Por exemplo, você pode
especificar dados de, digamos, há um mês, se eu tiver um e você puder especificar um dos campos
laterais, por exemplo, 1 segundo, 1 é um minuto, etc etcetera. Então clique nisso. E o que acabou? Eu vou Relativo novamente. Ou seja, de um mês
atrás, dez dias atrás, de um mês atrás
a dez dias atrás, e clique em atualizar. E isso me dará todos os dados de um mês atrás
a dez dias atrás. Agora, em vez de dez dias atrás, também
posso especificar agora e definir a data
e a hora de término para agora, e isso me dará nossos
dados para o último mês. Portanto, essa é a
diferença entre os dados de séries temporais e não
séries temporais. Você não tem um valor de filtro de
tempo em dados que não sejam de séries temporais. Com isso, chegamos
ao final desta palestra. Obrigado por assistir. Vejo você
no próximo. Tchau.
14. Como criar visualizações com Kibana: Ei pessoal, Agora que
temos alguns dados em nosso cluster e podemos explorar esses dados usando
a guia Descobrir. É hora de
visualizarmos esses dados. As visualizações de dados permitem que
os usuários corporativos entendam grandes quantidades
de dados com muita facilidade. E é aqui que você pode
realmente ver o poder do Kibana. Existem duas maneiras de criar
visualizações no Kibana. Primeiro, você pode criar visualizações
específicas do painel
ou usar
a biblioteca de visualizações, ou usar onde você pode adicionar visualizações necessárias em
mais de um elemento , como painéis
ou almofadas de trabalho de lona. Agora, existem
algumas opções
para você escolher ao criar
suas visualizações. Primeiro, você tem lente, que é um simples editor de
arrastar e soltar. Em seguida, temos o TSV, que é usado para
análise avançada de dados de séries temporais. Depois disso, você também pode
usar a base de agregação, que é usada para dados de gráficos
baseados em agregação. Você também pode escolher mapas se seus dados tiverem coordenadas de
geolocalização, você também pode criar visualizações
personalizadas
usando a sintaxe mais vaga. Isso está fora do escopo
para este curso. Não falaremos
sobre essa opção. Agora vamos começar. Nesta demonstração,
criaremos uma visualização que mostra a pontuação média da
classificação do filme por ano de lançamento. Primeiro, para o menu de
navegação à esquerda e em análise, irá
para visualizar a biblioteca. A partir daqui,
clicaremos em criar nova visualização para criar
nossa primeira visualização. E então vamos escolher a lente. Agora, no editor de lentes, primeiro no menu à esquerda, você pode escolher o índice
no qual deseja trabalhar. Por exemplo, se eu quisesse
trabalhar no índice COVID, escolherei o
índice COVID e ele me mostrará todos os campos disponíveis
dentro do índice COVID. Mas para esta demonstração, vou
escolher o índice Netflix no meio é onde
seu gráfico será exibido. A partir daqui, você pode escolher
o tipo de gráfico desejado. Por exemplo, se você quiser
uma visualização de tipo de métrica, uma
linha de visualização de barras, rosquinha por etc. para esta demonstração,
escolheremos uma barra vertical. Agora, o
lado direito é onde você
especificará quais campos
vão para qual acesso. Primeiro, teremos que definir um eixo horizontal
para nossos rascunhos, clicarei em Adicionar ou
arrastar e soltar um campo. E a partir daqui vou
escolher o menu suspenso para o campo seletor e
escolher liberar aqui. Agora aqui posso aumentar ou diminuir a granularidade
desse campo, mas vamos deixá-lo como padrão. Podemos alterar o nome de exibição, então vou capitalizar o
primeiro alfabeto de cada palavra. Você também pode especificar
o formato do valor. Vou deixá-lo como padrão
e clicarei em Fechar. Agora, em seguida, podemos escolher
o eixo vertical. Vou clicar em Adicionar ou
arrastar e soltar um campo novamente. E, em seguida, no campo seletor, escolherei a pontuação da classificação do usuário. E então, a partir da função seletora, escolherei em média mostrar
a pontuação média. Agora, em seguida, você pode
alterar novamente o nome de exibição para que eu capitalize o
primeiro alfabeto novamente, média da pontuação da classificação do usuário. Em seguida, você pode alterar
o formato do valor. Por exemplo, se você
quiser que o formato seja porcentagens em vez de
números, você pode fazer isso. E isso mostrará a porcentagem da classificação do usuário. Vou deixá-lo como
padrão por enquanto. Agora, você também pode alterar
a cor da série. Por exemplo, se eu clicar na cor
Ceres e escolher azul, o gráfico mudará para azul. Também posso alterar qual lado
do eixo meus dados
mostrarão se eu clicar
à esquerda, que é padrão. Se eu quisesse trocá-lo, posso mudá-lo para a direita. E isso começará
a mostrar os dados no eixo direito. Deixaremos seu padrão e clicarei em Fechar. Agora aqui, abaixo do seu gráfico, você pode ver algumas
sugestões do Kibana. Por exemplo, se você tiver
selecionado o gráfico de linhas, é
assim que seu
gráfico será exibido. Se você tiver selecionado a métrica, é
assim que sua
visualização aparecerá. Vamos deixá-lo como o que
fomos projetados agora no topo, você pode filtrar ainda mais esses dados usando a linguagem
de consulta Kibana. Por exemplo,
digamos que só queremos mostrar dados para filmes que foram
lançados após 1984. O que posso
fazer é clicar aqui e então posso digitar
o ano de lançamento, e então posso escolher é
maior ou igual a. E então eu posso digitar em
1984 e clicar em Atualizar. E agora nosso gráfico só
mostrará dados de filmes que foram
lançados após 1984. Agora, vamos remover
o bolo irá filtrar
e, em seguida, ele pode salvar
essa visualização. Primeiro, temos que
fornecer um título, então vou chamá-lo de classificação média de
filmes por lançamento aqui. Agora podemos fornecer
alguma descrição. Então, esta visualização mostra a classificação média de filmes por
Lavoisier na Netflix. Agora, em seguida, podemos
adicioná-lo ao nosso painel, criar um novo painel
para essa visualização. Mas, para esta demonstração, vamos
apenas escolher nenhuma. E você pode ver que a caixa de seleção Adicionar à biblioteca foi
selecionada por padrão. Agora, depois disso, você também pode usar tags para agrupar
visualizações juntas. Agora, clicaremos em tags
e clicaremos em Criar tag. E criarei uma
tag chamada Netflix. Você pode alterar a
cor da tag, que eu possa alterá-la para azul
e clicar em ataque. Agora você pode ver que a tag
Netflix apareceu aqui e, em seguida, podemos clicar
em Salvar e Adicionar à biblioteca. Agora, depois de fazer isso, se você voltar para
visualizar a biblioteca, poderá ver que sua visualização foi adicionada à biblioteca. Agora, antes de deixar você ir, eu só quero mostrar
onde as tags são armazenadas do menu de
navegação à esquerda, se você for escrever
sob gerenciamento e, em seguida gerenciamento de
pilha
aqui sob Kibana, você precisa selecionar tags. E é aqui que você pode ver todas as tags que você
criou dentro do Kibana. Com isso, chegamos
ao final desta palestra. Obrigado por assistir.
Vejo você no próximo. Adeus.
15. Painel: Ei pessoal, o painel
é composto de várias visualizações
que contam uma história comum para os usuários da
sua empresa. Antes de criar um
painel, você precisa de duas coisas. Primeiro, você precisa de uma compreensão
clara de seus dados e, em segundo lugar, precisa de requisitos claros do
que deseja alcançar no seu painel. Como primeiro passo, listei
na tela todos os campos
disponíveis no índice de sublinhado COVID, que é o índice que
usaremos para esta demonstração e o que é armazenado
em cada campo. Por exemplo, o
campo de localização contém o nome do país para o qual as informações da variante
são fornecidas. A data fornece a data
da entrada de dados. Variante é o nome da variante correspondente a essa entrada de dados
específica. As sequências de sublinhado num continham o número de
sequências do processo e as sequências
percentuais
contêm uma porcentagem de sequências do número
total de sequências. E, finalmente, num sequências. Total é o número total de sequências para a data final da variante do
país. Agora, como parte desta demonstração, criaremos três
visualizações em nosso painel. Primeiro, criaremos um número de casos COVID
exclusivos de visualização
em todo o mundo. Em segundo lugar, criaremos uma
visualização que retrata o número total de sequências
para os dez principais países. E, finalmente,
criaremos uma visualização que informa a variação
espalhada pelo país de topo. Então, vamos começar. Agora, aqui na página do
Kibana, para criar um painel, irá primeiro para
o menu de navegação à esquerda. Em seguida, iremos para o painel
sob efeitos de análise. E, para criar um painel primeiro clique em criar
novo painel. Agora, a partir desta página, quando você clica em criar visualização para criar
nossa primeira visualização, que fará parte
desse painel. Agora primeiro, alteraremos
o conjunto de dados de 15 minutos atrás para há 15 semanas. Ei pessoal, nesta palestra, vamos criar um painel do
Kubernetes. Um painel é composto por várias visualizações
que contam uma história comum para
seus usuários corporativos. Antes de começarmos, precisamos duas coisas para criar
nosso painel. Primeiro, precisamos ter uma
compreensão clara de nossos dados. E segundo, precisamos ter uma compreensão clara
dos requisitos, que é basicamente o que
queremos alcançar com
este painel. Agora, como parte do
primeiro requisito, listei todos
os campos disponíveis no índice de
sublinhado do COVID e quais dados cada um desses
campos contém. Por exemplo, o
campo de localização contém o nome
do país para o qual as
informações da variante são fornecidas. O campo de
sequência de sublinhado num contém o número de sequências
processadas para esse país, variante e data, etc. Agora, o que faremos
neste painel é
que teremos três visualizações. Primeiro, teremos a
visualização que retrata o número de variância única do
COVID em todo o mundo. Em segundo lugar, teremos uma
visualização que retrata número
total de sequências
para os dez principais países. E, por fim, teremos
uma visualização que fornece variantes
espalhadas por países. Então, vamos começar a criar um painel na minha página inicial do
Kibana. Vou clicar no menu de
navegação à esquerda e, em seguida clicar no painel
da página do painel, vou clicar em criar
novo painel a partir daqui, primeiro cadeias os dados
serão em vez de três meses atrás, para ser há três anos, que estamos
pesquisando todos os dados
neste índice e eu vou
clicar em atualizar. Depois de fazer isso,
clicarei em criar visualização. Agora, a primeira visualização
que precisamos criar é o número de
variância única do COVID em todo o mundo. Então, primeiro, escolheremos a métrica. Em seguida, em métrica,
clicarei em Adicionar ou
arrastar e soltar. No campo seletor,
escolherei a variante e, em seguida,
clicarei em fluxos. A partir dessa visualização,
podemos obter o valor do
número de variância única
em nosso banco de dados. Agora, vou clicar
em salvar e retornar. Depois disso, clicarei em
criar visualização novamente. E para minha segunda visualização, preciso descrever o número total de sequências para os dez principais países. Então vou voltar para minha página de lentes
Kibana. Agora, aqui vou alterar o
gráfico tipo duas barras verticais
e, em seguida, para o eixo horizontal, escolherei a localização do
campo e escolherei os dez
principais valores. E então eu vou clicar em Fechar. Agora, para o eixo vertical, publicarei ou arrastarei
e solto novamente. E então vou escolher o campo de
sequências de sublinhado num. E então eu vou clicar em alguns da função de
seletor sob. Em seguida, posso clicar em fechar. Agora isso me dá o número total de sequências
para os dez principais países. Estas são todas as variantes
do COVID para este país
em particular neste intervalo de datas. Então, vou clicar em
sete retornar novamente depois disso para nossa
terceira visualização, clicarei em
criar visualização. E desta vez eu preciso
criar uma variante
espalhada pelo país de topo. Então eu vou mudar o gráfico
tipo duas barras verticais novamente. E para o eixo horizontal, vou escolher o local e alterá-lo para os dez principais países. Agora em seguida,
escolherei o eixo vertical, as sequências de
sublinhado do número de campo. E desta vez vou
escolher o
máximo da função e clicar em fechar. Depois disso, vou dividir esses dados por
número de variantes. Então, vou clicar em adicionar ou soltar
um campo e um detalhamento
e, em seguida, escolherei a variante. E a partir daqui posso especificar a contagem de valores
que eu queria mostrar. Por padrão, são três,
portanto, representará apenas os três primeiros. Mas como temos muito
para variância total, também
posso digitar 20 volts aqui. E então, para cada país, ele irá dividir os dados
por todas as variantes que afetam clique em Fechar aqui e eu
passar o mouse sobre os dados para
os Estados Unidos, você pode ver os detalhes de quantos casos para cada variante
particular do COVID, Ele está chegando dentro de um intervalo de datas
especificado, que é os últimos três anos. Agora, vou clicar
em salvar e retornar. E neste painel podemos ver as três
visualizações diferentes. Agora, o que posso fazer é salvar esse painel.
Posso dar um nome a ele. Portanto, o painel COVID
e em tags, clicarei em criar uma tag
e, em seguida, darei a
ele o nome da tag de COVID e clique em criar tags. Posso clicar em Salvar. Agora, se você quiser armazenar
tempo com o painel, você pode fazê-lo, mas
vou deixá-lo como padrão e clicar em Salvar. Agora, depois que o painel for salvo, você poderá voltar ao painel. Este painel novamente,
basta clicar
nele e ver datas
diferentes, tudo o que você precisa fazer
é, por exemplo, se eu mudar de três anos atrás para três semanas atrás
e clicar em atualizar, você verá os resultados
mudarem por conta própria. Ou não tivemos nenhum dado
nas últimas três semanas. Então é por isso que
está mostrando aviso prévio. Mas se eu dissesse, digamos há três meses e
clique em Atualizar, começarei
a ver os dados novamente. Agora, é assim que você pode criar um painel do Kibana com esta boas-vindas ao
final desta palestra. Obrigado por assistir. Vejo você
no próximo byte.
16. Tela: Ei pessoal, Gabbana Canvas é uma ferramenta de visualização
e apresentação de dados que permite que você
coloque dados ao vivo do Elasticsearch e, em seguida,
enriquecê-los com cores, imagens e livros didáticos criam poderosos apresentações
para seus usuários corporativos. Agora, o Canvas usa blocos de trabalho
para adicionar visualizações, decks de
imagens, etc., para
criar sua apresentação. Então vamos sujar nossas mãos, não da página inicial do Kibana. Para chegar ao Canvas, você precisa clicar no menu de navegação
à esquerda. E, em seguida, em analytics, você precisa clicar em Canvas para
não criar nosso primeiro trabalho, mas preciso
clicar em Criar pasta de trabalho. E a partir deste verde, você pode adicionar seu primeiro elemento clicando no botão
Adicionar elemento. O primeiro elemento
usará textos. Agora aqui, você pode usar
esse elemento para adicionar algum texto à sua apresentação usando a linguagem markdown. Então, vou mudar esse
texto por palavra bem-vindo à apresentação do
índice Netflix. Vou remover esse
texto e direi, aqui está a visão geral dos dados
no índice de sublinhado da Netflix. Então, abaixo disso,
você verá que ele está se referindo a algumas informações
nos dados de demonstração. Por exemplo, ele
está dando o comprimento da linha
e, em seguida, fornece todos os nomes de coluna usando cada atributo de colunas. Portanto, ele tem todos os nomes de coluna, mas isso está refletindo os dados de
demonstração desse elemento. Então, primeiro clicarei em aplicar. E depois de fazer isso, clicarei em Dados e alterarei a fonte de dados de demonstração
para o Elastic Search. E então vou me
certificar de que estou no índice
Netflix e
clicarei em Salvar. E assim que eu clicar em Salvar, você pode ver que
agora essa caixa de texto reflete os dados do
meu índice Netflix. Agora, para o segundo elemento, vamos adicionar a visualização que adicionamos à nossa biblioteca de
visualizações. Clique em Adicionar elemento e, em seguida, clicarei em Adicionar do Kibana. E então selecionarei
a visualização que salvamos dentro
da biblioteca de visualização. E, em seguida, vamos
movê-lo para o lado. Agora você pode alterar
o filtro
de tempo clicando na hora. Por exemplo, se eu quisesse
mudar dos últimos 15 minutos para nos dizer os últimos 30
minutos, isso pode fazer isso. E esse painel refletirá
a mudança no tempo. Agora, como terceiro elemento, criarei um gráfico. Então, clicarei em Adicionar elemento, clicarei em Gráfico
e, em seguida, clicarei na métrica
e, em seguida, moverei essa métrica baixo do meu elemento de
visualização. Agora, para essa métrica, vamos alterar a fonte de dados
novamente para ser o índice Netflix. E eu vou clicar em
Salvar por um minuto. Isso nos dará um erro, mas vamos passar para a exibição. Agora, por medida, precisamos de
um valor único de título. Agora, o
formato da métrica está numerado, mas precisamos alterar o rótulo. Então, substituirei os países
por títulos de filmes exclusivos. Agora, esse é o número de títulos de filmes
exclusivos
em nosso índice Netflix. Em seguida, também podemos alterar
os textos métricos. Então, digamos que queremos que a
matriz esteja em rosa. Por que não nos deixar fazer isso? E também podemos alterar o tamanho, a fonte e a
cor do nosso rótulo. Digamos que eu queira que minha
fonte seja Helvetica. Então, vou clicar nisso e
vou alterar o tamanho um pouco, então vou alterá-lo para 24. E digamos que eu queira que
a cor seja verde, então vou selecionar isso. Na verdade, este parece melhor. Agora posso ajustar o tamanho
da minha visualização. Saiba a seguir, vamos adicionar uma imagem. Então, vou clicar em Editar limite. Clicarei em Imagem
e, em seguida, clicarei
na imagem novamente. Agora isso nos dá
uma imagem padrão. Então, vou minimizar isso um pouco. E posso importar uma imagem
usando o botão Importar. Ele pode fornecer um link
para um URL de imagem. Por enquanto,
clicarei em importar e seguida, clicarei em Selecionar
ou arrastar e soltar uma imagem. Agora, escolherei uma imagem
da minha pasta de downloads. E digamos que eu queira mostrar meu rosto nesta
apresentação aqui. Agora, para ver este
bloco de trabalho em tela cheia, basta clicar
neste botão de tela cheia e verá todas as
informações em tela cheia. Vou sair da
tela cheia por enquanto. Agora, essa caminhada de volta é salva
automaticamente. Se eu for ao Canvas e
puder ver a cama do meu livro aqui, posso clicar no
trabalho, mas novamente, obterei todos os
elementos de dados que compartilham esse trabalho. Mas posso clicar em Compartilhar
e posso criar um relatório em PDF para que eu possa selecionar o layout de
página inteira e
clicar em Gerar PDF. E agora diz que
sua licença básica não oferece suporte a relatórios em PDF. Portanto, se você tivesse uma licença de
produção, seria capaz de
baixar o relatório em PDF. Agora vamos clicar em Compartilhar novamente. Agora, se você clicar em
Compartilhar em um site, ele lhe dará
instruções sobre como você pode compartilhar essa tela
no site. Em seguida, também podemos
baixar isso como JSON. Então eu vou clicar em
Baixar como JSON e ele fará o download do
JSON para este trabalho, difícil mudar o
nome deste livro, mas posso ir
trabalhar por configurações do Ed como e alterar o
nome para Netflix. Caminhe para trás. Agora posso alterar
alguns detalhes, como muito resolução, se eu tiver alguma variável neste trabalho
com configurações de CSS globais, etc. Mas, por enquanto, é assim que você pode criar uma tela do Kibana
funcionar melhor com isso. Chegue ao final desta palestra. Obrigado por assistir. Vejo você
no próximo. Tchau.
17. Reinos: Ei pessoal, Nesta palestra, vou lhe dar uma visão geral
rápida dos domínios de autenticação disponíveis
para nós no Elastic Search, os reinos de
autenticação
são usados para autenticar usuários e aplicativos
contra elástico pesquisa, existem dois tipos principais
de domínios de autenticação. A primeira delas são nervuras de
autenticação internas. Eles são internos à pesquisa
elástica e não
há integração com
um sistema externo. Esse tipo de sala é totalmente
gerenciado pelo Elastic Search. Ele só pode ser no máximo
um domínio configurado, mas do tipo DLM interno. Agora, vamos dar uma olhada em um exemplo de cada tipo de barro
interno. O primeiro é o realm de
autenticação nativo. E a
cúpula de autenticação nativa é onde os usuários são armazenados em um índice
Elasticsearch dedicado. Este realm suporta
e
token de autenticação na forma
de nome de usuário e senha e está
disponível por padrão quando os reinos baixos são configurados
explicitamente. Então lembre-se quando estávamos
instalando o Elasticsearch, o usou um script para
redefinir senhas para nossos usuários elásticos e do sistema de
sublinhado Kibana. Esses usuários são configurados
sob autenticação nativa. Isso por si só está disponível
na licença gratuita. Arquivo. O
realm de autenticação também é um domínio de autenticação interno disponível na licença gratuita. Esse realm é muito
que os usuários são definidos em arquivos armazenados em cada nó no cluster
do Elasticsearch. Este realm suporta
e
token de autenticação na forma de
nome de usuário e senha, e está sempre disponível. Agora, depois disso, vamos dar
uma olhada rápida nos reinos
externos. autenticação externa
não requer interação com partes e componentes externos
à pesquisa elástica, como o Microsoft
Active Directory ou qualquer outro
aplicativo de nível empresarial. Se você estiver executando um cluster de grade de
produção, seria altamente
provável que você
precise configurar
um realm externo. No
cluster Elasticsearch, você pode ter quantos externos, se quiser, cada um com seu próprio
nome e configuração exclusivos, o recurso de
segurança Elastic Stack fornece a seguinte referência
externa tipo. Então,
símbolo de autenticação LDAP, Active Directory, PKI Kerberos ou IDC. Não, o realm de autenticação é, usa servidor web externo
para autenticar seus usuários. Portanto, os usuários são armazenados em um servidor de
autenticação externo e nós nos integramos a esse
servidor para autenticar usuários. Este realm suporta
um
token de autenticação na forma
de um nome de usuário e senha e requer configuração
explícita para ser usado. Em seguida, temos o realm de
autenticação do Active Directory. Esta rodada usa um servidor
Active Directory externamente, indica os usuários em que os
usuários estão armazenados. Por exemplo, os usuários do Microsoft AD são autenticados
usando nomes de usuário e senhas se tornaram realm
autentica usuários usando infraestrutura de chave
pública, chave pública e chave privada. Este reino funciona em
conjunto com SSL e TLS e
identifica o usuário por meio de seu
nome distinto ou DNA dos clientes extrair
o certificado
509. Portanto, se usarmos essa linha, você precisará de certificados
instalados nos usuários. Sam Hill é que facilita a autenticação usando o protocolo
SAML 2 Web SSO. Esse reino foi projetado para
suportar autenticação por meio Kibana e não se destina
a ser usado na API restante. Agora Kerberos é que o realm autentica o usuário usando a autenticação
Kerberos, os
usuários são autenticados com base
em tickets
Kerberos ou IDC
é que facilita a autenticação usando
OpenID Connect permite a pesquisa elástica como uma parte confiável do OpenID Connect
e fornece suporte para SSO. Agora, ao longo dessas palestras, usaremos
a
autenticação nativa para conectar-se ao nosso cluster do
Elasticsearch. Para seus clusters de produção, seria muito provável
que você
precise configurar um
desses domínios externos. O que farei é fornecer alguns links para vários URLs sobre como você pode configurar cada um
desses domínios em seus clusters de
produção. Com isso, chegamos ao
final desta curta palestra. Obrigado por assistir.
Vejo você no próximo. Tchau.
18. Os usuários e funções: Ei pessoal, até agora nesta demonstração, temos usado
o superusuário elástico para autenticar
em nosso cluster. Isso é bom para o nosso laboratório de demonstração, mas em um ambiente de produção, você pode ter
centenas de pessoas que precisam se autenticar
e você não vai querer compartilhar a senha seu superusuário para cada usuário. Agora, insira papéis. As funções são uma coleção de
privilégios que permitem executar ações e
Kibana e Elastic Search. Agora, essas funções dão
privilégio de realizar alguma ação contra o índice de pesquisa elasticsearch
Kibana. Por exemplo, alguns usuários podem querer
apenas
criar painéis. Os outros que você
pode querer que eles gerenciem seus índices ainda mais, pode
haver um grupo
que precise atuar como administrador de
sua instância Kibana, o que você precisará
fazer é que você precisará crie funções para cada um
desses diferentes tipos de usuário. Cada função com diferentes
níveis de acesso, então você atribuirá essa função,
cada um desses usuários, os usuários não recebem privilégios diretamente
concedidos,
mas, em vez disso, recebem
uma ou mais regras que descreve o nível de acesso
desejado. Então, como eu disse,
maravilhoso pode dar aos usuários acesso apenas para
visualizar os painéis. Agora, quando você atribui a
usuários várias funções, o usuário recebe uma união
dos privilégios de funções. Agora, digamos que você
tenha dois índices, índice e índice b. E você tem uma função que
concede acesso ao índice uma inscrição que concede
excesso ao índice B. Agora digamos que você
tenha um usuário e esse usuário recebe essas funções atribuídas à
placa. Agora, como ele
tem esses dois papéis, a união dessas duas
funções permitirá que ele acesse dados do
índice e do índice b. Agora, o elasticsearch vem
com alguns papéis internos. Por exemplo, que todos os
batimentos sublinhados sistema poderia dançar o acesso necessário
para os sistemas de praia, métricas, iscas, batimentos cardíacos,
baseados em arquivos, etc. Para enviar
dados no nível do sistema para o Elastic Search. Kibana sublinha a regra do sistema que não é necessário excesso para o usuário do sistema
Kibana ler e gravar
nos índices Kibana. E se você se lembrar,
quando estávamos configurando o sistema Elasticsearch
e Kibana, configuramos a senha para esse usuário dentro do nosso arquivo YAML
de pontos Kibana. Agora, o Elastic Search também
vem com um
elástico de superusuário que concede acesso a
todas as áreas do cluster. Portanto, é acesso total ao sistema. Agora, como medida de segurança, você não gostaria de fazer login com esse usuário depois de
provisionar o sistema. E, como parte de
seu provisionamento, você provisionará o
administrador e os superusuários que podem ser vinculados a uma pessoa que irá
desempenhar essa função. E depois de fazer isso, você gostaria de armazenar
essas senhas de super usuários em um lugar seguro e
nunca mais usá-las novamente. Vamos voltar para nossa
instância do Kibana para ver como
podemos criar funções e usuários para
não criar um papel personalizado. Primeiro, clicaremos
em Criar função
e, em seguida, precisaremos especificar
um nome de função para o nome de Roma, vou digitar
administrativo porque esta é
uma
função de administrador na qual estamos configurando
privilégios de cluster, vou clicar em Tudo. E, em seguida, em privilégios de índice, posso dar a
eles acesso a um
desses índices ou, como esse
é meu usuário administrador, vou digitar Iniciar aqui para
dar a eles acesso a
todos os índices. E, em seguida, sob privilégios, vou clicar em Todos. Em seguida. Em Kibana, vou clicar em
Adicionar privilégio Kibana primeiro, temos que dar a eles acesso a todos os espaços e, em seguida,
eles podem fornecer esse papel acesso
personalizado
a cada recurso. Por exemplo, em Analytics, posso dar a essa função acesso
ao painel de controle de descoberta, etc. Ou, como há uma função de administrador, podemos dar todos os
privilégios e clicar em criar
privilégios globais em pedra. Vamos clicar em Criar função. Agora, em seguida, vamos criar
uma função que tenha acesso
apenas a determinados índices. Então, vou clicar em Criar regra e chamarei de administrador COVID. E manteremos o
resto das configurações iguais ao que tínhamos
anteriormente sob índices. Escolherei o
índice COVID e
darei a essa função acesso
a todos os privilégios. E então o mesmo para Kibana. Vou dar acesso a todos os
espaços e todos os recursos. Então, clicarei em Criar privilégio
global e clicar em Criar função. Agora, em seguida, vamos
criar três usuários. O primeiro será
um administrador de usuários. Então, vou clicar em Criar usuário. Vou dar esse administrador de nome de usuário. O nome completo seria administrador um e o
administrador de endereços de e-mail em test.com. E, em seguida, vamos especificar
algumas senhas. E depois disso, precisamos
atribuir algumas regras a esse usuário. Por enquanto, atribuiremos função de
administrador e também
atribuiremos a
função de usuário de monitoramento porque essa função é necessária para acessar o recurso de monitoramento de
pilha. E, em seguida, clicarei
em Criar usuário. Agora vamos sair
dessa conta de superusuário
e, em seguida,
criaremos nosso administrador
recém-criado para fazer o
provisionamento adicional primeiro, e digitaremos nome de usuário e, em seguida, senha para este usuário. Deixe-me silenciar este aviso em seguida, vamos primeiro descobrir
e verificar se você tem acesso a ambos os índices,
Netflix e coberto. Então, posso ver alguns dados
no índice Netflix. Agora vamos passar
para o índice de cobertura. Agora, aqui preciso
expandir minha busca de tempo. Então, 1415 semanas atrás, eu vou clicar em atualizar, e posso ver que também tenho
acesso a esse índice. Agora, em seguida,
vamos aos painéis. Posso ver o
painel COVID que criamos. Agora em seguida, vamos para o gerenciamento e a
gestão da equipe novamente. E aqui, usuários. Agora criaremos um segundo usuário. Clique em Criar usuário. E este é um usuário que
tem acesso administrativo. Ele só para o índice COVID. Então, vamos chamá-lo de administrador
sublinhado da COVID, e o nome
seria COVID-19 e endereço de
e-mail COVID test.com. Em seguida,
fornecerei alguma senha agora para o privilégio, darei a ele o
privilégio do administrador do COVID e clique em Criar
usuário aprendido. Deixe-me sair desse usuário. E aqui vou digitar o administrador do sublinhado do
COVID
e, em seguida, vou digitar a
senha para este usuário. Agora, uma vez que você estiver logado, vamos para nossa guia Descobrir, então em casa e depois descubra. E aqui, se você
escolher o índice Netflix, não verá índices
correspondentes e nenhum resultado corresponderá aos seus critérios de
pesquisa. Mas se eu escolher o índice
COVID e alterar essa data
de 15 minutos atrás, nós o alteramos para 15 semanas
atrás e clicamos em atualizar. Veja que posso ver alguns dados. Agora, esse usuário
também pode criar usuários. Então, se você for para o Stack
Management e usuários, posso criar um usuário, mas vou mostrar
outra coisa, porque não
fornecemos o privilégio
de monitorar o usuário sublinhado para essa conta de usuário. Não temos
monitoramento de pilha sob gerenciamento
exibido para este usuário. Portanto, isso é
importante observar, mesmo que você possa fornecer
todos os privilégios no Kibana, você precisa atribuir especificamente a função de
usuário de sublinhado de
monitoramento para os usuários que você deseja dar a seção de
monitoramento de pilha em excesso privilegiado sob gerenciamento. Agora, em seguida, criaremos um
terceiro usuário que só tem acesso aos painéis e
descobriu que, para isso, primeiro, vamos para Funções
e criar uma função,
e vamos chamar essa função de relatório de sublinhado do
COVID. Agora, não queremos dar a esse usuário nenhum privilégio de cluster, então deixaremos isso em branco. Queremos que esse usuário tenha acesso ao índice de
sublinhado COVID. E o único
privilégio que queremos para esse usuário é poder
ler esse índice. Agora, a seguir, precisamos adicionar
alguns privilégios do Kibana, então daremos
acesso a todos os espaços. E, em seguida, vamos mantê-lo como personalizado e depois
ir para a análise. E, em seguida, daremos a
eles acesso somente leitura no Discover e
somente leitura no Dashboard. E também damos a
eles acesso ao Canvas e visualizamos a biblioteca. E, em seguida, clicaremos em
Criar privilégio global. E, em seguida, clicaremos em Criar
função para criar essa função. Agora vamos aos usuários e
clicaremos em Criar usuário. E desta vez chamaremos esse usuário de relatório de sublinhado COVID. O nome seria usuário
relatando, um e-mail estaria
relatando um test.com. Nós lhe daremos uma senha. Então, senha e, em seguida,
sob privilégios, daremos a ela o privilégio de relatório de
pontuação COVID-19
e, em seguida, clicaremos
em Criar Usuário. Depois disso, vamos sair e ver o excesso para
esse nome de usuário. Digitarei
relatórios de sublinhado do COVID e nós
especificaremos uma senha. Agora, uma vez que
você estiver dentro, você só verá análises
na tela inicial. Isso ocorre porque seu usuário só tem acesso a recursos de
análise. Agora, se você clicar em nosso menu de navegação
esquerdo
e, em análise, vamos descobrir, temos alguns dados para o índice de
sublinhado COVID. No entanto, se mudarmos para o índice
Netflix, receberá um erro dizendo que nenhum índice
corresponde ao melhor índice netflix. Isso ocorre porque nosso
usuário não tem acesso ao
índice Netflix no painel. Se eu clicar no painel
COVID, poderei ver todos os
dados do meu painel COVID. Agora, em seguida,
vá para o Canvas e abra o trabalho da
Netflix até agora, já que esse usuário
não tem acesso a nenhum dado no
índice Netflix, receberei erros. Agora vamos sair desse usuário e vamos fazer login novamente
como usuário administrador, administrador e senha. Agora vamos clicar no menu de navegação à
esquerda e ir para a direita até o gerenciamento de
pilhas. E então vamos aos usuários
agora a partir desta tela, se você quiser excluir
o usuário, por exemplo, se eu quiser excluir meu usuário de relatório de
sublinhado COVID, posso selecionar
esse usuário e
clicar em exclua um usuário
e clique em Excluir. Mas não vou
fazer isso agora, se eu quiser alterar a
senha para este usuário, vou clicar nela, descer e
clicar em Alterar senha. E aqui posso atualizar a
senha para esse usuário. Soul cancele isso também se eu quisesse
desativar esse usuário, então mantenha esse usuário no sistema, mas impeça que os usuários
acessem ele. Posso clicar em desativar usuário. E se eu quiser alterar
privilégios para esse usuário, posso entrar aqui e
atribuir a ele uma função diferente. É assim que você pode usar
usuários e funções para fornecer controles
de acesso
baseados em função do cluster do Elasticsearch. Com isso, chegamos
ao final desta palestra. Obrigado por assistir. Vejo você no próximo. Tchau.
19. Espaços: Ei pessoal, e depois Enterprise. Haverá várias equipes que precisarão de acesso ao Kibana. Por exemplo, a equipe de marketing pode precisar de acesso a painéis de
marketing. A equipe de operações precisará acesso aos painéis de operações. Agora isso pode deixar
as coisas desordenadas muito rapidamente para
ajudá-lo com essa situação, Kibana tem um recurso
chamado espaços. Ele permite que você organize
seus objetos salvos, como painéis, em categorias
significativas. Do nosso exemplo, você
criará um espaço para marketing e eles criarão
todos os painéis dentro desse espaço. Da mesma forma, você
criará um espaço para operações e
eles limparão seus painéis dentro do marketing de espaço de
TI não
será capaz de ver o que está dentro das operações ou mesmo notar que um existe espaço de operações. Da mesma forma, as operações não
saberão sobre o espaço de marketing. Agora, para que um usuário
possa ver um espaço, você precisa atribuir especificamente o excesso com esse
espaço para esse usuário. Por exemplo, todos na equipe de
marketing terão
acesso ao espaço de marketing. Todos na equipe de operações
terão acesso ao espaço de operações. E se alguém precisar acesso ao marketing
e às operações, você atribuirá
acesso a ambos os espaços. Agora, o Kibana cria
um espaço padrão para você e todos os nossos objetos que criamos
até agora neste curso foram criados dentro do espaço padrão do
deck. E, por fim, para gerenciar espaços, você precisa que o papel de
administrador do Kibana sublinhado seja equivalente. Agora vamos ficar rachando
na minha página da Web Kibana. Eu fiz login usando
minha conta de administrador, administrador um para configurar espaços, preciso clicar no menu de
navegação esquerdo e, em seguida, ir para a direita até o gerenciamento de pilhas sob
gerenciamento. Então, vou clicar nele. E a configuração de
espaços pode ser encontrada em
Kibana e espaços. Agora aqui você pode ver que
acabei de receber meu
espaço padrão por enquanto. Criaremos um novo espaço aqui. Então, vou clicar em criar espaço e vou nomear esse espaço de sublinhado da
COVID. Agora, em seguida, posso
criar um avatar. Por padrão, ele é
definido como iniciais, mas você também pode fazer upload de
uma imagem para seu avatar, deixará como
padrão iniciado, mas alterarei a cor de
fundo para verde. Agora, em recursos,
podemos especificar quais recursos estão
disponíveis no espaço. Então, removerei tudo
, exceto análises, porque só quero acessar
recursos de análise usando esse espaço. E então eu vou clicar
em criar espaço. Agora, uma vez que eu tenha avaliado o espaço, precisamos de alguns objetos
neste espaço. Agora, todos os nossos objetos por padrão estão dentro
do espaço padrão. Por enquanto, o que
faremos é copiar o índice COVID e o painel
COVID para o espaço de sublinhado do
COVID. Então, para fazer isso, preciso ir para salvo
e, em seguida, preciso encontrar o COVID
e o painel de pontuação. E a partir desses três botões
à esquerda dessa linha, preciso clicar nela e
preciso clicar em Copiar para o espaço. Uma vez lá, posso
escolher Copiar ações. Por exemplo, criar
novos objetos com IDs
aleatórios são verificados
para objetos existentes. Deixo como padrão
porque sei que
não há objetos no meu espaço de
sublinhado do COVID. E então eu preciso clicar
no espaço de sublinhado do COVID, em espaços selecionados e, em seguida clicarei em Copiar para um espaço. Quando a cópia estiver concluída, ela mostrará
quantos objetos copiados e você poderá
clicar em Concluir. Da mesma forma, preciso copiar o índice de sublinhado
COVID deve clicar sobre isso e, em seguida, clicar em Copiar para o espaço também. Em seguida, clicarei no COVID, sublinharei o espaço
e, em seguida, clicarei em um espaço
corporativo ou em um espaço. Agora, se houver algum erro, você os verá aqui. Por enquanto, clicarei em Concluir. Depois que os objetos tiverem sido
movidos para esse espaço, começou a atribuir esse
espaço a uma função. Então, vamos marcar a
segurança e, em seguida, rolar e descobrir que o
sublinhado COVID relatou tudo. Uma vez dentro, precisamos
ir direto
até Kibana e
clicar neste ícone de lápis. E a partir de espaços onde
diz todos os espaços, precisamos removê-lo e seguida, escolher o espaço de
sublinhado COVID. Depois de fazer
isso, você pode clicar
em Atualizar privilégios de espaço. Portanto, essa regra só pode dar
acesso ao espaço COVID agora. E então você pode
clicar na regra de atualização. Depois de fazer isso, vamos sair desse usuário administrador e fazer login novamente usando
o usuário de relatório. Nesta tela, vou digitar
o nome de usuário COVID e o relatório de pontuação e fornecer minha senha e clicar em Login. Agora aqui, logo de cara, você pode notar que eu não estou
mais no espaço padrão. E agora vou clicar no menu de navegação
à esquerda. E primeiro iremos
para nossa guia Descobrir. Agora você pode ver, por padrão,
estou dentro do índice COVID, mas afeta clique
no menu suspenso. Nem vejo
o índice Netflix. Isso ocorre porque ele não está
atribuído a esse espaço. Agora, para visualizar os dados, preciso alterar a busca de
tempo até 15 semanas atrás e
clicarei em Atualizar. E você pode ver que
tenho acesso aos dados. Agora, vamos ver se nosso
painel ainda está funcionando. Então, vou clicar em Dashboard
e clicar no painel COVID. E você pode ver que eu tenho dados dentro
do meu painel também. Se alguém sobre esse erro, agora em seguida, se eu for ao Canvas, você pode ver que
eu nem vejo mais
o Wordpad Netflix. Portanto, o Spaces é uma boa maneira de manter seus objetos organizados
para várias categorias. Por exemplo, o marketing pode ter acesso apenas a seus
painéis, etc. Agora, obviamente, se você criar um novo objeto dentro desse espaço, ele será automaticamente
atribuído a esse espaço e não
ao espaço padrão. Então, se eu clicar no menu de navegação
à esquerda e clicar em Visualize biblioteca. E se eu clicar em criar
nova visualização e escolherei a lente. E digamos que eu queira o número total de
países no meu banco de dados. Então, vou clicar na métrica,
Analytic on location. Agora eu tenho um tipo único
de localização que é 64. Agora não consigo salvar
isso porque meu usuário informa o usuário não tem nenhuma permissão correta
neste banco de dados. Mas se eu sair e fazer login
novamente como usuário administrador, e aqui selecionarei o espaço de sublinhado do
COVID. E você pode ver que, mesmo que meu usuário tenha muito
mais privilégios, só
consigo ver o que
está alocado no meu espaço. Portanto, não recebo todos os recursos de pesquisa e disponibilidade, etc. Só
estou recebendo análises
e gerenciamento de pilhas. Agora, a partir daqui, clicarei
na biblioteca Visualize. Vou clicar em criar nova
visualização e lente. E então alterarei o tipo de
métrica de
visualização e alterarei
a data para 15 semanas atrás. E daqui vou
arrastar a localização novamente, ver que uma contagem única
de localização é 64. E agora eu tenho o botão
salvar novamente. Então, vou clicar em Salvar e
chamarei de países únicos. E eu o movo para o painel
existente, que é o painel de
pontuação do COVID-19. E clicarei em Salvar
e Ir para o painel. E aqui adicionei o quarto
item ao meu painel para países
exclusivos ou clique em Salvar para salvar as alterações
neste painel. E agora, se eu voltar ao meu usuário de relatório
coberto por relatórios de pontuação, clicar no painel
COVID e alterar
a data para semanas atrás, também
poderei ver a nova
visualização. É assim que você
pode usar espaços para categorizar seus
objetos dentro do Kibana. Com isso,
chegamos ao final
desta palestra.
Obrigado por assistir. Vejo você
na próxima luta.
20. Introdução ao Logstash: Ei pessoal, vamos falar
sobre sessão de log. Esta seção, Log
Stash permite
agregar seus dados
de diferentes fontes, transformá-los e
enviá-los para pesquisa
elástica ou qualquer outro
aplicativo de sua escolha. Por exemplo, se você
quiser analisar os dados, você pode enviá-los para o Elastic
Search ou MongoDB. No entanto, se você
quiser apenas armazenar os dados, você pode enviá-los
para algo como Amazon S3 está armazenado em um arquivo
no sistema de arquivos local. Existem muitos destinos dependendo do seu caso de uso. E anexei um link a
um artigo onde você pode encontrar mais informações sobre os
destinos e o Log Stash. Agora, antes de sabermos mais
sobre pesquisas de log, detalhes de
nível inferior,
é sempre uma boa ideia entender
alguns casos de uso. Portanto, o primeiro caso de uso do Log
Stash são registros e métricas. Às vezes,
não há uma
maneira padrão de entender seus dados de registro. Nesses cenários, o Log
Stash pode ajudá-lo a definir lógica para que você possa transformar e dar
sentido aos seus dados de log. Em seguida, você também pode consumir
dados do serviço Web HTTP ou gerar eventos por
agrupamento e endpoint HTTP, por
exemplo, você pode
extrair o Twitter e obter alguns dados do
Twitter usando o Log Stash. Você também pode usar a
transformação de estátuas de log e entender os dados
relacionais ou não relacionais armazenados em
seus bancos de dados. E, finalmente, o Log Stash é um backbone comum de
coleta de eventos para a
ingestão de dados de dispositivos móveis, casas
inteligentes, veículos
conectados, sensores de
saúde e muitos outros indústrias, aplicativos de IoT
específicos. Agora, o pipeline Log Stash
tem três estágios. Ele tem uma entrada de
filtro e, em seguida, saída. Por exemplo, você tem alguns
dados em seu armazenamento de dados. Pode ser um armazenamento de dados IoT ou pode ser um
aplicativo ou um banco de dados, qualquer coisa, você envia esses
dados para Log Stash. Agora, dentro desse pipeline
em inglês, primeiro você teria que
definir uma entrada. E isso é você dizendo ao Log Stash como você
vai obter esses dados. Por exemplo, você pode
obtê-lo de um arquivo. Você também pode obtê-lo
em uma porta TCP ou UDP. Também podem ser dados de log sys. Então você definirá toda a
dívida na entrada Próximo. Depois de obter esses dados, você precisa processá-los. E essa lógica de processamento é configurada dentro de filtros de
filtro ou como você pode
transformar seus dados. Você também pode usar
condicionais dentro do filtro para fazer algumas transformações somente quando ele corresponder a
um determinado critério. Agora, alguns filtros comumente usados
são grok crop tem cerca de 120 padrões que permitem
passar dados não estruturados. Vamos olhar para grok um pouco mais de detalhes em
uma próxima palestra. Mutate realiza
transformações gerais em um campo de evento. Você pode fazer coisas como
Renomear o campo de remoção de seus dados, substituir um campo e modificar campos em seus eventos. Dropped permite que você
solte um evento completamente e clone
permite duplicar um evento. Agora, a saída é, uma vez que você tem os dados
através de sua entrada, você fez alguma transformação. Você precisa definir onde esses
dados precisam ir mais longe. Portanto, a saída é como você passa um evento para um ou
mais destinos. Agora, isso é mais
comumente uma pesquisa elástica. Se você estiver usando a pesquisa de log, você deseja integrar
com o Elastic Search. Mas também podem ser coisas como uma saída de arquivo ou você pode enviá-lo para algo
como uma fila do Kafka. Cabe a você, basicamente o
próximo destino dos dados, uma vez que ele sai do pipeline de Pesquisa de
Log está configurado sob saída. Agora, antes de
começarmos a configurar pipelines do
Elasticsearch, há mais uma
coisa que você precisa entender que são codecs. codecs são
filtros de fluxo que podem operar como parte da
entrada ou saída. Um codec permite que você
separe facilmente o transporte de sua mensagem do processo de serialização. Basicamente, tome um exemplo
de um codec de várias linhas. Agora, pense em um log de
aplicativos, que está espalhado por
várias linhas por padrão, o que a pesquisa Locks
tentará e fará. Ele tentará transformar cada linha
no evento Log Stash. Agora talvez você não
consiga entender esse arquivo de log se ele estiver
espalhado por vários eventos. Então você quer que tudo isso entre em um único evento. Nesse caso, você
usará o codec de várias linhas. Da mesma forma, se você quiser codificar ou decodificar seus dados em JSON, você usará o codec decente. Portanto, os codecs são filtros
que ajudam você a separar o transporte de
sua mensagem
do processo de esterilização do Log Stash. Com isso, chegamos
ao final desta palestra. Obrigado por assistir. Vejo você no próximo. Tchau.
21. Ingerindo e transformando dados de CSV usando o logstash: Ei pessoal, nesta palestra, vamos transformar
dados CSV usando Log Stash. Criaremos um arquivo de
configuração de pipeline com três fases. Uma fase de entrada com uma entrada de arquivo
nos ajudará a ingerir um arquivo CSV. Em seguida, usaremos uma fase de filtro e usaremos o filtro CSV
para transformar nossos dados CSV. E, finalmente,
na fase de saída, usaremos duas saídas. saída padrão será usada
durante a fase de teste. Uma
saída de pesquisa elástica será usada para finalmente armazenar os dados em
nosso cluster Elasticsearch. Agora, quando estivermos prontos com o arquivo de configuração do pipeline, vamos testá-lo executando Log
Stash. Vamos começar. Aqui na tela. Meu cluster
Elasticsearch de nó único. Então, o que vou fazer primeiro é criar duas conexões SSH
e, em seguida, copiarei
o endereço IP externo e tentarei ver se consigo me
conectar à minha instância do Kibana. Consegui me conectar à minha instância do
Kibana na porta 5601. Agora vamos voltar para
nossa instância SSH
e, em seguida, clicarei em
cima no ícone Configurações
e, em seguida, clicarei
em Upload File. E a partir daqui, a partir meus Downloads, carregue os rankings da
competição, o ESV, e eu clico em Abrir. Quando o arquivo
terminar o upload, posso digitar ls no meu diretório pessoal para
garantir que o arquivo esteja lá. Agora, antes de podermos iniciar a
transformação desses dados, primeiro
teremos que
entender esses dados. Então vou digitar cat, rankings de
competição,
iniciar CSV e clicar em Enter. Portanto, há cerca de 5 mil
registros neste arquivo. Agora, vou limpar e faremos uma competição principal no ranking CSV para olhar para os
primeiros registros. Portanto, a primeira linha é o cabeçalho, e essa linha
explica cada coluna. Por exemplo, a primeira
coluna é classificada, a segunda coluna é camada, a terceira coluna é nome de usuário e cada coluna é
separada por ponto e vírgula, Cinco mil registros e cada coluna é separados
por ponto e vírgula. Então, agora podemos começar a escrever nosso arquivo de
configuração de pipeline. Para fazer isso, vou cd em barra, etc barra Log Stash. E então aqui eu farei um ls. Agora, dentro do Log Stash, há um diretório
chamado ponto t. O que acontece é quando você executa a barra de
log como um serviço, o que ele faz é que ele pega todos os
arquivos de configuração dentro do construct d. Então, vamos escrever nossos arquivos de configuração
dentro deste diretório. Há outro arquivo de
configuração chamado —sample.com do Locke. E esse arquivo é um exemplo de arquivo de configuração
que o plástico fornece a você. Portanto, há tendência nesse arquivo. Vamos dar uma espiada rápida. Agora este arquivo tem uma
entrada que aceita alguns dados em uma porta e, em seguida,
sem transformação, dados de censo ou
apontam para pesquisa elástica. Então, vamos entrar frio para D e vamos escrever nosso arquivo de
configuração de pipeline. Então, vou limpar tudo. Vou fazer um ls. Este diretório está vazio. Farei sudo touch e
chamaremos nosso
arquivo de configuração CSV data.com. E então vou digitar
sudo via CSV data.com. E vou fechar isso
e aqui, fazer uma inserção. Agora, em nosso pipeline, primeiro temos que
definir uma fase de entrada. Então vou digitar a entrada
e, em seguida, colchetes encaracolados, e então moverei o colchete
encaracolado para baixo. E aqui precisamos especificar uma entrada de arquivo porque estamos
ingerindo dados de um arquivo. Então, farei colchetes encaracolados
novamente e faço alguma formatação. Agora, na entrada do arquivo, precisamos especificar
algumas configurações. O que vou fazer é
abrir outra guia e digitar a entrada do
arquivo Log Stash, e entraremos na documentação do plug-in
de entrada de arquivo. Agora, nesta documentação, você pode ler sobre como
esse plug-in funciona. Por exemplo, quais são
os diferentes modos? Há um modo de conto
que falha ao arquivar, e há um modo de leitura. Você pode entender como essa entrada rastreia
a posição atual no arquivo que está assistindo. Mas o que estamos interessados é
nas opções de
configuração de entrada. Em opções de
configuração de entrada, você verá todas as configurações que podem ser configuradas nessa entrada. Além disso, você pode ver quais configurações são
necessárias para essa entrada. Agora, no momento, a única configuração
necessária é a configuração de caminho. E essa
configuração de parte é uma matriz. Portanto, essa configuração de parte
é necessária para especificar o caminho do arquivo
que você vai ler. Para nós. Deixe-me abrir a instância SSH. E aqui eu farei um ls
e depois farei um PWD. Portanto, esse é o meu caminho e esse é o nome do arquivo que precisamos especificar
para essa entrada. Voltarei à configuração do meu
pipeline. Vou digitar, mas depois é
igual a e depois a seta. E aqui vou
especificar o caminho. Então, vou digitar
aspas duplas e depois
copiarei o gráfico e
colarei essa parte aqui, e então colocarei uma barra, e então copiarei
o nome do meu arquivo, e então vou colar
isso aqui também. Agora, depois disso, vamos dar
uma olhada em mais algumas configurações. A próxima configuração
é a posição inicial, e é uma string, e pode ser um
início único ou n. O que precisamos
descobrir é qual é o valor padrão
dessa configuração? Então, vou clicar nesse URL e ele diz que o valor
padrão é. E, basicamente, ele
começará a ler o arquivo de baixo se você quiser
configurá-lo para começar
a ler o arquivo de cima, que é o que queremos fazer. Teremos que
configurá-lo como começo. Vamos voltar. Aqui. Vou digitar a posição inicial do
sublinhado e o valor
estaria começando. Depois disso, quero
mostrar outro valor. Então, vou voltar a subir. Agora, há um valor
chamado caminho sensível. Basicamente, o que desde o db
é, é um arquivo de banco
de dados
que mantém o controle de quanto do arquivo está
sendo lido pelo Log Stash. Basicamente, se o arquivo tiver 100 registros e a
barra de registro tiver lido 50 deles, esse valor será armazenado
em arquivo de sensibilidade. Agora, como o caminho db fornece a parte do arquivo sinc TB, o caminho padrão é o caminho ponto entrada de barra de plug-ins de
barra de
dados. Um arquivo no nosso caso porque acabamos de ter um único
arquivo e
queremos continuar relendo esse mesmo arquivo porque testaremos
várias opções. O que vou ter que fazer é
ter que configurar a parte de
sensibilidade como
barra dev slash null. Isso significa que, uma vez que
o db estará escrevendo para nenhum, e isso nos permitirá
continuar relendo esse arquivo. Então, vou digitar desde o caminho do sublinhado
db e configurarei o
valor do caminho como barra dev slash null. Agora, uma vez que eu tenha feito isso, termino com minha entrada de arquivo. Em seguida, terei que especificar o filtro, transformar nossos dados. Então, vamos digitar colchetes de filtro
e encaracolados. Agora, sob filtro, o que
preciso especificar é um filtro CSV. Portanto, colchetes CSV e encaracolados novamente, agora em CSV terá
que especificar algumas configurações. Então, vamos dar uma
olhada na documentação. Csv, frutas e Log Stash. E abrirei o
link para documentação. E aqui vou entrar nas opções
de configuração. Então, primeiro, podemos
detectar automaticamente nomes de
colunas ou podemos
especificar nomes de colunas. Então, o que vou fazer é especificar os
nomes das colunas manualmente aqui. Então, preciso especificar uma configuração chamada colunas, e
é uma matriz. Então, voltarei para o meu filtro, e aqui especificarei colunas. E então vou digitar entre
colchetes porque
esta é uma matriz. Agora, para obter nomes de colunas, voltarei para a
segunda instância SSH. E aqui vou digitar o ranking
da competição principal classificar csv, e copiarei os nomes das
colunas daqui. Então eu me mudei de volta
e colei-os. Agora preciso fazer
alguma formatação. Basicamente, o que eu preciso
fazer é que precisamos primeiro todas essas colunas
dentro de aspas duplas como esta. E então eu preciso
mudar o ponto e vírgula em coma. Vou fazer isso agora. Depois de terminar isso, a próxima coisa que eu queria
fazer é especificar
qual é o caractere que
separa minhas colunas. Então, vamos voltar para
a documentação. E o que precisamos especificar é uma configuração chamada separador,
e é uma string. Então eu vou voltar, aperte Enter. E aqui vou digitar o
separador é igual a seta. Tribunais internos
especificarão ponto e vírgula porque nossos dados são
separados por ponto e vírgula. Agora, uma vez que
eu tenha feito isso, quero mostrar mais
duas configurações. Primeiro, podemos pular
colunas vazias e pular linhas vazias. Para demonstração,
especificarei pular colunas vazias. Também podemos ignorar
o campo de cabeçalho. Então, se você observar nossos dados, a primeira linha é um cabeçalho. Usando essa configuração de cabeçalho de pular, eles podem dizer ao Log Stash
para ignorar a primeira linha. Agora há uma ressalva para isso. Você precisa se certificar de
que os nomes das colunas correspondem
exatamente à primeira
linha de seus dados. Se não o fizerem, Log, Stash não pulará os cabeçalhos. Então, o que quer que esteja nessa linha, os nomes das colunas precisam
corresponder exatamente ao que você especifica como nome
da coluna para a configuração do
cabeçalho de pular funcionar. Então, vamos configurar isso. Ignore colunas vazias como verdadeiras. E também ignorar cabeçalho é verdadeiro. Agora você pode adicionar comentários no arquivo de configuração do pipeline usando o símbolo hash. Então vou digitar hash. hash permite pular a primeira linha
no arquivo de origem. Os nomes das colunas
precisam corresponder exatamente. Então, agora estamos prontos para
especificar a saída. Para começar, usaremos uma saída
padrão como saída. Outro tipo de
saída, chaves encaracoladas. E vou mover isso para baixo. E aqui vou digitar
STD para fora como minha saída. E dentro disso, vou digitar Kodak e a Kodak
seria depuração ruby. E agora estamos prontos
para executar esse pipeline. Vou salvar esse arquivo. E para executar um pipeline, o que você precisa fazer é digitar sudo slash, usr slash share slash Log Stash. E, em seguida, houve uma
visão quando há um utilitário chamado Log Stash
que usaremos. Este utilitário é
o caminho completo para o arquivo de
configuração do pipeline. Mas como estamos no mesmo diretório em que o arquivo de
configuração do pipeline está, podemos apenas especificar
um caminho relativo. Então CSV data.com e pressione enter. Agora, se o pipeline
foi configurado corretamente, você obterá um resultado como este. Em seguida, seus dados são
divididos em vários campos. Por exemplo,
juntou-se a um campo chamado data de junção, o número de
problemas, metais, etc. Existem alguns campos
gerados pelo sistema. Há um campo de mensagem,
que é um
campo gerado pelo sistema que contém cada carimbo de data/hora da
versão de linha individual. Agora, esse campo de carimbo de data/hora é a hora em que o Log Stash
ingeriu esse arquivo de dados. E usaremos esse campo para pesquisar e explorar nossos
dados dentro do Kibana. Com isso, agora podemos especificar a saída do Elastic Search com isso usando o controle C, isso interromperá o pipeline. Agora, editarei meu
arquivo de configuração de pipeline novamente ou concluído. Posso remover o STD para cima ou posso simplesmente
adicionar outra saída. Então, entrarei no modo de inserção e quero apenas
adicionar outra saída. Então, vamos digitar Elastic
Search e colchetes encaracolados. Mova esta pedra. Agora, na saída do Elasticsearch, a primeira configuração que preciso fornecer é uma lista de hosts
para onde eu queria enviar esses dados. tipo de hosts é
igual a uma seta, e essa configuração usa uma matriz. Então, coloquei aspas duplas e
http localhost e, em seguida 90 a 100 porque estou
executando a pesquisa de log localmente na mesma máquina que meu
cluster Elasticsearch está. Em seguida, também posso especificar um índice no Elastic Search qual esses dados
serão gravados. Então, vamos digitar o índice
e, em seguida, darei
o nome do índice, índice de sublinhado
CSV. Agora, uma coisa a observar com isso, se eu não criar um índice
no Elastic Search primeiro, isso criará automaticamente o índice no meu
cluster Elasticsearch para mim. Então, vamos tentar isso primeiro, vou salvar esse arquivo e depois executarei meu
pipeline novamente. E enquanto isso estiver em execução, se você olhar para o meu
Kibana e se eu
entrar no gerenciamento de índices
e gerenciamento de pessoal
e, em seguida, gerenciamento de índice não
há índice aqui. Para isso terminar, nenhum voto que o pipeline
escreveu lá. Parece que há algumas
dificuldades para se conectar à pesquisa
elástica porque
tenho uma mensagem dizendo elástica, tão inacessível fará um controle C para
desligar esse pipeline. Então, parece que os serviços de
pesquisa elástica em execução. Então, vamos dar uma olhada no nosso arquivo de
configuração novamente. Agora, o motivo pelo qual ele falhou
foi porque há um erro de digitação, então Altcoin para inserir
e eu corrigi meu erro de digitação localhost 9200, e então eu vou salvar esse arquivo e vamos executar
o pipeline novamente. Agora, uma vez que o pipeline
terminar de processar nossos dados, sua pontuação para o
gerenciamento de índice não ocupada em uma página e
vamos recarregar os índices. Aqui. Você pode ver o índice CSV. Ele foi criado
automaticamente, então vou descartar e
tem 5 mil documentos. Agora, vamos tentar explorar
esses dados em nossa guia Descobrir. Então, vou clicar
nessas três linhas do canto superior esquerdo e depois
vou descobrir. Mas aqui você não pode ver nenhum dado porque diz que para visualizar
e explorar dados e Kibana, você deve criar um botão de índice. Então, vamos dar uma olhada no
que é um padrão de índice. Se você se lembrar de palestras
anteriores, um índice é a entidade de nível
mais alto que você pode consultar em
uma pesquisa elástica. Usando nosso
Pipeline de Pesquisa de Log
armazenará nossos dados dentro de um índice. Usando as APIs restantes do Elastic Search, podemos consultar os dados
em relação a esse índice. No entanto, um
padrão de índice identifica um ou mais índices de
pesquisa elásticos que você deseja
explorar com o Kibana. Para explorar esses dados e o Kibana, precisamos criar
um padrão de índice. Agora, o que o Kibana faz, ele procura nomes de índice que
correspondam a um botão especificado. Por exemplo, um asterix será um curinga que corresponda a
0 ou mais caracteres. Então, por exemplo, se nossa
aposta em uma estrela de traço CSV, ela corresponderá a todos os nomes de índice
que são
CSV dash um, CSV dash T2 ou CSV, etc Vamos criar um
padrão de índice em nosso Kibana. Aqui no Kibana, terei que entrar no gerenciamento de
pilhas. Então, eu vou clicar aqui
em gerenciamento e dentro do
gerenciamento de pilhas e preciso
entrar no Kibana para os botões de índice. Agora vou precisar
criar um botão de índice. Agora nosso índice era se eu entrar no
meu pipeline e ao Control C e abrir meu arquivo de
configuração ou índices CSV sublinhado índice. Então, o que vou fazer é criar um
padrão de índice com CSV. E, no lado direito,
você pode ver que esse botão de índice
correspondeu a um índice de origem, que é CSV e
discórdia em dias. Agora, se quisermos usar
o filtro de tempo global, temos que especificar um carimbo de data/hora como eu mostrei anteriormente. Sempre que me deixe
sair disso. Sempre que o
pipeline Log Stash é executado, ele cria automaticamente um campo de carimbo de data/hora
chamado Adicionar carimbo de data/hora, que contém a hora em
que o arquivo foi ingerido. Portanto, como nossos dados não têm nenhum campo de carimbo de data/hora nativo, usaremos esse campo como
nosso campo de filtro de tempo. Então, irei para
Padrões de Índice e selecionarei, Adicionar carimbo de data/hora e, em seguida,
criarei meu espectro de índice. Agora, uma vez criado o
botão de índice, você poderá ver todos os campos
dentro desse padrão de índice. Agora esse relógio representa que esse campo de carimbo de data/hora é o campo de tempo que
será usado para filtragem. Agora, vamos voltar à nossa guia Descobrir e ver se
podemos explorar esses dados. Agora, como você pode ver, depois de criarmos um
padrão de índice para esse índice, agora
podemos
pesquisar esses dados. Portanto, lembre-se, um índice permite que você consulte esses dados
no Elastic Search, enquanto um
botão de índice permite explorar esses dados usando o Kibana. Agora, quando terminarmos isso, deixe-me mostrar como
excluir um
botão de índice e um índice. Então, entraremos na gestão
e na gestão da equipe. Primeiro, irei para o
Index Management. Selecione meu índice, clique em Gerenciar índice e, em
seguida, exclua o índice. Em seguida, irei para os botões de índice, clique em CSV e excluirei isso. Agora eu queria mostrar a você como
criar um índice e o
Elastic Search. Para isso, clicaremos nesses ícones novamente
e,
em seguida, vamos para o gerenciamento
e, em seguida, DevTools. Agora podemos usar o DevTools para executar algumas chamadas de API em nosso cluster
Elasticsearch. E desta vez vou
usar o método PUT para criar um índice chamado índice de sublinhado
CSV. E o número de gráficos
nesse índice seria um. Para que eu possa definir
algumas configurações. E aqui vou digitar todos os campos que eu
quero dentro desse índice. Clique nesta seta e isso
limpará esse índice. Agora, podemos voltar
ao nosso pipeline e primeiro temos
que garantir que esse nome de índice, a configuração de índice,
seja exatamente o mesmo que o índice que
acabamos de criar. Caso contrário, se este
tiver um log diferente, Sasha
criará outro índice e você não obterá os
dados armazenados em seu índice. Então, eles garantiram que
esse nome seja o mesmo este escapará
desse arquivo e nós
executaremos nosso pipeline. Agora, uma vez
que o pipeline terminar o processamento, vamos voltar ao nosso Kibana. E aqui vou entrar no gerenciamento de
pilhas e no gerenciamento de
índices primeiro, você pode ver que eu tenho um índice. Há algum tamanho de armazenamento, mas a coluna do documento diz 0. Então, teremos que entrar em patentes de
índice e criar
um padrão de índice. E novamente, será CSV e
isso corresponderá ao nosso índice. E usarei o campo de
carimbo de data/hora e criarei
o padrão de índice. E assim que este
botão É é criado. Se eu for e verificar em Gerenciamento de
Índice, agora, poderei ver o
documento indo mais 5 mil. E, novamente, podemos explorar nossos dados usando
a guia Descobrir. Vou minimizar essa mensagem e
há 5 mil acessos. Agora, vamos verificar se nosso rover de
cabeçalho foi ignorado. Então, entrarei na minha segunda conexão
necessária e
procurarei um nome de usuário de valor
dentro do campo de nome de usuário. O que vou fazer é
descobrir e
escreverei o nome de usuário. Vou descartar esta
mensagem, nome de usuário. E eu queria que isso
fosse igual nome de usuário. E atualizarei quais resultados do nó correspondem aos seus
critérios. Agora, vamos escolher um nome de usuário
válido. Por exemplo, BSI, descubra,
eu removerei isso. Eles estão digitando PSI e
eu vou clicar em Atualizar. E você pode ver que
os valores válidos ou todos os dados corretos
foram armazenados no meu cluster do
Elasticsearch. E as
linhas de cabeçalho mais antigas são ignoradas. A chave para isso era
garantir que as colunas definidas
correspondam exatamente às colunas
no arquivo CSV. Agora, antes de deixar você ir, eu queria mostrar
uma última coisa, que é como enviar
dados do Log Stash para uma instância do Elasticsearch com configuração de autenticação por
senha. Para esta demonstração,
criei um ELK separado. Uma máquina esperaria configuração
de segurança para
a autenticação por senha. Se eu copiar o endereço
IP externo
desta instância e ir
para minha página da Web do Kibana. Ele me pedirá para fornecer
meu nome de usuário e senha. Agora eu tenho um nome de usuário
e senha integrados chamados elastic, que é a conta de superusuário. Vou usar esse
login no meu Kibana. Agora, uma vez dentro do Kibana, vou clicar nessas
três linhas do canto superior esquerdo e depois
irei para o Stack Management. E, em seguida, em
segurança e usuários, posso encontrar todos os nomes de usuário que foram configurados
neste sistema. Esses são todos nomes de usuário
internos. Então, o que
faremos é usar o elastic para
integrar nosso Log Stash com a
instância do Elasticsearch no ELK. Então, vou clicar em SSH no ELK T2 para abrir uma conexão
SSH. Agora, uma vez que eu tenha a conexão
SSH aberta em todos os tipos em sudo, barra
V, ETC, barra Log Stash slash d. E seguida, editaremos nosso
arquivo de configuração chamado dados CSV. E dentro desse
arquivo para configurar a saída para ir para a pesquisa
elástica no ELK 1. Primeiro, vou alterar
o valor do host host
local Buddha
endereço IP interno do ELK um, desculpe, edite tudo isso, indo
para inserir e digitar 192 ponto 168 ponto um ponto F5. E agora preciso
fornecer o nome de usuário e a senha que vou usar
para autenticar. Então, vou digitar o usuário, e aqui vou colocar
aspas duplas e digitar elástico, e então vou
digitar a senha. E o que vou fazer é colocar aspas
duplas e copiar
a senha das minhas anotações. Agora, depois de copiar
a senha, podemos salvar esse arquivo e agora estamos prontos para
executar nosso pipeline. Então vou digitar sudo slash, usr slash slash, log slash bin
e Log Stash e menos F. E eu copiarei tudo isso. Vou colá-lo
aqui e clicar em Enter. E depois que o pipeline
terminar o processamento, Begin vá para nossa instância Kibana e entenda o gerenciamento. Podemos ir para o gerenciamento de índices e você pode ver um índice chamado índice sublinhado
CSV com 5 mil documentos
foi criado. E, novamente, terei que
criar um padrão de índice. Clique em Criar padrão de índice. Vou digitar CSV
e ele correspondeu meu índice e usarei o campo de carimbo de data/hora e clique
em Criar espectro de índice. Agora, para explorar meus dados, irei para análises
e descobrirei. E aqui terei que alterar o índice do
início dos logs para a estrela CSV. E ao fazer isso, você deve ser capaz de
explorar seus dados. Mas isso, chegamos
ao final desta palestra. Obrigado por assistir. Adeus.
22. Instalando o servidor de Apache: Ei pessoal, neste vídeo, mostrarei como instalar o servidor Web
Apache
na instância de VM do GCP. Primeiro,
instalaremos o software e,
em seguida, implantaremos o
novo arquivo index.html. Depois disso,
iniciaremos o servidor Web Apache
e, finalmente, testaremos o acesso ao nosso site montado. Então, vamos começar. Aqui na tela. Eu tenho o console
de instâncias de VM ativo para minha plataforma do GCP. Então vou escolher o novo senso
vitamínico do Template. E depois disso, escolherei o modelo de servidor web
que criamos anteriormente. Em seguida, clicarei em continuar. Depois disso, vou
mudar a região
para o próximo vídeo do US West One, descer e clicar em rede. Em rede,
garantiremos que a tag de rede seja
servidores web e, em seguida,
precisaremos alterar
a interface de rede estará na rede de
serviços da web. Então, vou mudar isso de
monitoramento para servidores web. E depois disso, vou
descer e clicar em Criar. Isso criará
nossa instância de VM, que usaremos
para um servidor web. Agora, quando a VM estiver ativa
e em execução, podemos migrar para o
Visual Studio Code. Agora, aqui no console de código do Visual
Studio, tenho as anotações para instalar um servidor web no
lado esquerdo
e, no
lado direito, tenho minha conexão
SSH neste servidor web. Então, primeiro,
atualizaremos nosso sistema. Então sudo APT obter atualização menos y. Agora vamos limpar a seguir, vou digitar sudo apt-get install Apache dois menos
y e pressione Enter. Em seguida. Vou limpar
isso e, em seguida,
copiarei esse comando
para criar um novo arquivo
index.html e colocar algum código de exemplo dentro
dele para criar nosso site. Cole-o aqui e pressione enter. Agora, uma vez feito isso, posso iniciar meu serviço Apache. Então, pseudo-sistema CTL inicie o
Apache dois e pressione enter. Agora vamos verificar o status. Portanto, pseudo-sistema CTL, status Apache como
ativo e em execução. E agora vamos voltar
ao nosso Console do GCP. E aqui eu vou copiar o IP
externo desta máquina, e vou colá-lo aqui
e pressionarei enter. Agora, como você pode ver,
temos nossa página de amostra. É assim que você pode instalar um servidor Web na instância de VM do GCP. Obrigado por assistir. Vejo você no próximo. Adeus.
23. Instale e configure Metricbeat: Ei pessoal, temos nosso Elasticsearch Cluster
anexado para funcionar. Agora é a hora de começar a
usar o cluster. Nesta demonstração, coletamos dados de auditoria
do sistema, como utilização de
CPU e memória, dados de
registro, como logs do sistema, limpamos alguns
painéis interessantes como este, novamente, insights sobre
nossos sistemas IP. Agora, o Elastic Search usa remetentes
leves
chamados beats que estão instalados nas máquinas de
destino e enviam dados operacionais para o cluster do
Elasticsearch. E podemos usar esses dados
operacionais para criar relatórios
e painéis. Agora, um dos casos de uso mais
comuns é alimentar dados
métricos do sistema no Elastic Search e
usá-los para monitorar coisas como CPU ou
utilização de memória, disco, etc. é alimentar dados
métricos do sistema no
Elastic Search e
usá-los para monitorar
coisas como CPU ou
utilização de memória, disco, etc. pesquisa elástica fatorial usando
uma batida chamada métrica, que é leve e mais barata que você pode instalar
em seu servidor. Colete periodicamente
métricas
do sistema operacional e dos serviços em
execução nisso. Portanto, ele pega essas métricas
e estatísticas e
as desloca para a saída do exemplo de sua escolha, pode ser Log Stash ou Elastic Search. Para dar um exemplo, digamos que você queira
um intervalo da sua máquina Linux para nossos dados de métricas do sistema, como CPU e utilização de memória, etc O que você precisa fazer
é precisar instale peso
métrico no
servidor e habilite sistema de
módulos que coleta todas essas informações e o
Chip-Seq para o Elastic Search. Este módulo permite que
você monitore muitas coisas que eu
listei na tela. Cada um desses itens individualmente
é chamado de matriz. Você pode optar por ativar. Todos esses são apenas aqueles em
que você está interessado. Aqueles em que você
não está interessado, precisamos ser comentados
do seu arquivo de configuração. Portanto, em teoria, um módulo de contas
magnéticas, ele encontra a lógica básica
para coletar dados de um serviço específico, como o servidor web
Apache HTTP. O módulo especifica
detalhes sobre o serviço, incluindo como se conectar
a esse serviço, frequência coletar métricas e quais
métricas coletar. Cada módulo tem uma
ou mais matrizes. É uma matriz que
é a parte da molécula que toca
e estrutura os dados. Existem muitos
modelos que você pode ativar na isca métrica
na descrição deste vídeo para cima em um URL da
documentação do Elasticsearch. E você pode
navegá-lo para dar uma
olhada em todos os módulos disponíveis. E você pode escolher
os que você precisa com base nos requisitos do
sistema. Em seguida, vamos ver como
métrica, qual serviço funciona? talão métrico funciona em quatro etapas. Primeiro, os serviços instalados e configurados
na máquina de destino, doentes e coleta
informações de monitoramento com base
nos módulos ativados e as métricas são
configuradas. Esses dados são armazenados e indexados dentro do
Elastic Search. E, finalmente, podemos
criar relatórios e
painéis interessantes sobre esses
dados usando a interface do usuário do Kibana. Você também pode usar os painéis
padrão fornecidos por essa sucessão. Aqui está a esperança de
configurar o lance métrico para esta demonstração no servidor Web Apache
habilitará o módulo Apache, que fornece o status
para o servidor Web Apache. Também ativaremos o módulo
do sistema, que fornece métricas do sistema. Finalmente, também ativamos o módulo de
beats esperam. Este buret Mohr nos
ajudará a monitorar o serviço Apache no servidor ELK permitirá
o módulo de espera de pesquisa
elástica, que nos ajudará a monitorar o
Elasticsearch em si, também
permitirá que o módulo
Kibana espere o que nos ajudará a
monitorar Kibana. Ativará o módulo especialista em bits, que nos ajudará a habilitar outros bits
instalados em seus serviços. Agora, uma coisa a notar é
que usaremos a mesma métrica com incenso
para monitorar a si mesmo. Isso não é o que você verá em um ambiente de produção. Seu cluster de produção
pode ser mais parecido com isso, onde você tem um cluster
de produção separado e um cluster de
monitoramento separado. Porque em caso de interrupção
no cluster de monitoramento, você ainda pode ter
os serviços de produção sendo monitorados por meio
do cluster de produção. E também no caso de o cluster
de produção morrer, você pode solucionar problemas por que ele falhou usando o cluster de
monitoramento. Agora vamos passar
para o nosso sistema de laboratório. Oferta métrica instalada. Agora, uma vez
que a métrica está instalada, a primeira coisa que
precisamos fazer é habilitar o monitoramento no cluster
do Elasticsearch. Então o que faremos é
ir para o Elasticsearch, acertar arquivos EML para que eu possa sudo nano slash, ETC,
barra Elasticsearch. Elasticsearch começa para o Iêmen. Ele apertou ir até
a parte inferior deste arquivo. No entanto, como fazer um comentário
para uma nova seção. E vou citar que
espera monitoramento. E acabou esperando monitoramento. Vou copiar essas duas configurações. Espere a
coleta de monitoramento habilitada como verdadeira e espere o monitoramento. coleção de pesquisa elástica
ativada é verdadeira. Essas duas configurações permitem o
monitoramento de nosso cluster. Copie isso e cole-o aqui. Agora vamos dizer minha final. Depois disso, reinicio meu serviço
Elasticsearch, o sistema CTL, reinicio a pesquisa
elástica. Uma vez ativos de TI, como AP, podemos instalar e
configurar uma métrica, ser prototipando sudo
nano slash ETC, métricas de barra, métricas de barra. Aqui, a primeira configuração
configurada é o carregamento da biblioteca. Ou a configuração faz
é que ele procura o
arquivo de configuração do módulo nesta parte. E se houver alguma alteração
nesse arquivo de configuração, ele
as recarregará automaticamente sem a necessidade de reiniciar o serviço de batidas
métricas. Vou mudar isso para verdade. Bem-vindo e recarregar o período de pontos. Agora, uma agenda e nome, podemos especificar um
nome personalizado para o remetente. Por padrão, o bit métrico usa o nome do host
da máquina na qual o
remetente está sendo executado. Posso digitar ELK dash
um e os ovos. Vou especificar que esta
é a máquina ELK, então vou me livrar de toda essa tag de
especificação chamada ELK. Em painéis. Podemos configurar painéis padrão do Kibana para lances
métricos para o remetente, mas cancelar o comentário e
definir isso verdadeiro, verdadeiro. Ou podemos usar o
painel é Kumar. O que vou fazer é
definir isso como verdade aqui. Mas quando fazemos o servidor web e mostramos como
fazê-lo através do comando. Agora sob
Kibana precisa descomentar o anfitrião, mas podemos deixá-lo
como hospitais locais, o remetente está funcionando
na mesma máquina que o Kibana. mesmo para o Elastic Search, que
possamos
deixá-lo como host local. E o protocolo,
vamos descomentar isso e alterá-lo de
STDEV.S para Azure DB. Em nome de usuário, precisamos
especificar o usuário Elastic
e a senha. Você precisa especificar a
senha para o usuário Elastic. Agora, em seguida, precisamos
especificar o registro em log. Vamos para
a seção chamada log. E aqui precisaremos
descomentar o nível de log, mas vamos
deixá-lo como padrão e descomentar os
seletores de log também. Então, vamos deixá-lo como eleitores de pulsos
padrão. Depois disso, precisamos
copiar essas configurações. A primeira configuração configura
o registro para ir para Arquivo. E depois disso, especificamos um
bot para o arquivo de log. E especificamos o nome
do arquivo de log. Depois disso, especificamos
quantos arquivos precisamos
seguir , e
precisaremos especificar as
permissões para o registro em log. Vou copiar tudo
isso e colar aqui. Agora, finalmente, precisamos
configurar o monitoramento para nossa instância
métrica beat. Portanto, recomendarei o
monitoramento ativado. E agora vamos adicionar isso a true. Isso vai até a parte inferior onde
diz o ponto de monitoramento Elastic
Search e descomente. Essa configuração de ninguém faz
é pegar o que
especificamos nas saídas para o
Elastic Search como a saída, ele irá pegar a
saída daqui. Podemos salvar esse arquivo e
iniciar o serviço de grandes métricas. Então, pseudo-sistema CTL, comece. E podemos digitar no
sistema sudo CTL habilitar métricas, isca métrica
ativada também. Agora, depois disso, precisamos configurar um
habilitar alguns módulos. Então, se eu for para métricas de barra ETC. Aqui, se eu fizer um ls, você verá que há um
diretório chamado módulos. Vou entrar em módulos
ou D, fazer um ls. Você verá que todos os módulos estão presentes neste diretório, mas todos eles estão desativados,
exceto o módulo do sistema. Agora, para o servidor ELK, deixe-me limpar
o Salvo novamente. Agora, para o ELK Solver, o que precisamos fazer é habilitar
a pesquisa elástica, o módulo de
espera, o módulo Kibana espera e o
sistema desativado ou fazer. Então, vamos fazer isso primeiro. Portanto, o lance pseudométrico habilitado
Elastic Search Depois disso, podemos
permitir que Kibana espere. Agora, precisamos habilitar as esperanças
Beta também. Este módulo será usado para monitorar outros remetentes que instalamos no servidor. Seria esperar. Agora, se assim o
escolhermos, podemos desativar o
sistema ou desabilitar. Agora vamos configurar o
elasticsearch espera primeiro. Sudo nano Elastic
Search dash espera. Aqui precisamos especificar
o nome de usuário e a senha para nosso usuário de
monitoramento remoto para o
Elastic Search. Estou chegando a ambos
e vou para meus arquivos, vou para o Ansible e para o armazenamento de
credenciais TM. Bem, claro, todas
as credenciais. Eles copiarão o nome de usuário primeiro e a senha colocará em
que ordem usá-lo. Vamos salvá-lo. E agora vamos apenas modificar Kibana esperar e fazer o mesmo. Agora podemos dar gorjeta para isso. Acabei de perceber que eu
desabilitei o beta esperar em vez
de desabilitar o sistema. Então, o que vou fazer é permitir que
eu espere primeiro desabilitado o modelo do sistema. Agora deixe-me configurar
que esperaríamos. Agora, aqui, precisamos
especificar o usuário do
sistema beat, nome de usuário. Então, copiarei o uso de uma
informação para usuários do sistema B. Então, sistema de sublinhado beta. Agora deixe-me elogiar isso
e eu vou colar isso, e vou salvar esse arquivo. Agora, o lance métrico deve ser
configurado no meu servidor ELK. que eu possa ir para o console do GCP, copiar o
endereço IP público do meu servidor ELK. Instruindo o
navegador com 45601. Da página inicial do Kibana. Posso clicar no
menu no canto superior esquerdo. Deixe-me derrubar meu médico. Posso entrar no monitoramento da pilha e, se eu configurei a batida
métrica corretamente, eu deveria começar a ver outras
coisas. Pilhas na minha pilha. Aqui eu preciso
clicar em demo ELK. E como você pode ver, tenho informações de
monitoramento para meu Elasticsearch,
Kibana e batidas. Então, vamos clicar em batida
e clicar em ELK one. Você pode ver que eu
tenho minhas taxas de eventos. Agora, posso ir ao ELK de
demonstração e clicar em Visão geral no
meu Elastic Search para analisar a integridade do
meu índice do Elastic Search, posso ver saturados, como latência,
latência de indexação e taxas. Posso clicar em nós, examinar minhas anotações, concordar com os passos do OneNote
em status verde, posso observar a carga da CPU e o espaço discreto
para esse nó. Também posso ver meus índices. Acabei de receber um índice
chamado lance métrico. Agora posso ir ao Kibana
e clicar em Visão geral. Olhe para Kibana. Então, como aqui, posso ver solicitações
da planta e o tempo de
resposta. A memória. Quantas instâncias de tempo
máximo de resposta? Se eu clicar em instâncias, posso ver as instâncias do Kibana que também tenho. Agora, esta é a configuração
do nosso servidor ELK. Em seguida, teremos que
configurar um servidor web. O que vou fazer é
do console do GCP, copiarei o
endereço IP público do meu servidor web. Vou abrir um novo terminal
com base no endereço IP público. Agora, no lado esquerdo,
são chamadas de instruções de instalação e configuração
de um servidor web. No lado direito, tenho minha conexão SSH
no servidor web. Portanto, o primeiro passo é instalar
a chave de assinatura pública para Elasticsearch. Então, vamos fazer isso. Depois disso, vamos controlar o transporte
como pacote UDP. Depois disso, precisamos salvar
as definições de diretório. Agora podemos fazer uma atualização, uma métrica do instalador bate. Então sudo apt-get update, sudo apt-get install metric, betas
não métricas e armazenadas. Então, vamos primeiro limpar a tela. Agora podemos impedi-los de
descobrir o talão métrico. Agora, essa configuração
seria semelhante ao que fizemos para o verão do ELK. Vamos configurar o carregamento da biblioteca. O primeiro nome seria servidor web. Fui configurado os painéis
padrão do Kibana porque quero mostrar
como fazer isso através
da linha de comando. O host do Kibana, precisarei colocar
o endereço IP interno
da instância. Então, ele irá para o console do GCP, copiará isso e colará aqui. O mesmo para o Elastic Search. Agora podemos ativar o
registro em log. Depois disso. Vamos ativar o monitoramento. Finalmente, podemos
descomentar o
ponto de monitoramento Elastic Search
e salvar nosso arquivo. Agora vamos iniciar o serviço de batidas
métricas. Portanto, o pseudo-sistema CTL
habilita o serviço. Agora vamos dar uma
olhada no status
do serviço em execução. Então, em seguida, o que
faremos é começar a ativar módulos. O primeiro módulo será ativado nisso é o módulo Apache. Depois disso, ativamos a batida. Espere mais. Agora vamos dar uma olhada na lista de habilitar mais módulos
nesta máquina. Você pode fazer isso
digitando pseudo. Um pouco. Mais unidades
listam que registram três módulos
ativados nesta máquina. Apache Beta espera
que acabamos ativar e o sistema ou
atrasos ativados por padrão. Vamos dar uma olhada nas configurações do
módulo. É claro, esta primeira barra
sudo nano, bit métrico de barra
ETC, mais distorcido d slash apache. Aqui, vamos descomentar o status dos conjuntos de
matrizes. Não precisamos colocar o nome de usuário e
a senha porque nosso servidor web padrão não possui
autenticações. O que eu recomendaria
é que alterássemos o valor no host de 127001 para o
endereço IP ou o nome
de domínio do nosso servidor web. Isso nos ajudaria a identificar esse servidor web
em nosso painel. Então, o que vou fazer é
remover tudo isso. Copiarei o
endereço IP interno do meu servidor web. Volte para o terminal,
e eu vou colá-lo aqui. Agora, posso salvar esse arquivo. Agora vamos dar uma olhada na configuração do
Beat Expert. Aqui. Precisamos fornecer o
nome de usuário e a senha para
que possamos nos autenticar
contra os beats. Este seria o usuário do sistema de
praia. Essa seria a senha
para o usuário do sistema V8. Agora esse bit é usado para monitorar outras bundas
no sistema. Mas como ainda não temos nada instalado
no sistema, isso não fará nada. Então, vamos
sair desse arquivo. Eu prometi antes. Agora vou mostrar como
configurar painéis
por meio da linha de comando. Para fazer isso, você precisa digitar sudo metric bid set-up,
dash, dash, dashboard. Agora, uma vez que os
painéis forem carregados, você verá uma mensagem que
diz painéis carregados. Agora vamos voltar para
nossa instância Kibana. Aqui. Vamos primeiro para clusters e demonstração ELK
entender o monitoramento. Vamos descer para beterraba. Agora, você pode ver que
temos dois bits, ELK um e o outro
deve ser um observador. Portanto, esses dados são
do monitoramento interno
acima da própria praia. Agora, para obter as informações
sobre o subúrbio, você precisa ir para a matriz. Aqui. Você verá que
começamos a obter métricas, detalhes sobre nossos servidores da web. Então, clicaremos nele e
clicaremos na matriz do host. Você pode ver que
começamos juntos todos os detalhes sobre
nossos servidores web. Mas depois disso, vamos passar
para painéis sob Kibana. Veja um
painel de controle de amostra produzido por isca métrica para
um servidor Apache. Aqui, na caixa de pesquisa do painel, vou digitar o Apache. Em seguida, abrirei
o painel denominado métrica com a visão geral do Apache ECS. Agora este é um painel de exemplo. Podemos obter coisas como
nomes de host em nosso ambiente, tempo de atividade de nossos servidores, bytes de acesso
total, trabalhadores
ocupados e ociosos, diferentes tipos de conexões, lóbulo de
CPU, nó de rede, etc. Agora vou deixar vocês configurarem um
servidor web para com isso, chegamos ao
final deste vídeo. Obrigado por assistir. Vejo você no próximo.
24. Filebeat: Ei pessoal, vamos instalar e configurar o arquivo
dentro desta palestra. A batida de arquivos é leve, mais barata para encaminhar e
tentalizar dados registrados. Ele é instalado como um agente
em seus servidores e monitora os arquivos de log são
locais especificados, coleta eventos de log
desses arquivos são locais e os
encaminha para o
Elastic Search ou Log Stash. Ele tem dois componentes. O primeiro é
chamado de colheitadeira, e o segundo é uma entrada. Uma colheitadeira é responsável por ler o conteúdo
de um único arquivo. Linha por linha.
A entrada é responsável por gerenciar as
colheitadeiras e encontrar todas as fontes para ler dados de
registro. Agora, vamos dar uma
olhada em como o file beat funciona. Agora, depois de iniciar o arquivo, qual serviço ele inicia
uma ou mais entradas que examinam o local especificado para os dados de log. Por exemplo, insira um, veremos a má sorte e
qualquer arquivo de log dentro do Verilog. Agora, para cada arquivo de log que ele descobriu dentro
deste local, ele inicia um novo éster de contratação. Este harvester é responsável ler o arquivo de log
linha por linha e envia esses
dados para um líquido. Agora, esse lipídio agrega
os eventos e como os dados agregados
à saída que você especificar, por
exemplo, ele pode
enviar os dados para Log Stash Elastic Search. Nesta demonstração,
primeiro configuraremos a batida de
arquivos em nosso servidor ELK. Existem seis etapas. Então, primeiro, vamos
validar que os logs estão configurados corretamente
no servidor ELK. Depois disso, instalaremos e configuraremos o serviço de inicialização de
arquivos. Depois disso, configuraremos métricas para monitorar nosso
arquivo, qual serviço. Então, também temos algum tipo de
monitoramento em vigor. Em seguida, iniciaremos um serviço habilitado
do file beat. E, finalmente,
habilitaremos e configuraremos os módulos ELK em nosso
cluster para bater arquivos. Então Elasticsearch, Kibana
e system servem agora. Em segundo lugar, configuraremos a
batida de arquivos para nossos servidores web. As etapas são semelhantes. A única diferença é que
os módulos serão configurados
no serviço de 5 bits para servidores
web serão Apache e o sistema nos
permitirá começar. Agora aqui no meu laboratório. E já que tenho as
etapas para instalar e configurar o caso
do arquivo Britton Hill no lado esquerdo, e a conexão SSH no meu IELTS no
lado direito. O que vou fazer é anexar essas etapas à descrição deste vídeo para
que vocês também possam ter acesso a este documento. Agora, no EMACS, a primeira etapa é
validar que o log está configurado para instâncias de
pesquisa elástica. Então vou digitar sudo
nano slash ETC, Elastic Search
slash
Elastic Search dot YAML. Agora, neste documento, o que vou fazer é ir
para caminhos e verificar se logs de pontos
comprados estão definidos como
var log Elastic Search. E não é comentado. Se isso for
comentado para você,
você terá que
descomentá-lo e certificar-se que os logs de pontos do caminho estão configurados. Depois de
verificarmos que podemos sair disso. Em seguida, vamos para
nossa instância Kibana. Então sudo nano slash TTC slash Kibana slash
mantenha seu conhecido Tiamat. Agora, aqui teremos que
ir até o registro. Agora, por padrão, você verá que o Kibana registra na saída
padrão. Então, o que teremos que fazer é que
teríamos que mudar isso. Vou abrir espaço aqui. Copie tudo isso, cole-o
no lado direito. Agora, o que essas configurações fazem
é primeiro configurar o destino do ponto de
registro
para estar em log incorreto
e, em seguida, o arquivo Kibana. Em seguida, ativamos a rotação de log e
lidamos com o sistema que queremos manter
alguém arquivos de log. Depois que fizermos isso, podemos
salvar esse arquivo e entrar. Agora, um problema com o Kibana
é a configuração é que ele não pode criar o
arquivo Kibana no Verilog. Então, o que
vamos fazer é que teremos que fazer barra de log de barra Kibana, criando um novo arquivo chamado Lei submarino
Kibana. Deixe-me fazer isso
com o sudo. Agora, depois disso,
fomos alterados a propriedade
deste arquivo de log Kibana ser de
propriedade do usuário e grupo do Kibana
sudo C-H no Kibana. Lóbulo de barra de corte Kibana. Especialmente. Agora, este arquivo é
propriedade do usuário
Kibana e do grupo Kibana. Agora, depois de termos feito isso, podemos reiniciar o serviço Kibana. Então, pseudo sistema
CTL, reinicie o cupom. Vamos dar uma olhada
no status de Kibana. Agora, vamos ver se o arquivo Kibana
que você acabou de criar
no log var começou obter dados registrados da instância
do Kibana. Vamos fazer uma cauda
menos f cama de barra. Lei inglesa, especialmente
como você pode ver, que começamos a receber dados
registrados em nosso arquivo de
log do Kibana. Vamos sair disso. Deixe-me limpar daqui. Agora, o próximo bit do ELK Stack instalando o
servidor é a métrica de batidas. Então, vamos verificar novamente
se a isca métrica está configurada com logging sudo nano slash abc slash
metric main.xml. Este arquivo, vamos para
a seção de registro em log. Agora vamos configurar o
log neste arquivo. Copie tudo isso com base aqui. Agora, depois disso, salve esse arquivo também. Vamos reiniciar a métrica.
Qual serviço? Então, pseudo-sistema
CTL, métrica de pilha. Mas vamos dar uma olhada no
status do lance métrico em execução. Agora, temos o log
configurado em nosso cluster ELK. Depois disso, o que
podemos fazer é agora instalar o arquivo qual serviço? Então sudo apt-get install. Agora, uma vez instalado, podemos ir para o arquivo
YAML de ponto de arquivo e configurar o serviço
híbrido. Então, para fazer isso,
vamos digitar sudo, barra
ETC slash slash fobic dot YAML. Agora, aqui neste arquivo, o que
faremos é primeiro descer e configurar o carregamento da
biblioteca. Então, em Módulos de bit de arquivo, iremos recarregar ponto ativado e alterar o
valor de false para true. Vamos descomentar,
recarregar o período de pontos e deixá-lo como
padrão dez segundos. Agora vamos para baixo na
seção de gênero e damos uma etiqueta. Então, como este é um cluster ELK, basta dar a ele uma tag ELK. Agora vamos até painéis e arquivos habilitados,
quais painéis? Vou descomentar este painel de
pontos de configuração iniciado Ativar e alterar
o valor para true. Depois disso, na seção Kibana, sou o comando do URL do host Kibana, e deixarei como local
ou excedente é 01 porque esse incenso de fibra
é iniciado localmente. Muito instância Kibana
é tudo para instalá-la. Depois dessa saída
como Elastic Search. E deixarei a
seção host como localhost 9200. Eu mudo o
protocolo para usar o GDB. Altere a senha para a senha de usuários do
Elastic e descomentarei o nome de
usuário e a senha. Agora, depois disso, irei para
a seção de login e configurarei o
log para o nível de ponto de registro
não confirmado e lido do arquivo . E vou deixá-lo
como depuração padrão. E vou descomentar os seletores de pontos de
registro e deixarei como estrela padrão. Copie tudo isso, cole-o aqui. Agora, finalmente, posso configurar o monitoramento
por meio de my-attribute, descer neste arquivo. E eu vou copiar como gdb dot
habilitado uma porta de ponto ester db. Agora, o que isso faz é que as
métricas monitorem a batida de
arquivos sobre o STDP. Baseie isso aqui. Agora
posso salvar esse arquivo. Agora, desde que habilitamos o monitoramento
de iscas
métricas porta 5067 x mais verifique se o módulo beat expect no lance métrico está ativado ou não. Então, para fazer isso, vamos primeiro
verificar a lista de lances sudo Electric, listar todos os módulos e
os que foram ativados. Agora, se você puder ver que não
temos o módulo de espera Beta ativado. Então, vamos primeiro ativar este módulo porque
esse módulo é usado para monitorar outros bits
instalados no servidor para matricular. Módulos de lance pseudo métrica ativados Esperamos que este
módulo esteja ativado. Teremos que configurar este
módulo para assistir à porta 5067. Para fazer isso, deixe-me primeiro
limpar tudo. Então eu digito sudo nano slash, dc slash slash
slash bead esperam. Neste arquivo, o que
terá que fazer é primeiro alterar o URL
em hosts do excedente local 6625067, porque esta é a porta para a qual o
arquivo está exportando dados. Agora, sob nome de usuário e senha, temos que usar o nome de usuário e senha
do sistema de praia. Eu não movi isso.
Altere o nome de usuário. Sistema de sublinhado. E altere a senha para ser
atendida sublinhado senha do usuário do
sistema. E deixe-me salvar esse arquivo. Por fim, verifique essa métrica
quais serviços
executam o bit retórico de
status CTL do sistema sudo. Agora podemos iniciar o serviço de inicialização de
arquivos. Então, pseudo-sistema CTL. Agora vamos dar uma olhada no status
do arquivo,
qual serviço? Agora o serviço está em execução. Em seguida, o que faremos é ter que ativar os
módulos nesta superfície. Deixe-me primeiro sair de
tudo. Deixe-me mergulhar. Pseudo. Os módulos podem
habilitar a pesquisa elástica, para ativar o módulo Elastic
Search. Depois disso, deixe-me ter sido pseudo
módulos de 5 bits habilitados, Kibana, habilitar os módulos
Kibana. E por último, faremos o sistema
habilitado para módulos
sudo vibrate para permitir que
o sistema faça. Agora, teremos que configurar
todos esses três módulos. Vamos para sudo, nano dash abc slash, slash star d slash
Elasticsearch Ottoman. Neste módulo, você pode ver
que ele tem algumas partes. Por padrão, x os bots
com base na sua distribuição. Então, como não
mudamos essas partes
para caminhos personalizados, não
precisamos
editar nada aqui. Mas se você
alterou o passe para ser peças personalizadas em
sua instalação, você terá que entrar aqui e fazer essas alterações de
configuração. Vou sair desse arquivo. Da mesma forma, para o sistema de
rodamina Gibbon, com base na distribuição,
leva todas as partes padrão. Se você mudou as
peças, você terá que
entrar aqui e fazer as alterações. Agora, vamos para nossa instância
Kibana. Copiarei o endereço
IP público 5601, digite o nome do usuário e senha do
Elastic. Agora, primeiro, se o lance estiver
sendo monitorado corretamente, devemos ser capazes de ver
essa criação de arquivos
surgir sob
monitoramento de pilha, menu CO2. Vá para Monitoramento de etapas. Aqui vamos clicar na demonstração
irrigar, e vamos descer. Você pode ver que
temos dois bits. Você tem o FIB sob o nome de EL dado.
Vamos clicar nisso. Este é o nosso arquivo
antes de ser monitorado corretamente e começar a ver que você tem algumas taxas de
eventos para colocar, etc. Agora, depois disso, se
você tiver dois clusters, demo e nunca olhar para
a seção abaixo logs, você pode ver que
começamos a coletar registros. Portanto, temos muitas
informações e registros
e aplicativos estão aquecendo
lóbulos em nosso Elastic Search. Portanto, isso significa que nosso
serviço é capaz capturar logs do cluster ELK. Agora vamos passar
para a saída nominal daqui K. E passar
para o servidor web. Olá, copie o endereço IP
do servidor web um, cohere, SSH, cole
o endereço IP. Em seguida, fecharei em seções para ***** acima da instalação do
Albert. E abrirei aqueles
para o servidor web. E eu olho neles
no modo de visualização. Agora em nosso site. Mas primeiro teremos que validar que o log está
configurado para matriz. Então, vamos fazer sudo, nano slash, etc slash predict bit slash
pode líquido ponto YAML. Agora, aqui temos que ir
até a seção de registro. Vamos descomentar o nível
de log com depuração e selecionar estrela. Deixamos os dois como padrão. Copie esta seção. Então Controle C, controle V. Agora, depois disso, vamos
salvar esse arquivo. Vamos reiniciar o bit MATLAB. Agora, uma vez
que a métrica que o serviço aparece, podemos instalar um objeto de arquivo para status no serviço
grande métrico primeiro, vamos fazer uma clara Então,
temos uma tela clara. E aqui posso digitar
sudo apt-get install. Agora, depois disso, podemos
configurar nosso serviço vibrate. Então, deixe-me primeiro limpar. Digite sudo nano DC
slash, barra cinco. Agora, as etapas são as mesmas, então vamos descer a carga da biblioteca
configurada primeiro. Em seguida, vamos adicionar uma tag. Mantenha a tag como camada da Web, porque este é um servidor da Web. Painel de configuração.
Ponto de configuração Início do painel ativado como verdadeiro. Agora, depois disso, vamos
minar o anfitrião Kibana. Agora, para o OVNI, o que faremos é usar o endereço IP interno
do nosso servidor Kibana. Então, copiarei isso e alterarei o host local para o
endereço IP interno do nosso primeiro trimestre. Vou até a seção de saída do Elastic
Search. Faça o mesmo para o URL do
host aqui também. Altere profundamente
as informações do protocolo. Digite a senha para o superusuário
elástico. Agora vou até a seção de registro em
log, verifique se o log está configurado. Agora, finalmente,
vou descer e
habilitarei a métrica para
monitorar esse serviço. Salve esse arquivo e adicione um módulo
quadrado Vx de verificação habilitado
para lance métrico ou não. Então, pseudo bit métrico. Mais dívidas ativadas. Fedex de volta. Posso
configurar este módulo. Então sudo, nano, especialmente ETC, barra de barra que esperaríamos. Neste arquivo. Eu mudei a placa host para 5067 porque este é o quinto
arquivo que Peter está configurado. Eu perco o nome de
usuário e a senha do sistema beat. Posso dizer esse arquivo. Agora vamos apenas fazer
um status na métrica. Métrica quais serviços funcionam. Agora vamos começar com base em arquivos. Então, pseudo-sistema CTL arquivo. Depois disso, podemos primeiro colocar
o serviço de fibras para verificar
se ele foi realmente iniciado. Agora, depois de verificarmos que
o serviço foi iniciado, podemos limpar tudo
e habilitar o módulo. Pseudo. Bata. Os modelos ativam, habilitem o módulo Apache. Em seguida, habilitaremos
isso como dois modelos. Agora, uma vez feito isso, podemos voltar para
nossa instância Kibana. Aqui. Vamos apenas atualizar o passo em qualquer coisa em uma instância do Kibana. Se
descermos, veremos que você
tem quatro batidas agora, então clicaremos em bits. E, como você pode
ver, temos o surgimento de
5 bits para o nosso servidor
web também. Podemos verificar o status
deste feed clicando
no servidor da Web. E isso deve
nos fornecer taxa de eventos, taxas de falha de
throughput, etc. Agora, o que
podemos fazer é dar uma olhada em um
dos exemplos do painel desse arquivo
para um servidor Web Apache. Para fazer isso, vamos ao
Menu e depois ao painel. Aqui, no painel,
vamos procurar pelo Apache. E vamos clicar no arquivo com o ECS excedente e analógico do
Apache. Agora, este é um
painel de controle de exemplo que o FileReader cria usando o excesso e editar logs de
um serviço Apache. Você pode usar isso para examinar endereços IP
exclusivos
que acessam a si mesmo com esses códigos de resposta são um detalhamento único do navegador, etc. É
assim que você pode
instalar e configurar o arquivo em um
servidor E e K e um servidor web. O que eu quero que você faça
é eu quero que você entre e instale e configure o
arquivo na web em algum lugar. O que você deve esperar é
que, depois de fazer isso, você não consiga obter informações como
essa para o absoluto. E também, se você for
para o passo 100 coisa, você terá seis batidas. Uma métrica seja um arquivo para
o segundo servidor web. Com isso, chegue ao
final deste vídeo. Obrigado por
assistir. Vejo você no próximo. Tchau.
25. Heartbeat 7: Ei pessoal, instalar lições
e configurar pulsação. Neste vídeo, o heartbeat
permite verificar periodicamente o status de seus serviços e determinar se eles estão
disponíveis ou não. Agora, por exemplo, pense que você
tem um servidor web. E se você fizer login
no console do servidor web e fizer uma verificação de serviço
no serviço HTTP. O serviço volta em execução ou você tenta carregar
a página da Web, o baseado na Web não carrega, você obtém um editor
na página da Web, que significa que seus usuários
em nossa tabela usam seu site para o que quer que eles
estivessem tentando usá-lo para. Agora você pode usar pulsação para monitorar esse
tipo de cenários. Onde o cockpit fará
é verificar se há
um código de status
de volta do servidor da Web. E se não estiver
recuperando o código de status, ele realmente mostrou que os
serviços da Web não respondem ou inativos. Agora, existem três tipos
diferentes de monitores que você pode
configurar dentro da pulsação. Primeiro, você pode configurar
um monitor de ping ICMP. Ele basicamente pensa que esse nome de host de
porta de endereço IP
específico. E se ele conseguir um ping
bem-sucedido, ele o mostra como se fosse. E se não for bem
sucedido, mostra a pedra do monitor. Em seguida, você pode imaginar o TCP. Este monitor permite que
você se conecte a um endpoint específico
por meio de PCP. E você também pode
modificar esse monitor para verificar se o endpoint está ativo a carga personalizada semelhante
desse endpoint. Agora, em terceiro lugar, você também
pode configurar um HTTP monitorado para se conectar
via HTTP aos seus endpoints. Este monitor também pode
ser configurado opcionalmente para verificar respostas específicas ou pontuações
de status de seus endpoints. Em seguida, há cinco etapas
para instalar o pulsação. Primeiro, você teria que instalar o pacote elástico
heartbeat dash. Depois disso, configuraremos
o serviço híbrido. Ele configurará isca métrica para monitorar nossa instância de pulsação. Em quarto lugar,
configuraremos monitores, que é o monitor SERDP,
ICMP, TCP. Finalmente, começamos a habilitar
o serviço híbrido. Então, vamos passar para a esquerda. Agora, aqui no sistema de laboratório, acordo com as instruções
para instalar e configurar um batimento cardíaco
no ALEKS no lado esquerdo. E eu tenho minha conexão
SSH e faço meu servidor ELK
no lado direito. Agora, uma coisa a
observar é que
estaremos instalando pulsação somente no ALEKS nesta
demonstração. Instale pulsação. Esse é o tipo em sudo
apt-get update. Sudo apt-get install heartbeat. Eles realmente elásticos
e batem enter. Depois que a pulsação estiver instalada, vamos começar
a configurar o serviço de pulsação. Precisamos digitar
sudo nano slash, ETC slash heartbeat
slash heartbeat ou PMA. Neste arquivo YAML. Vamos primeiro configurar
ao vivo abaixo. Mude a
integral do ponto do Senhor para fazer e
deixaremos o
período de recarga padrão como cinco segundos. Depois disso. Vamos primeiro comentar todos os monitores
embutidos. Porque você
usará o local do monitor para configurar esses monitores. O caminho é barra, monitores de barra de pulsação de
barra
ETC em direção a D e NAM e arquivo
dentro do local. Depois de comentar todos os monitores embutidos deste arquivo YAML
de
ponto de pulsação. Vamos para malas
e saco de teatro. Ele tinha vai especificar
o alvo como ELK. Depois disso,
vamos para Kibana. E na seção Kibana, descomentaremos
a parte do host, mas deixaremos o host local
padrão 5601. Agora vamos passar para a saída do
Elastic Search e deixamos o host local
padrão do URLS 90 a 100, alteramos o protocolo para STDP e forneceremos os detalhes de
autenticação. Agora, após a ação,
vá para a seção de registro em log. Implementaremos o nível de registro. Também descomente os seletores de
log, mas mantenha os
valores padrão para ambos. Saiba, copiarei essa configuração
das minhas instruções, especifique o login para ir para um arquivo. Isso está configurado, agora
podemos configurar como monitoramento GDB para
nosso incenso de pulsação. Vou copiar esses dois valores. Se você perceber que estamos usando a porta 5069 para monitoramento de
nossa instância de pulsação, adicionaremos essa placa em nosso
arquivo de configuração de espera beta depois disso. Então, vamos esse arquivo por enquanto. Agora vamos primeiro
para a nossa batida. Bata. Ou você classifica D?
E esperaríamos monitoramento da configuração do ventilador
AutoML na porta 5069. Ele tinha uma vírgula de escada. Agora aprendi o URL
http localhost 5069. Posso salvar esse arquivo. Agora, primeiro verifica a
matriz, ela está sendo executada. Então, pseudo-sistema CTL, status. Ele se repete. Deslumbrante. Não, vamos também verificar se esperaríamos
que esteja habilitado. Então, a pseudolista e você pode
ver o Beta esperado está habilitado. Então isso está tudo bem.
Agora, vamos sair de tudo e podemos começar
com batimentos cardíacos insensíveis. Então, pseudo-sistema CTL,
inicie o batimento cardíaco elástico. Vamos primeiro verificar o
status do serviço. Certifique-se de que ele esteja em execução. E agora é hora de
configurar monitores. Para fazer isso. Vamos primeiro para ATC, monitor
híbrido armazenado. Aqui. Você verá que
existem alguns arquivos de
monitor de amostra disponíveis. Usará isso e os
personalizará. Quem cria nossos próprios arquivos de
monitor? Primeiro vou digitar
sudo copy, sample, ICMP dot yammer dot desativado, copiar dois Pi seno PWM. Agora farei um nano no ICMP dot YAML para configurar
o ICMP monitorado. Agora, para o nosso monitor ICMP,
primeiro terá que alterar
o ID e o nome. Para ID. Usarei o
status do traço ICMP para nome. Usarei a verificação de status do ICMP. Vamos descomentar isso
para ativar o monitor. Agora vamos deixar a
programação como padrão cada cinco segundos
para que nossos hosts, que especificamos
na matriz de hosts. A cada cinco segundos. Teríamos que especificar
uma lista de hosts aqui. Agora, o que vou fazer é primeiro especificar o
endereço IP interno do nosso servidor web. Então, apenas para demonstrar
no endereço IP externo do nosso servidor web para
193.68 ponto a ponto nove, que é o endereço
IP interno dos meus quadris um espaço
de coma. E eu copiarei o endereço IP
do meu servidor web para aqui. Agora, o que também
farei é adicionar um endereço
IP externo acessível ao público, também. E isso hibridizar um hit
ponto-ponto-ponto está sempre em cima não o próximo aliviado
o modo como padrão, você pode desabilitar
pelo IPV6 agora, mas vamos deixá-lo como padrão. Você também pode especificar um
diamante ou uma taxa irá para a seção Tag em seguida e
agregará o DAG chamado web. E agora podemos salvar esse arquivo. Assim que isso for feito, vamos seguir em frente e
configurar nosso PCP. Querendo fazer o deck, vamos apenas copiar o arquivo de monitor TCP de
amostra. Pseudo cópia amostrada tcp dot gmail dot desabilitado
para tcp dot YAML. E agora vamos modificar
este RPM de inicialização do PC. Agora aqui. Em primeiro lugar, teríamos que
especificar a ideia novamente. Então, vamos começar porque
usaremos esse monitor para verificar o status
da conexão SSH e sob nome e tipo
na verificação de status SSS. Depois que isso for ativado, o monitor
deixará sua programação como padrão cinco segundos. E os hosts,
especifiquei o
endereço IP interno do meu servidor web. Um, especifique a porta, para que a porta SSH seja 22. Agora eu posso
especificar a porta aqui, porta especificar uma lista de placas. Se o host não contiver um número de porta
na opção ports. Portanto, esses são os dois lugares
que você pode especificar portas. Deixamos todos os outros
valores como padrão. Uma coisa a observar é
que você pode usar os pintores
personalizados do cheque enviado e recebido. Passaremos para a seção de tags e adicionaremos a tag para o europeu. E vou salvar esse arquivo agora. Em seguida, vamos seguir em frente e copiar
a pseudoamostra do monitor de TV. Http dot YAML estão
desativados para Esther db.json modificar SGD goo.gl, sudo nano dot YAML arquivo aqui, ID Eu especifico
status da web e nome pode ser verificação de serviço web
habilitado o monitor. E em hosts, adicionarei meu
elástico e meu URL do Kibana. Depois disso, terei que especificar a indicação porque você
configurou o esperado em nosso sistema. Eu fui o nome de usuário
e senha, elástico e a senha
para o usuário Elastic. Agora, podemos usar as outras
configurações para especificar uma verificação de status personalizada ou um personalizado pintado
nesta solicitação também. Mas vamos deixá-los como padrão e passar
para a parte de tags, especificar que o DAG se adaptou
e descomentamos isso. E agora podemos salvar
esse arquivo também. Agora, antes de seguirmos em frente, vamos verificar o status
do nosso serviço de pulsação. Mais uma vez, está funcionando. Então, agora vamos passar para o
nosso Kibana, essa página. Agora, a primeira coisa
a verificar seria que a pulsação aparece
um monitoramento de pilha. Então, vamos para casa. Em seguida, pilha de monitoramento Aqui, vamos clicar na demonstração, e vamos até as batidas. E como você pode ver,
temos batimentos cardíacos e um pouco. Podemos clicar em batida e , em seguida, pulsação
para verificar o status de nossa instância de
madeira dura. Agora, para os monitores reais, precisamos ir à nossa página inicial e depois aplicar sob
observabilidade. Aqui, você pode procurar por todos
os monitores que estão para cima ou para baixo. Agora, pelo que parece, todos os nossos monitores
estão na posição vertical agora. Você pode usar o
filtro para cima e
para baixo para filtrar um
status específico desejado. No topo, à direita, você
pode especificar a hora. Então, por exemplo, você pode
especificar se deseja que seus dados de 15 minutos
atrás ou 15 dias ou horas atrás, você também pode especificar
a quantidade de tempo. Como você pode especificar
um absolutamente. Agora, você também pode
verificar se há barcos. Temos três portas
configuradas de 90 a 22560001. Para nossos cheques. Você pode
especificar o esquema, ICMP ou UDP ou TCP para
filtrar os endpoints. Ou você pode procurar por tags. Temos ELK e tag de nível da web. Portanto, há clique no nível da web. Se você fizer isso,
você só verá os monitores específicos
dessa tag em particular. Com isso, você chega
ao final deste vídeo. Obrigado por assistir.
Vejo você no próximo.
26. Auditbeat: Ei pessoal, neste vídeo, vamos instalar e
configurar a auditoria V8. bit de auditoria permite monitorar a atividade e os processos
do usuário
em seu sistema Linux, se comunica diretamente com
a estrutura de auditoria do Linux. E desde os dados coletados para
pesquisa elástica em tempo real. São quatro etapas para instalar e configurar nosso serviço de
débitos. Primeiro, instalaremos o bit de auditoria. A segunda semana configurou
um pouco e configure os três modelos disponíveis
dentro do serviço de auditoria V8. Atualmente, esses
módulos são auditoria D, integridade de
arquivos
e sistema ou fazem. Depois disso, configuraremos métrica be para monitorar a
auditoria, qual serviço? Finalmente, começaremos e
habilitaremos o serviço de praia de auditoria. Agora, uma coisa a observar
é que
não há opção de carregamento
de biblioteca para atender. Antes de mudarmos para
o sistema de laboratório, vamos dar uma olhada em cada um
desses módulos individualmente. E primeiro, vamos dar uma
olhada no módulo de estranheza. O módulo recebe eventos
de auditoria da estrutura de auditoria do Linux, que faz parte
do kernel do Linux. O que ele faz é
estabelecer uma assinatura
no canto para receber
eventos de auditoria à medida que eles ocorrem. Agora, uma coisa a observar é
que talvez seja necessário interromper outros serviços que
estão sendo executados em seu sistema, como estranheza. E geralmente, para que
esse modelo funcione, existem dois
tipos diferentes de regras que você pode configurar dentro do módulo
ordenado. A primeira regra é um sistema de arquivos. O que essa regra faz
é permitir a auditoria do acesso a um determinado
arquivo ou a um diretório. Pense nisso como colocar um relógio
nesse arquivo específico. Portanto, você é notificado
quando o arquivo está sendo acessado ou modificado. A sintaxe desta regra
é menos W caminho para o arquivo que você precisa
para colocar o relógio em menos p. Quais permissões,
como ler, escrever, executar,
menos kx, nome ky. O próximo tipo de regra que você pode configurar é um
sistema chamado regra. O que essa regra faz,
permite o registro do custo do sistema que qualquer programa
especificado faz. A sintaxe dessa regra é menos uma ação que pode
ser sempre ou nunca. Isso, que seria tarefa,
exceto usuário ou excluído, seguido pela chamada do sistema, que é especificada pelo nome. E, finalmente, você pode usar campo e valor para modificar ainda mais a regra para corresponder a
eventos com base em coisas
específicas,
como arquitetura,
grupo, o ID do processo, etc. Agora, em seguida, vamos dar uma olhada módulo de integridade
do arquivo e do módulo de
integridade detectam eventos quando um arquivo é alterado, o que significa quando um arquivo é criado ou atualizado
ou excluído no disco. Ele faz isso criando uma assinatura com
o sistema operacional para receber notificações de alterações em arquivos ou diretórios
específicos. Agora, o que ele faz é quando você inicia este módulo
pela primeira vez, ele executa uma varredura inicial de todos os caminhos que
você configurou. E, em seguida, ele monitora
esses caminhos para detectar quaisquer alterações desde que
você perdeu a execução deste módulo. Ele usa
dados persistentes localmente para enviar somente eventos para arquivos novos
ou modificados. Depois disso, vamos dar uma olhada
no sistema ou no sistema duplo ou coletar várias informações
relacionadas à segurança sobre um sistema. Os conjuntos de dados enviam informações
periódicas, por exemplo, um estado dos processos em execução
atuais
e alterações em tempo real. Por exemplo, quando um processo
inicia ou interrompe cada conjunto de dados, vez que dois tipos diferentes de estado e eventos de inflamação, as informações de
estado são enviadas periodicamente e
no sistema iniciadas e podem ser controlado usando uma configuração chamada
State DOT period. As informações do evento são enviadas à
medida que o evento ocorre. Por exemplo, quando você
inicia ou interrompe um processo. Para informações de eventos ou conjuntos de dados, use o modelo de osso
para recuperar esses dados. frequência das pesquisas pode ser controlada pelo parâmetro de
configuração do período. Agora vamos passar
para o sistema de laboratório. Aqui no meu sistema de laboratório, tenho as instruções
para instalar e configurar auditoria grande
no EHS no lado esquerdo. E, no
lado direito, tenho minha conexão SSH no EHS, nosso primeiro teríamos que instalar pessoas de
auditoria para fazer isso. Vamos digitar sudo apt-get,
instalá-lo melhor. Agora, uma coisa a lembrar é que somos capazes de
fazer isso porque fizemos todos os
pré-requisitos para adicionar repositório de pesquisa elástica, a chave de assinatura e o transporte
Apigee como GTPase pacote neste sistema já quando fizemos a
instalação de pesquisa elástica. Se você não tiver feito isso, você não poderá
fazer essa etapa. Então você teria que voltar à etapa em que instalamos
o Elastic Search e abordar esses pré-requisitos
nesta máquina. Agora, após a instalação da auditabilidade
, eles podem digitar
sudo nano slash ETC. Auditoria de barra V8 de
auditoria de barra com o ammer de pontos. Abra o arquivo de
configuração de lances de auditoria. Agora, neste arquivo, a
primeira coisa
que faremos é configurar
os módulos. Então, primeiro vamos
configurar o módulo. Vamos descer e você verá que há uma seção
chamada alterações de identidade. E esta seção permite que você
coloque regras de firewall que
observam arquivos como grupos de
arquivos de sombra WD e G. Você pode, estou chegando isso para habilitar essas regras,
vamos adicionar uma
regra personalizada para colocar um relógio em nossos arquivos de configuração do Elasticsearch e
Kibana. Tenho a regra aqui. Menos w FASTA arquivo é Gráficos para o Elasticsearch
curto diâmetro cinco menos b para permissões
e, em seguida, as permissões são WA
e, em seguida, a chave é alterações. Então, vamos apenas copiar esses
dois e colá-lo aqui. Para chave. A menos que também
habilite essas regras. Agora, também podemos observar tentativas
de acesso não autorizado ao nosso sistema. Então, vamos usar
regras padrão para fazer isso. Agora, vamos configurar
o motivo da integridade do arquivo. Agora, em File Integrity, você verá que
existem alguns caminhos que já estão configurados, como foram usados, foram sbin ou cetera. Agora vamos adicionar nossas peças personalizadas para Elasticsearch e Kibana. Então, copie a pasta. Agora, depois disso, o que quero mostrar a seguir é que eles podem ser rápidos para
que você não queira monitorar o caminho especificado no módulo
Integridade do arquivo. Você pode excluir esses arquivos
usando o arquivo
sublinhado excluído. Segundo, vou apenas copiar essa configuração e
colá-la dentro desse arquivo. Agora, o que essa configuração faz
é procurar um nome de arquivo ou um back-end para esse nome e exclui que esses arquivos
sejam lavados. Eu usei um experimento que exclui os arquivos de
referência. Portanto, o arquivo de
referência de
ponto de lance de métrica ou referência curta
do Elasticsearch seja monitorado. Em seguida, vamos dar uma
olhada neste módulo do sistema. Existem dois tipos
de informações para que você possa obter dados
do sistema ou fazer. Primeiro são as informações do evento. Isso pode ser algo como qual pacote
já está instalado em seu sistema ou
removido ou atualizado. A frequência do monitor, essa inflamação pode ser modificada usando a configuração de
períodos. Atualmente, o padrão é
definido para ser de dois minutos, então vamos deixá-lo assim. Em segundo lugar, as
informações do estágio de informações de estado podem ser monitoradas quanto a
coisas como login do host, processo, soquete e
usuário por padrão. E essa inflamação pode ser coletada por uma frequência
de 12 horas por padrão, mas isso pode ser
modificado modificando o valor do estado escuro
período onde seria, mas vamos deixá-la
como padrão em grande. Agora, vivemos o resto
das configurações como padrão e passaremos
para as configurações gerais. Primeiro. Configurado, um DAG. Então, ovos, vou
descomentar e adicionar uma etiqueta
chamada ELK. Em seguida. Em painéis, habilitarei
os painéis padrão. Depois disso. Vamos passar para
a seção Kibana. Ele havia deixado o URL
do host sem confirmação. Depois disso, vamos para a saída
do Elasticsearch. E estou chegando protocolo e altero o
valor do protocolo para ser como UDP. Em seguida, vamos adicionar
os detalhes de autenticação de usuários do Elastic. Agora, depois disso, vamos
configurar o registro em log. Então, vou descomentar o nível de ponto do
log, mas deixá-lo como comando de
depuração padrão registrando seletores de
pontos e novamente deixá-lo como
padrão como seletores inteiros. Agora vamos configurar o
registro para ser arquivo. Copie esta seção,
cole-a aqui. Agora, após esse teste, faça a pontuação baixa e configure o monitoramento
HTTP. Então, vamos copiar essas configurações. Stdev dot habilitou uma porta de ponto de grau
extra. Agora, para a batida de auditoria, configuraremos a porta de
monitoramento 5068 porque se você se lembrar, 5067 está sendo usado por batida de
arquivo nesta demonstração. Agora podemos salvar esse
arquivo não depois disso. Vamos primeiro verificar se
esperaríamos que o modelo esteja habilitado
no meu atributo. Então sudo pip list. Você pode ver que o BTEX
back está ativado. A ópera isso
me deixou limpar tudo. Agora. Há editado o arquivo de configuração
modular redex back. Então sudo nano slash barra de barra
ETC,
barra classificação D do módulo de barra
seja esperada ou TML. Agora, neste arquivo, vamos adicionar o marketing
para o host. Após a quantidade de
inflamação para o arquivo, eu digito http, localhost 68. Agora vamos salvar isso. Agora, depois disso, podemos iniciar pseudo sistema de bits
ordenado
CTL, start ou deadbeat. Agora vamos verificar o status do que temos o status do
serviço. Agora isso falhou
por algum motivo. Então, vamos investigar primeiro
uma boa ideia do que
analisaríamos as informações que inserimos e nos
certificamos de que a sintaxe está correta. Então sudo, nano, etc slash auditoria bit slash
auditoria beat ou OGM. Agora parece que exclui arquivos
configurados incorretamente. Então, vamos colocar alguns espaços aqui que seguem
o índice Shamatha. Só há salvar esse arquivo. E vamos tentar
reiniciar nossa auditoria. Qual serviço? Então,
pseudo-sistema CTL, comece a bater. Agora vamos fazer
um status novamente, ver se ele surgiu. Agora parece que esse foi o problema e não ordenou qual
serviço não está sendo executado? Vamos passar para nossa instância do Kibana para ver alguns painéis que ela
criou por padrão para nós. Agora aqui,
vamos primeiro passar para monitoramento de
pilhas, demonstração ELK. Vamos descer às batidas. E você pode ver que
temos auditoria com serviço aqui. Agora. Podemos clicar no trigo e, em seguida, clicar no serviço de quarto
encomendado. Procure algumas informações
sobre auditoria V8. Podemos ir para Início
e, em seguida, painel de controle. Agora, aqui podemos abrir um
desses painéis de bits de auditoria. Então, vamos abrir o painel de integridade do
arquivo. Agora, este é um painel de controle de exemplo que podemos sair da auditoria V8. Você pode ver que a contagem inicial da
varredura era 1043. Você pode ver que o tempo em que a varredura
inicial foi feita. Proprietários e grupos de nossos arquivos, o arquivo que foi mais
alterado pela contagem de arquivos, alguns eventos de arquivos de alguém. Agora, depois disso, vamos seguir em frente e
configurar rapidamente a auditoria. Aguarde pelo nosso servidor web. Agora, aqui no sistema de laboratório, tenho a conexão SSH
no meu servidor web. Então vou digitar sudo
apt-get install. Agora, depois disso, vamos
configurar rapidamente. Então sudo nano slash slash slash
auditoria auditoria com ponto YAML. Agora vamos adicionar os relógios de arquivo, não no servidor da Web. O que faremos é não ter modificações
Elasticsearch e Kibana
European. Então, acabei de copiar essa regra. Então. Vou modificá-lo para
minha métrica beat e arquivar
arquivos KML beta, salvá-lo aqui. E mudei o passado para arquivo do Elastic Search para ETC. Corte. Mudou a chave para ser alterações. Posso copiar isso
e colar aqui e as alterações para arquivar câmeras de vídeo a e
arquivar. Então barra barra
arquivo melhor câmera. Agora, como é um
arquivo importante que você pode
querer assistir nesta prata
seria sua Web Apache. Vários arquivos podemos
copiar o mesmo e alterar o caminho barra barra ponto
www
barra HTML index.html. E vamos mudar
a chave Bu epsilon. Depois disso. Vamos passar para o módulo de integridade
do arquivo. Aqui. Eu queria esse HTML de barra WWW. Agora, não precisamos
fazer nenhuma alteração no sistema ou fazer. Agora vamos passar
para ovos e agenda. Aqui, descomente a configuração x. E vamos adicionar a tag para o nível
da Web habilita os painéis
padrão. Agora vamos descer
os hosts e adicionar o endereço IP do meu AKS, nosso 192 ponto 0,68 ponto um ponto 34. E vamos testar fazer o
mesmo para plásticos. Essa saída mudou o
protocolo ou judeu ou DB. E vamos adicionar a senha, ir mais para baixo e adicionar registro em log. Finalmente, vamos configurar,
esperar coisas maravilhosas. Não necessariamente salve
esse arquivo e não adicione a
inflamação de monitoramento dentro que esperaríamos. Então sudo nano slash slash slash, mais distorcido d
barra b para esperar. Este arquivo novamente, vírgula
espaço http localhost 5068. Agora também podemos salvar
esse arquivo. Agora vamos começar. Então,
pseudo-sistema CTL. Comece pedigreed. Vamos procurar o status
de servidores de reinicialização. Então, status do pseudo-sistema CTL
ou eles estavam sendo executados. Vamos voltar para
nossa instância Kibana. Agora, aqui, a pontuação deles para
empilhar um ou chegar primeiro, e vamos clicar neles. E aqui você pode ver que
temos que auditar pesos. Agora você também pode ir para o painel e vamos escolher um
painel diferente desta vez. Vamos apenas escolher o painel de visão geral do
sistema. Este painel fornece
uma visão geral de
seus ambientes, como
número de seus ambientes, como hosts em
seu ambiente, contagem de
login, ações de login, alterações
do usuário após distribuição, início de
processos e
paradas, soquetes, abertos e fechados, alterações de
pacotes, etc. Você também pode listar os eventos do
seu sistema
no canto inferior direito. Agora, o que eu quero que você
faça depois disso é ir e instalar a auditoria
bater-se no servidor web
para também tentar explorar outros painéis disponíveis
e painéis para a
batida de auditoria para ver que tipo de informações que você pode obter
deste serviço. Com isso, chegamos
ao final deste vídeo. Obrigado por assistir.
Vejo você no próximo.
27. Packetbeat 7: Neste vídeo, vamos discutir
como você pode instalar e configurar o bit de pacote para monitorar o tráfego de
rede entre
seus aplicativos. Packet é um analisador de
pacotes de rede em tempo real que
você pode usar com o Elastic Search para fornecer um sistema de monitoramento de aplicativos e análise de
desempenho. Ele funciona capturando o tráfego de rede entre servidores de
aplicativos. E ele decodifica os protocolos da camada de
aplicativo ,
como HTTP, MySQL, etc. Você pode implantá-lo de volta
no mesmo servidor em que seus
aplicativos residem em alguém
inexplicável em
um ambiente Cloud porque eles sublinharam que os dispositivos de
rede não
estão expostos a você. É difícil implantar centenas de
pacotes em alguém. Portanto, nesta demonstração,
implantaremos a taxa de pacotes em nosso servidor web e monitoraremos nosso tráfego HTTP
usando a taxa de pacotes. Há quatro etapas para
implantar de volta e nós, primeiro, instalaremos a Semana do
Pacote. Segunda semana configure a taxa de
pacotes e configurados de sniffer de tráfego e os fluxos
configurados de sniffer de tráfego e
desktop para nosso repositório
de bucket. Configuraremos a métrica. Estamos monitorando o
pacote. E, finalmente, iniciaremos e habilitaremos o pacote. Vamos passar para o nosso sistema de laboratório. Aqui no lado esquerdo, tenho as instruções
para instalar e configurar o bit de
pacote no
epsilon, no lado direito, tenho minha conexão SSH
e amanhã 1º de outubro, próximo pacote de instalação taxa. Assim, podemos digitar o
pacote sudo apt-get install e pressionar Enter. Agora, uma vez instalado o pacote, você pode começar a configurá-lo para o próximo primeiro
CD e barra de impressão, bit de pacote de barra
ETC. Aqui, se eu fizer um ls, você verá que
eu tenho meu pacote, leia o arquivo de referência, que posso referenciar
quando estou configurando meu arquivo de
configuração de instalação do pacote, que é pacote com ponto YAML. Vamos fazer sudo. Número. Poderia estar suja Emma. Neste arquivo, a
primeira coisa que tenho que
configurar é a interface de
rede da qual eu quero farejar dados
. Máquinas Linux. Tenha um valor de
qualquer que significa
cheirar esse tráfego de
toda a interface conectada. Ou você pode especificar uma
interface de rede específica para direcionar
somente a rede
perfeita nessa interface. Agora vamos deixá-lo como
padrão e, em seguida, os fluxos de
pacotes são
ativados por padrão. Para fluxos desativados,
você pode definir habilitado como falso e
configuração de fluxo para desativá-lo, mas vamos deixá-lo como ativado. E agora é hora de configurar os
protocolos para os quais
queremos monitorar os fluxos de rede. Agora isso está sob protocolos
Bedard de pacotes. Agora, aqui vamos monitorar as ferramentas de
rede para ICMP, IPv4, DNS, um HTTP desativado. O resto dos
fluxos terá que comentá-los.
Vou fazer isso agora. Agora, uma coisa a observar é que o campo esportivo é usado para configurar as
portas para as quais você deseja monitorar as
informações de fluxo para o seu servidor web pode estar sendo executado em um teste de porta diferente de uma
dessas portas padrão. Por exemplo, seu servidor Web pode estar sendo executado na porta 8.001. Fluxo para o cenário de índice
do seu servidor web, o que você terá que
fazer é entrar aqui e adicionar seu quadro
específico assim, e também excluir
o restante deles. Como estamos executando na porta 80, eles movem todas as outras portas. E agora vou passar para a
próxima seção, que é sexo. Aqui. Etiquetas incomuns. E vou manter as tags aparecerem. Depois disso, vamos
configurar alguns painéis. Configuração da
classificação do painel de pontos configurada ativada como verdadeira. Então deixe-me apenas primeiro descomentar
isso e definir isso como verdadeiro. Habilitará painéis padrão para pacotes com instância Kibana. Depois disso, teremos que
cancelar o comentário pós-sessão para o
Kibana e corrigir o URL. Este será o endereço IP
interno de nossa instância padrão. Quando você faz 168 pontos mp4. Depois disso, vamos
passar para a saída. E a saída, a primeira
coisa que temos que fazer é corrigir o URL para minha saída elástica, seção 921681 ponto 34, que é o IP interno
da minha instância ELK. Em seguida, em protocolo, vamos configurar o
protocolo para ser STDP. Agora, depois disso, temos que configurar
a autenticação, usuário
Elastic e a senha. Em seguida, vamos configurar o log, descomentar o nível de log,
mas deixá-lo como antes, depurar os seletores de log, mas
deixá-lo como estrela padrão, que significa que tudo Há
certo que sabe o arquivo do Google. Preciso copiar essa
configuração e colá-lo aqui. O que essa configuração
faz é permitir o registro em log, ser enviado para um arquivo. Em seguida, especificamos os parâmetros para o arquivo que
precisa ir
para, por exemplo, o
caminho do arquivo, o número de arquivos a serem mantidos e
as permissões nesse arquivo. Após esta configuração de palestra deve ser monitorado
através do talão métrico. Copie esses dois cirurgiões
e cole-os aqui. Agora, a primeira configuração
permite que o HTTP queira beber e a segunda configuração. Essa pode ser a porta necessária para dados de
monitoramento central. O que faremos é configurar esta porta em nosso arquivo beat
expect são limitados. Então, vamos salvar esse arquivo. Depois disso. Vamos editar
nossos fundos especializados. Então sudo, nano slash, ETC slash
modelos retributivos certamente esperam. Neste arquivo e
na seção de host, temos que adicionar o URL para o nosso
pacote ler aspas de
espaço de vírgula militar http localhost. Na parte
070 do córtex. Posso salvar isso. Depois disso, vamos primeiro
verificar se o peso métrico está sendo executado. Então, status do pseudo-sistema CTL. Agora isso está sendo executado. Agora vamos começar nosso
pacote com a instância. Então, o pseudo-sistema CTL é iniciado. Vamos fazer um status
em bits de pacote. Portanto, o
status de pseudo-cisto para CTL está funcionando sem problemas. UI do Kibana, para ver algumas
das pessoas são painéis
criados por pacote. Da página inicial da minha UI Kibana. Primeiro vou ao menu. Vou carimbar
nele. Ele tinha impuro. Vá para a seção quatro batidas. E posso ver que há
um pacote beat board com, para que eu possa clicar em batidas. Vamos clicar no ideal. Eu conseguia ler. Você pode ver que ele começou a
receber alguns dados. Para nossa instância de back-end. Na verdade, veja alguns
painéis que
foram criados por pacote para nós em nosso painel de
especialistas em UI do Kibana. Aqui. Vamos digitar o pacote. Então, vamos clicar no Painel que
diz que eu poderia ler
como o PIB é, sim. Agora, aqui, este painel fornece as transações STDP, por
exemplo,
número de transações, estratos, pontuações e relatórios,
histórico de doutrinas, solicitações de banco de dados, etc. Da mesma forma, você também pode
olhar para a rede médicos. E aqui você pode ver
conexões ao longo do
tempo de postagens criando tráfego, postagens, recebimento de tráfego, tráfego de
rede entre hosts. DNS cheio de exibição, você pode
obter alguns dados relacionados ao DNS. Por exemplo, o DNS consulta alguém em suas
solicitações ao longo do tempo, os tipos de perguntas em seus IPs de
cliente e servidor, muitas vezes perguntas para DNS. Agora, em seguida, você também pode ver
se as transações do CPS. Você pode ver contagens de pescoço e declínio,
contagem de transações, colunas
em branco, transferência de dados, faixa, basta digitar ao longo do tempo. Agora este é o pólo
do seu painel. Pode examinar clientes
que estão tentando acessar seus sites
em suas transações. Transações,
tipos de transação, resposta ao longo do tempo, percentis de tempo de
resposta, erro versus
transações bem-sucedidas, termos que eles não buscaram, etc O que eu quero que você faça
depois disso é eu quero que você para implantar no servidor web. Isso chegará ao final
deste vídeo e você está assistindo, eu te vejo no próximo.
28. Como implantar um cluster de nós multi: Ei pessoal, Nesta
palestra, criaremos um
cluster Elasticsearch de 3 nós com dois nós qualificados para
mestre
também separará nosso aplicativo Kibana
em sua própria instância. A comunicação entre nós de pesquisa
elástica será sobre SSL e a comunicação
entre o Kibana e nosso cluster Elasticsearch
será por HTTPS. Agora, aqui estão alguns passos. Primeiro, criaremos
três nós do Elasticsearch em nossa conta de avaliação do GCP. Em seguida, também
criaremos uma VM Kibana em nossa conta de avaliação do GCP. Depois disso,
instalaremos a pesquisa elástica, todos os três nós do
Elasticsearch e instalaremos o Kibana em sua própria carga. Em seguida, geraremos
uma CA de pesquisa elástica e criaremos todos os certificados. Isso ocorre porque usaremos certificados
autoassinados. Se você não quiser fazer isso, poderá gerar solicitações de
assinatura de certificado e fazer CA da
sua empresa ou uma
CA pública forneça os
certificados para o cluster. Depois de obter
os certificados, distribuirá esses
certificados para todos os nós. Em seguida, configuraremos o
Elasticsearch e o Kibana. E, finalmente, garantiremos que os nós do
Elasticsearch se juntem ao cluster Elasticsearch
e que o nó Kibana possa se comunicar com o Elastic
Search por HTTPS. Então, vamos começar. Como vocês podem ver, estou dentro da minha página de instâncias de
VM do Compute Engine. Aqui. Clicarei em Criar instância. Vou clicar no novo
senso feminino do modelo, e escolherei o modelo ELK
e clique em Continuar. Vou mudar a região
para US West One. Vou manter o nome como ELK um. E vou até a seção de
rede,
expandirei isso e, em seguida,
expandirei o trabalho. Vou me certificar de que esta VM seja uma VPC de pesquisa elástica e
na sub-rede de monitoramento. E depois disso,
clicarei em criar. Agora, uma vez criada essa VM, posso criar mais duas. Depois que eu tiver as três instâncias de
pesquisa elástica criadas, clicarei no botão
Criar instância novamente para finalmente criar
minha instância de câmera, clicarei na instância
de VM do Modelo e novamente usarei meu Modelo ELK
e clique em Continuar aqui, alterarei o nome para Kibana, alterarei a região novamente
núcleo para rede. Certifique-se de que ele esteja sob
sub-rede de monitoramento e clique em Criar. Finalmente, tenho minhas três instâncias do
Elasticsearch e meu incenso Kibana prontos seguida, testaremos
a conectividade com todas elas. O que vou fazer é
primeiro clicar nessas três linhas para
alterar a exibição da coluna. Não quero zonas porque
conheço todo o teorema das zonas. Não quero que
as recomendações sejam usadas por, e clicarei em OK, agora vou alterar o tamanho da janela do meu navegador para
abrir meu terminal. Então agora eu tenho minha conta de avaliação
do
GCP, do lado esquerdo e meu terminal para Mac no
meu lado direito. E verificarei a
conectividade do meu Mac para o endereço IP externo
das minhas instâncias do GCP. Então, vou digitar o
espaço SSH, laboratório em
e, em seguida, copiarei
o IP externo e colarei e pressionarei Enter it. Sim, poderei
fazer login na primeira instância. Em seguida, abrirei uma nova
guia com o perfil básico. Aqui vou digitar no
laboratório SSH na
luz extra que temos a
segunda instância e ela entra, sim, a mesma coisa. Vou adicionar outra guia, SSH, laboratório em e, em seguida,
copiarei o endereço IP
da próxima instância. Sim. Finalmente, copiarei o IP externo da instância de
microbiologia, abrirei uma nova guia e farei bit de laboratório
SSH e
colarei aqui. Demorou anos e agora sou
capaz de me conectar a todos eles. Então, vou minimizar isso e começaremos a configurar
nossas instâncias. Então, primeiro teremos que instalar a pesquisa
elástica em todas as instâncias do R3,
três do Elasticsearch. Então, vá em frente
e você pode seguir as mesmas etapas que
mostrei em uma implantação de um único nó. Só não configure o ponto do
Elastic Search YAML Ainda, basta instalá-lo e
voltar e eu farei o
mesmo nessas instâncias. Depois de instalar a pesquisa
elástica em todas as três notas do
Elasticsearch, é hora de instalar o
Kibana no nó Kibana. Já instalei
a chave de assinatura pública e salvei essa definição de
diretório. Então, tudo o que precisamos fazer
nesta instância é sudo APT obter Update and end. Sudo APT instale o
Kibana e pressione Enter. Agora, como você pode ver, o
Kibana foi
instalado com sucesso nesta máquina
depois que o Gibbon não armazenei. O que vou fazer é passar para
o Visual Studio Terminal para que eu
possa fazer referência às minhas anotações enquanto estiver configurando
os serviços. Aqui na tela, eu tenho minha
janela do Visual Studio Code aberta com minhas anotações no lado esquerdo
e
no terminal no
lado direito e acima, usei este ícone de mais
para criar quatro abas cada um na minha
carga individual na conta do GCP. Então, primeiro começaremos
a configurar o ELK uma máquina. Aqui. Vou fazer sudo VI slash, ETC, barra Elastic Search slash
elastic search.html. Aniquile entrar.
Vou para o Insert. E a primeira coisa que
preciso fazer é configurar um
nome para o meu cluster. Isso terá que ser o mesmo em todos os meus últimos nós de esforço ou
limitar o sublinhado de demonstração ELK. Em seguida, darei um
nome a este nó. Vou chamar esse nó ELK um. Podemos manter o caminho para o diretório de dados e log mesmo, tudo bem. Em seguida, entrarei na
rede e
alterarei o valor do host de
pontos de rede para 0. ponto 0 é 0. Em seguida, descomentarei a porta de pontos STDP. Em seguida, teremos que especificar os hosts de semente para nosso cluster. Esses são os hosts iniciais. Que formará
nosso cluster aqui, colocarei o endereço IP
privado de todos os meus nós do Elastic Search. Se eu entrar no meu console do GCP, os IPs privados serão 192.6781681. Então é isso que vamos entrar aqui. Depois de fornecermos anfitriões de sementes, precisamos fornecer quais nós
podem ser dominados elegíveis. Queremos que a ELK se pergunte que Neil
K2 seja elegível para o mestre. Então é isso que vamos entrar aqui. Vou digitar EL k1 e k2. Agora, isso é tudo para esse arquivo. Por enquanto, posso salvá-lo um ponto de exclamação q
azul. Agora, uma vez que eu tenha feito isso, o que vou precisar fazer
é ir para o compartilhamento
do usuário Elastic Search e
agora, uma vez dentro do bin, podemos fazer um ls e
você verá que existe um utilitário chamado Elastic
Search traço 30 hotel. Usaremos isso para
primeiro criar uma CA e , em seguida, gerar alguns certificados
para uma replicação, esses certificados serão certificados
autoassinados. Então, vamos começar primeiro, temos que gerar um vidente. Faça isso, vamos digitar sudo dot slash Elastic Search
dash sagital. E para gerar um vidente, o comando é C,
e vamos pressionar Enter. Podemos manter os padrões e
nenhuma senha para o CEO. Este ponto de arquivo p12 é, em parte, compartilhamento
do usuário Elastic Search. Então eu farei um LS aqui para
garantir que este arquivo esteja
lá, lá está. Agora o CFI IS, é gerado. Agora precisamos gerar os certificados SSL a serem
usados pelas cargas do Elasticsearch. O que faremos é voltar ser novamente e eu vou pressionar a
seta para cima para ir para o meu comando do
Elastic Search Utility remove CA, e desta vez vou digitar insert porque
queria gerar certificados. E para gerar
os certificados, eu tenho que fornecer uma CA, vou digitar traço, traço C, e copiaremos o nome
do nosso arquivo CAP 12 e colocá-lo aqui porque o arquivo
está sob permanência para o local. Não precisamos fornecer um caminho
totalmente qualificado para e eu pressionarei Enter quando ele
pedir uma senha para ca, não
fornecemos uma quando
estávamos gerando o CS, então tudo bem, podemos clicar em Enter. Agora vamos
aceitar padrões para o arquivo de certificado
também, ou senha. Agora, esse arquivo também deve estar no compartilhamento do usuário Elastic Search. Então vou entrar nesse
diretório e fazer um ls. E este é o nosso arquivo de certificado do Elastic
Search. Agora, isso é para o SSL. Então, se voltarmos
ao nosso PowerPoint, isso é para a comunicação entre os nós do Elasticsearch. Para comunicação Kibana,
precisamos criar um certificado
STDP. Agora, para fazer isso, podemos cd em been. Desta vez vou digitar a tabela de sergio de
pesquisa elástica sudo dot slash. E aqui vou digitar STDP, regenerar o SGD
será certificados. Eu não quero gerar um CSR, então vou digitar agora, essa é a opção que você usa quando estiver usando
uma CA de terceiros, por
exemplo, a CA pública
da sua empresa, CA pública. Mas como estamos usando os certificados
autoassinados, vou digitar 0 e pressionar Enter. Sim, queremos usar
um CS existente, então vou digitar sim,
no próximo ele quer o
caminho para o meu arquivo CASB T12. Então, copiarei o caminho que
é o compartilhamento do usuário Elastic Search. Vou copiá-lo aqui é
Elastic Search ca dot p12. Então eu vou copiar isso aqui
também, e eu vou pressionar enter. Agora não há senha
para este arquivo SCF. Agora, a seguir, pergunta-me quanto tempo eu quero que os
certificados sejam válidos. Agora, eu quero o padrão, então vou mantê-lo como cinco
anos a seguir, ele pergunta se, se você quiser gerar
um certificado por carga em uma
configuração de produção, você pode. Então você vai sim aqui, mas por enquanto eu clico
em Não e pressionarei Enter. Agora ele quer os
nomes de host para todos os nós, ou podemos fornecer curingas. Agora, vou te mostrar
algo por um minuto. Ele irá para outra instância. Agora, aqui faremos hosts sudo V slash, ETC, slash para
abrir meu arquivo host. Agora, todas as instâncias do GCP
têm um DNS interno, que se parece com isso. Suponha
que o nome do host fornecido durante a configuração, a região lá m ponto c
e, em seguida, o projeto em que eles estão e,
em seguida, ponto interno. O que faremos é gerar um certificado usando o ponto
estrela interno. Terceiro tipo em estrela para cobrir
tudo, desde nome do host, projeto de ponto de região. E então vou digitar
interno e apertar Enter
e, em seguida, pressionar Enter novamente vou sim, está correto. Agora ele quer que forneçamos os endereços IP
de todos os meus nós. Então eu vou fazer isso. 92
ponto 168 ponto um ponto 6190 ponto 168 ponto um ponto 7192
ponto 168 ponto um ponto oito. Obviamente, isso
será diferente para você. Então, o que você terá que fazer
é acessar o console do GCP e examinar os IPs internos e
fornecê-los neste local. Se eles não estiverem corretos, seus nós não
se juntarão ao cluster. Então, vou digitar
Inserir um Enter novamente para sair. Sim, eles estão corretos. Não quero
alterar nenhuma opção. Vou clicar em Não, não
quero fornecer nenhuma senha. Clique em Enter e
aceitarei todos os padrões. E isso deve criar um arquivo zip no meu site de compartilhamento do usuário
Elastic Search. Então, vamos um nível acima de
um claro e fazer um ls. Agora geramos um arquivo, um certificado para
nós do Elasticsearch e um arquivo zip. Agora vamos ver o que está
dentro do arquivo zip. Então, vou digitar o zíper de ponto do
Elastic Search. Ele não consegue encontrar o Unzip. Então, essa é uma solução fácil. Vou digitar sudo
apt-get install, descompactar, saber o que está
descompactando instalado. Faremos o mesmo
comando e anexaremos pseudo-ilícito
fora disso para analisar. Agora, precisamos
entrar nessa pasta. Então eu farei cd Elastic Search. E a menos que ele tenha o arquivo
STDEV dot p12. Agora vamos um nível acima
e fazer análise novamente, havia também uma pasta Kibana. Então, vamos para lá. E sempre que houver
um arquivo CA
Him de pesquisa elástica . Então, há um arquivo http
dot p12 e
um arquivo ca dot vm que foi criado neste momento
é o que
faremos é mover todos
esses arquivos relevantes para o meu diretório temporário de barra
para que eu possa baixar tudo isso e, em seguida,
distribuí-los pelos empréstimos. Então, primeiro vou um nível
acima claro, quando Alice, farei uma cópia de certificados
elásticos para copiar o
arquivo de certificado primeiro para barra TMP, e terei que adicionar um pseudo. Agora, em seguida, preciso copiar
meu CFL Elastic Stack, ca dot p12 barra TMP barra. Em seguida, preciso fazer uma
cópia sudo Elastic Search barra o arquivo STDP dentro da
pasta Elastic Search, tmp também. E, finalmente, preciso fazer
uma cópia sudo
Kibana e o arquivo PEM do Elastic Search
ca dot dentro dessa
pasta Kibana para cortar o TMP. Agora, uma vez que
eu tenha feito isso, preciso entrar
na pasta TMP de barra. E o que vou fazer é
fazer um mod CH e dar permissões completas
a todos nesses arquivos. Então elástica estrela, e
eu farei isso usando sudo e finalmente
pseudo CH mod 777. Farei isso para o
meu arquivo STDEV.P 12 quando ls menos l para ter
certeza de que está feito, parece que é. Agora, antes de baixá-los, moverá os arquivos de
certificado relevantes para esse nó
específico diretamente para o conflito. Deixe-nos entrar no ETC. Slash Elastic Search
tipo no sudo SU. Primeiro, entraremos em CD,
ETC, Elastic Search. Aqui vamos criar um
diretório chamado pesquisa. Uma vez feito isso, copiaremos o certificado SSL para o
nosso Elastic Search, que é esse certificado na pesquisa elástica de compartilhamento
do usuário
na pasta de pesquisa, copiar barra de barra de
barra Elastic Search. E o certificado é
certificado elástico armazenado B12. E copiaremos o certificado
dentro da pasta de origem, barra de
pesquisa, pressionamos Enter, depois vamos fazer um cd
nesta pasta de pesquisa, certifique-se de que o
certificado foi copiado corretamente, isso está feito. Agora, o que temos que fazer é nos deixar ir um
nível acima aqui, novamente Editar nosso arquivo YAML ponto Elastic
Search. Então, farei um VI
elástico search.html. E dentro deste
arquivo terá que
ir direto para a segurança e,
sob segurança , copiará algumas configurações
de segurança das minhas anotações. Portanto, espera que a segurança habilitada true permite que a
segurança espera que o transporte de segurança SSL enable
true habilite o SSL
no transporte, usamos o certificado SSL
modo de verificação I e garantimos que seja obrigatório que os clientes
sejam autenticados. E, finalmente, teremos que
fornecer o KeyStore e confiar ou parte para o nosso arquivo de pupila de ponto de
certificado elástico, que acabamos de copiar pasta de
origem dentro de Della
tal conflito diretamente. Mas antes de fazermos isso, porque passamos para
a terceira pasta, temos que fornecer o
FQDN dessa parte. Então, vamos digitar barra
ETC barra de
pesquisa de barra Elastic Search loja de
certificados elásticos sair. Bem, nós copiamos isso e
colamos aqui também. E agora podemos copiar todas essas
configurações, colá-las aqui. Antes de seguirmos em frente,
também temos que habilitar a comunicação
https ou
outro cluster para isso,
teremos que primeiro habilitar
como GDB, outro cluster
e, em seguida, temos que
fornecer um pote para o SGD P. arquivo volve. Como fizemos antes. Eu fornecerei o FQDN porque
você alterou o pote ADC Elastic Search slash
slash slash SRB dot py arquivo e copie essas duas
configurações na parte inferior do meu arquivo YAML de ponto do Elastic
Search. E agora posso salvar esse arquivo. Agora, uma vez que fizermos isso, também
copiarei esse arquivo para
minha pasta Temp. E novamente, farei um CH mais. Então e assim por diante. No meu arquivo YAML
ponto do Elastic Search dentro deles está este e pressione
Enter e há uma cópia sedentária do
nosso
apresentador de certificado. Então copie a barra, usr slash
share slash Elasticsearch, elasticsearch slash STDP dot py entrar na pesquisa de
pesquisa elástica ATC. E vamos passar para
a pasta de origem para garantir que esse arquivo esteja lá. Agora, vamos voltar para a janela do console do GCP para
baixar todos esses arquivos. Agora, aqui no console do GCP, clicarei em SSH
ao lado da minha instância ELK one. Isso abrirá o SSH para essa instância em
uma nova guia do navegador. Agora, uma vez concluídas
as conexões SSH, clique no botão Configurações no canto superior direito e clique
em Baixar arquivo
e, a partir daqui, dê o FQDN. Então, corte os certificados
elásticos de barra temporária ponto
p12 e clique em Download. Nós baixamos o
primeiro certificado. Agora, em seguida, temos que baixar
nosso arquivo STDEV dot p12. Então os termos de barra slash std
P.volve é baixá-lo uma vez. Em seguida, clique no arquivo de
download novamente. Desta vez, vamos
baixar o arquivo PEM ponto. Então, para obter o nome, entrarei no meu diretório
temporário para analisar e obter o nome
do meu arquivo PEM de pontos. Aqui. Eu baixei isso. Agora. Em seguida, precisamos baixar nosso arquivo YAML
curto Elasticsearch. Então, vou clicar em Baixar
arquivo e os termos de barra barra do ponto Elastic Search YAML, e clicarei em Download. Uma vez feito isso, posso fechar esta guia SSH e abrir
uma nova guia para o meu ELL k2. Agora, quando o SH2 GLP-2 estiver aberto, clicaremos no botão
Configurações novamente, clicamos em Upload File e iremos para
o local onde baixamos
os certificados. E o primeiro arquivo, um é o certificado de
pesquisa elástica. E eu vou clicar em Abrir, e isso carregará esse arquivo para o
treinamento elaborado de barra inicial três. E o próximo arquivo que eu quero
aqui é o arquivo HTTP. Então, vou clicar no
upload novamente e fazer o upload do SGD P.volve
para o mesmo local. E, finalmente, vou fazer o upload do meu elástico search.html, este arquivo. Agora, uma vez que
fizermos isso, temos que carregar
esses três arquivos para a terceira
instância do Elasticsearch também. Então, vou fazer isso agora. Depois de carregar
os arquivos para ELL K3, temos que ir para a instância do
Kibana, fazer a mesma coisa, mas
desta vez só temos que
carregar o arquivo Elastic
Search ca dot vm. Então, vou clicar no botão
Configurações, clicar em Upload File e no arquivo PEM de ponto para Elastic Search veja e
clicarei em Abrir. Agora, depois de carregar
todos esses arquivos, todos
eles foram enviados para o diretório inicial
do usuário
em execução do laboratório ou seu
usuário individual em suas máquinas Linux. Temos que copiá-los
para a parte correta. Primeiro, vamos para ELL K2 aqui. Vamos primeiro passar para o treinamento de TI do laboratório de
barra inicial três. E você pode ver se você tem um arquivo YAML de ponto do Elastic Search e dois arquivos de certificados. Primeiro quanto ao sudo
SU para se tornar raiz. Em seguida, entraremos nosso
diretório de pesquisa elástica aqui,
criaremos um novo diretório
chamado pesquisa, copiaremos nossos certificados
para este novo diretório. Então STDEV ponto p12
em terços barra. E o próximo é o certificado Elastic
Search. Portanto, ferramenta de ponto
py de certificado elástico e para pesquisar, agora vamos para o terceiro
seletor para garantir que eles foram copiados e fazer análises
aqui, tudo bem. Agora, precisamos substituir nosso
arquivo YAML de ponto Elastic
Search existente pelo novo arquivo que
acabamos de copiar. Portanto, copie o
laboratório de barra de barra inicial executando três barras elásticas search.html na barra
ETC Elastic Search. E vamos um nível
acima e fazer um ls menos l. E aqui teremos que alterar algumas configurações dentro deste arquivo YAML de ponto do
Elastic Search. Então sudo nano elastic search.html terá que ir
até o nome do ponto do nó, e teremos que
mudar isso para ELL K2, ec2, e deve ser isso. Agora parece que fiz
um erro de digitação e carreguei o nome do ponto. Precisamos que isso seja ELK dash, o número de carga 12 ou três. Então deixe-me verificar
o que eu fiz no verdadeiro k1 aqui no meu ELK um. Então vou para ETC, Elastic Search e farei um nano apenas última
coisa, search.html. E eu vou mudar isso
para traçar um também. E vou salvar isso agora
que coletamos, vamos salvar esse arquivo
também e passar para o ELK a3. Então, temos que fazer a mesma coisa. Então, pseudo-cópia
barra barra home slash biblioteca treino três barra http dot slash elastic search.html
to slash, ETC. Slash Elastic Search criou a pasta e copiou todos os certificados certos
em seu caminho. Agora, o que podemos fazer é
fazer um arquivo search.html nano ou não elástico e
podemos alterar o nome da carga. Podemos salvar esse arquivo. Agora vamos passar para
nossa instância Kibana. No Kibana,
havia apenas um arquivo, então treinamento elaborado em casa
três pela lista de fornecedores. Há apenas um
Elastic Search, ponto PM. Então vamos fazer um sudo
SU, é Co2, ETC. Corte Kibana, faça
um novo diretório chamado pesquisar aqui e copie o arquivo Elasticsearch ca dot vm do nosso
diretório de treinamento de nível para pesquisar. E agora vamos fazer um nano
no teclado AutoML aqui, a primeira coisa que
temos que fazer é descomentar a porta de ponto
do servidor. Em seguida, temos que alterar os hosts de pontos
do servidor para 0. E aqui onde diz URL de base pública
do servidor, temos que fornecer a URL, essa mesa Kibana
serviço Goneril, não, não
faremos HTTPS para
nossa interface GUI Kibana. O que vou fazer é digitar
a barra de barra http. Eu vou para instâncias de VM, copio o IP interno da instância de
microbiota, cole-o aqui e configurei o
Kibana para ser executado em 5601. Então vou digitar que
aqueles que fizeram isso
primeiro temos que especificar são
vários nomeados para Kibana. Então, vou descomentar
esse tipo de função na demonstração do Kibana aqui e aqui
precisamos especificar todas as
instâncias do Elastic Search para nossas consultas. Então, basicamente,
se você quiser que suas consultas sejam executadas em uma única instância do
Elasticsearch, você terá que especificar o
endereço IP dessa incidência. Mas como queremos que eles sejam
executados em todas as nossas instâncias, vou fornecer todas as instâncias do
Elasticsearch aqui. Voltarei às minhas anotações e copiarei esta string daqui, e removerei isso
e colarei, e corrigirei a diapedese. A única que eu fiz isso. A próxima coisa que temos que
fazer é fornecer o caminho do arquivo dot bm. Para fazer isso, temos que ir para as autoridades de
certificação SSL do ponto
Elastic Search, e vou descomentar isso. E aqui à esquerda para fornecer as partes ao meu arquivo ca dot vm. Então, vou remover tudo
isso e digitar barra
ETC barra de pesquisa de barra Kibana o nome da
barra de arquivo
vm do ponto do
Elasticsearch Elasticsearch ca dot pm. E uma vez que eu tenha feito isso, posso seguir salvar este arquivo. Agora é hora de iniciar nosso cluster
Elasticsearch. Agora vou para o meu
rendimento dado máquina. Vou digitar a CTL do sistema, iniciar o Elastic Search e,
em seguida, irei para minha máquina. No CTO do sistema fora daqui, inicie o Elastic Search
e digite sudo na frente. E então vou para minha terceira
máquina, mas a mesma coisa. Então, o pseudo-sistema CTL inicia o
Elastic Search e ele entrou, vamos ver se o primeiro jogo de instância do
Elasticsearch bem, parece que houve um problema. Então, para solucionar problemas quando você pode usar CTL geral f
menos u e, em seguida, o nome do serviço.
Então, vamos dar uma olhada. É justo iniciar o serviço. Outro lugar que você pode procurar é o registro de roupas íntimas Elastic Search. Se fizermos um ls,
haverá um arquivo de log de pontos. Então, vamos fazer um gato nisso. Diz excesso de noite para
o arquivo do certificado. Então, vamos voltar para nossa pasta
Elastic Search. Deixe-me limpar tudo aqui. Vamos fazer uma pasta ls menos l
r certificado é uma pontuação rude do Elastic Search. Insira lá e faça um, deixe-me S menos L. Nosso certificado
Elasticsearch tem permissões r, w e, em seguida, nada
para o grupo. Agora talvez precisemos
mudar isso, então faremos o modo CH. E por enquanto
vou digitar 777 e o
certificado do Elastic Search ponto p12. E farei a mesma
coisa pelo meu HTTP. Ou, para descobrir isso para
uma implantação de produção, talvez seja necessário examinar as permissões no
certificado, mas, por enquanto, vamos tentar iniciar o serviço com
essas permissões. Parece que
começou a encontrar desta vez. Então, vamos fazer um sistema CTL,
status Elastic Search. Observe que está feito. Podemos ir para a
outra instância e aqueles CDC Elastic Search quanto ao sudo SU aqui
Vamos desenhar ETC,
Elastic Search e, em
seguida, ls menos l e olhar para a pasta de origem, a
menos que coincidam com isso. E vamos ver as permissões
no certificado agora, veja o status
desta máquina. Então este está sendo executado. Vamos dar uma olhada nos
dados da terceira máquina. Então, como você pode ver, se houver um problema de permissões, seu serviço pode não aparecer. Se eu voltar para minha
primeira instância, tudo o que você precisa fazer
é se você tiver
algum problema ao iniciar este serviço do
Elastic Search, você pode ir para onde logs Elasticsearch para analisar
e examinar esse arquivo . E, como mostrei anteriormente, ele lhe dará uma dica de onde o erro foi feito por enquanto, também
mostrei como
alterar as permissões em vários arquivos para
resolver quaisquer problemas. Agora, como você pode ver, com uma permissão de 755, esse certificado foi
carregado corretamente. Então, provavelmente o que
temos que fazer é ir para o ATC Elastic Search
e entrar em busca, alterar as permissões para 755 neste
certificado do Elastic Search também. E vamos tentar fazer
o mesmo pelo nosso certificado STDP Bidwell, a
menos que tente reiniciar
os dólares de serviço para um status CTL do sistema, pesquisa de
plástico está sendo executada. Não vamos esclarecer. Em seguida, precisamos gerar as credenciais para nosso cluster
Elasticsearch. Nós vamos compartilhar o Elastic Search e estivemos dentro da análise de
benefícios, há um arquivo de senhas de configuração, então faremos o
conjunto de senhas do Elasticsearch. E vou fazer
automaticamente para gerar automaticamente todas as minhas senhas. Vá, sim, e
gerou a senha
para este cluster para mim, vou copiá-los em arquivos. Eu tenho isso. Agora, antes de fazer qualquer coisa, preciso ir à minha instância do
Kibera e depois dividir meu
teclado sem arquivo YAML de ponto. Vou fazer o arquivo sudo SU Kibana. E aqui vou aprender
sobre a rodamina Kibana. E neste arquivo, fornecerei as credenciais para o meu usuário do sistema
Kibana. Então, dessa forma, usaremos
a autenticação
por senha para o nosso Kibana para se comunicar
com o Elastic Search. Copie isso e salve esse arquivo. E vamos começar o Kibana. Vamos fazer um status
neste serviço é vetorial. Agora, o que podemos fazer é
voltar para nossa instância do
Elasticsearch, amarelo fornecido, e vamos
obter o status
desse cluster para garantir que todos os
três nós tenham se conectado. Illustrator. Então
vou para minhas anotações, copiarei o comando curl e adicionarei o nome de usuário e a senha
do usuário Elastic a este comando menos
u elastic e, em seguida, forneço a senha
para esse espaço de usuário. E eu pressionarei Enter e
alterarei o STDP para HTTPS. E percebi esse erro quando
você tenta se conectar por meio curl que existe um certificado autoassinado
e uma cadeia de certificados. Tudo o que você precisa fazer é dizer a curl para ignorar um certificado autoassinado
irá logo no canto superior direito após Carl e
menos k e pressione Enter. E aqui você pode ver que
nosso cluster tem três nós, é chamado Demo ELK e o status desse
cluster é verde. Essa é uma resposta positiva. Então, o que faremos é
copiar o endereço IP público do nosso Kibera
e ver se eles podem acessar a interface do usuário do Kibana usando isso
exerce um e a
interface do usuário do
Kibana está carregada. Então, o que faremos
a seguir é tentar ver se podemos fazer login
usando o usuário elástico. Copie a senha. Elastic band forneceu a senha
ou o que quer que seja aqui. Agora clique em Explorar por conta própria. Então, como você pode ver, eu não tive
solução bem-sucedida. É assim que você pode criar
um cluster ELK multimodo. Com isso, chegamos
ao final desta palestra. Obrigado por assistir. Vejo você no próximo. Tchau.
29. Os nós de elasticsearch: Ei pessoal, nesta palestra, vamos dar uma olhada em um cluster
Elasticsearch com mais detalhes. E o
cluster Elasticsearch é um grupo de uma ou mais instâncias de nós
que estão conectadas entre si. Agora, o que é o Elastic
Search e load? Um nó de pesquisa elástica é um único servidor que
faz parte de um cluster. E o que isso significa é que todos esses nós
dentro do arquivo de configuração YAML elástico ou curto
terão a mesma
configuração de nome de
ponto do cluster. Portanto, todos os nós que têm a mesma configuração de nome de
ponto do cluster como a mesma podem formar um cluster. Um nó armazena dados
e participa dos recursos de indexação e
pesquisa de clusters à medida que um nó
entra ou sai de um cluster, o cluster se
reorganiza automaticamente para distribuir
uniformemente os dados em todos os
nós disponíveis nesse cluster. Portanto, em caso de perda de um nó, você não perde
os dados e eles estão disponíveis em todos
os outros nós. Agora, se você estiver executando uma única instância do
Elastic Search, esse tipo de cluster
estará totalmente funcional, mas caso você perca seu nó, você perderá todos os seus dados. Portanto, se você tiver requisitos de alta disponibilidade ou tolerância a falhas, estará melhor
com o cluster. Agora, os nós em um cluster do
Elasticsearch podem ter várias funções. Isso é especificado pela definição de metas
Node.js em seu arquivo YAML de
estratégia de pesquisa elástica. Agora, aqui na tela, dei a você um
breve resumo de todas as funções de nó
disponíveis no Elastic Search. E agora vamos dar uma
olhada em cada um deles. Primeiro, vamos dar uma
olhada nos nós qualificados dominados são o nó principal em um cluster do
Elasticsearch é responsável por ações leves em
todo o cluster como criar ou
excluir um índice, rastreando qual nós fazem
parte do cluster e decidem quais gráficos
alocar para quais nós. Então, basicamente, quais
dados são armazenados em qual nó é importante
para
a integridade do cluster ter um nó
mestre estável porque o nó muscular executa todas as atividades de
gerenciamento de cluster. E se o
nó principal estiver mais estável, o cluster não consegue
descobrir o que está acontecendo. Agora, existem dois tipos
de nós qualificados mestre. Você pode ter um mestre
dedicado ou um mestre somente de votação agora
são nó mestre dedicado, como o nome sugere, é um nó dedicado que atua como um nó mestre
para esse cluster. Agora, esse tipo de configuração é benéfico se você tiver um cluster
muito grande e suas
tarefas de gerenciamento de cluster forem tanto que você precisa fornecer uma norma muscular
dedicada para clusters menores, você provavelmente não precisa de
um nó principal dedicado. Você especifica qual nó é
um mestre dedicado
fornecendo apenas o valor mestre
no valor das funções de ponto do nó. Este nó não atuará
como nenhum outro nó. Agora, um segundo tipo de carga
qualificada mestre pode ser um nó mestre somente para
votação. Agora, esse tipo de nó pode participar de uma eleição
mestre, mas nunca pode
ser um nó principal. Portanto, ele pode fornecer que vale a pena quando um mestre está sendo eleito, mas nunca lançará seu
nome para ser um nó principal. Agora, vamos dar
uma olhada nas normas de dados. Datanodes possuem as camisas que contêm os documentos
que você indexou. Portanto, eles contêm um pedaço de dados que você
armazenou em seu cluster. Datanodes tratavam de
operações relacionadas a dados, como operações de criação ,
leitura, atualização e
exclusão, como operações de agregação. Essas operações
são de entrada-saída, CPU e memória intensiva. Portanto, é sempre uma boa ideia
monitorar esses recursos
nesses nós de dados. E quando eles ficam
sobrecarregados para adicionar mais nós de dados ao
cluster para equilibrar a carga. Agora, você pode ter
um DataNode de conteúdo que acomoda conteúdo
criado pelo usuário. E eles podem idempotentar
operações como graduar ou criar, ler, atualizar e excluir essas agregações
em seu cluster. Agora, os nós de dados podem ser
configurados em vários níveis. Então, vamos dar uma
olhada em cada um deles. Agora, para dar um exemplo, digamos que seus dados tenham
chegado recentemente ao cluster. Digamos que você tenha
alguns dados de CRM que foram para o cluster
e que estão chegando. Obviamente, todos os seus associados de
vendas ou qualquer outra pessoa que
precise desses dados de CRM. Analisaremos
esses dados assim que eles chegarem. Então você espera uma alta frequência de busca por esse tipo de dados. Você o armazenará
no nível quente. Portanto, esses são dados que acabaram
de chegar e estão sendo pesquisados
com frequência. Agora, vamos dizer que os dados se tornaram provavelmente
três meses de idade, então sua lista de clientes
ficou um pouco obsoleta. Talvez seja necessário
fazer algumas pesquisas
nele como era quando os
dados acabam de entrar, você armazenará esse tipo
de dados no nível quente. Depois disso, você
tem igualdade aqui. É quando os dados ficam mais velhos e
raramente têm sido esse suporte. Você armazenará esse tipo
de dados no nível frio. E, finalmente, quando os dados, então todos os dias apenas ad hoc uma vez em um tipo de
lua azul de pesquisas, talvez você queira armazenar esse tipo de dados
no nível congelado. Uma coisa importante sobre o nível
congelado é que você
só pode armazenar
índices parcialmente montados no nível congelado. Então, basicamente, o que
acontece é que os dados nessa camada não são armazenados
no cache local. Há uma gueixa compartilhada
entre o cluster e esse tipo de dados é
armazenado nesse cache compartilhado. Então, obviamente, as
pesquisas se tornam mais lentas. Agora, o principal motivo para
ter esse tipo de arquitetura é para
que, por exemplo, para nós importantes, você
possa fornecer mais recursos, mais CPU, mais memória, etc. Então, por exemplo, um nó, mas um nó terá
mais recursos do que um nó frio e menos
recursos do que um nó cardíaco. E da mesma forma, de acordo com
o nó ainda terá um cache local, mas este é provavelmente um
sistema mais lento do que um conhecido. Dessa forma, você pode especificar recursos
mais baratos para os
níveis à medida que seus dados envelhecem. Agora, para especificar cada um
desses níveis de dados. Por exemplo, para especificar um nó
como estando na camada quente, você especificará sob funções de ponto
zero, o valor do volume de
sublinhado de dados. E para o seu voluntário
e cortesão, você especificará os dados sublinhados dos dados da
mulher sublinhando frio. Agora, em seguida, vamos
dar uma olhada no nó de ingestão. E o nó de ingestão pode executar pipelines de
pré-processamento, que são compostos de um
ou mais processadores de ingestão. Depois disso, temos nós de
coordenação. Agora, os nós de coordenação se comportam
como balanceadores de carga inteligentes. O que esses nós fazem
é dizer que você tenha um cluster grande e tenha uma grande quantidade de dados
entrando em seu cluster. Esses nós podem atuar como balanceador de
carga e beneficiar
o cluster ao descarregar a
parte de coordenação da tarefa para alguns nós específicos para que seus nós de dados
não fiquem sobrecarregados. Agora, em seguida, você tem lóbulos elegíveis
remotos. O que esses nós podem
fazer é, por exemplo, você tem
um cluster e, em seguida, nosso cluster
remoto
chamado clusterizado para. Agora você pode ativar pesquisa
entre clusters entre esses dois clusters. E você pode definir um nó
como uma carga qualificada remota. Portanto, as consultas
que atingem esse nó podem realizar uma pesquisa
no cluster remoto. Dessa forma, você pode combinar
os dados em dois clusters, mas as pesquisas em um
cluster remoto serão mais lentas. Agora, em seguida, você tem nós de
aprendizado de máquina. Agora, esses nós executam trabalhos e lidam com solicitações de
API de aprendizado de máquina. E você pode especificar esse nó configurando a regra do nó como ML. E, finalmente, você
transformou nós que transformam e lidaram com solicitações de API de
transformação. Você pode configurar esses Bye configurando a
função de ponto de carga como transformação. Portanto, esses são os tipos
de nós que você pode configurar no cluster do
Elasticsearch. Com isso, chegamos
ao final desta palestra. Nesta palestra,
tentei fornecer uma visão geral de diferentes tipos de nós em
um cluster do Elasticsearch. Onde quer que faça
é anexar alguns links na
descrição deste vídeo. Assim, você pode estudar um pouco mais sobre os diferentes tipos de nós
em um cluster do Elasticsearch. Obrigado por assistir e
verei você no próximo. Adeus.
30. Elasticsearch 8x: Ei pessoal, elastic.co, a
empresa-mãe do Elastic Search, anunciou recentemente a disponibilidade
geral do Elasticsearch
versão oito ponto x. Esta versão tem
algumas mudanças e o as etapas de instalação também
são um pouco diferentes. Vamos dar uma olhada neles agora. Aqui na tela,
tenho o que há de novo na página aberto a partir da documentação do
Elasticsearch. Em primeiro lugar, ele introduz várias alterações nas APIs restantes do
Elastic Search. Mas o que eles
fizeram foi que permitiu compatibilidade com 7 X, o que deve
lhe dar tempo suficiente, prepare-se para uma atualização. Em seguida, os recursos de segurança são ativados e configurados
por padrão. Quando você instala o Elastic Search, ele já deve criar alguns
certificados autoassinados e incluir algumas configurações segurança no arquivo YAML de
traçado do Elasticsearch. Depois disso, há segurança
nos índices do sistema. Na versão oito ponto 0, mesmo o
superusuário elástico não tem acesso nativo
aos índices do sistema. Para fornecer acesso
a índices do sistema, você precisa configurar,
permitir sublinhado, índices de
sublinhado restritos permissão para true para um usuário específico. Agora, depois disso, há
algumas melhorias na pesquisa, armazenamento, indexação e processamento de linguagem
natural. Em seguida, vamos dar uma
olhada nas notas de versão. Agora, na página da nota de lançamento, você verá alguns problemas conhecidos, o que é basicamente incerto. As plataformas Linux, a senha do usuário
Elastic e o token
de registro do gabinete não são gerados automaticamente, mas fornece uma lista de comandos que você pode executar para gerá-los após
o instalação. Em seguida, ele lista todas as
alterações quebrantes nesta versão. Agora, se você já estiver
dando suporte a um cluster de produção, eu recomendarei que você
vá e veja cada uma
dessas alterações para garantir que não
haja surpresas
após a atualização. Com isso, podemos
passar para instalar o Elasticsearch oito
pontos 0 em nossas VMs. Agora estou dentro da minha
plataforma do GCP e das instâncias de VM, tenho uma máquina ELK onde
instalaremos o
Elasticsearch np.zeros. Vou copiar o
endereço IP externo desta máquina. E então, no meu
Visual Studio Code, tenho alguns passos
no lado esquerdo e no meu terminal
no lado direito. Então, vou digitar o espaço SSH, laboratório no e, em seguida, o endereço IP
externo. E eu vou clicar em Enter
aqui, digite sim. E uma vez dentro da
máquina, vou digitar sudo apt-get update
para atualizar o sistema. Em seguida, vou limpar isso
e digitar sudo apt-get install W get to install
duplicate nesta máquina. Uma vez que nós fechamos e
armazenamos, podemos começar com a
instalação do ELK Stack. Então, primeiro, vou baixar e instalar
a chave de assinatura pública. Então, copiarei o
comando e
colarei dentro do meu terminal
e pressiono Enter. Agora, o que vou fazer
é incluir todos esses comandos com a
descrição deste vídeo. Então vocês também podem ter
acesso a esses comandos. Em seguida, instalaremos o pacote HTTPS de
transporte sbt. Depois disso, limparei minha tela e, em seguida, salvaremos a definição do
diretório. Uma coisa importante a
notar é que quando diz oito pontos x para 7,6
pacotes neste local, ele dirá sete pontos x. Não
há nada
importante na URL. Apenas uma pequena mudança
de sete para oito e cole-a aqui. E isso deve baixar
as definições
do
repositório do Elastic Search Adx nesta máquina. Agora, estou pronto para instalar meu ELK Stack
nesta máquina. Então eu copiarei esse comando e colarei aqui,
e pressionarei Enter. Agora, durante a instalação, você verá algumas
informações pop-up em informações de
configuração automática de segurança. Sob este título, você verá a senha
elástica do superusuário incorporada. Então, sob essa linha, essa senha
gerou para o superusuário incorporado
elástico é esta. Você precisa salvar essa senha porque
usaremos isso mais tarde. Vou descer nas minhas anotações. Vou salvá-lo aqui. Agora, depois que tudo
estiver instalado, vou sair da minha tela. Agora, a partir daqui, primeiro
configuraremos nosso Elastic Search. Então pseudo via barra ATC, barra Elasticsearch,
elasticsearch inicia ML. Agora, neste arquivo, primeiro
alteraremos o nome do cluster. Vou chamá-lo demo ALK. Em seguida, alterarei
o nome do nó, que chamarei de ELK de um. Em seguida, irei até o host de pontos de
rede e alterarei o valor do
valor padrão para 0 ponto 0000. Depois disso, vou
descomentar a porta, mas vou deixá-la como
padrão de 90 a 100. Como este é um cluster de nó
único, não precisamos
fazer nada sob descoberta até a porta
http dot. A configuração era
semelhante ao que tínhamos que
fazer para 7 x de um
vértice em diante, você começará a ver uma
seção chamada configuração
automática de segurança do Pickin no arquivo YAML curto do
Elasticsearch. Isso ocorre porque, como
eu disse anteriormente, o Elasticsearch agora, por padrão inclui algumas opções de segurança. Se você puder ver aqui, espera que a segurança esteja ativada por padrão. inscrição de segurança
também está ativada por padrão. Ele criou um caminho
KeyStore para comunicação e afirmações
HTTP e o arquivo é http dot p12. Também criou autenticação
mútua,
keystone e terrestre. Agora deixamos todas as
configurações como padrão e salvaremos isso. Agora aqui, se eu entrar. Meu diretório Elasticsearch. Então sudo SU, e se
eu fizer um LS aqui, você verá que existe um
diretório chamado certs. E se eu entrar em busca
e fazer uma lista, você verá a afirmação C, que é STDP
sublinhado CA dot CRD, esse certificado de transporte sob ponto de
transporte p12 e o certificado HTTPS
sob http dot py 12. Agora podemos iniciar o sistema de serviço
Elasticsearch, CTL, iniciar o Elastic Search. Agora, uma vez que o serviço
tenha começado, se eu tentar fazer um curl, assim como costumava
fazer para o sistema 7 x. Então curl menos x GET http localhost ou 9200 cluster de
sublinhado
e mantido bonito. E se eu fizer uma entrada aqui, receberei um erro porque um
cluster está realmente em HTTPS. Então, vou precisar primeiro
mudar de HTTP para HTTPS. Mas mesmo quando eu executo isso,
eu deveria receber um erro. Ele diz problema de certificado SSL, certificados
autoassinados
e queixo de certificado. Para superar isso, vou apertar a seta para cima e,
pouco antes de x chegar, vou digitar menos
k e apertar Enter. E desta vez eu tenho as
credenciais de autenticação ausentes. Agora, ainda não configuramos as
senhas de usuário de construção nesta máquina,
mas, por padrão, o Elastic
configurou a senha
do usuário elástico para nós. Então, copiarei essa senha
e pressionarei a seta para cima. E depois da opção menos p, que era ignorar
a célula enviar certificados
cada tipo em
menos u espaço elástico
e, em seguida, dois pontos, e então eu fornecerei a
senha colocar o usuário Elastic. E agora, se eu pressionar Enter, eu deveria obter o
cluster de saúde. Então, como você pode ver, o
status do cluster é verde. Com os
certificados autoassinados, você precisa usar a opção menos
K por padrão. Agora você precisa
usar o usuário Elastic, obter a integridade do cluster
pela primeira vez. Depois de fazer isso,
vamos sair da tela. Agora, antes de configurar o Kibana, temos que configurar a senha para
o usuário do sistema sublinhado do
Kibana. Então, primeiro vou entrar no usr, compartilhar o Elastic Search, e faço um LS desse compartimento,
usarei o utilitário de senhas de
configuração do Elastic Search. A partir daqui, usarei o utilitário de redefinição de
senha do Elastic Search. Então, vou digitar a barra de pontos Elastic Search redefinir a senha. E vou digitar
menos u grupo dizer
ao sistema qual redefinição de senha. E vou digitar o sistema de sublinhado do
Kibana e pressionar Enter e nunca
digitar nas proximidades aqui. E eu tenho a senha do
meu usuário do
sistema sublinhado Kibana. Ele copiará isso e eu vou
colar isso aqui também. Agora, uma vez que eu tenha feito isso, agora
posso configurar o Kibana. Então pseudo VA ATC Kibana,
Kibana ponto YAML. E novamente, vou
descomentar a porta de ponto prata, descomentar vários host de pontos e mudar do
host local ou zeros 000. E a seguir, descomentar o URL da base pública do
ponto lateral. E aqui vou digitar http, e agora precisamos do endereço IP interno
de nossa instância Kibana. Copiarei o IP interno colado aqui e
fornecerei a porta. Em seguida, podemos configurar
o self.name. E aqui vou digitar uma
demonstração, banner empoeirado. Em seguida, iremos para o
sistema Elastic Search. E lá embaixo, fornecerei o valor para o nome de usuário do Elastic
Search. Mantenha o
sistema sublinhado por padrão. E então teremos que
fornecer a senha, que acabamos de gerar. Copie isso aqui e cole-o. E agora, se você descer no
sistema elástico, tão opcional porque estamos usando
certificados autoassinados para esta demonstração, descomentarei o modo de verificação SSL do
ponto Elastic Search e alterarei o valor
de completo para nenhum. Isso ignorará quaisquer avisos para certificados autoassinados. Agora, outra coisa
a observar é que a partir da versão oito
ponto X em diante, Kibana por padrão logs
É logon em um arquivo. Em algumas versões anteriores, os logs do Kibana por padrão, mas só estão disponíveis
na saída padrão. Então, isso também é uma boa mudança. Agora vamos salvar esse arquivo
e vamos começar o Kibana. Então, sistema sudo
CTL, inicie o Kibana. Agora vamos obter esse status. Está ativo e em execução. Vamos voltar para nossa instância, copiar o endereço IP público, colá-lo em um navegador
e, em seguida, fornecer a porta 5601. Agora estou recebendo um
servidor Kibana não está pronto erro. Então, voltarei
à minha implantação. E aqui vou abrir
meu arquivo YAML novamente e procurarei erros. Agora, dentro do meu arquivo
gibbon ou DML, esqueci de colocar
o valor do host para pesquisa elástica para a
versão ponto oito. O que você precisa fazer é
vir aqui e mudar
de HTTP para HTTPS. Agora vou salvar esse arquivo novamente e vamos reiniciar o Kibana. Agora, depois que o serviço
for reiniciado, vamos verificar o status
ativo e em execução. Temos a mensagem dizendo que o servidor
HTTP executando anúncios
zeros, zeros 005601. Agora vamos voltar para o
navegador. Deixe-me atualizá-lo. Agora. Temos a página de
login do Kibana. Então vou digitar
elástico aqui e
copiarei a senha
do meu superusuário elástico, voltarei e colocarei a
senha e pressionarei Login. Clique em nunca, e estamos dentro. É assim que você pode instalar o Elasticsearch
versão oito ponto 0. As etapas são um
pouco diferentes do Elasticsearch versão 7 x, mas não são tão diferentes. A maioria das configurações está
dizendo que, se você for cuidadoso, tenho certeza que você
será capaz de confiar menos configurar seus próprios
clusters nisso, chegamos ao
final desta palestra. Vejo você
no próximo. Tchau.
31. Instalando o agente elástico e a análise de logs do Apache: Ei pessoal, existem
duas maneiras de enviar dados de seus servidores
para pesquisa elástica. Primeiro, você pode usar o beats, que são
remetentes de dados leves que enviam dados para um
cluster do Elasticsearch para cada caso de uso, há um lance específico. Por exemplo, para dados de matriz, você usa lance de métrica para dados de arquivo como arquivos de log,
você usa o FileReader. Agora, isso torna um
pouco complicado de
gerenciar porque,
dependendo do seu caso de uso, talvez seja necessário instalar
vários bits na mesma VM. Agora, o segundo método
é agente elástico. Elastic Agent é um
único agente para dados de registros, métricas, segurança e prevenção de
ameaças. Como este é um único agente, é mais fácil e rápido
implantar o monitoramento em todo
o ambiente. agente elástico faz uso de
integrações e Kibana, que fornecem uma maneira
fácil de conectar o Elastic Search a
sistemas e serviços externos. Por exemplo, se você precisar
coletar logs do servidor Web
Apache, use a
integração do Apache para instruir o agente elástico a coletar esses dados de
um servidor Apache. Essas integrações são
gerenciadas por meio da interface do usuário do Kibana. Agora, toda a comunicação entre os agentes elásticos e Elastic Search acontece
por meio do servidor da frota. Agora, esse servidor de frota
é um componente usado para
gerenciar centralmente todos os agentes elásticos. É assim que funciona. Se você criar uma
política no Kibana, sempre que essa política for criada, ela será salva no Elastic Search. Elastic Agent gerará uma chave de
autenticação
ou chave de registro, que usará para autenticar
no servidor de frutas. Depois de fazer isso, ele pedirá ao
servidor de inundação uma política. Agora, esse servidor invertido
obterá essa política do Elastic Search e a
fornecerá ao agente elástico. É assim que funciona quando uma nova política de
agente
criada no Kibana é salva no Elasticsearch. Para se inscrever na política, os agentes
elásticos enviam uma
solicitação ao servidor de frota usando a chave de registro
gerada para autenticação. Em seguida, o Fluid Server
recebe essa solicitação e obtém a política
do agente da pesquisa elástica. E, em seguida, ela muda essa política para todos os agentes inscritos
nessa política. Em seguida, o Elastic Agent usa informações de
configuração armazenadas dentro desta política para coletar e enviar dados para o Elastic Search. Agora, dê um exemplo. Digamos que você tenha
instalado o Apache neste agente e o MySQL instalado
neste agente aqui no Kibana, você atribuirá uma
política do Apache. Esse agente se inscreverá
nessa política com o servidor de flare solar da
frota enviará essa política
para este agente, o que
lhe dirá para coletar logs do servidor
Apache. Depois de obter a política, ele pode enviar esses registros e
outros dados para o Elasticsearch. Agora, esse agente que
tem o MySQL nele, não
será inscrito
na política de dívidas. Você atribuirá alguma outra
política a esse agente. Dessa forma, você pode ter servidores
diferentes enviando diferentes camadas de dados
Elasticsearch Cluster. Em seguida, existem dois métodos
para implantar agentes elásticos. Primeiro, você pode
gerenciá-los por uma frota. Isso permite que políticas e
ciclos de vida do agente sejam gerenciados
centralmente. No Kibana, há
outra opção de idades elásticas autogerenciadas, que é um caso de
uso avançado em que você
precisa gerenciar manualmente cada agente. Para esta palestra,
usaremos agentes de gerenciamento de frota. Agora, aqui estão as etapas
de configuração. Primeiro, você configura o YAML curto
elasticsearch
e, em seguida, instala um servidor de frutas. Depois disso, você instala
um agente elástico. Depois de instalar o
agente nos servidores, você
configura
uma política de agente. E, finalmente, você valida
que os dados foram enviados corretamente observando
painéis e outras métricas. Então, vamos começar. Agora, aqui na tela, tenho meu servidor elástico de
nó único. Então primeiro terei que
criar um servidor frito. Então, clicarei em
Criar Instância e, em
seguida, clicarei em Nova
e instância de VM do modelo, escolha ELK
e, em seguida, continuarei. Vou mudar o
nome para o servidor flip mudará a região
para US West One
e, em seguida, descerá
em rede. Vou me certificar de que estou dentro da VPC de pesquisa elástica
e na sub-rede de monitoramento
e, em seguida, clique em Criar. Agora, enquanto esses frutos
ou estiverem sendo criados, clicaremos em Criar Instância novamente para criar nosso servidor web. Então, vou clicar na nova
instância de VM a partir do modelo, escolher os observadores
e clicar em Continuar. Aqui, vou mudar a
região para US West One. Você pode manter o nome como está, e eu vou para o networking. E na rede,
alterarei a interface de rede do monitoramento para a sub-rede do servidor web. Em seguida, clico em criar. Agora, uma vez que tenhamos as três máquinas
virtuais prontas, podemos começar com
a instalação. Agora vou passar para o meu
Visual Studio Code. Agora, dentro
do meu Visual Studio Code, tenho minhas anotações para
instalar o agente elástico no servidor de
inundação e no
servidor web do lado esquerdo. E eu tenho meu terminal em todas as três máquinas
do lado direito. Portanto, o terminal um é dado EL, terminal dois é o servidor web e terminal três é o
meu servidor de frutas. Então, vamos começar agora primeiro, temos que ir para o servidor ELK. Então vou passar para o terminal um. E no servidor ELK, temos que adicionar essas duas configurações em
nosso Elasticsearch atingiu arquivos de configuração
YAML
vários digitação sudo VI slash,
ETC, barra Elastic Search slash Elastic Pesquise o ponto
YAML e pressione Enter. Agora, dentro deste arquivo, você verá que a
primeira configuração esperada ou o ponto de segurança ativado é verdadeiro. Entrarei no modo de inserção. E aqui, logo abaixo do ponto de
segurança esperado ativado, colarei a configuração de ponto de segurança
esperado, chave API de
ponto ativada como verdadeira. Então, ele copiará isso
e colará aqui. E uma vez que eu tenha feito isso,
posso salvar esse arquivo. Então escape e vou
escrever para este arquivo, e agora posso iniciar
meu Elastic Search. Então, pseudo sistema CTL,
reinicie o Elastic Search. Agora, depois
que o serviço for reiniciado, vamos começar como um serviço. Portanto, pseudo-sistema, CTL, status, Elastic Search, certifique-se de que o serviço
esteja ativo e em execução. E agora vamos passar
para o nosso servidor de campo, que está no terminal três. Vou mudar para um
servidor fluido nesta máquina primeiro, temos que baixar
o agente elástico. Então, copiarei o comando
curl e o
colarei no terminal
para baixar o agente elástico. Agora, uma vez que o
aplicativo do agente elástico tenha sido baixado, precisamos extrair o arquivo tar ,
copiar este comando estrela
menos Z F e colá-lo no
terminal e pressionar Enter. Agora em seguida, passaremos
para a página da Web do Kibana. Então eu tenho a página da Web do
Kibana aqui no menu de
navegação à esquerda. Vou ficar sob gestão. Vou clicar na frota
e, em seguida, irei para Configurações. Agora aqui vou clicar em Ações e as saídas
deixarão o nome como padrão e o tipo seria pesquisa
elástica porque
queremos enviar saída de servidores fluidos para o
Elastic Search e o host, Vou mudar de HTTP para HTTPS. E, em seguida, substituirei
o valor
do host local pelo endereço IP privado
da minha instância ELK. Então eu vou copiá-lo daqui
e vou substituí-lo. Agora em seguida, precisamos voltar
ao nosso Visual Studio Code
e, em seguida, precisamos
ir para o Elastic Search. E na instância do
Elasticsearch, preciso fazer o sudo SU
primeiro e depois CD EDC, Elastic Search e depois pesquisar. Agora, se eu fizer um ls
neste diretório, você verá que
ele tem meu CSRP. Então, vamos obter esse certificado. Portanto, obtenha um ponto
CA de CA de sublinhado em DB CRT. Agora, uma vez que você tenha a saída do comando cat
para certificado de CA, o que precisamos fazer
é atualizar o certificado de CA sob a configuração YAML
avançada. Dessa forma, estamos dizendo
ao sistema que usamos esse certificado de CA
para estabelecer confiança entre nosso servidor fluido e
o servidor Elasticsearch. Você pode fazer isso de duas maneiras. Você pode usar a impressão digital confiável da
CA ou colar o
certificado de CA para esta demonstração Colaremos o certificado da
CA. Agora, a maneira como você
faz isso é usar uma configuração chamada autoridades de
certificação SSL, e então você cola o ESC um certificado e
deixe-me expandi-lo. Portanto, esse é um exemplo
da tela. Então, em
autoridades de certificação SSL, copie este certificado
para sua máquina, o que seria diferente
do que ele mostra na minha. Então, vamos apenas copiar
tudo isso e eu
substituirei este e
vou colá-lo aqui. Agora você pode precisar atualizar
a formatação um pouco. Agora, vamos apenas copiar
todo esse comando e passar para nossa
configuração YAML avançada na minha página do Kibana e colar
isso aqui assim. Agora, depois de fazer isso, podemos salvar isso, salvar e aplicar configurações
e sete, implantar. Agora, depois disso,
precisamos ir aos agentes. Agora, na página do agente, ele dirá que o flips over é necessário antes que possamos
começar a inscrever agentes. Então, faremos isso agora. Agora, em Adafruit, o servidor
deixará a
política do agente como padrão. Já baixamos
o servidor fluido em nossa frota Server VM, para que possamos pular isso. Em escolher um modo de implantação, usaremos o QuickStart
para esta demonstração. O que isso faz é
permitir que o servidor fluido gere
certificados autoassinados para seu sistema de produção, você precisará escolher a
produção e fornecer seu próprio certificado em seu
fluido configuração do servidor. Agora em seguida, na etapa quatro, precisaremos fornecer a
URL do nosso host de servidor fluido. Então HTTPS, agora precisamos ir para instâncias de
VM e copiar o endereço IP
interno do
nosso servidor de frutas e colá-lo aqui e aliviar a porta como padrão Etudes 0 para esta
demonstração e clicar em Adicionar host. Agora, depois de adicionar o host, precisamos clicar em
Gerar token de serviço. Agora, depois disso, na etapa seis, nos
dá o comando
para começar nossas viradas. Ele copiará esse comando e voltará para o nosso
Visual Studio Code. E estou nas
frotas, nosso terminal. Mas antes que possamos
colar esse comando, precisamos fazer algumas alterações. Agora aqui tenho o
comando de amostra que funcionará. Então, vou colar o
comando que
copiamos da instância do Kibana. A partir desse comando,
pegaremos o URL
ES do servidor de inundação e eu alterarei as viradas sobre o
valor ES para isso. Agora, para URL, precisamos
fornecer o endereço IP privado do nosso servidor de frota. Então, irei para instâncias de VM, copiarei esse endereço IP privado
do servidor fluido, voltarei
e, em seguida, alteraremos o valor do servidor de
inundação IP privado para o endereço IP real do servidor
de inundação. Em seguida, precisamos fornecer
o token de serviço que
acabamos de gerar. Ele copiará tudo isso e
alterará o
token de serviço de valor com o novo valor
da diretiva de servidor da frota, não para o seu sistema. Isso pode ser diferente
e, depois disso, precisamos
adicionar mais dois valores. Servidor de frota ES inseguro
esse comando é necessário porque nosso servidor Elasticsearch está usando
certificados autoassinados. E também o último
inseguro é porque nosso servidor invertido
também está usando
certificados autoassinados. Agora, em sua
implantação de
produção, como você não usará certificados
autoassinados, você não precisa desses dois
últimos comandos. Agora, por outro lado, nosso terminal,
deixe-me expandi-lo um pouco. Se eu fizer um ls, você
verá que
existe um diretório para o agente
elástico. Vou cd para este diretório. Agora aqui vou digitar sudo dot slash elastic Agent
install e menos F, e então usarei
o caractere de escape. Agora primeiro forneceremos o
URL do nosso servidor fluido. Então eu vou copiá-lo das notas, colá-lo aqui e clicar em Enter. Em seguida, fornecerei o URL ES do servidor de
frota. Portanto, o URL do meu servidor Elasticsearch para
se conectar e ele foi inserido. Em seguida, fornecerei
o token de serviço, copiarei, colarei
aqui e ele entrou. Depois disso, forneceremos a política sob a qual
registraremos esse servidor fluido, que é a
política padrão e ele inserido. Em seguida, forneceremos o comando
ES insecure, que é
certificados autoassinados no Elastic Search novamente. E, finalmente, forneceremos
o comando inseguro, que é
certificados autoassinados no servidor da frota. Agora vou pressionar Enter
e isso deve iniciar a implantação do nosso
agente elástico no meu fluido server. primeiro log informa que ele está gerando
certificados autoassinados para o fluido server. Em seguida, ele tenta iniciar
o servidor fluido. Então você pode ver que a verificação SSL, TLS foi desativada porque estamos usando o modo
inseguro. E, finalmente, você tem que o agente elástico está
inscrito com sucesso. Então, agora o que podemos fazer é mover
para trás a página Kibana, e você deve ser capaz de
ver que o servidor de inundação estava conectado e
eu vou clicar em Continuar. Agora, se você estiver fluido que o
servidor foi
conectado com sucesso e estiver
configurado corretamente, você deverá ver o
status como íntegro. E quando você clicar nele, você poderá
ver alguns detalhes. E, em seguida, precisamos
verificar se ele é capaz enviar logs para o Elastic
Search, o que pode. Agora, se você tiver algum problema ao
implantar esse servidor de frota, o que você pode fazer é
se eu voltar ao meu Visual Studio Code e
limpar tudo, você pode digitar o sistema sudo CTL, agente elástico de dados, veja os logs e você deve ser capaz de
ver os logs aqui. Agora, além disso, se você implantou o agente de servidor
fluido, mas por algum motivo ele
não está se conectando e você
precisa desinstalá-lo. Se você fizer isso entrando no compartimento
do usuário e, em seguida, o agente elástico. E aqui, se eu fizer um menos h, preciso adicionar pseudo. Você deve ser capaz de ver os vários comandos disponíveis com o script de agentes elásticos. Existe um comando do Android
se você quiser registrar agentes nessa frota
que está instalado o comando, que acabamos de usar para
instalar o fluido Server Agent. Você pode reiniciar o demônio, você pode executar o demônio, você pode fazer o status do demônio e desinstalar
esse agente elástico. Portanto, pode haver alguns
cenários em que você precisa desinstalar,
reinstalar o demônio. É assim que você pode fazer isso. Basicamente, basta ir para o agente elástico do
compartimento do usuário e digitar a desinstalação de saída para fora dele agora e sair da tela. Agora, devido ao agente
clássico estar instalado e saudável, o que podemos fazer é
instalar o
agente elástico em nosso servidor web. Então, para fazer isso, vamos ao nosso terminal para
no servidor web. Agora, no servidor web primeiro,
temos que baixar o agente elástico. Então, copiarei tudo isso
de nossas anotações e colarei o comando no
terminal e pressionarei enter. Agora, uma vez que o arquivo
tenha sido baixado, podemos extrair esta estrela de
ponto menos agente plástico
Z F e pressionar enter. Agora, uma vez que você tenha feito isso, vamos voltar para a nossa
página do Kibana e depois ir para a frota. Agora, aqui, há
um botão adicionar agente. Se eu clicar em Adicionar agente
deixará a política de agente padrão. Agora já baixamos
o agente elástico. Em seguida, ele nos dá um comando. Então, vamos copiar isso e
voltar para o nosso terminal. Colarei esse comando, mas não vou executá-lo. Mas preciso fazer é acrescentar menos,
menos inseguro para este comando porque estamos usando certificados
autoassinados. Novamente, para sua implantação de
produção, você não precisará adicionar isso. Agora, se eu pressionar Enter, agora esqueci de entrar no diretório do agente
elástico
primeiro e fazer um ls. E a partir daqui, precisamos
executar esse script. Vou apertar a
seta para cima até obter o comando e agora vou
executá-lo e digitar. Sim, e eu tenho agente
elástico instalado
com sucesso. Então vou voltar para o meu Kibana e fechar quando o agente foi
instalado corretamente. Eu deveria ser capaz de
vê-lo nesta página. Então agora você pode ver, eu posso ver o servidor web. Então, novamente, clicaremos
neste servidor web. Vamos nos certificar de que
temos registros fluindo do servidor web
também, o que temos. Agora, antes de te deixar ir, quero mostrar mais
uma coisa. Agora, o agente elástico faz
uso de integrações. Agora, como nosso servidor web
é um servidor web Apache, podemos aprimorar o monitoramento
para o servidor Apache. O que faremos é
voltar para a frota. E então o que faremos é que
precisamos adicionar uma política de agente. Então, vamos criar política de agente, manterá essa diretiva de servidor web de
nome de política. Agora vamos adicionar alguma descrição. Essa política é usada para coletar métricas e registros do
Apache. Deixaremos tudo
como padrão e
clicarei em Criar política de agente. Agora, essa política é criada. O que precisamos fazer
é que precisamos adicionar algumas integrações
a esta política. Vou clicar no menu de navegação
à esquerda, e isso vai
até integrações. Então, sob
integrações de gerenciamento, aqui podemos ver as várias integrações
que estão disponíveis. Por enquanto. Estamos
interessados no Apache, servidor
Apache HTTP, então
eu vou clicar nisso. Agora, esta página fornece
uma visão geral
da integração do Apache HTTP
Server. O que faremos é clicar
em Adicionar servidor Apache HTTP. Agora, a partir de configurar o discurso de
Integração, podemos dar um nome a ele, então vamos deixá-lo como
padrão Apache um. Em seguida, manteremos
os logs
de coleta da instância Apache ativados. Não quero ativar o recurso
experimental e vamos deixar as métricas de
coleta do Apache e dos sensores também. Agora, em seguida, precisamos especificar uma política onde aplicar
essa integração. Então, clicaremos no
menu suspenso e, em seguida, escolhemos a política de servidor web
que acabamos de criar. Em seguida, clicaremos em
Salvar e continuar. E agora a mensagem diz para
concluir essa integração, adicione agente elástico ao
host para coletar dados. E vou clicar em
Adicionar agente elástico mais tarde. Agora o que precisamos
fazer é que precisamos
voltar para nossa frota, frota. Precisamos ir para
o servidor web um. Então, vou clicar nisso. E aqui, o que
vou fazer é clicar em Ações e clicar em
atribuído a uma nova política. Em seguida, escolherei a diretiva do servidor
da Web
e, em seguida, clicarei
em Atribuir política. Agora, antes de fazer isso, ele diz a política de
agente selecionada, mas coleta dados de
duas integrações, sistema, que é padrão e a Integração do Apache HTTP
Server que nós apenas configurado. Então, vou clicar em Atribuir política. Agora, uma vez que fizermos isso, clique nisso e ele diz as entradas para essa integração, nossos registros e métricas de
nossa instância Apache. E a
integração do sistema coletará logs quando logs e
métricas do nosso sistema operacional. Agora, em seguida, vamos para o menu de navegação
à esquerda
e, em seguida, vamos aos painéis. Agora, aqui você
verá que há mais
alguns painéis
disponíveis para você. O que
faremos é digitar o Apache agora para verificar se estamos
recebendo registros do Apache, podemos clicar em Logs de acesso
e erros. E na lista
suspensa à esquerda em nome do host, selecionaremos nosso servidor web. Agora, se sua integração
estiver configurada corretamente, você deve começar a ver
alguns dados como aqui. Estou vendo todas as pontuações de
resposta. Agora. Em seguida, vamos verificar
outro painel. Então, vou para o painel
e clique no Apache, digite Apache novamente. E desta vez vou
clicar em métricas, visão geral do
Apache para
ver se você está recebendo dados de
métricas do nosso servidor
Apache ou não. Agora, aqui, em
solicitações por segundo, você pode ver que há
alguns dados fluindo. É assim que você pode instalar
um servidor de frota e, em seguida, registrar seus servidores Web ou qualquer outro servidor de aplicativos
em sua frota. E, em seguida, você pode usar
integrações para coletar alguns dados significativos de seus aplicativos
ou servidores da Web. Com isso, chegamos
ao final desta palestra. Obrigado por assistir. Vejo você
no próximo. Tchau.