ElasticSearch 101 : um guia para iniciantes | Vikas Yadav | Skillshare

Velocidade de reprodução


1.0x


  • 0.5x
  • 0.75x
  • 1x (Normal)
  • 1.25x
  • 1.5x
  • 1.75x
  • 2x

ElasticSearch 101 : um guia para iniciantes

teacher avatar Vikas Yadav

Assista a este curso e milhares de outros

Tenha acesso ilimitado a todos os cursos
Oferecidos por líderes do setor e profissionais do mercado
Os temas incluem ilustração, design, fotografia e muito mais

Assista a este curso e milhares de outros

Tenha acesso ilimitado a todos os cursos
Oferecidos por líderes do setor e profissionais do mercado
Os temas incluem ilustração, design, fotografia e muito mais

Aulas neste curso

    • 1.

      Boas-vindas

      0:54

    • 2.

      Introdução ao elasticsearch 101

      2:27

    • 3.

      Visão geral dos dados

      2:17

    • 4.

      Diferença entre bancos de dados relacionais e não relacionais

      4:24

    • 5.

      Visão geral do JSON

      1:52

    • 6.

      Visão geral da API de descanso

      6:07

    • 7.

      Introdução ao elasticsearch

      4:29

    • 8.

      Pilha elástica - uma vista de olhos pássaros

      3:43

    • 9.

      Como instalar a busca elástica em um Debian Linux

      8:24

    • 10.

      Como instalar pesquisa elástica em um RPM Linux

      8:29

    • 11.

      Como instalar ELK no servidor Windows

      14:39

    • 12.

      Como proteger seu cluster usando segurança de pacote X

      5:22

    • 13.

      Como adicionar dados ao nosso cluster elk usando Kibana

      12:56

    • 14.

      Como criar visualizações com Kibana

      4:47

    • 15.

      Como contar uma história usando painéis Kibana

      6:23

    • 16.

      Apresentações em tempo real usando o Kibana Canvas

      4:55

    • 17.

      Visão geral dos reinos de autenticação elástica

      3:56

    • 18.

      Compreender controles de acesso baseados em função Kibana

      9:39

    • 19.

      Como categorizar seus painéis usando espaços Kibana

      6:43

    • 20.

      Introdução ao Logstash

      4:32

    • 21.

      Como inserir e transformar dados de CSV usando logstash

      22:10

    • 22.

      Como instalar servidor web Apache

      1:58

    • 23.

      Instalar e configurar Metricbeat

      20:15

    • 24.

      Instalar e configurar Filebeat

      22:13

    • 25.

      Instalar e configurar Heartbeat

      11:35

    • 26.

      Instalar e configurar o Auditbeat

      16:47

    • 27.

      Instalar e configurar o Packetbeat

      9:12

    • 28.

      Como implantar um cluster de vários nó

      26:23

    • 29.

      Visão geral dos nós de busca

      7:45

    • 30.

      O que é nova e elástica instalação v8.x

      10:19

    • 31.

      Como instalar agente elástico e analisar registros em apache

      18:08

  • --
  • Nível iniciante
  • Nível intermediário
  • Nível avançado
  • Todos os níveis

Gerado pela comunidade

O nível é determinado pela opinião da maioria dos estudantes que avaliaram este curso. Mostramos a recomendação do professor até que sejam coletadas as respostas de pelo menos 5 estudantes.

124

Estudantes

--

Projetos

Sobre este curso

Oi

Bem-vindo ao meu curso ELASTICSEARCH 101, um guia para iniciantes da pilha elástica, este é um curso com foco na implantação e gerenciamento da pilha de elásticos.

Este curso adota uma abordagem mãos para aprender e está focado em

  • Profissionais de DevOps que serão responsáveis para implantar e gerenciar clusters de busca elástica

  • Engenheiros de suporte de TI que serão responsáveis por suportar implantações de pilha elástica

  • e pode beneficiar desenvolvedores de software se precisarem de entender como os clusters Elasticsearch são implantados e gerenciados

Neste curso, vamos começar com alguns conceitos básicos, como quais são os diferentes tipos de dados que você vai encontrar em um ambiente empresarial e depois vamos olhar para a diferença entre bancos de dados relacionais e não relacionais antes para ter uma compreensão das APIs JSON e Resto.

Depois de ter o conhecimento pré-requisito que é essencial se você quiser trabalhar em busca elástica, vamos olhar para pesquisa elástica e pilha elástica de uma visão de olho de pássaros e então é hora de colocar suas mãos sujas, primeiro vamos configurar nosso ambiente de laboratório e então vamos olhar como você pode provisionar um cluster de pesquisa elástico de maneiras diferentes, vamos acompanhar isso adicionando alguns dados em nosso cluster através de integrações de kibana e ter uma sensação geral de kibana. Em seguida, vamos olhar para o Logstash um componente essencial da pilha elástica se você quiser transformar seus dados e ingerir alguns dados de csv usando pipelines Logstash.

Na seção final, vamos ver o que mudou na versão elástica 8 e implantar cluster v8 em um único nó.

Finalmente, vamos instalar agente elástico, que é um único agente necessário para enviar qualquer tipo de registro de seus servidores de aplicativos para o Elasticsearch.

Arquivos de curso

Documentação de elástica

Conheça seu professor

Teacher Profile Image

Vikas Yadav

Professor

Hi Everyone, 

I have been an IT engineer for over 11 years now, during this time i have worked in a many fields like networking , systems engineering, virtualization , unified communications and more recently cyber security. I lover tweaking around with systems , deploying and configuring enterprise infrastructure and applications. 

On a personal level, i love reading about historical events and characters and have been trying to learn how to surf (to no avail ;)). 

thanks

Vikas

Visualizar o perfil completo

Level: Beginner

Nota do curso

As expectativas foram atingidas?
    Superou!
  • 0%
  • Sim
  • 0%
  • Um pouco
  • 0%
  • Não
  • 0%

Por que fazer parte da Skillshare?

Faça cursos premiados Skillshare Original

Cada curso possui aulas curtas e projetos práticos

Sua assinatura apoia os professores da Skillshare

Aprenda em qualquer lugar

Faça cursos em qualquer lugar com o aplicativo da Skillshare. Assista no avião, no metrô ou em qualquer lugar que funcione melhor para você, por streaming ou download.

Transcrições

1. Boas-vindas: Bem-vindo ao meu curso na semana passada. Um a um, um guia para iniciantes para o Elastic Stack. Este é um curso prático com foco na implantação e gerenciamento do Elastic Stack. Meu nome é Ricardo e sou arquiteto sênior de soluções, com mais de 15 anos de experiência em TI. E atualmente estou trabalhando em uma empresa multinacional que projetei e implantei o Elastic Stack em um ambiente de produção. Ensinei mais de 3400 crianças na Udemy e tenho uma classificação média de 4,4 em todos os meus cursos. Este é um curso prático, focará na aprendizagem prática. Neste curso, você implantará o Elastic Stack e adicionará alguns dados ao cluster. Dois métodos diferentes, como log stretch e integrações Kibana. E também você transformará esses dados para extrair algum significado deles. Por fim, você implantará o agente elástico que extrai facilmente dados de matriz e registrados de seus servidores de aplicativos e armazenará e analisará esses dados no Elasticsearch. Então, por favor, junte-se a mim nesta jornada para aprender Elastic Stack. 2. Introdução à pesquisa elasticsearch 101: Ei pessoal, bem-vindos às minhas pontuações para iniciantes no Elastic Stack. Estou encantado que você me deu a oportunidade de guiá-lo no caminho para se tornar um profissional de busca elástica. Este curso adota uma abordagem prática para o aprendizado e é focado em profissionais de DevOps que serão responsáveis por implantar e gerenciar clusters do Elasticsearch. Ele oferece suporte à equipe que será responsável pelo suporte às implantações do Elastic Stack. E isso pode beneficiar os desenvolvedores de software se eles precisarem de uma compreensão de como clusters do Elasticsearch são diploides, observe que esta é uma pontuação iniciante, então evitarei o mergulho profundo em qualquer um dos tópicos Neste curso. Começaremos com alguns conceitos básicos, como quais são os diferentes tipos de dados que você encontrará em um ambiente corporativo. E então vamos dar uma olhada na diferença entre os bancos de dados relacionais e não relacionais antes avançar para ter uma compreensão das APIs JSON e rest depois que você tiver o conhecimento pré-requisito, o que é essencial se você quiser trabalhar no Elastic Search, veremos o Elastic Search e Elastic Stack a partir de uma visão panorâmica, e então é hora de sujar as mãos. Primeiro, configuraremos nosso ambiente de laboratório e , em seguida, veremos como você pode provisionar pesquisa elástica de maneiras diferentes. E vamos acompanhar isso adicionando alguns dados em nosso cluster por meio de integrações do Kibana. Então vou ajudá-lo a criar sua primeira visualização do Kibana. E então vamos configurar alguns painéis. Depois disso, ajudarei você a organizar seus painéis em diferentes categorias, como marketing, operações, etc., usando espaços Kibana. Em seguida, darei uma visão geral do gerenciamento de usuários no Elastic Search. E analisaremos o Elastic Search, usuários internos, funções internas e como você pode usar usuários e funções que criam controles de acesso baseados em função para o seu Elasticsearch Cluster. Em seguida, analisaremos o Log Stash, que é um componente essencial do Elastic Stack se você quiser transformar seus dados. E então vamos ingerir alguns dados CSV usando pipelines de barra de log. Na próxima seção, vou ajudá-lo a entender agentes de batidas e vários casos de uso que você pode resolver usando batidas diferentes. Ele diz que você precisa usar a métrica Btu ingest dados métricos em seu cluster do Elasticsearch. E você precisa usar 5 bits para ingerir dados de log baseados em arquivos em seu cluster do Elasticsearch. Depois disso, implantaremos um cluster Elasticsearch multimodo. E eu lhe darei uma visão geral de vários nós no ambiente do Elastic Search. Na seção final, veremos o que mudou na versão oito do Elasticsearch e, em seguida, implantaremos um cluster da versão oito em um único nó. Por fim, ele instalará o agente elástico, que é um único agente necessário para enviar um novo tipo de logs de seus servidores de aplicativos para a pesquisa elástica. Então, vamos começar. 3. Visão geral dos dados: Ei pessoal, se você está trabalhando no Elastic Search, produza predominantemente nós trabalhando em dados. Portanto, é importante ter uma compreensão de diferentes tipos de dados disponíveis. Primeiro, vamos falar sobre dados estruturados. Os dados estruturados são altamente organizados e formatados corretamente. Esse é o tipo de dados que podem ser armazenados em uma planilha. dados relacional, como SQL. Um exemplo de dados estruturados serão os números de vendas por trimestre para informações de uma empresa ou funcionário, como ID do funcionário, nome do funcionário e salário. Esse tipo de dados é mais fácil de armazenar e pesquisar, pois, como o nome sugere, ele tem uma estrutura para ele. Em seguida, vamos dar uma olhada em dados não estruturados. Dados não estruturados são mais difíceis de pesquisar. São dados que não estão organizados ou formatados. Um exemplo desse tipo de dados são arquivos de texto, arquivos vídeo ou áudio, curtidas e comentários nas mídias sociais. Esses dados representam quase 80% da pasta de dados no mundo real. E, como o nome sugere, não é estruturado. Portanto, é mais complexo armazenar esse tipo de dados e pesquisar. Agora, em seguida, vamos dar uma olhada em dados semiestruturados. Dados semiestruturados são mistos entre dados estruturados e não estruturados. São dados que não podem ser organizados em um banco de dados relacional, mas ainda têm uma estrutura solta para ele. Por exemplo, dados que podem ser organizados em torno de um tópico. E um bom exemplo desse tipo de dados são os dados de e-mail. Como os e-mails podem ser organizados através de campos como assunto, mensagem, corpo, etc. Em seguida, os dados numéricos são basicamente dados expressos em números em vez de textos, por exemplo, sensores, temperatura, idade, etc. Outro tipo de dados que você pode encontrar são dados geoespaciais. Dados geoespaciais são os dados que pertencem a um objeto na Terra. Ele contém coisas como localização, que é longitude e latitude, tamanho e forma de um objeto. Com isso, chegamos ao final desta palestra, uma visão geral de diferentes tipos de dados que você verá no campo quando você trabalha em qualquer ferramenta de transformação ou análise de processamento de dados . Espero que você tenha gostado e eu o vejo no próximo. 4. Diferença entre bases relacionais e não relacionais: Ei pessoal, existem diferentes tipos de bancos de dados que você encontrará em cada um oferece seus próprios benefícios exclusivos. Eles podem ser categorizados principalmente em Sequel, dados relacionais e bancos NoSQL ou não relacionais . Primeiro, vamos dar uma olhada em um banco de dados relacional. O banco de dados relacional é um tipo de banco de dados que armazena dados em tabelas. Em um banco de dados relacional, cada linha da tabela é um registro com um ID exclusivo chamado chave. As colunas da tabela contêm atributos dos dados e cada registro geralmente tem um valor para cada atributo, facilitando o estabelecimento de relacionamentos entre os pontos de dados e, portanto, o nome relacional sistema de gerenciamento de banco de dados ou RDBMS. Esse tipo de banco de dados só pode funcionar em dados estruturados e linguagens de programação estruturadas, como SQL, podem ser efetivamente usadas para inserir, pesquisar, atualizar ou excluir registros de banco de dados. Alguns exemplos comuns de RDBMS são Oracle, MySQL, Microsoft SQL Server e Postgres SQL. Agora, aqui está um exemplo de como é um banco de dados relacional. Digamos que você tenha uma tabela que a fonte use detalhes. E digamos que essa tabela seja chamada de usuários. Agora, a tabela deste usuário terá detalhes como ID do usuário, nome do usuário, sobrenome do usuário e sua idade. Agora vamos ver também que há outra tabela que armazena o grau educacional dos usuários. E isso pode ser relacionado à tabela de usuários usando a coluna ID do usuário. Como você pode ver, esse tipo de dados é estruturado e armazenado em tabelas, e pode ser relacionado entre si usando colunas, a coluna ID do usuário neste exemplo. Agora, vamos falar sobre bancos de dados não relacionais. Banco de dados não relacional é um banco de dados que funciona em dados semiestruturados ou não estruturados. Ele também é chamado de banco de dados NoSQL e tem um esquema dinâmico para armazenamento de dados não estruturados. Esses dados podem ser armazenados de várias maneiras, o que significa que eles podem ser orientados a documentos, orientados a colunas, baseados em gráficos ou um armazenamento de valor chave. Essa flexibilidade significa que o banco de dados pode ser criado sem ter uma estrutura definida primeiro. Agora, se você comparar isso com bancos de dados relacionais, sempre precisará predefinir a estrutura e aderir a essa estrutura ao longo da vida útil do banco de dados. bancos de dados Nosql armazenam dados em documentos que consistem em pares de chave-valor. A sintaxe varia de banco de dados para banco de dados, e você pode adicionar campos à medida que avança. A maioria dos bancos de dados iguais fornece um modelo de dados flexível com a capacidade de armazenar e combinar facilmente dados de qualquer estrutura sem a necessidade de modificar o esquema. E, portanto, é adequado para big data e aplicativos da Web em tempo real. Elastic Search é um tipo de banco de dados NoSQL que armazena dados como um documento JSON anexado a um link do blog de pesquisa elástica. Se você quiser ler mais sobre isso, agora vamos dar uma olhada em um exemplo de um banco de dados NoSQL. Aqui na tela, tenho um banco de dados NoSQL que consiste em dois documentos. Como você pode ver, a estrutura de ambos os documentos é diferente. Por exemplo, o documento número dois tem um par de valores-chave para educação, que não está presente no documento número um. Além disso, se você olhar para passatempos, há um hobby extra de natação para nosso usuário. Agora, essa flexibilidade permite que bancos de dados NoSQL sejam usados para aplicativos de big data. Agora, há outra diferença entre bancos de dados NoSQL e SQL, que é como eles são dimensionados. bancos de dados relacionais são dimensionados verticalmente e bancos de dados NoSQL ou não relacionais são dimensionados horizontalmente. O que isso significa é que quando você precisa aumentar a capacidade do seu banco de dados, a única maneira de fazê-lo em um modelo de banco de dados relacional é ter uma máquina maior. Agora, o que isso significa é tempo de inatividade para aumentar a capacidade e a tarefa de manutenção para evitar um tempo de inatividade mais tarde é pré-provisionar a capacidade. No entanto, o outro lado disso é que toda essa capacidade seria essencialmente desperdiçada até que seja necessária. não relacionais ou NoSQL resolvem esse problema dimensionando horizontalmente. O que isso significa é que sempre que você precisar de capacidade, você pode adicionar mais capacidade apenas adicionando mais máquinas ao cluster. Dessa forma, você não precisa pré-provisionar nenhuma capacidade e também não precisa de tempo de inatividade. Com isso, chegamos ao final desta palestra. Obrigado por assistir, e verei você no próximo. Tchau. 5. Visão geral do JSON: Ei pessoal, o Elasticsearch armazena dados como documentos JSON. Portanto, seria uma boa ideia ter uma visão geral do JSON. Json ou JavaScript Object Notation é um formato de troca de dados baseado em texto. E a palavra-chave aqui é a troca de dados. Como o JSON é usado principalmente para compartilhar dados, JSON é construído em duas estruturas. Primeiro, um objeto, que é uma coleção não ordenada de valor de nome ou um par de valores-chave. Em segundo lugar, uma lista ordenada de valores, também chamada de matriz. Agora vamos dar uma olhada em um exemplo de dados JSON. Aqui temos um objeto JSON. Um objeto, como eu disse anteriormente, é um conjunto não ordenado de valores de nome ou pares de valores-chave. Começa com uma chave curvada esquerda e termina com a chave direita, cada nome ou chave, e seu valor é separado por pares de dois pontos e nome-valor. Por exemplo, nome João e os 29 anos são separados por uma vírgula. Nosso exemplo também contém uma matriz que é matrizes de contato que começam com um colchete esquerdo e terminam com um colchete quadrado direito. Agora, os objetos JSON podem ter sete tipos diferentes de valores. Uma string é uma sequência de 0 ou mais caracteres envoltos em aspas duplas. Por exemplo, Meu nome é John, aqui está uma string, um número, por exemplo, 1234 ou chave JSON também pode ter outro objeto JSON como seu valor. Também pode ser um array, e também pode ser booleano, o que é verdadeiro ou falso. E, por último, o valor adjacente também pode ser nulo. Se você quiser ler mais sobre o JSON, incluí alguns links com a descrição desta palestra para que você possa entender mais profundamente. Como com o Elastic Search ele trabalhará principalmente com documentos JSON com isso para acompanhar o final desta palestra. Obrigado por assistir. Vejo você no próximo. Tchau. 6. Visão geral da API de Restos: Ei pessoal, nesta palestra, vamos dar uma olhada nas APIs RESTful, que é um método popular para se comunicar entre aplicativos de computador. Api é um acrônimo para Application Programming Interface Editor não passa um conjunto de definições e protocolos para construção e integração de software de aplicativos. Por exemplo, você pode querer usar uma API que um usuário possa fornecer um ID de aluno e sua API responderá com os motivos do exame desse aluno o benefício de usar APIs é que sua inscrição o software não precisa saber como o software do aplicativo cliente é implementado. Rest é um acrônimo para transferência de estado representacional. O que isso significa é que ele transfere uma representação do estado do recurso. E essa representação não é nada um pedaço de dados que são solicitados necessidades de seu aplicativo. O resto funciona no modelo cliente-servidor. O que isso significa é que o recurso solar contém esse pedaço de dados. Um cliente solicita esse pedaço de dados usando a operação crud, create, read, update ou delete. E para fazer essa solicitação, ele usa métodos HTTP únicos. Depois que essa solicitação tiver sido feita pelo cliente, a resposta do servidor com aquele pedaço de dados que ele está mantendo em uma representação daquele pedaço de dados que o servidor possui. Agora, vamos dar uma olhada em alguns dos métodos STDP. Post permite que você crie um novo recurso na porta do servidor, permite atualizar um recurso existente no servidor, obter permite recuperar um recurso existente e excluir, permite que você exclua um recurso existente. Esses são alguns dos exemplos dos métodos que você pode implementar usando APIs restantes. Outra coisa a observar é que as solicitações de API rest são sem estado. O que isso significa é que todas as solicitações do cliente são tratadas como novas solicitações e nenhum histórico de sessão é armazenado no servidor. Agora, antes de seguirmos em frente, vamos dar uma olhada em um exemplo aqui na tela. Tenho um exemplo de uma chamada de API usada para verificar a integridade de um cluster do Elasticsearch. Primeiro, temos o método que pode ser qualquer GET, PUT, post ou delete. No nosso caso, estamos usando o GET e esse teste o servidor que queremos recuperar algumas informações. Depois disso, especificamos o endpoint no servidor que queremos enviar uma solicitação para adicionar. É http localhost na porta 9000. Isso é importante porque podemos ter vários servidores e nosso ambiente e cada servidor pode estar executando vários serviços. Por exemplo, o mesmo servidor também pode estar executando um servidor Web na porta 80, mas queremos nos conectar a um serviço que está sendo executado na porta 9200 no host local. Depois de especificarmos endpoint, precisamos especificar o recurso nesse endpoint ao qual queremos nos conectar em nosso exemplo que a integridade do cluster de recursos. Agora, cada endpoint pode estar executando vários recursos em nosso caso porque queríamos obter a integridade do cluster. Estamos usando endpoints de integridade do cluster para se conectar e obter o status. E, finalmente, podemos especificar um parâmetro. Por exemplo, neste exemplo, queremos que o servidor responda com as informações em um formato legível por humanos ou isso para nós depois de enviarmos essa solicitação, faça isso para nós depois de enviarmos essa solicitação, o servidor responde com um resposta. Neste exemplo, o verão respondeu com a integridade do cluster no formato JSON. Você também pode obter essa resposta em vários outros formatos, por exemplo, HTML, XML ou textos simples, etc. Agora, existem várias ferramentas disponíveis para você sujar as mãos em chamadas de API. Você pode usar ferramentas especializadas como carteiros, swagger, etc. Ou você pode usar o comando plane ou curl do seu terminal Linux ou Mac. E, por fim, você também pode criar uma API chamada programaticamente de dentro do seu código com base em alguma lógica. Agora, antes de seguirmos em frente, vamos fazer algumas práticas. Tenho a janela do terminal do meu macOS. E a partir daqui tentaremos invocar uma API pública para piadas. Primeiro, preciso digitar curly. Depois disso, eu precisava ter os endpoints. Então, HTTPS, fazemos API de piadas de ponto, profundidade de pontos e, em seguida, preciso fornecer o recurso no endpoint. Então vou digitar barra, brincar barra qualquer e pressionar Enter. Como você pode ver, o servidor de piadas respondeu com uma piada. Agora, você pode usar essa API para criar uma seção de piadas em seu site, se quiser. Ou você pode ler essas piadas ou para sua empresa depende de você. Agora, antes de seguirmos em frente, eu queria mostrar como fazer exatamente a mesma coisa usando uma ferramenta chamada Postman. Agora aqui tenho a entrevista desta ferramenta para criar uma solicitação de API, vou clicar em mais. Isso abrirá o formulário da API aqui, posso escolher qual método preciso. Nesse caso, preciso obter, então preciso especificar os endpoints. Então, HTTPS, fazemos dot piada API dot dev. E então eu preciso digitar o recurso que é uma piada barra qualquer. E para executar isso, tudo o que preciso fazer é clicar em enviar. E você pode ver que eu tenho uma resposta do servidor novamente. Agora este é um exemplo muito básico, mas como este não é um curso de API STI, deixarei para você ter mais conhecimento sobre esse tópico se você ainda não o souber. Eu adicionei alguns recursos Na descrição desta palestra, para que você possa usá-lo como ponto de partida de seus estudos futuros. Agora, antes de avançarmos como cobrir uma última coisa, que são esses códigos de status. Agora, se você vir aqui, você verá o Status 200, ok, e se você passar o mouse sobre ele, você receberá uma explicação sobre as pontuações de status. Agora, toda vez que você faz uma solicitação para o servidor, ele retorna um código de volta ao cliente, o que fornece o status da solicitação. Agora, aqui na tela, tenho vários tipos de resposta que você pode esperar do servidor. resposta que começa com 22 dígitos depois disso geralmente significa que a solicitação foi bem-sucedida. Por exemplo, como vimos nos carteiros, temos 200 OK, o que significa que está tudo bem. E ele responde com três ou quatro, significa que o cliente pode usar a versão em cache do recurso solicitado. Qualquer coisa. Para XXX, significando quatro e depois dois dígitos depois disso, ou cinco, XX, significando cinco e depois dois dígitos depois disso significa um erro para XX significa um outro lado do cliente, que significa que há algo errado no cliente. Phi de x. X significa que é um erro no lado do servidor, o que significa que há alguns problemas com o servidor. Portanto, essa foi uma rápida introdução às chamadas de API rest. Há um pouco mais e eu quero que você esteja 100% confiante porque você o usará para sua gestão e administração do Elastic Search. Por favor, veja os links que anexei com a descrição deste vídeo. Com isso, chegamos ao final desta palestra. Vejo você no próximo. Tchau. 7. Introdução à pesquisa elástica: Ei pessoal, Elastic Search é um mecanismo de pesquisa e análise distribuído, que é o coração do Elastic Stack ou do mecanismo de pesquisa distribuído, é aquele em que a tarefa de indexação e processamento de consultas é distribuído entre vários computadores em vez de um único supercomputador lidando com tudo. Ele é construído no Apache Lucene e é desenvolvido em Java. Ele permite que você armazene, pesquise e analise grandes volumes de dados rapidamente e quase em tempo real e devolva respostas em consultas de milissegundos que normalmente levariam dez segundos ou mais do que dez milissegundos na pesquisa elástica usando o mesmo hardware, Elastic Search pode lidar com todos os tipos de dados, por exemplo, semicírculo estruturado, etc. sequência retornará resultados em menos de dez milissegundos na pesquisa elástica usando o mesmo hardware, o Elastic Search pode lidar com todos os tipos de dados, por exemplo, semicírculo estruturado, etc. de casos de uso para o Elastic Search. Por exemplo, você pode adicionar uma caixa de pesquisa a um aplicativo ou site para pesquisa rápida do seu catálogo. Você também pode armazenar e analisar registros, métricas e dados de eventos de segurança. Ou você pode usar o aprendizado de máquina para modelar automaticamente o comportamento de seus dados em tempo real. Elastic Search fornece uma API rest para gerenciar seu cluster, indexar e pesquisar seus dados para recursos de pesquisa, Elasticsearch oferece suporte a três tipos de consultas. Consultas estruturadas permitem pesquisar dados estruturados e são exatamente como consultas SQL para consultas de texto permitem pesquisar em campos de texto de análise, como o corpo de um e-mail aqui que você estará fazendo coisas como encontrar uma palavra específica em consultas complexas de um parágrafo, combinação de consultas de texto estruturado e completo. Agora vamos passar para documentos e índices na pesquisa elástica, a menor unidade de dados é chamada de campo. Cada campo tem um tipo de dados definido e contém uma parte específica de dados. Por exemplo, nome John, não, documentos são a unidade base de armazenamento no Elastic Search. Ou documento é composto por vários campos no mundo do banco de dados relacional ou documento será equivalente a uma linha em uma tabela. Os dados em um documento são armazenados como um campo que são pares nome-valor, e existem alguns alimentos reservados em nosso documento. Agora, aqui na tela, tenho um exemplo de dados armazenados em um documento. Neste exemplo, ID é o identificador exclusivo do documento. Tipo é o tipo de índice. Este documento faz parte de um índice, é o nome desse índice. Como exemplo, a varredura de documentos representa um artigo de enciclopédia ou entradas de registro de um servidor da Web. Agora, neste exemplo, nos referimos a algo chamado índice. Então, vamos dar uma olhada no que é. Um índice é uma coleção de documentos relacionados logicamente com características semelhantes. Por exemplo, você pode ter um índice para usuários, você pode ter um índice para produtos e um para pedidos e assim por diante e assim por diante. É a entidade de nível mais alto que você pode consultar. Uma pesquisa elástica é semelhante ao banco de dados em um banco de dados relacional. No Elastic Search é, na verdade o que é chamado de índice invertido. E o índice invertido é um mecanismo pelo qual todos os mecanismos de busca funcionam. Basicamente, esse índice consiste em uma lista de palavras únicas ímpares que aparecem em cada documento. E para cada palavra, consiste em uma lista de todos os documentos nos quais essa palavra aparece. Agora, vamos dar uma olhada nas seguintes frases que cada código de contêiner da série de TV Game of Thrones, inverno está chegando nossa fúria do sistema, e a escolha é sua. Agora vamos fazer nosso índice em ordem. Então, primeiro, escreveremos os termos em todos os três documentos em uma coluna e, em seguida, escreveremos a frequência como aparece nos três centros, está na segunda coluna. E então, na terceira coluna, escreverá o documento no qual esse termo aparece prestes a dar um exemplo, inverno aparece apenas uma vez nas três frases e não é fonte do documento, enquanto que é o segundo termo no documento um na verdade vem três vezes e aparece em todos os três documentos. Então, temos 123 aqui. Da mesma forma, isso aparece duas vezes no documento dois e na árvore de documentos como esta, podemos construir nosso índice invertido, uma combinação de termos e uma frequência é chamada de dicionário. Se voltarmos burros, e a frequência for chamada de dicionário e o número de documentos ou termo específico aparecer é chamado de postagens. Então, este será um dicionário e isso será postagens usando dessa maneira. Se você quiser fazer uma pesquisa rápida por qualquer termo, digamos que fúria Elasticsearch examinará seu índice invertido e descobrirá que fúria um PS1 e aparece no documento para, portanto, um índice termo é a menor unidade de pesquisa no Elastic Search, esse é o truque que o Elasticsearch usa para realizar pesquisas rápidas. Também incluí um link para um blog de pesquisa elástica que pode ajudá-lo a entender melhor como a pesquisa funciona no Elastic Search. Com isso, chegamos ao final desta palestra. Vejo você no próximo. Tchau. 8. Stack elástico - uma vista de olhos de pássaros: Antes de iniciarmos a implantação, gostaria de lhe dar uma breve visão geral de cada um desses produtos de pesquisa elástica que implantaremos neste laboratório, Elasticsearch é uma lista de código aberto para um distribuído esse mecanismo de análise dependente do Apache Lucene Log Stash é um pipeline de processamento de dados do lado do servidor de código aberto que ingere dados de várias fontes, transforma e, em seguida, os envia para Elasticsearch. Kibana é um painel de visualização de dados de código aberto para o Elasticsearch. Em palavras simples, digamos que você tenha dados de log de aplicativos de servidores de aplicativos. Agora, caso você não precise fazer nenhum processamento nesses dados, você pode enviá-lo diretamente para o Elastic Search para restaurá-los índice. No entanto, se você precisar fazer algum processamento personalizado, por exemplo, talvez seja necessário adicionar um ID de cliente que esteja registrado evento para que você possa vincular um evento de log específico, log a um determinado cliente. Primeiro, você terá que enviar esses dados para Log Stash, processamento ou transformação de Buda e, em seguida, enviá-los para o Elastic Search para serem armazenados. Depois que os dados são armazenados e indexados no Elasticsearch, você pode usar o Kibana que cria algumas visualizações sobre seus dados. Agora vamos falar sobre o lado do bead beat, essencialmente como agentes muito criados para fins específicos que adquiriram dados e depois os alimentam para batidas do Elastic Search ou batem em uma estrutura de bits iluminada. E facilita a criação bits personalizados para qualquer tipo de dados, se você quiser enviar para o Elasticsearch, Beats tinha recifes padrão disponíveis, que eu listei na tela. Se uma dessas batidas não fizer o trabalho, você pode usar a estrutura lipídica para criar sua velocidade personalizada. Então, vamos falar sobre algumas das batidas padrão. Primeiro, há algo que lutaria, acharíamos que o beat é leve, mais barato para encaminhar e centralizar dados de log. No início, como agente no verão alvo, luta contra grandes monitores. Os arquivos de log são locais que você especificou, coleta, registra eventos e os encaminha para o Elasticsearch são pesquisa de log para indexação ou deadbeat. Essa probabilidade é mais barata que você possa instalar em seus servidores para auditar as atividades de usuários e processos em seu sistema. Por exemplo, você pode usar a auditoria V8, a esquerda e centralizada ou eventos do Linux, mas um lance de métrica diferente é um pouco mais barato que você pode instalá-lo em seus servidores para coletar métricas periodicamente do sistema operacional e serviços que estão sendo executados na métrica prata, grande X, as métricas e estatísticas que ele coleta e desloca a saída para qualquer pesquisa elástica para Log Stash. Heartbeat é um demônio leve que você instala em um servidor remoto. Verifique periodicamente o status de seus serviços e determine se eles estão disponíveis. A diferença entre líquidos e pulsação é que a métrica só informa se seus servidores estão ativos ou inativos. Enquanto pulsação, como você se seus serviços estão disponíveis. Por exemplo, diz que você tem o Apache instalado em um líquido Southern make dirá se o servidor está ativo ou inativo. Heartbeat realmente informará se o seu site está pronto. Packet beat é um analisador de pacotes em tempo real que você pode usar com o Elastic Search. Forneça um sistema de monitoramento de aplicativos e análise de desempenho que possa superar, fornece visibilidade da comunicação que acontece entre os servidores em sua rede. Geralmente, a batida é um remetente leve para encaminhar e centralizar dados de log do sistema que lê os jornalistas. Ele também é instalar um agente em seus servidores e monitora locais gerais que você especifica, coleta eventos de log e, em seguida, encaminha esses eventos para a pesquisa elástica no Log Stash, eles não são beterraba batatas fritas. Registros de eventos do Windows para o Elastic Search ou Log Stash. Ele é instalado como uma função de serviço do Windows beat é um elástico que você implanta como uma função em seu ambiente sem servidor para coletar dados dos serviços de nuvem e enviá-lo conjunto elástico. Com isso, chegamos ao final desta palestra. Obrigado por assistir. Vejo você no próximo. Tchau. 9. 11: Ei pessoal, neste vídeo, vamos instalar e configurar o Elasticsearch e Kibana em um único nó do sistema Linux baseado em DBN. As etapas para esta palestra são as primeiras, instalaremos a chave de assinatura pública do Elastic Search. Em seguida, instalaremos o pacote HTTPS de transporte APT. Depois disso, salvaremos definições de repositório de pesquisa elástica em nosso sistema Linux. Em seguida, faremos uma atualização do sistema e, em seguida, instalaremos o Elasticsearch e o Kibana. Depois que os três aplicativos tiverem sido instalados, configuraremos o Elasticsearch e o Kibana. Vou dedicar uma palestra separada para Log Stash. E, finalmente, testaremos a conectividade com nossos serviços. Então, vamos começar. Aqui na tela, estou dentro da minha conta do GCP e na página Instâncias de VM, usaremos esta página para criar nosso sistema Linux de nó único. Clicaremos em Criar instância. Em seguida, clicarei em nova instância de VM no Modelo e, em seguida, escolherei o modelo ELK e pressionarei Continuar. Agora, a partir desta tela, posso manter o nome como ELK um, mas vou mudar a região para US West One. E então deixarei todo o resto como padrão e vou para a rede. E em rede, vou me certificar de que ele tem a tag correta, Kibana. E também vou me certificar de que ele esteja em Elasticsearch VPC e sub-rede de monitoramento. Depois de validar essas coisas, clicarei em Criar para criar minha instância do Linux. Agora, quando esta máquina estiver ligada, irei ao meu Visual Studio Code aqui. No lado esquerdo, tenho as notas para instalar o ELK Stack em uma máquina Linux. E do lado direito, tenho meu terminal aqui. Primeiro irei para minha página Instâncias de VM e, a partir daqui, copiarei o endereço IP externo da minha instância Linux. E então, dentro do VS Code Terminal, vou digitar SSH, elaborar em e colarei o endereço IP da minha instância Linux e pressionarei enter. Aqui vou digitar sim, como você pode ver, consegui me conectar com sucesso à minha instância do Linux. Agora vou primeiro digitar claro, e agora podemos começar a instalar nossos aplicativos. Primeiro, farei uma atualização sudo apt-get. Então sudo APT obtenha atualização e pressione Enter. E agora, quando o sistema for atualizado, primeiro limparei a tela. Então eu preciso instalar o portão W se ele ainda não estiver instalado no sistema. Então vou fazer isso agora. Agora, depois que esses pré-requisitos tiverem sido feitos, posso instalar a chave de assinatura pública para o Elastic Search, então copiarei tudo isso e colarei no terminal e pressionarei enter. Depois de receber a mensagem ok, posso instalar o pacote HTTPS de transporte APT. Então eu copiarei este comando sudo apt-get install epitelial transport, STDEV.S e sim e pressione enter. Assim que isso for feito, vou limpar minha tela novamente. E agora temos que salvar as definições do diretório. Então, copiarei tudo isso das minhas anotações e colarei no terminal, e pressionarei Enter. Agora, uma vez que as definições de diretório tenham sido salvas, agora podemos instalar a sessão de log de pesquisa elástica Kibana. Portanto, o comando é sudo apt-get update, atualize o sistema primeiro. Em seguida, instalaremos o Elastic Search, Log Stash e Kibana. Então eu copiarei tudo isso e vou colá-lo aqui, e eu pressionarei Enter. Agora, uma vez que todos os três aplicativos tenham sido instalados, agora é hora de configurar nossos aplicativos. Então, primeiro vou limpar isso. Então farei o sudo SU e depois vou fazer o cd no primeiro ATC Elastic Search para configurar meu Elasticsearch Service. Agora, dentro do diretório de configuração do Elastic Search, se eu fizer um LS, há um arquivo chamado Elastic Search dot YAML, que é o arquivo de configuração principal chamado Elastic Search. Então, digite essencial no sudo, o ponto Elastic Search YAML para configurar este arquivo. Neste arquivo, a primeira coisa que precisamos alterar é o nome do ponto em cluster. Então, primeiro entrarei em Inserir e depois descomentar o nome do ponto do cluster. Essa configuração é usada para definir um nome descritivo para o cluster. Então vou chamar meu cluster demo dash ELK. Agora, a próxima configuração que quero alterar é o nome do ponto do nó. Essa configuração é configurar um nome descritivo para esse nó no cluster. Então, vou chamá-lo de nó um. Agora, depois de fazer isso, posso deixar os padrões para dados de ponto de caminho e logs de pontos de caminho e precisarei entrar na rede. Em configuração de rede, quero alterar o host de pontos de rede. Por padrão, o Elasticsearch só pode ser acessado no host local. Precisamos mudar isso, então vamos alterar esse valor, vai 0. Agora, em seguida, descomentaremos a porta de ponto http, mas vamos deixá-la como está em um ambiente de produção. Se você quiser alterar a porta padrão na qual o Elastic Search acessível, você virá aqui e alterará esse valor. Agora vamos deixar a descoberta como está, porque é um cluster de nó único irá para baixo e para baixo, o que faremos é colocar em uma configuração chamada tipo de ponto de descoberta. Então, vou digitar o tipo de ponto de descoberta. E o valor dessa configuração é um nó único porque este é um servidor de nó único. Vai verificar isso nas minhas anotações. Tipo de ponto descoberto um único nó. Então, agora podemos salvar esse arquivo. Farei WQ e pressionarei Enter. E para iniciar o Elasticsearch Service, digitarei CTL do sistema, iniciarei o Elastic Search e pressionarei enter. Agora, uma vez iniciado o serviço, podemos primeiro verificar o status do serviço por sistema de digitação, CTL. Um status Elastic Search e o status mostram a execução ativa. Então eu vou controlar C, depois menos testar a conectividade com nosso cluster ALK, tipo de solo em menina menos x obter como PIB e, em seguida, localhost e , em seguida, a porta que a pesquisa elástica é executada em 90 a 100. E, em seguida, para verificar a saúde do cluster, vou precisar digitar o gesso sublinhado e depois mantido. E eu quero que a saída esteja em um formato legível por humanos. Então vou digitar bonito e clicar em Enter. Agora, o status voltou como verde e há um único nó neste cluster, que é o que queríamos. Portanto, o serviço elástico está instalado e configurado. Vou limpar tudo e seguida, é hora de configurar o Kibana. Então vou entrar em CD, ATC, depois Kibana e pressionarei enter. Agora aqui, se eu fizer um ls, você verá que existe um arquivo YAML de ponto Kibana semelhante que precisamos configurar. Então vou digitar sudo VI Kibana dot YAML e pressionar Enter. Agora, dentro do arquivo YAML do Kubernetes primeiro entrará em Inserir, depois vá para a porta de ponto de verão e depois não comentou, mas deixará a configuração como está. Este é o porto que Kibana e assim por diante. Em uma configuração de produção, talvez você queira alterá-la de 5601. Em seguida, iremos para vários host de pontos, descomente isso e alterá-lo de host local para 0 ou 0 para 0 para 0. Isso permitirá que Kibana seja acessível pelo mundo exterior. Eu mudei isso. Agora, a próxima configuração que queremos alterar um URL de base pública de ponto de verão. Então, vou descomentar isso. E então aqui o que preciso fazer é digitar http e, em seguida, o endereço IP privado da minha instância Kibana. Então, vamos para nossa página Instâncias de VM e, a partir daqui, copiarei o endereço IP interno. Agora, aqui vou digitar http, depois colarei o endereço IP interno da minha instância Kibana e, em seguida, especificarei a porta 5601. Em seguida, preciso especificar um nome descritivo para minha instância do Kibana. Então, vou descomentar o nome do ponto do servidor, e aqui vou digitar o traço de demonstração Kibana. Em seguida, preciso especificar o URL em que o host do Elastic Search está acessível. Então, aqui em hosts ensinados pelo Elasticsearch, deixarei o valor como padrão porque ele está sendo executado no mesmo servidor em que o Elastic Search está sendo executado. Então podemos deixá-lo como está agora, podemos salvar esse arquivo e agora é hora de iniciar o Kibana. Então, sistema CTL, inicie o Kibana e eu pressionarei Enter. Parece que eu fiz um sistema de erro de digitação CTL iniciar Kibana e eu vou pressionar enter. Agora, quando o serviço voltar, farei um status CTL do sistema Kibana e a atividade de serviços em execução. Então, vamos voltar às nossas instâncias de VM. A partir daqui, copiarei o endereço IP externo da minha instância. Vou abrir uma nova guia do navegador, colá-la aqui e, em seguida, especificar a porta em que o Kibana está sendo executado. Então 5601 e eu pressionaremos Enter se o Kibana estiver instalado e configurado com sucesso, você começará a ver o carregamento elástico primeiro. Agora, uma vez que o Kibana tenha carregado corretamente, você verá bem-vindo ao elástico. E se você clicar em Explorar por conta própria, você chegará à interface do usuário do Kibana. Agora, há uma última coisa que eu queria mostrar antes de deixar você ir, que é se você quiser que seu aplicativo Elasticsearch e Kibana iniciem automaticamente quando você reiniciar seu sistema, o que você terá que fazer é digitar no sistema CTL habilitar pesquisa elástica e sistema CTL habilitar Kibana, um altar mover o ponto. E com isso, chegamos ao final desta palestra. Obrigado por assistir. Vejo você no próximo. Adeus. 10. 12: Ei pessoal, Nesta palestra vamos instalar e configurar sessão de log do elasticsearch Kibana em um sistema Linux baseado em RPM. Para fazer isso, primeiro teremos que instalar a chave GPG do Elastic Search e, em seguida, teremos que configurar nossa sessão de registros de pesquisa elástica repositórios Kibana no sistema RPM. Depois disso, instalaremos nossos aplicativos. Em seguida, configuraremos o Elasticsearch e o Kibana. E depois de termos feito a configuração, podemos iniciar o serviço Elasticsearch e Kibana e testar a conectividade. Então, vamos começar. Agora, aqui na tela, estou dentro da minha conta do GCP. E nas instâncias VMI, você já pode ver o sistema Linux baseado no Debian no qual instalamos nosso sistema de pesquisa elástica de nó único anteriormente nas palestras anteriores. Aqui, clicarei em Criar Instância e, em seguida, clicarei em nova instância de VM do Modelo e, em seguida, escolherei o ELK. Então eu vou clicar em Continuar. Deixaremos o nome como ELK T2, mas mudaremos a região para US West One. Então vou descer e, no disco de inicialização, clicarei em alterar. Aqui. No sistema operacional, clicaremos no menu suspenso, e aqui escolheremos o Red Hat Enterprise Linux. Agora, podemos alterar a versão do Linux que queremos para esta máquina. Deixo como padrão e pressionarei Selecionar. Uma vez que eu fizer isso, vou para o networking. E em rede, vou me certificar de que tenho a tag de rede correta, Kibana, e estou dentro da VPC de pesquisa elástica e na sub-rede de monitoramento. E, em seguida, clicarei em Criar. Quando minhas instâncias ELK estiverem em execução, copiarei o endereço IP externo e seguida, irei para o meu Visual Studio Code. E no meu código do Visual Studio, no lado esquerdo, tenho as notas para instalar o Elastic Search em um sistema RPM. E no lado direito, tenho uma janela de terminal sob tipo de terminal em SSH e, em seguida, laboratório em. E então eu colarei o endereço IP externo e pressionarei Enter. Clique em sim. Agora, depois de me conectar a essa instância, clicarei em Limpar e agora estamos prontos para começar a instalar nossos serviços. Primeiro, temos que importar a chave GPG do Elasticsearch neste sistema. Então, copiarei tudo isso e colarei no meu sistema e pressionarei Enter. É. Não é possível abrir o índice usando as denotas de permissão V5. O que vou fazer é executar o mesmo comando usando sudo, sudo e pressionarei Enter e uma vez que a chave for importada com sucesso começará a instalar repositórios RPM. Então, primeiro terei que criar três arquivos, Elastic Search dot repo, Kibera, repo e log Slashdot repo dentro do repost da minha filha pequena ou D. Então eu copiarei o comando de primeiro toque e pressionarei Enter. Vou ter que digitar sudo primeiro. Agora vou me mudar para o sudo SU. Em seguida, copiarei o segundo comando de toque e, em seguida, copiarei o terceiro comando de toque. Então agora, se eu entrar na minha filha, repostar ou D, néfron faz um ls. Tenho meus três arquivos, Elasticsearch, repositório curto, registros, artéria gestual Po e relatório de pontos Kibana. Em seguida, teremos que configurar arquivos. Então, primeiro faremos o VI no repositório curto do Elastic Search, e entrarei em Inserir e depois terei que definir essas configurações dentro do perfil Marie. Então, vou clicar em colar e farei alguma formatação. Agora, essa definição de repositório não é nada além de primeiro ter o nome dessa configuração, depois temos o URL de onde obter o pacote. Gpt verifica a chave GPG se ela está ativada ou não e o tipo. Agora, vou salvar esse arquivo. Em seguida. Faremos um VI no repositório de pontos Kibana, e eles entrarão em insert e eu copiarei todas as configurações do meu teclado ou três perfis. Colo-os aqui. E novamente terei que fazer alguma formatação. E agora eu posso salvar esse arquivo também. E finalmente, terei que editar meu perfil de artéria esticada. Vou inserir uma cópia das configurações do log esticado ou triplo, e salvarei esse arquivo. Agora você não precisa se preocupar com essas configurações. O que vou fazer é anexar minhas anotações e o link de descrição deste vídeo que você possa ter acesso a elas também. Assim que configurarmos nossos três repositórios, agora podemos instalar tudo. Então, primeiro temos que instalar o Elastic Search e o comando é sudo yum install enabled repo. E, em seguida, ele faz referência ao Elastic Search Report que você acabou de configurar. E, em seguida, o nome do serviço é Elastic Search. Então eu vou copiar, colarei aqui e pressionarei enter. Se a seguradora pedir que você baixe um pacote de pesquisa elástica, basta dizer sim e seguir em frente. Agora, uma vez que o Elastic Search e armazenado, podemos instalar Kibana e Log Stash In digite no sudo yum instale Kibana para instalar o Kibana e pressione Enter, eu vou pressionar sim aqui. Agora, uma vez instalado o Kibana, você pode digitar sudo yum install Log Stash para instalar Log Stash NAL head, sim. Agora, uma vez que as pesquisas de log também instaladas, é hora de configurar nossos serviços. Isso seria semelhante ao que fizemos pelo nosso sistema baseado em DBN. Se você já fez isso, provavelmente poderá configurá-los por conta própria, se não o fez, acompanhe esta palestra. Primeiro, configuraremos o Elasticsearch. Então CD, ETC barra elástica pesquisa. Aqui, se eu fizer um ls, verei que há um arquivo chamado Elastic Search se eu estiver, e esse é o arquivo de configuração do Elastic Search. Então, vamos editar isso. Então, vou digitar o ponto VI Elastic Search YAML e pressionar enter. Agora aqui neste arquivo, primeiro entrarei em Inserir. E a primeira configuração que preciso alterar é o nome do ponto em cluster. Vou mudar isso para o traço de demonstração ELK. Em seguida, eu queria alterar a configuração do nome do ponto do nó, então vamos mudar isso para ELK dash one. Depois disso, posso deixar o caminho para configuração de log de pontos de dados e caminho como está, terei que ir para a rede e dentro rede o que farei é ir para o host de pontos de rede, descomentar isso e esse valor para US$0 ou 0 para 0. Agora, o que acontece é, por padrão, pesquisa elástica só é acessível a partir do localhost , alterando-a para 0 ou 0 ou 000. Estamos expondo isso a qualquer pessoa no mundo. Em seguida, descomentaremos a porta de ponto STDP, mas deixaremos a porta como padrão 9200. Se você estiver executando um cluster de produção, talvez queira alterar isso para outra porta, mas deixaremos isso como está. Agora, finalmente, vou direto na parte inferior deste arquivo. E aqui vou digitar uma configuração para o doctype de descoberta. Agora, esse valor de configurações seria uma carga única porque estamos configurando um único nó do Elasticsearch cluster ou tipo de ponto de descoberta. E o valor é nó de traço único. E agora posso salvar meu Elasticsearch atingido YAML, então vou pressionar Enter agora posso iniciar meu Elasticsearch Service. Portanto, o sistema CTL inicia o Elastic Search Agora, quando o serviço estiver ativo, ele pode fazer o status para verificar o status do serviço. Ele está ativo e em execução. Agora, para verificar a conectividade com nosso cluster, digitaremos menos x, obteremos STDP e, em seguida, localhost e, em seguida, a porta que o Elastic Search está sendo executado em 90 a 100. E, em seguida, nos conectaremos à API do cluster e ao serviço de integridade nessa API. E o que queremos é que queremos a saída em formato legível por humanos. Então, vamos digitar bonito e apertar Enter. E, como você pode ver, o status do nosso cluster é verde e o número de nós é divertido. Agora, podemos começar a configurar nosso Kibana. Então vou entrar na barra, ETC, slash Kibana, e vou limpar tudo e fazer um ls dentro deste dado ou pasta, há um arquivo chamado teclado AutoML, que é o arquivo de configuração para Kibana. Então eu vou fazer VI Kibana dot YAML. Agora vou primeiro entrar no Insert. A primeira configuração que eu quero alterar é nosso gráfico de pontos, mas vou deixar esse valor como está, porque este é um sistema de demonstração. Se você estivesse em um sistema de produção, talvez queira alterar esse valor para outra coisa. Em seguida, descomentarei o host de pontos do servidor e, em seguida, vou alterá-lo de localhost para $0 ponto 0. Então, novamente, isso o torna acessível para o mundo exterior. Agora, vários URL de base pública de pontos são o URL no qual o Kibana está acessível. Para obter o valor dessa configuração terá que ir para nossas instâncias de VM. Em seguida, no IHL k2, copiarei o endereço IP interno e digitarei http, e colarei o endereço IP interno e fornecerei a porta que tem 5601. Em seguida, alteraremos o nome do servidor, mas vou entrar em self.name, descomentá-lo e dar-lhe o nome demo dash Kibana. Então irei para anfitriões curtos do Elastic Search. E posso deixar o valor padrão porque essas instâncias do Kibana são executadas no mesmo servidor que os serviços do Elasticsearch em execução. E depois de fazer isso, posso salvar meu arquivo de configuração. E agora posso começar o Kibana. Uma vez que o gibbon eu comecei, posso fazer o status CTL do sistema Kibana e o serviço está ativo e em execução. Em seguida, irei para minhas instâncias de VM, copiarei o endereço IP público da minha instância Kibana, com base na guia do navegador e digite 5601 para se conectar ao serviço Kibana no servidor, será capaz de acessar a UI Kibana. Agora, uma vez que você chegar a esta tela, você clica em explorado por conta própria e eles devem levá-lo para a interface do usuário do Kibana. Agora, antes de te deixar ir, quero mostrar uma última coisa. Agora, se você quiser que seus serviços Elasticsearch e Kibana voltem automaticamente após a reinicialização do sistema, você precisa digitar o sistema CTL habilitar pesquisa elástica, ativar o serviço Elasticsearch e sistema CTL habilitar Kibana, habilitar o serviço Kibana. Com isso, chegamos ao final desta palestra. Obrigado por assistir. Vejo você no próximo. Tchau. 11. Instale ELK no servidor do Windows: Ei pessoal, nesta palestra vamos instalar pesquisa elástica em um servidor Windows. Para começar, vamos baixar alguns softwares. Então, primeiro vamos baixar Elasticsearch e Kibana. Depois disso, vamos instalá-lo chamado NSSS são gerenciadores de serviços não sugadores. Essa ferramenta ajuda você a instalar um aplicativo como um serviço. Agora, a razão pela qual precisamos dessa ferramenta é porque o Kibana não vem com o utilitário de pacote gratuito que pode nos ajudar a instalar o Kibana como um serviço. Então, usaremos o NSSA para o Elastic Search. Temos um utilitário chamado Elastic Search Neste escuro de volta dentro do arquivo zip de pesquisa elástica, que será usado para instalar um ativo como um Serviço no Windows Server. Agora, depois de baixarmos o NSSS, vamos baixar e instalar o 7-Zip. Depois que os Downloads terminarem, configuraremos o Elasticsearch e forneceremos nossos aplicativos, então os executaremos como um Serviço. E depois que eles tiverem começado com sucesso, testaremos a conectividade com nosso Elasticsearch Cluster e outras instâncias do Kibana em seu esboço iniciado aqui. Tenho minha janela em algum lugar, onde quer que eu esteja instalando Elasticsearch e o Kibana neste servidor, primeiro abrirei uma guia do navegador. E no navegador, vou digitar o download do Windows de pesquisa clássica e clicar em Enter. E a partir daqui vou para o URL que diz elástico. Ele baixa uma pesquisa elástica. Então, vou clicar neste link. E quando estiver neste link, vou me certificar de que estou na guia de versão do GA. E a partir do primeiro passo, vamos baixar o clássico, como se o Windows, eu clicarei neste botão Download. E enquanto isso tiver sido baixado, abrirei outra guia e vou digitar o download do Windows Kibana. E aqui também, irei para o URL de downloads do Kibana. E a partir desse URL também, irei para o primeiro passo, baixarei e descompacte o Kibana. Vou me certificar de que a espuma preta seja escolhida como Windows e clicarei no botão de download do Windows. E isso também deve iniciar o download do meu processo Kibana. Agora, enquanto isso estiver sendo baixado, abrirei outra guia e digitarei download e SSM e pressionarei Enter. E a partir dos resultados, ele escolhe o link para um ponto SSM cc e downloads. E a partir desta página da Web, irei na seção versão mais recente. Não clique no utilitário e no SSM 2.24. Então, vou clicar nisso e agora abrirei outra guia e vou digitar o download 7-Zip e ele entrar. E na página de download 7-Zip DOT ORG, clicarei no link para baixar o utilitário para Windows de 64 bits. Então, vou clicar neste link de download aqui. Agora, uma vez que todos os arquivos tiverem sido baixados, primeiro clicarei em 7-Zip instalado, 7-Zip no sistema. caixa de diálogo do instalador, clicarei em executar e, a partir daqui, escolherei a pasta de destino padrão e clique em Instalar. E uma vez instalado o IP de alguém, posso clicar em. E agora vou abrir minha pasta de downloads. Agora, uma vez dentro da pasta de download, você pode clicar com o botão direito do mouse no Elasticsearch zip e usar o 7-Zip para extrair os arquivos. Então, vou clicar em Extrair arquivos. E a partir daqui, você pode escolher o caminho onde deseja extrair esses arquivos. Agora, o que eu fiz para esta palestra é que eu já aceitei esses arquivos dentro da minha pasta de documentos. Vou para a pasta Meus Documentos e, como você pode ver, tenho uma pasta de pesquisa elástica aqui e também tenho uma pasta Kibana. Então, vamos começar a configurá-los. Vou abrir a pasta Elastic Search e, a partir daqui, escolherei o Elastic Search. Mais uma vez. Vou para o conflito. Dentro da pasta de conflitos, precisamos editar o arquivo YAML curto do Elasticsearch. Então, vou clicar com o botão direito do mouse neste arquivo e usarei o VS Code para editar esse arquivo. Você pode usar o editor de sua escolha. Portanto, sinta-se à vontade para abrir e editar este arquivo. Agora, uma vez que eu tenha aberto o arquivo YAML curto do Elasticsearch, o que farei é a primeira configuração que preciso alterar é agrupada ou nome. E eu vou mudar isso para o traço de demonstração ELK. Então eu preciso alterar o nome do nó. Então eu vou mudar isso para ELK dash one. Depois disso, não preciso especificar um caminho para meu diretório de dados ou diretório de registros porque esta é uma instância de demonstração. Então eu vou manter, diz padrão. Agora irei para a seção Rede e descomentarei o host de pontos de rede. E vou mudar esse valor para 0. Depois disso, descomentarei http dot pork, mas manterei a porta como padrão. E finalmente, irei para a parte inferior deste arquivo. E aqui vou digitar o tipo de ponto de descoberta e darei o valor único painel porque esta é uma única solução do Norton. Agora posso salvar esse arquivo e, depois de fazer isso, posso iniciar meu Elasticsearch Service. Então, para fazer isso, entrarei na minha caixa de pesquisa e digitarei o PowerShell, e aqui escolherei o aplicativo de desktop do Windows PowerShell. Agora entrou no meu console PowerShell. Vou digitar cd se precisar ir para Documentos e, em seguida, preciso ir para a pasta Elasticsearch e, em seguida, Elasticsearch novamente, e então estive dentro do bin se eu fizer um ls. Agora aqui você verá que há um arquivo chamado Elastic Search service dot Ph.D. Agora precisamos executar este arquivo. Primeiro vou sair da minha tela. E a partir daqui vou digitar barra de pontos Elastic Search, traço, ponto de serviço. E aqui preciso digitar instaladores. Então, barra de pontos Elasticsearch service dot VAT space instale, e eu clicarei em Enter. Agora, isso deve iniciar a instalação de um ativo, como um Serviço. Depois que isso for concluído, o que você pode fazer é ir para serviços ponto MSC da sua caixa de pesquisa. Aqui, você pode encontrar o serviço Elasticsearch e agora você pode iniciar o serviço. Mas primeiro, alteraremos o tipo de inicialização no serviço de manual para automático para que o serviço seja iniciado após as inicializações celulares entrarem automaticamente nas propriedades. Vamos para o tipo de inicialização e alteraremos isso para automático e clicaremos em Aplicar. Depois de fazer isso, você pode clicar em Iniciar para começar. O serviço vai clicar em OK. E você pode ver que os serviços estão sendo executados. Agora, deixe-me maximizar minha publicação. Agora, aqui, você também pode usar o mesmo utilitário para gerenciar esse serviço também. Deixe-me mostrar o uso. Se eu colocasse em ponto, o serviço de pesquisa clássico armazenado VAT e pressionasse Enter. Agora você pode ver o uso. Você pode instalar um serviço de remoção de serviço, iniciar a parada e gerenciar um serviço. Agora, vamos tentar interromper esse serviço usando esses utilitários para que eu possa digitar estoque e pressionar Enter. Agora recebi a mensagem de que este Elasticsearch Service foi interrompido. E posso validar isso entrando em meus serviços ponto MSC e clicar no botão Executar esta atualização, você pode ver que o serviço foi interrompido. Agora vamos iniciar o serviço e pressionar Enter, e temos a mensagem de que os serviços foram iniciados. Então, vamos validar isso novamente. Então, clicarei em atualizar e você pode ver que o serviço estava sendo executado para testar a conectividade com nossa instância do Elasticsearch, o que precisamos fazer é abrir a janela do Chrome. E a partir do Chrome, vamos abrir outra guia. E aqui vamos digitar http slash slash host local e, em seguida, compramos de 90 a 100 e pressione Enter nervosa services up. Você verá algumas informações voltando do cluster. Agora, o que você também pode fazer é observar a integridade do cluster. Para fazer isso, você digitará barra após o URL e sublinhará o gesso outra barra e cabeça e, em barra após o URL e sublinhará o gesso outra barra e cabeça e seguida, ponto de interrogação e, em seguida, líquido bastante a cabeça do cluster. Agora você pode ver que o status do cluster está verde e o número de nós é um. Então, é assim que você pode instalar a pesquisa elástica em uma máquina Windows. Em seguida, configuraremos nossa instância Kibana. Agora, para configurar nosso Kibana, abrirei o explorador de arquivos. E a partir daqui irei para Documentos. E abrirei minha pasta Kibana. E depois a pasta Kibana novamente e depois config. E dentro do Config, precisarei editar o Kibera TML finance, então vou clicar com o botão direito do mouse sobre ele e clicar abrir para abrir este arquivo em um editor. Agora, dentro desse arquivo, vou descomentar solver.py, mas deixá-lo como padrão. Em seguida, descomentarei o host de pontos do servidor e alterarei o valor do host local para 0 ponto 000. Em seguida, alterarei o URL de base pública de vários pontos, então vou descomentar isso. E para obter seu valor, você precisa ir para as próximas configurações do netflix. E a partir daqui, clicarei em Rede novamente para obter o endereço IP desta máquina, que é padrão 0 ponto a ponto 15. Portanto, o URL da base pública será STDP dez pontos 0 ponto 15. E então o livro pegou o 601. Portanto, este é o URL no qual dar honra estará acessível. Vou descer um pouco. Em seguida, alterarei o nome de vários pontos e alterarei o nome descritivo da minha instância Kibana do seu host melhorou o traço de demonstração Kibana. Em seguida, descomentarei os hosts de pontos do Elastic Search. Mas posso deixar isso como padrão porque essa instância do Kibana é instalada localmente no mesmo servidor com pesquisas elásticas. Agora, em seguida, por padrão, o Kibana registra, é logon STD out. Queremos mudar isso e queremos configurar nosso Kibana ou registrar seus registros no registro de sangue em algum lugar. Para fazer isso, precisamos descer e encontrar a linha que diz login dot t ESD. Está online 97, vou descomentar isso. E antes de alterar seu valor, abrirei meu explorador de arquivos e vou subir um nível. E aqui vou criar uma nova pasta chamada logs. E eu vou abrir isso. E então vou clicar com o botão direito do mouse nos logs na barra superior. E copiarei textos de endereços, e agora vou substituir o estradiol por este texto. Aqui, farei outra barra e fui chamar meu arquivo de log Kibana dark low. Então, com isso, o Kibana gravará registros nesse arquivo. Agora, também podemos descomentar o ponto de registro silencioso e registrar o ponto silencioso, mas manteremos esses valores como falsos. Agora, se você quiser um registro detalhado, você pode descomentar isso e alterar seu valor de false para true. Isso lhe dará detalhes de nível granular do Kibana bloqueado. Agora, podemos salvar esse arquivo. Agora, antes de usarmos um SSM para iniciar o Kibana como um serviço, quero mostrar como iniciar o Kibana manualmente. Então irei ao meu PowerShell e daqui e digito cd e a partir de documentos, entrarei no Kibana e depois Kibana novamente. E então, de dentro, Kibana vai se dobrar desta vez. E aqui se eu fizer um ls, você verá que há um arquivo chamado Kibana dot dot. Precisamos executar esse arquivo. Primeiro. Vou limpar isso, e então vou digitar barra de pontos Kibana, e pressionarei Enter. Agora, depois disso, vamos passar para a janela do nosso navegador e digitar o ponto de barra http, ponto para ponto 15 e receber uma porta 5601 e eu pressionarei Enter. E isso deve me levar minha página do Kibana, não dependendo de quão poderoso seu servidor Windows seja. Pode levar algum tempo para o Kibana carregar, então dê algum tempo. Agora, depois disso, vamos ver como instalar o Kibana como um serviço. Primeiro, abrirei o PowerShell e interromperei essa instância. Pressione Control C e ele entra e gerenciou o plano de fundo minuto do sistema que posso digitar, sim, vou dominar isso. E uma vez que eu estiver fora disso, sairei por Kibana, abrirei meu explorador de arquivos que baixar, extrair um SSM. Então 7-Zip. Se arquivos, e eu escolherei documentos e clique em OK e, em seguida, em OK novamente. E quando um FSM estiver dentro dos meus documentos, posso voltar ao PowerShell e CD e SSM e fazer um LS aqui. Agora, aqui há outra pasta chamada SSM, então vamos fazer um cd para isso e fazer um LS daqui. Preciso entrar em quando 64 porque minha máquina já conhece 64 máquinas. Se você estiver em uma máquina Windows de 32 bits, precisará entrar nesse diretório. Vou entrar em quando 60 quartos, então CD em 64. Se eu fizer um LS aqui, haverá um arquivo EXE chamado SSM dot EXE. Então, vou fazer barra de pontos e ponto SSM EXE. E para mostrar o uso, vou terminar aqui. Agora, o uso é desnecessário, uma das opções e, em seguida, alguns argumentos. Instale um serviço, precisamos usar uma instalação SSM. Então, aqui vamos digitar a barra de pontos e o espaço SSM EXE na loja. E agora precisamos dar o nome do serviço. Então Kibana e pressione enter. Depois de pressionar Enter, ele abre uma caixa de diálogo. E dentro dessa caixa de diálogo na guia do aplicativo, precisamos especificar o caminho para o arquivo em lote do Kibana. Vou clicar neste botão aqui. Em seguida, iremos para Documentos, Kibana, Kibana e depois bin. E a partir daqui vou especificar manter nosso arquivo em lote e clicar em abrir agora e abrir a etapa detalhada. Posso digitar alguns detalhes, então vou digitar Kibana e a descrição também será Kibana. Você pode especificar que o tipo de inicialização pode ser automático, automático, atrasado, manual ou desativado. Vamos deixar isso como automático. Você pode especificar o login como informações aqui, dependências desse serviço, o comportamento de desligamento da prioridade do processo. Mas deixamos tudo como padrão e clicamos no serviço de instalação depois que ele me der uma confirmação de que os serviços Kibana instalados, posso clicar em Ok. E isso tirará a caixa de diálogo, protegerá o status do serviço Kibana. Posso digitar NASM, cmd.exe status de espaço Kibana e pressionar Enter lá, ele diz Estoque de serviço. Primeiro, temos que iniciar o botão da tecla espaço stark space stark service nsf dot EXE e pressiono Enter. Agora tenho a confirmação de que essa operação de serviço foi concluída com sucesso. Então, irei para a janela MSC do ponto dos meus serviços, atualizarei isso e irei ao meu serviço Kibana. E posso ver que os serviços Kibana estão sendo executados. Então, vou abrir outra guia do navegador e clicar em Atualizar e carregar cargas virais de segurança. Pode levar algum tempo novamente. Vou postar o vídeo aqui. Agora demorou alguns minutos para meu incenso Kibana voltasse, mas agora é possível clicar em Explorar sozinho e começar a trabalhar na minha UI do Kibana. Agora, antes de deixar você ir em seguida, valide que nossa instância do Kibana está fazendo logon no arquivo de log que eles especificam. Então eu vou para documentos Kibana, Kibana, e depois vou entrar em registros. Posso ver que meu arquivo de log de pontos Kibana está lá e tem alguns data centers. Abra-o. E aqui você pode ver que o Kibana está escrevendo dados de log x dentro desse arquivo de log. Então, com isso, chegamos ao final desta palestra. Mostrei a você como instalar o Elasticsearch e o Kibana em um Windows Server. Obrigado por assistir. Vejo você no próximo. Tchau. 12. 14: Ei pessoal, nesta palestra vamos configurar segurança de espera em nosso Elasticsearch Cluster. Primeiro, vamos parar o Kibana no serviço Elasticsearch. Em seguida, habilitaremos as esperanças de ir para o dia dentro desse arquivo de configuração do Elastic Search. Em seguida, iniciaremos o serviço Elasticsearch. Depois disso, configuraremos credenciais padrão para usuários internos do Elastic Search. Em seguida, configuraremos o Kibana para usar a autenticação por senha para se conectar ao nosso Elasticsearch Cluster. E, finalmente, começaremos nosso serviço Kibana e testaremos a conectividade. Vamos começar. Aqui na tela, tenho minhas anotações para configurar a segurança esperada em nosso Elasticsearch Cluster e, no lado direito, minha conexão SSH dentro do meu computador ELL fornecido. Este é um cluster ELK de nó único que implantamos em um pacote DBN. Então aqui, primeiro, tenho que parar Kibana, uma busca elástica. Então vou digitar o sistema CTL, parar o Kibana e o CTO dos sistemas interromper a busca elástica. Uma vez que eu tenha serviços de placa fortes primeiro, terei que habilitar a espera dentro do Elastic Search atingiu o Yammer. Então, iremos para o Elasticsearch. E então aqui vamos digitar o ponto VI Elastic Search YAML. E neste arquivo vai direto para baixo, e entrarei no modo de inserção. E na parte inferior, adicionarei a configuração espera que a segurança seja ativada como verdadeira. Então eu vou copiá-lo e colarei aqui. E agora posso salvar esse arquivo. Agora, em seguida, terei que iniciar meu cluster do Elasticsearch. Então vou digitar o sistema CTL, iniciar o Elastic Search. Agora, uma vez que os serviços do Elasticsearch foram iniciados, vamos dar uma olhada no status do sistema CTL Elasticsearch, ele estará ativo e em execução. Agora, em nosso vídeo anterior, usamos o comando curl para testar a conectividade com esse cluster. Agora, se eu fizer um Control R e digitar Curl, e se executarmos esse comando novamente, vamos ver o que acontece. Recebemos uma exceção de segurança de que estamos perdendo as credenciais de autenticação. O que teremos que fazer agora é que teremos que gerar as credenciais de autenticação para nossos usuários internos. Então, vou limpar a tela. E para fazer isso, teremos que ir para usr, compartilhar o Elastic Search e depois bin. E se eu fizer um LS aqui, você verá que há muitos utilitários dentro dessa pasta. O que procuramos é o utilitário de senhas de configuração do Elastic Search. Então, vou digitar as senhas de configuração do traço do Elasticsearch na barra de pontos . E aqui eu tenho dois modos. Eu posso entrar no modo interativo e definir cada senha sozinho. Então, deixe-me mostrar que primeiro vou digitar interativo e eu vou clicar, e diz que iniciando a configuração da senha para usuários reservados. E ele dá um nome de usuários e diz que você será solicitado a inserir senhas à medida que o processo avança, confirme que você gostaria de continuar. Vou digitar aqui primeiro. O que eu gostaria é Elastic Search gerasse senhas automaticamente para mim. Então, faremos isso. Vou digitar auto e pressionar enter. E agora diz novamente, mas desta vez diz que as senhas serão geradas aleatoriamente e impressas no console usando auto, as senhas são geradas automaticamente, enquanto que, usando interativo, elas são inserido manualmente pelo usuário. Então, vamos digitar sim, para gerar minhas senhas automaticamente. Tenho a senha aqui, então copiarei tudo isso e pagarei dentro das minhas anotações. Agora, uma vez que eu tenha feito isso, deixe-me limpar isso. Vamos fazer cd para sair de tudo e limpar. Agora, vamos executar nosso comando curl novamente. Mas desta vez o que eu quero fazer é usar a opção menos u para especificar o nome de usuário e a senha logo após Carl, vou digitar menos u e vou digitar elástico como nome de usuário. Elastic é um superusuário no cluster Elasticsearch. E então especificarei a senha para meu superusuário elástico. Então eu vou fazer o controle C. Colarei aqui e depois colocarei um espaço. E agora, se eu pressionar Enter, você verá que consigo obter informações de cluster. Novamente, isso significa que nosso cluster está configurado corretamente com a autenticação de segurança e senha esperada. Agora a seguir, a instância do Ikebana, se tentarmos iniciá-la agora, nos dará um erro porque não pode se conectar ao Elasticsearch. Portanto, temos que fornecer as credenciais do Elastic Search para minha instância do Kibana para se conectar ao cluster do Elasticsearch. Para fazer isso, faremos cd ADC, Kibana e, em seguida, em Kibana, editaremos o arquivo YAML de ponto Kibana. E dentro desse arquivo, entrarei na inserção e entrarei na seção onde diz que o Elasticsearch ensinou nome de usuário e o nome de usuário interno usado para essa integração é o sistema de sublinhado Kibana. Portanto, esse é o nome de usuário. Então, tudo o que precisamos fazer é descomentar a senha e remover o valor padrão e copiar a senha para o usuário do sistema Kibana e colá-lo aqui. E depois de fazer isso, você pode salvar esse arquivo. E vamos começar o serviço Kibana. Sou a estrela do CTO Kibana. Agora vamos fazer um status e o serviço está ativo e em execução. Agora, quando carregamos a página da Web do Kibana, ela deve nos pedir para autenticar. Então, vou fechar esta guia. Copiarei o endereço IP público da minha máquina novamente, e vou colá-lo e digitarei 5601. E vamos ver o que acontece agora, neste momento, ele está nos pedindo o nome de usuário e a senha. E aqui, em nome de usuário, vou digitar elástico e, sob senha, colarei na senha para um login do superusuário elástico. E agora você pode ver que estou dentro do Kibana usando meu elástico de usuário interno para examinar todos os perfis de usuário nesta instância do Kibana. Você pode entrar no gerenciamento e, em seguida, entrar no gerenciamento de pilhas e entender o gerenciamento. Você pode entrar em usuários. E a partir daqui você poderá ver todos os usuários internos que foram criados quando o configurarmos esperam segurança neste sistema. Com isso, chegamos ao final deste vídeo. Obrigado por assistir. Vejo você no próximo. Tchau. 13. Como adicionar dados ao nosso cluster de elk usando Kibana: Ei pessoal, nas últimas palestras, instalamos nosso cluster Elasticsearch. Agora é hora de colocar alguns dados em nosso cluster. Primeiro, enviaremos dados que não sejam de séries temporais e, em seguida, enviaremos dados de séries temporais. E então mostrarei a diferença entre ambos. Então, vamos sujar nossas mãos aqui na minha tela. Tenho minha instância do Elasticsearch. Então, copiarei seu endereço IP externo, abrirei outra guia do navegador, colarei e houve 5601 e me conectarei à minha instância do Kibana. Agora, uma vez que eu estiver na página inicial da minha instância do Kibana, há um padrão chamado upload de um arquivo, então eu vou clicar nele, fazer upload de alguns dados. Agora, usando esse padrão, você pode fazer upload de arquivos de até 100 MB tamanho e eles podem estar no seguinte formato. Pode ser um arquivo de texto delimitado como CSV ou TSV, ou arquivo JSON delimitado ou um arquivo de log com um formato comum para carimbo de data/hora. Para esta palestra, enviaremos arquivos de texto delimitados que podem ser CSV ou TSV. Agora, para obter algum conjunto de dados para este tutorial, abrirei outra guia do navegador e irei para um site chamado kaggle.com. E no Kaggle.com irei para conjuntos de dados. Então, vou apertar enter. Agora, neste site, você terá que se registrar ou se inscrever neste site para baixar os conjuntos de dados. E depois de fazer a partir do menu de navegação à esquerda, se você estiver em conjuntos de dados em busca dos conjuntos de dados usando este botão Sair do status de pesquisa. Agora, você também pode filtrar os conjuntos de dados desejados. Por exemplo, como só posso fazer upload de até 100 MB arquivos, vou digitar 100 MB aqui e digitar, no tipo CSV. E o tamanho inicial do arquivo pode ser de 0 e b e aplicação militar. Agora, a partir dos resultados, clicarei no conjunto de dados chamado de programas da Netflix. E aqui posso ver o tamanho desse conjunto de dados, que é de cerca de 90 KB. Se eu clicar em compacto, poderei ver alguns dados de amostra dentro do conjunto de dados. E agora vou clicar no download para baixar este arquivo. Este arquivo é baixado como um arquivo zip. Então, vou mostrar no Finder e, em uma janela do Finder, está nos meus downloads. Então, vou clicar duas vezes nele para extrair esse arquivo. E agora você pode ver que eu tenho o arquivo netflix dot csv na minha máquina agora voltará para Kibana. Posso arrastar e soltar esse arquivo, mas posso fazer o upload desse arquivo. Então eu vou para meus Downloads aqui. Vou procurar este arquivo. Então netflix dot CSV, e eu clico em Abrir. Agora, o que o Kibana faz é analisar as primeiras mil linhas deste arquivo e coletar alguns dados sobre esse arquivo. Por exemplo, ele descobriu que é um arquivo delimitado e o delimitador é uma vírgula, e também tem uma linha de cabeçalho. Agora podemos clicar na configuração de substituição para substituir algumas configurações neste arquivo. Ou posso olhar para a explicação da análise para descobrir como Kibana chegou a essa conclusão. Então eu vou clicar nisso e você pode ver alguma explicação dessa análise que vou mais perto agora, você também pode ver alguns arquivos iniciados. Por exemplo, existem 13 valores de classificação distintos em 999 documentos. Depois de passar por tudo isso, clicarei em importar para importar esses dados na próxima página me pedir para criar um índice. Eu posso fazer isso usando método simples ou método avançado para esta demonstração, usaremos apenas o método simples e o nome do índice. Terei que especificar o nome do novo índice que será criado. Então, vou chamá-lo de índice Netflix. Agora, novamente, index é a forma como você armazena dados no Elasticsearch. A próxima opção é criar um espectro de índice. Agora comparado a um índice, um padrão de índice é como você pode pesquisar e analisar esses dados no Kibana, índice é para armazenar dados no Elasticsearch, um padrão de índice é analisar esses dados. E Kibana, quero que um padrão de índice seja criado porque eu quero visualizar esses dados e o Kibana. Então, vou clicar em importar. Em seguida, você pode dizer que primeiro processa o arquivo, depois cria o índice, cria pipeline de ingestão e carrega os dados e, em seguida, cria um padrão de índice para esses dados. Quando tudo isso for feito, você receberá uma mensagem de importação completa. Você pode fazer esses dados descobertos para algum gerenciamento de índice. Por exemplo, você pode especificar quando esses dados forem novamente excluídos do índice etcetera, etcetera manager, botão de índice. E falaremos sobre File bit mais tarde. Mas, por enquanto, queremos descobrir esse índice em nossa guia histórica para chegar à página Descobrir, outra maneira é clicar nessas três linhas do canto superior esquerdo e depois análise e depois discutir na página descoberta no lado esquerdo, a primeira informação é o índice de urina. Se você tiver vários índices, você pode clicar nesta lista suspensa e selecionar o índice em que deseja estar, então você tem os campos disponíveis. E se você tiver mais de alguns campos, por exemplo, alguns índices podem ter 100 metros ou mais, também podem procurar nomes de campo nesta caixa. Se eu quisesse dizer, procure por classificação e obterei todos os campos que têm a palavra óleo de classificação. Remova isso. Agora, no lado direito, a primeira informação é o número de acessos ou o número de documentos neste índice. Portanto, temos 1000 documentos e em seguida, cada documento individual, se eu expandir isso, você poderá ver todos os campos e seus valores que estão neste documento. Agora, em cada campo, você verá quatro botões. O primeiro botão é filtrado por valor. Então, se eu quisesse, no meu filtro de índice para todos os documentos que têm uma descrição de classificação de 80, posso clicar neste botão e ele mostrará meu filtro no canto superior esquerdo aqui. E ele filtrará os resultados na minha guia descoberta, todos os resultados que correspondem ao meu filtro. Então você pode ver em 1000, eu tenho 15 hits onde a descrição da classificação era 82 filtro de remoção. Só vou clicar nisso. dívida Xnor era quando você quer filtrar por um valor específico, você também pode filtrar um valor. Por exemplo, neste, quero todos os filmes que não foram lançados em 2004. Filtre para o ano de lançamento de 2004. Então eu vou clicar neste menos, e isso me dará todos os filmes em que o ano de lançamento não é 2004. E novamente, removerei isso e experimentarei os documentos. Agora, a seguir, as colunas alternadas em uma tabela. Então, nesta tabela, não há colunas a partir de agora, se você quiser introduzir colunas para deixar sua tabela mais limpa para você pesquisar. Por exemplo, se eu quiser que a primeira coluna seja título, vou pentear contra o título. Vou clicar na coluna Alternar na tabela. E agora você pode ver todos os meus documentos são classificados por título. Em seguida, quero que minha coluna seja Elisa. Vou clicar na coluna Alternar na tabela ao lado do ano de lançamento. E, em seguida, quero que minha próxima coluna seja a pontuação da classificação do usuário. E eu vou clicar na coluna Alternar na tabela para incluir a pontuação da classificação do usuário também. Para não remover nenhuma das colunas alternadas, simplesmente irei para esse campo e removerei essa coluna. Agora eu posso classificar por esta coluna também. Por exemplo, se eu clicar nessa seta, ela diz classificar a pontuação da classificação do usuário crescente. Então deixe-me minimizar isso. E se eu clicar nisso, ele classificará a pontuação da classificação do usuário de forma crescente. E se eu quiser movê-lo para descendente, clicarei nisso novamente e agora ele classificará isso descendo. Agora, em seguida, você pode usar esta barra de pesquisa ou pesquisar seu conjunto de dados usando a linguagem de consulta Kibana. Então, primeiro vamos ver todos os filmes que foram lançados no ano 2 mil dos meus campos. Vou ver qual campo me dá liberação aqui. Então, o campo é chamado de ano de lançamento. Então vou digitar essa Elisa e agora posso aplicar alguns operadores. Por exemplo, dois pontos significa que esta versão aqui é igual a algum valor menor que, igual a é basicamente a Louisiana menor ou igual a algum valor maior ou igual a é o que sugere, menos que, maior que dois pontos e uma estrela para especificar se meu conjunto de dados contém um ano de lançamento em qualquer forma que filtrará todos os documentos que tenham valores nulos ou vazios para esse campo específico. Digamos que em 2004. E agora vou clicar em atualizar. E isso me mostrará todos os títulos que foram lançados em 2004. Para verificar se adicionarei lançado aqui clicando neste sinal de mais na minha tabela também. Então, mais, e agora você pode ver isso um pouco mais fácil. Agora digamos que eu queira adicionar mais um critério à minha pesquisa. O que posso fazer é colocar um espaço após minha pesquisa inicial e eu posso fazer um AND ou, OU ADD é basicamente ambos os argumentos precisam ser verdadeiros. Então vou digitar N E no meu resultado definido desta vez, quero apenas aqueles filmes que tenham uma pontuação de avaliação do usuário igual ou superior a 80. Então, vou digitar o usuário e selecionar a pontuação da classificação do usuário de preenchimento. E eu quero que o valor seja 80 e acima, então maior que um sinal igual a. E desta vez vou digitar 80 e clicar em Atualizar. Agora, fora dessas tentativas iniciais, só temos esses quatro hits. Então, é assim que você pode usar linguagem de consulta Kibana para pesquisar em seu conjunto de dados. Agora, se você quiser salvar essa consulta, por exemplo, se essa consulta for repetida várias vezes, você pode salvá-la clicando neste ícone de disquete. Vou clicar nisso e clicarei em Salvar consulta atual. E direi minha consulta de demonstração como o nome dessa consulta. Agora, como nosso conjunto de dados não tem um campo de carimbo de data/hora, não especificarei filtro de tempo de inclusão, mas se houver algum filtro no meu conjunto de dados, se eu quiser incluí-los, posso escolher isso como sim, não coloquei nenhum filtro, então removerei isso e clicarei em Salvar e minha consulta foi salva. Agora, da próxima vez, se eu quiser fazer uma reutilização minha consulta salva. Então, digamos que se eu remover tudo isso, clique em Atualizar para acessar meu conjunto original e clique neste menu suspenso ao lado do ícone de disquete e clique na minha consulta. Você pode ver que posso executar rapidamente a mesma consulta no meu conjunto de dados. Agora, em seguida, baixe alguns dados de séries temporais voltando para o Kaggle, vou para os conjuntos de dados que estão em conjuntos de dados. Vou clicar em Filtros novamente. O tamanho do arquivo seria de 0 a 100 MB. E em tags vou digitar séries temporais, e então eu vou clicar em, Agora está fora das reservas. Vou clicar no primeiro resultado, omicron casos diários por país. E aqui, se eu descer, posso ver o status que é aproximadamente quatro MB e há um único arquivo COVID variance dot CSV. E posso clicar em uma olhada compacta de alguns dados de amostra. Então, vamos baixar esses dados. Agora, uma vez que esse arquivo de dados for baixado, abrirei novamente o localizador, extrair esse arquivo. Agora eu tenho o arquivo de variância COVID. Então vou voltar à minha página do Discover, ir para a página inicial do Kibana. Posso clicar em fazer upload de um arquivo. Aqui. Vou mostrar outro método para fazer a mesma coisa. Então vou aqui e, em seguida, sob gestão, vou para integrações. Aqui posso ver que há muitas integrações padrão incorporadas ao Kibana. Então, primeiro vou digitar uma integração para se eu clicar em carregar um arquivo para acessar meu upload de uma integração de arquivo. Falaremos sobre integrações em uma próxima palestra. Novamente, selecionarei o arquivo, então a variação do COVID, clicarei em Abrir, e isso analisará meus dados. Agora, depois de analisar as primeiras 11000 linhas, descobriu-se que os dados são delimitados por uma vírgula. Ele tem uma linha de cabeçalho e também tem um carimbo de data/hora. E o formato para o campo de tempo é ISO 8601. Agora vou clicar em Importar e usarei o método simples novamente para especificar um índice e darei um nome a esse índice do índice de sublinhado COVID. Agora posso clicar em Importar. Agora, depois de receber a mensagem dizendo que a importação foi concluída, vamos ver essa descoberta de indexação. Agora, aqui, se eu clicar neste menu suspenso, você pode ver que posso alternar entre índice está usando meu menu suspenso de índice. Voltarei ao índice COVID. Posso ver todos os campos disponíveis no lado esquerdo. E o que há de novo desta vez é esse filtro de tempo. Então, basicamente, meus dados contêm valores de campo de tempo entre 11 de maio de 20252022. Eu posso usar isso para basicamente diminuir em uma data específica. Então, digamos que eu só queira procurar dados entre primeiro de 20 de dezembro de 2021. Então, o que posso fazer é clicar neste botão contra o início, e aqui tenho que especificar uma data de início. Então, vou clicar em absoluto por enquanto, e clicarei em dezembro. E eu quero que isso seja o primeiro de dezembro de 2020, e pode começar em 0. Se eu clicar nisso, em seguida, clicarei em terminou. E aqui vou especificar 2021. Posso deixar isso em janeiro e vou clicar em um, que era uma sexta-feira. Agora posso especificar outra hora, mas os dados apenas até 2330 ou 1130. Clique com o botão direito do mouse sobre isso e clicarei em Atualizar. Ele só me mostrará o subconjunto de dados que corresponde a esse tempo para sua referência, essa é a diferença entre séries temporais e dados que não são de séries temporais. Se você olhar para o índice Netflix novamente, não havia filtro de tempo para você filtrar os dados deles porque nossos dados não tinham um carimbo de data/hora. Agora, voltando ao índice COVID, você também pode especificar períodos relativos. Por exemplo, você pode especificar dados de, digamos, há um mês, se eu tiver um e você puder especificar um dos campos laterais, por exemplo, 1 segundo, 1 é um minuto, etc etcetera. Então clique nisso. E o que acabou? Eu vou Relativo novamente. Ou seja, de um mês atrás, dez dias atrás, de um mês atrás a dez dias atrás, e clique em atualizar. E isso me dará todos os dados de um mês atrás a dez dias atrás. Agora, em vez de dez dias atrás, também posso especificar agora e definir a data e a hora de término para agora, e isso me dará nossos dados para o último mês. Portanto, essa é a diferença entre os dados de séries temporais e não séries temporais. Você não tem um valor de filtro de tempo em dados que não sejam de séries temporais. Com isso, chegamos ao final desta palestra. Obrigado por assistir. Vejo você no próximo. Tchau. 14. Como criar visualizações com Kibana: Ei pessoal, Agora que temos alguns dados em nosso cluster e podemos explorar esses dados usando a guia Descobrir. É hora de visualizarmos esses dados. As visualizações de dados permitem que os usuários corporativos entendam grandes quantidades de dados com muita facilidade. E é aqui que você pode realmente ver o poder do Kibana. Existem duas maneiras de criar visualizações no Kibana. Primeiro, você pode criar visualizações específicas do painel ou usar a biblioteca de visualizações, ou usar onde você pode adicionar visualizações necessárias em mais de um elemento , como painéis ou almofadas de trabalho de lona. Agora, existem algumas opções para você escolher ao criar suas visualizações. Primeiro, você tem lente, que é um simples editor de arrastar e soltar. Em seguida, temos o TSV, que é usado para análise avançada de dados de séries temporais. Depois disso, você também pode usar a base de agregação, que é usada para dados de gráficos baseados em agregação. Você também pode escolher mapas se seus dados tiverem coordenadas de geolocalização, você também pode criar visualizações personalizadas usando a sintaxe mais vaga. Isso está fora do escopo para este curso. Não falaremos sobre essa opção. Agora vamos começar. Nesta demonstração, criaremos uma visualização que mostra a pontuação média da classificação do filme por ano de lançamento. Primeiro, para o menu de navegação à esquerda e em análise, irá para visualizar a biblioteca. A partir daqui, clicaremos em criar nova visualização para criar nossa primeira visualização. E então vamos escolher a lente. Agora, no editor de lentes, primeiro no menu à esquerda, você pode escolher o índice no qual deseja trabalhar. Por exemplo, se eu quisesse trabalhar no índice COVID, escolherei o índice COVID e ele me mostrará todos os campos disponíveis dentro do índice COVID. Mas para esta demonstração, vou escolher o índice Netflix no meio é onde seu gráfico será exibido. A partir daqui, você pode escolher o tipo de gráfico desejado. Por exemplo, se você quiser uma visualização de tipo de métrica, uma linha de visualização de barras, rosquinha por etc. para esta demonstração, escolheremos uma barra vertical. Agora, o lado direito é onde você especificará quais campos vão para qual acesso. Primeiro, teremos que definir um eixo horizontal para nossos rascunhos, clicarei em Adicionar ou arrastar e soltar um campo. E a partir daqui vou escolher o menu suspenso para o campo seletor e escolher liberar aqui. Agora aqui posso aumentar ou diminuir a granularidade desse campo, mas vamos deixá-lo como padrão. Podemos alterar o nome de exibição, então vou capitalizar o primeiro alfabeto de cada palavra. Você também pode especificar o formato do valor. Vou deixá-lo como padrão e clicarei em Fechar. Agora, em seguida, podemos escolher o eixo vertical. Vou clicar em Adicionar ou arrastar e soltar um campo novamente. E, em seguida, no campo seletor, escolherei a pontuação da classificação do usuário. E então, a partir da função seletora, escolherei em média mostrar a pontuação média. Agora, em seguida, você pode alterar novamente o nome de exibição para que eu capitalize o primeiro alfabeto novamente, média da pontuação da classificação do usuário. Em seguida, você pode alterar o formato do valor. Por exemplo, se você quiser que o formato seja porcentagens em vez de números, você pode fazer isso. E isso mostrará a porcentagem da classificação do usuário. Vou deixá-lo como padrão por enquanto. Agora, você também pode alterar a cor da série. Por exemplo, se eu clicar na cor Ceres e escolher azul, o gráfico mudará para azul. Também posso alterar qual lado do eixo meus dados mostrarão se eu clicar à esquerda, que é padrão. Se eu quisesse trocá-lo, posso mudá-lo para a direita. E isso começará a mostrar os dados no eixo direito. Deixaremos seu padrão e clicarei em Fechar. Agora aqui, abaixo do seu gráfico, você pode ver algumas sugestões do Kibana. Por exemplo, se você tiver selecionado o gráfico de linhas, é assim que seu gráfico será exibido. Se você tiver selecionado a métrica, é assim que sua visualização aparecerá. Vamos deixá-lo como o que fomos projetados agora no topo, você pode filtrar ainda mais esses dados usando a linguagem de consulta Kibana. Por exemplo, digamos que só queremos mostrar dados para filmes que foram lançados após 1984. O que posso fazer é clicar aqui e então posso digitar o ano de lançamento, e então posso escolher é maior ou igual a. E então eu posso digitar em 1984 e clicar em Atualizar. E agora nosso gráfico só mostrará dados de filmes que foram lançados após 1984. Agora, vamos remover o bolo irá filtrar e, em seguida, ele pode salvar essa visualização. Primeiro, temos que fornecer um título, então vou chamá-lo de classificação média de filmes por lançamento aqui. Agora podemos fornecer alguma descrição. Então, esta visualização mostra a classificação média de filmes por Lavoisier na Netflix. Agora, em seguida, podemos adicioná-lo ao nosso painel, criar um novo painel para essa visualização. Mas, para esta demonstração, vamos apenas escolher nenhuma. E você pode ver que a caixa de seleção Adicionar à biblioteca foi selecionada por padrão. Agora, depois disso, você também pode usar tags para agrupar visualizações juntas. Agora, clicaremos em tags e clicaremos em Criar tag. E criarei uma tag chamada Netflix. Você pode alterar a cor da tag, que eu possa alterá-la para azul e clicar em ataque. Agora você pode ver que a tag Netflix apareceu aqui e, em seguida, podemos clicar em Salvar e Adicionar à biblioteca. Agora, depois de fazer isso, se você voltar para visualizar a biblioteca, poderá ver que sua visualização foi adicionada à biblioteca. Agora, antes de deixar você ir, eu só quero mostrar onde as tags são armazenadas do menu de navegação à esquerda, se você for escrever sob gerenciamento e, em seguida gerenciamento de pilha aqui sob Kibana, você precisa selecionar tags. E é aqui que você pode ver todas as tags que você criou dentro do Kibana. Com isso, chegamos ao final desta palestra. Obrigado por assistir. Vejo você no próximo. Adeus. 15. Painel: Ei pessoal, o painel é composto de várias visualizações que contam uma história comum para os usuários da sua empresa. Antes de criar um painel, você precisa de duas coisas. Primeiro, você precisa de uma compreensão clara de seus dados e, em segundo lugar, precisa de requisitos claros do que deseja alcançar no seu painel. Como primeiro passo, listei na tela todos os campos disponíveis no índice de sublinhado COVID, que é o índice que usaremos para esta demonstração e o que é armazenado em cada campo. Por exemplo, o campo de localização contém o nome do país para o qual as informações da variante são fornecidas. A data fornece a data da entrada de dados. Variante é o nome da variante correspondente a essa entrada de dados específica. As sequências de sublinhado num continham o número de sequências do processo e as sequências percentuais contêm uma porcentagem de sequências do número total de sequências. E, finalmente, num sequências. Total é o número total de sequências para a data final da variante do país. Agora, como parte desta demonstração, criaremos três visualizações em nosso painel. Primeiro, criaremos um número de casos COVID exclusivos de visualização em todo o mundo. Em segundo lugar, criaremos uma visualização que retrata o número total de sequências para os dez principais países. E, finalmente, criaremos uma visualização que informa a variação espalhada pelo país de topo. Então, vamos começar. Agora, aqui na página do Kibana, para criar um painel, irá primeiro para o menu de navegação à esquerda. Em seguida, iremos para o painel sob efeitos de análise. E, para criar um painel primeiro clique em criar novo painel. Agora, a partir desta página, quando você clica em criar visualização para criar nossa primeira visualização, que fará parte desse painel. Agora primeiro, alteraremos o conjunto de dados de 15 minutos atrás para há 15 semanas. Ei pessoal, nesta palestra, vamos criar um painel do Kubernetes. Um painel é composto por várias visualizações que contam uma história comum para seus usuários corporativos. Antes de começarmos, precisamos duas coisas para criar nosso painel. Primeiro, precisamos ter uma compreensão clara de nossos dados. E segundo, precisamos ter uma compreensão clara dos requisitos, que é basicamente o que queremos alcançar com este painel. Agora, como parte do primeiro requisito, listei todos os campos disponíveis no índice de sublinhado do COVID e quais dados cada um desses campos contém. Por exemplo, o campo de localização contém o nome do país para o qual as informações da variante são fornecidas. O campo de sequência de sublinhado num contém o número de sequências processadas para esse país, variante e data, etc. Agora, o que faremos neste painel é que teremos três visualizações. Primeiro, teremos a visualização que retrata o número de variância única do COVID em todo o mundo. Em segundo lugar, teremos uma visualização que retrata número total de sequências para os dez principais países. E, por fim, teremos uma visualização que fornece variantes espalhadas por países. Então, vamos começar a criar um painel na minha página inicial do Kibana. Vou clicar no menu de navegação à esquerda e, em seguida clicar no painel da página do painel, vou clicar em criar novo painel a partir daqui, primeiro cadeias os dados serão em vez de três meses atrás, para ser há três anos, que estamos pesquisando todos os dados neste índice e eu vou clicar em atualizar. Depois de fazer isso, clicarei em criar visualização. Agora, a primeira visualização que precisamos criar é o número de variância única do COVID em todo o mundo. Então, primeiro, escolheremos a métrica. Em seguida, em métrica, clicarei em Adicionar ou arrastar e soltar. No campo seletor, escolherei a variante e, em seguida, clicarei em fluxos. A partir dessa visualização, podemos obter o valor do número de variância única em nosso banco de dados. Agora, vou clicar em salvar e retornar. Depois disso, clicarei em criar visualização novamente. E para minha segunda visualização, preciso descrever o número total de sequências para os dez principais países. Então vou voltar para minha página de lentes Kibana. Agora, aqui vou alterar o gráfico tipo duas barras verticais e, em seguida, para o eixo horizontal, escolherei a localização do campo e escolherei os dez principais valores. E então eu vou clicar em Fechar. Agora, para o eixo vertical, publicarei ou arrastarei e solto novamente. E então vou escolher o campo de sequências de sublinhado num. E então eu vou clicar em alguns da função de seletor sob. Em seguida, posso clicar em fechar. Agora isso me dá o número total de sequências para os dez principais países. Estas são todas as variantes do COVID para este país em particular neste intervalo de datas. Então, vou clicar em sete retornar novamente depois disso para nossa terceira visualização, clicarei em criar visualização. E desta vez eu preciso criar uma variante espalhada pelo país de topo. Então eu vou mudar o gráfico tipo duas barras verticais novamente. E para o eixo horizontal, vou escolher o local e alterá-lo para os dez principais países. Agora em seguida, escolherei o eixo vertical, as sequências de sublinhado do número de campo. E desta vez vou escolher o máximo da função e clicar em fechar. Depois disso, vou dividir esses dados por número de variantes. Então, vou clicar em adicionar ou soltar um campo e um detalhamento e, em seguida, escolherei a variante. E a partir daqui posso especificar a contagem de valores que eu queria mostrar. Por padrão, são três, portanto, representará apenas os três primeiros. Mas como temos muito para variância total, também posso digitar 20 volts aqui. E então, para cada país, ele irá dividir os dados por todas as variantes que afetam clique em Fechar aqui e eu passar o mouse sobre os dados para os Estados Unidos, você pode ver os detalhes de quantos casos para cada variante particular do COVID, Ele está chegando dentro de um intervalo de datas especificado, que é os últimos três anos. Agora, vou clicar em salvar e retornar. E neste painel podemos ver as três visualizações diferentes. Agora, o que posso fazer é salvar esse painel. Posso dar um nome a ele. Portanto, o painel COVID e em tags, clicarei em criar uma tag e, em seguida, darei a ele o nome da tag de COVID e clique em criar tags. Posso clicar em Salvar. Agora, se você quiser armazenar tempo com o painel, você pode fazê-lo, mas vou deixá-lo como padrão e clicar em Salvar. Agora, depois que o painel for salvo, você poderá voltar ao painel. Este painel novamente, basta clicar nele e ver datas diferentes, tudo o que você precisa fazer é, por exemplo, se eu mudar de três anos atrás para três semanas atrás e clicar em atualizar, você verá os resultados mudarem por conta própria. Ou não tivemos nenhum dado nas últimas três semanas. Então é por isso que está mostrando aviso prévio. Mas se eu dissesse, digamos há três meses e clique em Atualizar, começarei a ver os dados novamente. Agora, é assim que você pode criar um painel do Kibana com esta boas-vindas ao final desta palestra. Obrigado por assistir. Vejo você no próximo byte. 16. Tela: Ei pessoal, Gabbana Canvas é uma ferramenta de visualização e apresentação de dados que permite que você coloque dados ao vivo do Elasticsearch e, em seguida, enriquecê-los com cores, imagens e livros didáticos criam poderosos apresentações para seus usuários corporativos. Agora, o Canvas usa blocos de trabalho para adicionar visualizações, decks de imagens, etc., para criar sua apresentação. Então vamos sujar nossas mãos, não da página inicial do Kibana. Para chegar ao Canvas, você precisa clicar no menu de navegação à esquerda. E, em seguida, em analytics, você precisa clicar em Canvas para não criar nosso primeiro trabalho, mas preciso clicar em Criar pasta de trabalho. E a partir deste verde, você pode adicionar seu primeiro elemento clicando no botão Adicionar elemento. O primeiro elemento usará textos. Agora aqui, você pode usar esse elemento para adicionar algum texto à sua apresentação usando a linguagem markdown. Então, vou mudar esse texto por palavra bem-vindo à apresentação do índice Netflix. Vou remover esse texto e direi, aqui está a visão geral dos dados no índice de sublinhado da Netflix. Então, abaixo disso, você verá que ele está se referindo a algumas informações nos dados de demonstração. Por exemplo, ele está dando o comprimento da linha e, em seguida, fornece todos os nomes de coluna usando cada atributo de colunas. Portanto, ele tem todos os nomes de coluna, mas isso está refletindo os dados de demonstração desse elemento. Então, primeiro clicarei em aplicar. E depois de fazer isso, clicarei em Dados e alterarei a fonte de dados de demonstração para o Elastic Search. E então vou me certificar de que estou no índice Netflix e clicarei em Salvar. E assim que eu clicar em Salvar, você pode ver que agora essa caixa de texto reflete os dados do meu índice Netflix. Agora, para o segundo elemento, vamos adicionar a visualização que adicionamos à nossa biblioteca de visualizações. Clique em Adicionar elemento e, em seguida, clicarei em Adicionar do Kibana. E então selecionarei a visualização que salvamos dentro da biblioteca de visualização. E, em seguida, vamos movê-lo para o lado. Agora você pode alterar o filtro de tempo clicando na hora. Por exemplo, se eu quisesse mudar dos últimos 15 minutos para nos dizer os últimos 30 minutos, isso pode fazer isso. E esse painel refletirá a mudança no tempo. Agora, como terceiro elemento, criarei um gráfico. Então, clicarei em Adicionar elemento, clicarei em Gráfico e, em seguida, clicarei na métrica e, em seguida, moverei essa métrica baixo do meu elemento de visualização. Agora, para essa métrica, vamos alterar a fonte de dados novamente para ser o índice Netflix. E eu vou clicar em Salvar por um minuto. Isso nos dará um erro, mas vamos passar para a exibição. Agora, por medida, precisamos de um valor único de título. Agora, o formato da métrica está numerado, mas precisamos alterar o rótulo. Então, substituirei os países por títulos de filmes exclusivos. Agora, esse é o número de títulos de filmes exclusivos em nosso índice Netflix. Em seguida, também podemos alterar os textos métricos. Então, digamos que queremos que a matriz esteja em rosa. Por que não nos deixar fazer isso? E também podemos alterar o tamanho, a fonte e a cor do nosso rótulo. Digamos que eu queira que minha fonte seja Helvetica. Então, vou clicar nisso e vou alterar o tamanho um pouco, então vou alterá-lo para 24. E digamos que eu queira que a cor seja verde, então vou selecionar isso. Na verdade, este parece melhor. Agora posso ajustar o tamanho da minha visualização. Saiba a seguir, vamos adicionar uma imagem. Então, vou clicar em Editar limite. Clicarei em Imagem e, em seguida, clicarei na imagem novamente. Agora isso nos dá uma imagem padrão. Então, vou minimizar isso um pouco. E posso importar uma imagem usando o botão Importar. Ele pode fornecer um link para um URL de imagem. Por enquanto, clicarei em importar e seguida, clicarei em Selecionar ou arrastar e soltar uma imagem. Agora, escolherei uma imagem da minha pasta de downloads. E digamos que eu queira mostrar meu rosto nesta apresentação aqui. Agora, para ver este bloco de trabalho em tela cheia, basta clicar neste botão de tela cheia e verá todas as informações em tela cheia. Vou sair da tela cheia por enquanto. Agora, essa caminhada de volta é salva automaticamente. Se eu for ao Canvas e puder ver a cama do meu livro aqui, posso clicar no trabalho, mas novamente, obterei todos os elementos de dados que compartilham esse trabalho. Mas posso clicar em Compartilhar e posso criar um relatório em PDF para que eu possa selecionar o layout de página inteira e clicar em Gerar PDF. E agora diz que sua licença básica não oferece suporte a relatórios em PDF. Portanto, se você tivesse uma licença de produção, seria capaz de baixar o relatório em PDF. Agora vamos clicar em Compartilhar novamente. Agora, se você clicar em Compartilhar em um site, ele lhe dará instruções sobre como você pode compartilhar essa tela no site. Em seguida, também podemos baixar isso como JSON. Então eu vou clicar em Baixar como JSON e ele fará o download do JSON para este trabalho, difícil mudar o nome deste livro, mas posso ir trabalhar por configurações do Ed como e alterar o nome para Netflix. Caminhe para trás. Agora posso alterar alguns detalhes, como muito resolução, se eu tiver alguma variável neste trabalho com configurações de CSS globais, etc. Mas, por enquanto, é assim que você pode criar uma tela do Kibana funcionar melhor com isso. Chegue ao final desta palestra. Obrigado por assistir. Vejo você no próximo. Tchau. 17. Reinos: Ei pessoal, Nesta palestra, vou lhe dar uma visão geral rápida dos domínios de autenticação disponíveis para nós no Elastic Search, os reinos de autenticação são usados para autenticar usuários e aplicativos contra elástico pesquisa, existem dois tipos principais de domínios de autenticação. A primeira delas são nervuras de autenticação internas. Eles são internos à pesquisa elástica e não há integração com um sistema externo. Esse tipo de sala é totalmente gerenciado pelo Elastic Search. Ele só pode ser no máximo um domínio configurado, mas do tipo DLM interno. Agora, vamos dar uma olhada em um exemplo de cada tipo de barro interno. O primeiro é o realm de autenticação nativo. E a cúpula de autenticação nativa é onde os usuários são armazenados em um índice Elasticsearch dedicado. Este realm suporta e token de autenticação na forma de nome de usuário e senha e está disponível por padrão quando os reinos baixos são configurados explicitamente. Então lembre-se quando estávamos instalando o Elasticsearch, o usou um script para redefinir senhas para nossos usuários elásticos e do sistema de sublinhado Kibana. Esses usuários são configurados sob autenticação nativa. Isso por si só está disponível na licença gratuita. Arquivo. O realm de autenticação também é um domínio de autenticação interno disponível na licença gratuita. Esse realm é muito que os usuários são definidos em arquivos armazenados em cada nó no cluster do Elasticsearch. Este realm suporta e token de autenticação na forma de nome de usuário e senha, e está sempre disponível. Agora, depois disso, vamos dar uma olhada rápida nos reinos externos. autenticação externa não requer interação com partes e componentes externos à pesquisa elástica, como o Microsoft Active Directory ou qualquer outro aplicativo de nível empresarial. Se você estiver executando um cluster de grade de produção, seria altamente provável que você precise configurar um realm externo. No cluster Elasticsearch, você pode ter quantos externos, se quiser, cada um com seu próprio nome e configuração exclusivos, o recurso de segurança Elastic Stack fornece a seguinte referência externa tipo. Então, símbolo de autenticação LDAP, Active Directory, PKI Kerberos ou IDC. Não, o realm de autenticação é, usa servidor web externo para autenticar seus usuários. Portanto, os usuários são armazenados em um servidor de autenticação externo e nós nos integramos a esse servidor para autenticar usuários. Este realm suporta um token de autenticação na forma de um nome de usuário e senha e requer configuração explícita para ser usado. Em seguida, temos o realm de autenticação do Active Directory. Esta rodada usa um servidor Active Directory externamente, indica os usuários em que os usuários estão armazenados. Por exemplo, os usuários do Microsoft AD são autenticados usando nomes de usuário e senhas se tornaram realm autentica usuários usando infraestrutura de chave pública, chave pública e chave privada. Este reino funciona em conjunto com SSL e TLS e identifica o usuário por meio de seu nome distinto ou DNA dos clientes extrair o certificado 509. Portanto, se usarmos essa linha, você precisará de certificados instalados nos usuários. Sam Hill é que facilita a autenticação usando o protocolo SAML 2 Web SSO. Esse reino foi projetado para suportar autenticação por meio Kibana e não se destina a ser usado na API restante. Agora Kerberos é que o realm autentica o usuário usando a autenticação Kerberos, os usuários são autenticados com base em tickets Kerberos ou IDC é que facilita a autenticação usando OpenID Connect permite a pesquisa elástica como uma parte confiável do OpenID Connect e fornece suporte para SSO. Agora, ao longo dessas palestras, usaremos a autenticação nativa para conectar-se ao nosso cluster do Elasticsearch. Para seus clusters de produção, seria muito provável que você precise configurar um desses domínios externos. O que farei é fornecer alguns links para vários URLs sobre como você pode configurar cada um desses domínios em seus clusters de produção. Com isso, chegamos ao final desta curta palestra. Obrigado por assistir. Vejo você no próximo. Tchau. 18. Os usuários e funções: Ei pessoal, até agora nesta demonstração, temos usado o superusuário elástico para autenticar em nosso cluster. Isso é bom para o nosso laboratório de demonstração, mas em um ambiente de produção, você pode ter centenas de pessoas que precisam se autenticar e você não vai querer compartilhar a senha seu superusuário para cada usuário. Agora, insira papéis. As funções são uma coleção de privilégios que permitem executar ações e Kibana e Elastic Search. Agora, essas funções dão privilégio de realizar alguma ação contra o índice de pesquisa elasticsearch Kibana. Por exemplo, alguns usuários podem querer apenas criar painéis. Os outros que você pode querer que eles gerenciem seus índices ainda mais, pode haver um grupo que precise atuar como administrador de sua instância Kibana, o que você precisará fazer é que você precisará crie funções para cada um desses diferentes tipos de usuário. Cada função com diferentes níveis de acesso, então você atribuirá essa função, cada um desses usuários, os usuários não recebem privilégios diretamente concedidos, mas, em vez disso, recebem uma ou mais regras que descreve o nível de acesso desejado. Então, como eu disse, maravilhoso pode dar aos usuários acesso apenas para visualizar os painéis. Agora, quando você atribui a usuários várias funções, o usuário recebe uma união dos privilégios de funções. Agora, digamos que você tenha dois índices, índice e índice b. E você tem uma função que concede acesso ao índice uma inscrição que concede excesso ao índice B. Agora digamos que você tenha um usuário e esse usuário recebe essas funções atribuídas à placa. Agora, como ele tem esses dois papéis, a união dessas duas funções permitirá que ele acesse dados do índice e do índice b. Agora, o elasticsearch vem com alguns papéis internos. Por exemplo, que todos os batimentos sublinhados sistema poderia dançar o acesso necessário para os sistemas de praia, métricas, iscas, batimentos cardíacos, baseados em arquivos, etc. Para enviar dados no nível do sistema para o Elastic Search. Kibana sublinha a regra do sistema que não é necessário excesso para o usuário do sistema Kibana ler e gravar nos índices Kibana. E se você se lembrar, quando estávamos configurando o sistema Elasticsearch e Kibana, configuramos a senha para esse usuário dentro do nosso arquivo YAML de pontos Kibana. Agora, o Elastic Search também vem com um elástico de superusuário que concede acesso a todas as áreas do cluster. Portanto, é acesso total ao sistema. Agora, como medida de segurança, você não gostaria de fazer login com esse usuário depois de provisionar o sistema. E, como parte de seu provisionamento, você provisionará o administrador e os superusuários que podem ser vinculados a uma pessoa que irá desempenhar essa função. E depois de fazer isso, você gostaria de armazenar essas senhas de super usuários em um lugar seguro e nunca mais usá-las novamente. Vamos voltar para nossa instância do Kibana para ver como podemos criar funções e usuários para não criar um papel personalizado. Primeiro, clicaremos em Criar função e, em seguida, precisaremos especificar um nome de função para o nome de Roma, vou digitar administrativo porque esta é uma função de administrador na qual estamos configurando privilégios de cluster, vou clicar em Tudo. E, em seguida, em privilégios de índice, posso dar a eles acesso a um desses índices ou, como esse é meu usuário administrador, vou digitar Iniciar aqui para dar a eles acesso a todos os índices. E, em seguida, sob privilégios, vou clicar em Todos. Em seguida. Em Kibana, vou clicar em Adicionar privilégio Kibana primeiro, temos que dar a eles acesso a todos os espaços e, em seguida, eles podem fornecer esse papel acesso personalizado a cada recurso. Por exemplo, em Analytics, posso dar a essa função acesso ao painel de controle de descoberta, etc. Ou, como há uma função de administrador, podemos dar todos os privilégios e clicar em criar privilégios globais em pedra. Vamos clicar em Criar função. Agora, em seguida, vamos criar uma função que tenha acesso apenas a determinados índices. Então, vou clicar em Criar regra e chamarei de administrador COVID. E manteremos o resto das configurações iguais ao que tínhamos anteriormente sob índices. Escolherei o índice COVID e darei a essa função acesso a todos os privilégios. E então o mesmo para Kibana. Vou dar acesso a todos os espaços e todos os recursos. Então, clicarei em Criar privilégio global e clicar em Criar função. Agora, em seguida, vamos criar três usuários. O primeiro será um administrador de usuários. Então, vou clicar em Criar usuário. Vou dar esse administrador de nome de usuário. O nome completo seria administrador um e o administrador de endereços de e-mail em test.com. E, em seguida, vamos especificar algumas senhas. E depois disso, precisamos atribuir algumas regras a esse usuário. Por enquanto, atribuiremos função de administrador e também atribuiremos a função de usuário de monitoramento porque essa função é necessária para acessar o recurso de monitoramento de pilha. E, em seguida, clicarei em Criar usuário. Agora vamos sair dessa conta de superusuário e, em seguida, criaremos nosso administrador recém-criado para fazer o provisionamento adicional primeiro, e digitaremos nome de usuário e, em seguida, senha para este usuário. Deixe-me silenciar este aviso em seguida, vamos primeiro descobrir e verificar se você tem acesso a ambos os índices, Netflix e coberto. Então, posso ver alguns dados no índice Netflix. Agora vamos passar para o índice de cobertura. Agora, aqui preciso expandir minha busca de tempo. Então, 1415 semanas atrás, eu vou clicar em atualizar, e posso ver que também tenho acesso a esse índice. Agora, em seguida, vamos aos painéis. Posso ver o painel COVID que criamos. Agora em seguida, vamos para o gerenciamento e a gestão da equipe novamente. E aqui, usuários. Agora criaremos um segundo usuário. Clique em Criar usuário. E este é um usuário que tem acesso administrativo. Ele só para o índice COVID. Então, vamos chamá-lo de administrador sublinhado da COVID, e o nome seria COVID-19 e endereço de e-mail COVID test.com. Em seguida, fornecerei alguma senha agora para o privilégio, darei a ele o privilégio do administrador do COVID e clique em Criar usuário aprendido. Deixe-me sair desse usuário. E aqui vou digitar o administrador do sublinhado do COVID e, em seguida, vou digitar a senha para este usuário. Agora, uma vez que você estiver logado, vamos para nossa guia Descobrir, então em casa e depois descubra. E aqui, se você escolher o índice Netflix, não verá índices correspondentes e nenhum resultado corresponderá aos seus critérios de pesquisa. Mas se eu escolher o índice COVID e alterar essa data de 15 minutos atrás, nós o alteramos para 15 semanas atrás e clicamos em atualizar. Veja que posso ver alguns dados. Agora, esse usuário também pode criar usuários. Então, se você for para o Stack Management e usuários, posso criar um usuário, mas vou mostrar outra coisa, porque não fornecemos o privilégio de monitorar o usuário sublinhado para essa conta de usuário. Não temos monitoramento de pilha sob gerenciamento exibido para este usuário. Portanto, isso é importante observar, mesmo que você possa fornecer todos os privilégios no Kibana, você precisa atribuir especificamente a função de usuário de sublinhado de monitoramento para os usuários que você deseja dar a seção de monitoramento de pilha em excesso privilegiado sob gerenciamento. Agora, em seguida, criaremos um terceiro usuário que só tem acesso aos painéis e descobriu que, para isso, primeiro, vamos para Funções e criar uma função, e vamos chamar essa função de relatório de sublinhado do COVID. Agora, não queremos dar a esse usuário nenhum privilégio de cluster, então deixaremos isso em branco. Queremos que esse usuário tenha acesso ao índice de sublinhado COVID. E o único privilégio que queremos para esse usuário é poder ler esse índice. Agora, a seguir, precisamos adicionar alguns privilégios do Kibana, então daremos acesso a todos os espaços. E, em seguida, vamos mantê-lo como personalizado e depois ir para a análise. E, em seguida, daremos a eles acesso somente leitura no Discover e somente leitura no Dashboard. E também damos a eles acesso ao Canvas e visualizamos a biblioteca. E, em seguida, clicaremos em Criar privilégio global. E, em seguida, clicaremos em Criar função para criar essa função. Agora vamos aos usuários e clicaremos em Criar usuário. E desta vez chamaremos esse usuário de relatório de sublinhado COVID. O nome seria usuário relatando, um e-mail estaria relatando um test.com. Nós lhe daremos uma senha. Então, senha e, em seguida, sob privilégios, daremos a ela o privilégio de relatório de pontuação COVID-19 e, em seguida, clicaremos em Criar Usuário. Depois disso, vamos sair e ver o excesso para esse nome de usuário. Digitarei relatórios de sublinhado do COVID e nós especificaremos uma senha. Agora, uma vez que você estiver dentro, você só verá análises na tela inicial. Isso ocorre porque seu usuário só tem acesso a recursos de análise. Agora, se você clicar em nosso menu de navegação esquerdo e, em análise, vamos descobrir, temos alguns dados para o índice de sublinhado COVID. No entanto, se mudarmos para o índice Netflix, receberá um erro dizendo que nenhum índice corresponde ao melhor índice netflix. Isso ocorre porque nosso usuário não tem acesso ao índice Netflix no painel. Se eu clicar no painel COVID, poderei ver todos os dados do meu painel COVID. Agora, em seguida, vá para o Canvas e abra o trabalho da Netflix até agora, já que esse usuário não tem acesso a nenhum dado no índice Netflix, receberei erros. Agora vamos sair desse usuário e vamos fazer login novamente como usuário administrador, administrador e senha. Agora vamos clicar no menu de navegação à esquerda e ir para a direita até o gerenciamento de pilhas. E então vamos aos usuários agora a partir desta tela, se você quiser excluir o usuário, por exemplo, se eu quiser excluir meu usuário de relatório de sublinhado COVID, posso selecionar esse usuário e clicar em exclua um usuário e clique em Excluir. Mas não vou fazer isso agora, se eu quiser alterar a senha para este usuário, vou clicar nela, descer e clicar em Alterar senha. E aqui posso atualizar a senha para esse usuário. Soul cancele isso também se eu quisesse desativar esse usuário, então mantenha esse usuário no sistema, mas impeça que os usuários acessem ele. Posso clicar em desativar usuário. E se eu quiser alterar privilégios para esse usuário, posso entrar aqui e atribuir a ele uma função diferente. É assim que você pode usar usuários e funções para fornecer controles de acesso baseados em função do cluster do Elasticsearch. Com isso, chegamos ao final desta palestra. Obrigado por assistir. Vejo você no próximo. Tchau. 19. Espaços: Ei pessoal, e depois Enterprise. Haverá várias equipes que precisarão de acesso ao Kibana. Por exemplo, a equipe de marketing pode precisar de acesso a painéis de marketing. A equipe de operações precisará acesso aos painéis de operações. Agora isso pode deixar as coisas desordenadas muito rapidamente para ajudá-lo com essa situação, Kibana tem um recurso chamado espaços. Ele permite que você organize seus objetos salvos, como painéis, em categorias significativas. Do nosso exemplo, você criará um espaço para marketing e eles criarão todos os painéis dentro desse espaço. Da mesma forma, você criará um espaço para operações e eles limparão seus painéis dentro do marketing de espaço de TI não será capaz de ver o que está dentro das operações ou mesmo notar que um existe espaço de operações. Da mesma forma, as operações não saberão sobre o espaço de marketing. Agora, para que um usuário possa ver um espaço, você precisa atribuir especificamente o excesso com esse espaço para esse usuário. Por exemplo, todos na equipe de marketing terão acesso ao espaço de marketing. Todos na equipe de operações terão acesso ao espaço de operações. E se alguém precisar acesso ao marketing e às operações, você atribuirá acesso a ambos os espaços. Agora, o Kibana cria um espaço padrão para você e todos os nossos objetos que criamos até agora neste curso foram criados dentro do espaço padrão do deck. E, por fim, para gerenciar espaços, você precisa que o papel de administrador do Kibana sublinhado seja equivalente. Agora vamos ficar rachando na minha página da Web Kibana. Eu fiz login usando minha conta de administrador, administrador um para configurar espaços, preciso clicar no menu de navegação esquerdo e, em seguida, ir para a direita até o gerenciamento de pilhas sob gerenciamento. Então, vou clicar nele. E a configuração de espaços pode ser encontrada em Kibana e espaços. Agora aqui você pode ver que acabei de receber meu espaço padrão por enquanto. Criaremos um novo espaço aqui. Então, vou clicar em criar espaço e vou nomear esse espaço de sublinhado da COVID. Agora, em seguida, posso criar um avatar. Por padrão, ele é definido como iniciais, mas você também pode fazer upload de uma imagem para seu avatar, deixará como padrão iniciado, mas alterarei a cor de fundo para verde. Agora, em recursos, podemos especificar quais recursos estão disponíveis no espaço. Então, removerei tudo , exceto análises, porque só quero acessar recursos de análise usando esse espaço. E então eu vou clicar em criar espaço. Agora, uma vez que eu tenha avaliado o espaço, precisamos de alguns objetos neste espaço. Agora, todos os nossos objetos por padrão estão dentro do espaço padrão. Por enquanto, o que faremos é copiar o índice COVID e o painel COVID para o espaço de sublinhado do COVID. Então, para fazer isso, preciso ir para salvo e, em seguida, preciso encontrar o COVID e o painel de pontuação. E a partir desses três botões à esquerda dessa linha, preciso clicar nela e preciso clicar em Copiar para o espaço. Uma vez lá, posso escolher Copiar ações. Por exemplo, criar novos objetos com IDs aleatórios são verificados para objetos existentes. Deixo como padrão porque sei que não há objetos no meu espaço de sublinhado do COVID. E então eu preciso clicar no espaço de sublinhado do COVID, em espaços selecionados e, em seguida clicarei em Copiar para um espaço. Quando a cópia estiver concluída, ela mostrará quantos objetos copiados e você poderá clicar em Concluir. Da mesma forma, preciso copiar o índice de sublinhado COVID deve clicar sobre isso e, em seguida, clicar em Copiar para o espaço também. Em seguida, clicarei no COVID, sublinharei o espaço e, em seguida, clicarei em um espaço corporativo ou em um espaço. Agora, se houver algum erro, você os verá aqui. Por enquanto, clicarei em Concluir. Depois que os objetos tiverem sido movidos para esse espaço, começou a atribuir esse espaço a uma função. Então, vamos marcar a segurança e, em seguida, rolar e descobrir que o sublinhado COVID relatou tudo. Uma vez dentro, precisamos ir direto até Kibana e clicar neste ícone de lápis. E a partir de espaços onde diz todos os espaços, precisamos removê-lo e seguida, escolher o espaço de sublinhado COVID. Depois de fazer isso, você pode clicar em Atualizar privilégios de espaço. Portanto, essa regra só pode dar acesso ao espaço COVID agora. E então você pode clicar na regra de atualização. Depois de fazer isso, vamos sair desse usuário administrador e fazer login novamente usando o usuário de relatório. Nesta tela, vou digitar o nome de usuário COVID e o relatório de pontuação e fornecer minha senha e clicar em Login. Agora aqui, logo de cara, você pode notar que eu não estou mais no espaço padrão. E agora vou clicar no menu de navegação à esquerda. E primeiro iremos para nossa guia Descobrir. Agora você pode ver, por padrão, estou dentro do índice COVID, mas afeta clique no menu suspenso. Nem vejo o índice Netflix. Isso ocorre porque ele não está atribuído a esse espaço. Agora, para visualizar os dados, preciso alterar a busca de tempo até 15 semanas atrás e clicarei em Atualizar. E você pode ver que tenho acesso aos dados. Agora, vamos ver se nosso painel ainda está funcionando. Então, vou clicar em Dashboard e clicar no painel COVID. E você pode ver que eu tenho dados dentro do meu painel também. Se alguém sobre esse erro, agora em seguida, se eu for ao Canvas, você pode ver que eu nem vejo mais o Wordpad Netflix. Portanto, o Spaces é uma boa maneira de manter seus objetos organizados para várias categorias. Por exemplo, o marketing pode ter acesso apenas a seus painéis, etc. Agora, obviamente, se você criar um novo objeto dentro desse espaço, ele será automaticamente atribuído a esse espaço e não ao espaço padrão. Então, se eu clicar no menu de navegação à esquerda e clicar em Visualize biblioteca. E se eu clicar em criar nova visualização e escolherei a lente. E digamos que eu queira o número total de países no meu banco de dados. Então, vou clicar na métrica, Analytic on location. Agora eu tenho um tipo único de localização que é 64. Agora não consigo salvar isso porque meu usuário informa o usuário não tem nenhuma permissão correta neste banco de dados. Mas se eu sair e fazer login novamente como usuário administrador, e aqui selecionarei o espaço de sublinhado do COVID. E você pode ver que, mesmo que meu usuário tenha muito mais privilégios, só consigo ver o que está alocado no meu espaço. Portanto, não recebo todos os recursos de pesquisa e disponibilidade, etc. Só estou recebendo análises e gerenciamento de pilhas. Agora, a partir daqui, clicarei na biblioteca Visualize. Vou clicar em criar nova visualização e lente. E então alterarei o tipo de métrica de visualização e alterarei a data para 15 semanas atrás. E daqui vou arrastar a localização novamente, ver que uma contagem única de localização é 64. E agora eu tenho o botão salvar novamente. Então, vou clicar em Salvar e chamarei de países únicos. E eu o movo para o painel existente, que é o painel de pontuação do COVID-19. E clicarei em Salvar e Ir para o painel. E aqui adicionei o quarto item ao meu painel para países exclusivos ou clique em Salvar para salvar as alterações neste painel. E agora, se eu voltar ao meu usuário de relatório coberto por relatórios de pontuação, clicar no painel COVID e alterar a data para semanas atrás, também poderei ver a nova visualização. É assim que você pode usar espaços para categorizar seus objetos dentro do Kibana. Com isso, chegamos ao final desta palestra. Obrigado por assistir. Vejo você na próxima luta. 20. Introdução ao Logstash: Ei pessoal, vamos falar sobre sessão de log. Esta seção, Log Stash permite agregar seus dados de diferentes fontes, transformá-los e enviá-los para pesquisa elástica ou qualquer outro aplicativo de sua escolha. Por exemplo, se você quiser analisar os dados, você pode enviá-los para o Elastic Search ou MongoDB. No entanto, se você quiser apenas armazenar os dados, você pode enviá-los para algo como Amazon S3 está armazenado em um arquivo no sistema de arquivos local. Existem muitos destinos dependendo do seu caso de uso. E anexei um link a um artigo onde você pode encontrar mais informações sobre os destinos e o Log Stash. Agora, antes de sabermos mais sobre pesquisas de log, detalhes de nível inferior, é sempre uma boa ideia entender alguns casos de uso. Portanto, o primeiro caso de uso do Log Stash são registros e métricas. Às vezes, não há uma maneira padrão de entender seus dados de registro. Nesses cenários, o Log Stash pode ajudá-lo a definir lógica para que você possa transformar e dar sentido aos seus dados de log. Em seguida, você também pode consumir dados do serviço Web HTTP ou gerar eventos por agrupamento e endpoint HTTP, por exemplo, você pode extrair o Twitter e obter alguns dados do Twitter usando o Log Stash. Você também pode usar a transformação de estátuas de log e entender os dados relacionais ou não relacionais armazenados em seus bancos de dados. E, finalmente, o Log Stash é um backbone comum de coleta de eventos para a ingestão de dados de dispositivos móveis, casas inteligentes, veículos conectados, sensores de saúde e muitos outros indústrias, aplicativos de IoT específicos. Agora, o pipeline Log Stash tem três estágios. Ele tem uma entrada de filtro e, em seguida, saída. Por exemplo, você tem alguns dados em seu armazenamento de dados. Pode ser um armazenamento de dados IoT ou pode ser um aplicativo ou um banco de dados, qualquer coisa, você envia esses dados para Log Stash. Agora, dentro desse pipeline em inglês, primeiro você teria que definir uma entrada. E isso é você dizendo ao Log Stash como você vai obter esses dados. Por exemplo, você pode obtê-lo de um arquivo. Você também pode obtê-lo em uma porta TCP ou UDP. Também podem ser dados de log sys. Então você definirá toda a dívida na entrada Próximo. Depois de obter esses dados, você precisa processá-los. E essa lógica de processamento é configurada dentro de filtros de filtro ou como você pode transformar seus dados. Você também pode usar condicionais dentro do filtro para fazer algumas transformações somente quando ele corresponder a um determinado critério. Agora, alguns filtros comumente usados são grok crop tem cerca de 120 padrões que permitem passar dados não estruturados. Vamos olhar para grok um pouco mais de detalhes em uma próxima palestra. Mutate realiza transformações gerais em um campo de evento. Você pode fazer coisas como Renomear o campo de remoção de seus dados, substituir um campo e modificar campos em seus eventos. Dropped permite que você solte um evento completamente e clone permite duplicar um evento. Agora, a saída é, uma vez que você tem os dados através de sua entrada, você fez alguma transformação. Você precisa definir onde esses dados precisam ir mais longe. Portanto, a saída é como você passa um evento para um ou mais destinos. Agora, isso é mais comumente uma pesquisa elástica. Se você estiver usando a pesquisa de log, você deseja integrar com o Elastic Search. Mas também podem ser coisas como uma saída de arquivo ou você pode enviá-lo para algo como uma fila do Kafka. Cabe a você, basicamente o próximo destino dos dados, uma vez que ele sai do pipeline de Pesquisa de Log está configurado sob saída. Agora, antes de começarmos a configurar pipelines do Elasticsearch, há mais uma coisa que você precisa entender que são codecs. codecs são filtros de fluxo que podem operar como parte da entrada ou saída. Um codec permite que você separe facilmente o transporte de sua mensagem do processo de serialização. Basicamente, tome um exemplo de um codec de várias linhas. Agora, pense em um log de aplicativos, que está espalhado por várias linhas por padrão, o que a pesquisa Locks tentará e fará. Ele tentará transformar cada linha no evento Log Stash. Agora talvez você não consiga entender esse arquivo de log se ele estiver espalhado por vários eventos. Então você quer que tudo isso entre em um único evento. Nesse caso, você usará o codec de várias linhas. Da mesma forma, se você quiser codificar ou decodificar seus dados em JSON, você usará o codec decente. Portanto, os codecs são filtros que ajudam você a separar o transporte de sua mensagem do processo de esterilização do Log Stash. Com isso, chegamos ao final desta palestra. Obrigado por assistir. Vejo você no próximo. Tchau. 21. Ingerindo e transformando dados de CSV usando o logstash: Ei pessoal, nesta palestra, vamos transformar dados CSV usando Log Stash. Criaremos um arquivo de configuração de pipeline com três fases. Uma fase de entrada com uma entrada de arquivo nos ajudará a ingerir um arquivo CSV. Em seguida, usaremos uma fase de filtro e usaremos o filtro CSV para transformar nossos dados CSV. E, finalmente, na fase de saída, usaremos duas saídas. saída padrão será usada durante a fase de teste. Uma saída de pesquisa elástica será usada para finalmente armazenar os dados em nosso cluster Elasticsearch. Agora, quando estivermos prontos com o arquivo de configuração do pipeline, vamos testá-lo executando Log Stash. Vamos começar. Aqui na tela. Meu cluster Elasticsearch de nó único. Então, o que vou fazer primeiro é criar duas conexões SSH e, em seguida, copiarei o endereço IP externo e tentarei ver se consigo me conectar à minha instância do Kibana. Consegui me conectar à minha instância do Kibana na porta 5601. Agora vamos voltar para nossa instância SSH e, em seguida, clicarei em cima no ícone Configurações e, em seguida, clicarei em Upload File. E a partir daqui, a partir meus Downloads, carregue os rankings da competição, o ESV, e eu clico em Abrir. Quando o arquivo terminar o upload, posso digitar ls no meu diretório pessoal para garantir que o arquivo esteja lá. Agora, antes de podermos iniciar a transformação desses dados, primeiro teremos que entender esses dados. Então vou digitar cat, rankings de competição, iniciar CSV e clicar em Enter. Portanto, há cerca de 5 mil registros neste arquivo. Agora, vou limpar e faremos uma competição principal no ranking CSV para olhar para os primeiros registros. Portanto, a primeira linha é o cabeçalho, e essa linha explica cada coluna. Por exemplo, a primeira coluna é classificada, a segunda coluna é camada, a terceira coluna é nome de usuário e cada coluna é separada por ponto e vírgula, Cinco mil registros e cada coluna é separados por ponto e vírgula. Então, agora podemos começar a escrever nosso arquivo de configuração de pipeline. Para fazer isso, vou cd em barra, etc barra Log Stash. E então aqui eu farei um ls. Agora, dentro do Log Stash, há um diretório chamado ponto t. O que acontece é quando você executa a barra de log como um serviço, o que ele faz é que ele pega todos os arquivos de configuração dentro do construct d. Então, vamos escrever nossos arquivos de configuração dentro deste diretório. Há outro arquivo de configuração chamado —sample.com do Locke. E esse arquivo é um exemplo de arquivo de configuração que o plástico fornece a você. Portanto, há tendência nesse arquivo. Vamos dar uma espiada rápida. Agora este arquivo tem uma entrada que aceita alguns dados em uma porta e, em seguida, sem transformação, dados de censo ou apontam para pesquisa elástica. Então, vamos entrar frio para D e vamos escrever nosso arquivo de configuração de pipeline. Então, vou limpar tudo. Vou fazer um ls. Este diretório está vazio. Farei sudo touch e chamaremos nosso arquivo de configuração CSV data.com. E então vou digitar sudo via CSV data.com. E vou fechar isso e aqui, fazer uma inserção. Agora, em nosso pipeline, primeiro temos que definir uma fase de entrada. Então vou digitar a entrada e, em seguida, colchetes encaracolados, e então moverei o colchete encaracolado para baixo. E aqui precisamos especificar uma entrada de arquivo porque estamos ingerindo dados de um arquivo. Então, farei colchetes encaracolados novamente e faço alguma formatação. Agora, na entrada do arquivo, precisamos especificar algumas configurações. O que vou fazer é abrir outra guia e digitar a entrada do arquivo Log Stash, e entraremos na documentação do plug-in de entrada de arquivo. Agora, nesta documentação, você pode ler sobre como esse plug-in funciona. Por exemplo, quais são os diferentes modos? Há um modo de conto que falha ao arquivar, e há um modo de leitura. Você pode entender como essa entrada rastreia a posição atual no arquivo que está assistindo. Mas o que estamos interessados é nas opções de configuração de entrada. Em opções de configuração de entrada, você verá todas as configurações que podem ser configuradas nessa entrada. Além disso, você pode ver quais configurações são necessárias para essa entrada. Agora, no momento, a única configuração necessária é a configuração de caminho. E essa configuração de parte é uma matriz. Portanto, essa configuração de parte é necessária para especificar o caminho do arquivo que você vai ler. Para nós. Deixe-me abrir a instância SSH. E aqui eu farei um ls e depois farei um PWD. Portanto, esse é o meu caminho e esse é o nome do arquivo que precisamos especificar para essa entrada. Voltarei à configuração do meu pipeline. Vou digitar, mas depois é igual a e depois a seta. E aqui vou especificar o caminho. Então, vou digitar aspas duplas e depois copiarei o gráfico e colarei essa parte aqui, e então colocarei uma barra, e então copiarei o nome do meu arquivo, e então vou colar isso aqui também. Agora, depois disso, vamos dar uma olhada em mais algumas configurações. A próxima configuração é a posição inicial, e é uma string, e pode ser um início único ou n. O que precisamos descobrir é qual é o valor padrão dessa configuração? Então, vou clicar nesse URL e ele diz que o valor padrão é. E, basicamente, ele começará a ler o arquivo de baixo se você quiser configurá-lo para começar a ler o arquivo de cima, que é o que queremos fazer. Teremos que configurá-lo como começo. Vamos voltar. Aqui. Vou digitar a posição inicial do sublinhado e o valor estaria começando. Depois disso, quero mostrar outro valor. Então, vou voltar a subir. Agora, há um valor chamado caminho sensível. Basicamente, o que desde o db é, é um arquivo de banco de dados que mantém o controle de quanto do arquivo está sendo lido pelo Log Stash. Basicamente, se o arquivo tiver 100 registros e a barra de registro tiver lido 50 deles, esse valor será armazenado em arquivo de sensibilidade. Agora, como o caminho db fornece a parte do arquivo sinc TB, o caminho padrão é o caminho ponto entrada de barra de plug-ins de barra de dados. Um arquivo no nosso caso porque acabamos de ter um único arquivo e queremos continuar relendo esse mesmo arquivo porque testaremos várias opções. O que vou ter que fazer é ter que configurar a parte de sensibilidade como barra dev slash null. Isso significa que, uma vez que o db estará escrevendo para nenhum, e isso nos permitirá continuar relendo esse arquivo. Então, vou digitar desde o caminho do sublinhado db e configurarei o valor do caminho como barra dev slash null. Agora, uma vez que eu tenha feito isso, termino com minha entrada de arquivo. Em seguida, terei que especificar o filtro, transformar nossos dados. Então, vamos digitar colchetes de filtro e encaracolados. Agora, sob filtro, o que preciso especificar é um filtro CSV. Portanto, colchetes CSV e encaracolados novamente, agora em CSV terá que especificar algumas configurações. Então, vamos dar uma olhada na documentação. Csv, frutas e Log Stash. E abrirei o link para documentação. E aqui vou entrar nas opções de configuração. Então, primeiro, podemos detectar automaticamente nomes de colunas ou podemos especificar nomes de colunas. Então, o que vou fazer é especificar os nomes das colunas manualmente aqui. Então, preciso especificar uma configuração chamada colunas, e é uma matriz. Então, voltarei para o meu filtro, e aqui especificarei colunas. E então vou digitar entre colchetes porque esta é uma matriz. Agora, para obter nomes de colunas, voltarei para a segunda instância SSH. E aqui vou digitar o ranking da competição principal classificar csv, e copiarei os nomes das colunas daqui. Então eu me mudei de volta e colei-os. Agora preciso fazer alguma formatação. Basicamente, o que eu preciso fazer é que precisamos primeiro todas essas colunas dentro de aspas duplas como esta. E então eu preciso mudar o ponto e vírgula em coma. Vou fazer isso agora. Depois de terminar isso, a próxima coisa que eu queria fazer é especificar qual é o caractere que separa minhas colunas. Então, vamos voltar para a documentação. E o que precisamos especificar é uma configuração chamada separador, e é uma string. Então eu vou voltar, aperte Enter. E aqui vou digitar o separador é igual a seta. Tribunais internos especificarão ponto e vírgula porque nossos dados são separados por ponto e vírgula. Agora, uma vez que eu tenha feito isso, quero mostrar mais duas configurações. Primeiro, podemos pular colunas vazias e pular linhas vazias. Para demonstração, especificarei pular colunas vazias. Também podemos ignorar o campo de cabeçalho. Então, se você observar nossos dados, a primeira linha é um cabeçalho. Usando essa configuração de cabeçalho de pular, eles podem dizer ao Log Stash para ignorar a primeira linha. Agora há uma ressalva para isso. Você precisa se certificar de que os nomes das colunas correspondem exatamente à primeira linha de seus dados. Se não o fizerem, Log, Stash não pulará os cabeçalhos. Então, o que quer que esteja nessa linha, os nomes das colunas precisam corresponder exatamente ao que você especifica como nome da coluna para a configuração do cabeçalho de pular funcionar. Então, vamos configurar isso. Ignore colunas vazias como verdadeiras. E também ignorar cabeçalho é verdadeiro. Agora você pode adicionar comentários no arquivo de configuração do pipeline usando o símbolo hash. Então vou digitar hash. hash permite pular a primeira linha no arquivo de origem. Os nomes das colunas precisam corresponder exatamente. Então, agora estamos prontos para especificar a saída. Para começar, usaremos uma saída padrão como saída. Outro tipo de saída, chaves encaracoladas. E vou mover isso para baixo. E aqui vou digitar STD para fora como minha saída. E dentro disso, vou digitar Kodak e a Kodak seria depuração ruby. E agora estamos prontos para executar esse pipeline. Vou salvar esse arquivo. E para executar um pipeline, o que você precisa fazer é digitar sudo slash, usr slash share slash Log Stash. E, em seguida, houve uma visão quando há um utilitário chamado Log Stash que usaremos. Este utilitário é o caminho completo para o arquivo de configuração do pipeline. Mas como estamos no mesmo diretório em que o arquivo de configuração do pipeline está, podemos apenas especificar um caminho relativo. Então CSV data.com e pressione enter. Agora, se o pipeline foi configurado corretamente, você obterá um resultado como este. Em seguida, seus dados são divididos em vários campos. Por exemplo, juntou-se a um campo chamado data de junção, o número de problemas, metais, etc. Existem alguns campos gerados pelo sistema. Há um campo de mensagem, que é um campo gerado pelo sistema que contém cada carimbo de data/hora da versão de linha individual. Agora, esse campo de carimbo de data/hora é a hora em que o Log Stash ingeriu esse arquivo de dados. E usaremos esse campo para pesquisar e explorar nossos dados dentro do Kibana. Com isso, agora podemos especificar a saída do Elastic Search com isso usando o controle C, isso interromperá o pipeline. Agora, editarei meu arquivo de configuração de pipeline novamente ou concluído. Posso remover o STD para cima ou posso simplesmente adicionar outra saída. Então, entrarei no modo de inserção e quero apenas adicionar outra saída. Então, vamos digitar Elastic Search e colchetes encaracolados. Mova esta pedra. Agora, na saída do Elasticsearch, a primeira configuração que preciso fornecer é uma lista de hosts para onde eu queria enviar esses dados. tipo de hosts é igual a uma seta, e essa configuração usa uma matriz. Então, coloquei aspas duplas e http localhost e, em seguida 90 a 100 porque estou executando a pesquisa de log localmente na mesma máquina que meu cluster Elasticsearch está. Em seguida, também posso especificar um índice no Elastic Search qual esses dados serão gravados. Então, vamos digitar o índice e, em seguida, darei o nome do índice, índice de sublinhado CSV. Agora, uma coisa a observar com isso, se eu não criar um índice no Elastic Search primeiro, isso criará automaticamente o índice no meu cluster Elasticsearch para mim. Então, vamos tentar isso primeiro, vou salvar esse arquivo e depois executarei meu pipeline novamente. E enquanto isso estiver em execução, se você olhar para o meu Kibana e se eu entrar no gerenciamento de índices e gerenciamento de pessoal e, em seguida, gerenciamento de índice não há índice aqui. Para isso terminar, nenhum voto que o pipeline escreveu lá. Parece que há algumas dificuldades para se conectar à pesquisa elástica porque tenho uma mensagem dizendo elástica, tão inacessível fará um controle C para desligar esse pipeline. Então, parece que os serviços de pesquisa elástica em execução. Então, vamos dar uma olhada no nosso arquivo de configuração novamente. Agora, o motivo pelo qual ele falhou foi porque há um erro de digitação, então Altcoin para inserir e eu corrigi meu erro de digitação localhost 9200, e então eu vou salvar esse arquivo e vamos executar o pipeline novamente. Agora, uma vez que o pipeline terminar de processar nossos dados, sua pontuação para o gerenciamento de índice não ocupada em uma página e vamos recarregar os índices. Aqui. Você pode ver o índice CSV. Ele foi criado automaticamente, então vou descartar e tem 5 mil documentos. Agora, vamos tentar explorar esses dados em nossa guia Descobrir. Então, vou clicar nessas três linhas do canto superior esquerdo e depois vou descobrir. Mas aqui você não pode ver nenhum dado porque diz que para visualizar e explorar dados e Kibana, você deve criar um botão de índice. Então, vamos dar uma olhada no que é um padrão de índice. Se você se lembrar de palestras anteriores, um índice é a entidade de nível mais alto que você pode consultar em uma pesquisa elástica. Usando nosso Pipeline de Pesquisa de Log armazenará nossos dados dentro de um índice. Usando as APIs restantes do Elastic Search, podemos consultar os dados em relação a esse índice. No entanto, um padrão de índice identifica um ou mais índices de pesquisa elásticos que você deseja explorar com o Kibana. Para explorar esses dados e o Kibana, precisamos criar um padrão de índice. Agora, o que o Kibana faz, ele procura nomes de índice que correspondam a um botão especificado. Por exemplo, um asterix será um curinga que corresponda a 0 ou mais caracteres. Então, por exemplo, se nossa aposta em uma estrela de traço CSV, ela corresponderá a todos os nomes de índice que são CSV dash um, CSV dash T2 ou CSV, etc Vamos criar um padrão de índice em nosso Kibana. Aqui no Kibana, terei que entrar no gerenciamento de pilhas. Então, eu vou clicar aqui em gerenciamento e dentro do gerenciamento de pilhas e preciso entrar no Kibana para os botões de índice. Agora vou precisar criar um botão de índice. Agora nosso índice era se eu entrar no meu pipeline e ao Control C e abrir meu arquivo de configuração ou índices CSV sublinhado índice. Então, o que vou fazer é criar um padrão de índice com CSV. E, no lado direito, você pode ver que esse botão de índice correspondeu a um índice de origem, que é CSV e discórdia em dias. Agora, se quisermos usar o filtro de tempo global, temos que especificar um carimbo de data/hora como eu mostrei anteriormente. Sempre que me deixe sair disso. Sempre que o pipeline Log Stash é executado, ele cria automaticamente um campo de carimbo de data/hora chamado Adicionar carimbo de data/hora, que contém a hora em que o arquivo foi ingerido. Portanto, como nossos dados não têm nenhum campo de carimbo de data/hora nativo, usaremos esse campo como nosso campo de filtro de tempo. Então, irei para Padrões de Índice e selecionarei, Adicionar carimbo de data/hora e, em seguida, criarei meu espectro de índice. Agora, uma vez criado o botão de índice, você poderá ver todos os campos dentro desse padrão de índice. Agora esse relógio representa que esse campo de carimbo de data/hora é o campo de tempo que será usado para filtragem. Agora, vamos voltar à nossa guia Descobrir e ver se podemos explorar esses dados. Agora, como você pode ver, depois de criarmos um padrão de índice para esse índice, agora podemos pesquisar esses dados. Portanto, lembre-se, um índice permite que você consulte esses dados no Elastic Search, enquanto um botão de índice permite explorar esses dados usando o Kibana. Agora, quando terminarmos isso, deixe-me mostrar como excluir um botão de índice e um índice. Então, entraremos na gestão e na gestão da equipe. Primeiro, irei para o Index Management. Selecione meu índice, clique em Gerenciar índice e, em seguida, exclua o índice. Em seguida, irei para os botões de índice, clique em CSV e excluirei isso. Agora eu queria mostrar a você como criar um índice e o Elastic Search. Para isso, clicaremos nesses ícones novamente e, em seguida, vamos para o gerenciamento e, em seguida, DevTools. Agora podemos usar o DevTools para executar algumas chamadas de API em nosso cluster Elasticsearch. E desta vez vou usar o método PUT para criar um índice chamado índice de sublinhado CSV. E o número de gráficos nesse índice seria um. Para que eu possa definir algumas configurações. E aqui vou digitar todos os campos que eu quero dentro desse índice. Clique nesta seta e isso limpará esse índice. Agora, podemos voltar ao nosso pipeline e primeiro temos que garantir que esse nome de índice, a configuração de índice, seja exatamente o mesmo que o índice que acabamos de criar. Caso contrário, se este tiver um log diferente, Sasha criará outro índice e você não obterá os dados armazenados em seu índice. Então, eles garantiram que esse nome seja o mesmo este escapará desse arquivo e nós executaremos nosso pipeline. Agora, uma vez que o pipeline terminar o processamento, vamos voltar ao nosso Kibana. E aqui vou entrar no gerenciamento de pilhas e no gerenciamento de índices primeiro, você pode ver que eu tenho um índice. Há algum tamanho de armazenamento, mas a coluna do documento diz 0. Então, teremos que entrar em patentes de índice e criar um padrão de índice. E novamente, será CSV e isso corresponderá ao nosso índice. E usarei o campo de carimbo de data/hora e criarei o padrão de índice. E assim que este botão É é criado. Se eu for e verificar em Gerenciamento de Índice, agora, poderei ver o documento indo mais 5 mil. E, novamente, podemos explorar nossos dados usando a guia Descobrir. Vou minimizar essa mensagem e há 5 mil acessos. Agora, vamos verificar se nosso rover de cabeçalho foi ignorado. Então, entrarei na minha segunda conexão necessária e procurarei um nome de usuário de valor dentro do campo de nome de usuário. O que vou fazer é descobrir e escreverei o nome de usuário. Vou descartar esta mensagem, nome de usuário. E eu queria que isso fosse igual nome de usuário. E atualizarei quais resultados do nó correspondem aos seus critérios. Agora, vamos escolher um nome de usuário válido. Por exemplo, BSI, descubra, eu removerei isso. Eles estão digitando PSI e eu vou clicar em Atualizar. E você pode ver que os valores válidos ou todos os dados corretos foram armazenados no meu cluster do Elasticsearch. E as linhas de cabeçalho mais antigas são ignoradas. A chave para isso era garantir que as colunas definidas correspondam exatamente às colunas no arquivo CSV. Agora, antes de deixar você ir, eu queria mostrar uma última coisa, que é como enviar dados do Log Stash para uma instância do Elasticsearch com configuração de autenticação por senha. Para esta demonstração, criei um ELK separado. Uma máquina esperaria configuração de segurança para a autenticação por senha. Se eu copiar o endereço IP externo desta instância e ir para minha página da Web do Kibana. Ele me pedirá para fornecer meu nome de usuário e senha. Agora eu tenho um nome de usuário e senha integrados chamados elastic, que é a conta de superusuário. Vou usar esse login no meu Kibana. Agora, uma vez dentro do Kibana, vou clicar nessas três linhas do canto superior esquerdo e depois irei para o Stack Management. E, em seguida, em segurança e usuários, posso encontrar todos os nomes de usuário que foram configurados neste sistema. Esses são todos nomes de usuário internos. Então, o que faremos é usar o elastic para integrar nosso Log Stash com a instância do Elasticsearch no ELK. Então, vou clicar em SSH no ELK T2 para abrir uma conexão SSH. Agora, uma vez que eu tenha a conexão SSH aberta em todos os tipos em sudo, barra V, ETC, barra Log Stash slash d. E seguida, editaremos nosso arquivo de configuração chamado dados CSV. E dentro desse arquivo para configurar a saída para ir para a pesquisa elástica no ELK 1. Primeiro, vou alterar o valor do host host local Buddha endereço IP interno do ELK um, desculpe, edite tudo isso, indo para inserir e digitar 192 ponto 168 ponto um ponto F5. E agora preciso fornecer o nome de usuário e a senha que vou usar para autenticar. Então, vou digitar o usuário, e aqui vou colocar aspas duplas e digitar elástico, e então vou digitar a senha. E o que vou fazer é colocar aspas duplas e copiar a senha das minhas anotações. Agora, depois de copiar a senha, podemos salvar esse arquivo e agora estamos prontos para executar nosso pipeline. Então vou digitar sudo slash, usr slash slash, log slash bin e Log Stash e menos F. E eu copiarei tudo isso. Vou colá-lo aqui e clicar em Enter. E depois que o pipeline terminar o processamento, Begin vá para nossa instância Kibana e entenda o gerenciamento. Podemos ir para o gerenciamento de índices e você pode ver um índice chamado índice sublinhado CSV com 5 mil documentos foi criado. E, novamente, terei que criar um padrão de índice. Clique em Criar padrão de índice. Vou digitar CSV e ele correspondeu meu índice e usarei o campo de carimbo de data/hora e clique em Criar espectro de índice. Agora, para explorar meus dados, irei para análises e descobrirei. E aqui terei que alterar o índice do início dos logs para a estrela CSV. E ao fazer isso, você deve ser capaz de explorar seus dados. Mas isso, chegamos ao final desta palestra. Obrigado por assistir. Adeus. 22. Instalando o servidor de Apache: Ei pessoal, neste vídeo, mostrarei como instalar o servidor Web Apache na instância de VM do GCP. Primeiro, instalaremos o software e, em seguida, implantaremos o novo arquivo index.html. Depois disso, iniciaremos o servidor Web Apache e, finalmente, testaremos o acesso ao nosso site montado. Então, vamos começar. Aqui na tela. Eu tenho o console de instâncias de VM ativo para minha plataforma do GCP. Então vou escolher o novo senso vitamínico do Template. E depois disso, escolherei o modelo de servidor web que criamos anteriormente. Em seguida, clicarei em continuar. Depois disso, vou mudar a região para o próximo vídeo do US West One, descer e clicar em rede. Em rede, garantiremos que a tag de rede seja servidores web e, em seguida, precisaremos alterar a interface de rede estará na rede de serviços da web. Então, vou mudar isso de monitoramento para servidores web. E depois disso, vou descer e clicar em Criar. Isso criará nossa instância de VM, que usaremos para um servidor web. Agora, quando a VM estiver ativa e em execução, podemos migrar para o Visual Studio Code. Agora, aqui no console de código do Visual Studio, tenho as anotações para instalar um servidor web no lado esquerdo e, no lado direito, tenho minha conexão SSH neste servidor web. Então, primeiro, atualizaremos nosso sistema. Então sudo APT obter atualização menos y. Agora vamos limpar a seguir, vou digitar sudo apt-get install Apache dois menos y e pressione Enter. Em seguida. Vou limpar isso e, em seguida, copiarei esse comando para criar um novo arquivo index.html e colocar algum código de exemplo dentro dele para criar nosso site. Cole-o aqui e pressione enter. Agora, uma vez feito isso, posso iniciar meu serviço Apache. Então, pseudo-sistema CTL inicie o Apache dois e pressione enter. Agora vamos verificar o status. Portanto, pseudo-sistema CTL, status Apache como ativo e em execução. E agora vamos voltar ao nosso Console do GCP. E aqui eu vou copiar o IP externo desta máquina, e vou colá-lo aqui e pressionarei enter. Agora, como você pode ver, temos nossa página de amostra. É assim que você pode instalar um servidor Web na instância de VM do GCP. Obrigado por assistir. Vejo você no próximo. Adeus. 23. Instale e configure Metricbeat: Ei pessoal, temos nosso Elasticsearch Cluster anexado para funcionar. Agora é a hora de começar a usar o cluster. Nesta demonstração, coletamos dados de auditoria do sistema, como utilização de CPU e memória, dados de registro, como logs do sistema, limpamos alguns painéis interessantes como este, novamente, insights sobre nossos sistemas IP. Agora, o Elastic Search usa remetentes leves chamados beats que estão instalados nas máquinas de destino e enviam dados operacionais para o cluster do Elasticsearch. E podemos usar esses dados operacionais para criar relatórios e painéis. Agora, um dos casos de uso mais comuns é alimentar dados métricos do sistema no Elastic Search e usá-los para monitorar coisas como CPU ou utilização de memória, disco, etc. é alimentar dados métricos do sistema no Elastic Search e usá-los para monitorar coisas como CPU ou utilização de memória, disco, etc. pesquisa elástica fatorial usando uma batida chamada métrica, que é leve e mais barata que você pode instalar em seu servidor. Colete periodicamente métricas do sistema operacional e dos serviços em execução nisso. Portanto, ele pega essas métricas e estatísticas e as desloca para a saída do exemplo de sua escolha, pode ser Log Stash ou Elastic Search. Para dar um exemplo, digamos que você queira um intervalo da sua máquina Linux para nossos dados de métricas do sistema, como CPU e utilização de memória, etc O que você precisa fazer é precisar instale peso métrico no servidor e habilite sistema de módulos que coleta todas essas informações e o Chip-Seq para o Elastic Search. Este módulo permite que você monitore muitas coisas que eu listei na tela. Cada um desses itens individualmente é chamado de matriz. Você pode optar por ativar. Todos esses são apenas aqueles em que você está interessado. Aqueles em que você não está interessado, precisamos ser comentados do seu arquivo de configuração. Portanto, em teoria, um módulo de contas magnéticas, ele encontra a lógica básica para coletar dados de um serviço específico, como o servidor web Apache HTTP. O módulo especifica detalhes sobre o serviço, incluindo como se conectar a esse serviço, frequência coletar métricas e quais métricas coletar. Cada módulo tem uma ou mais matrizes. É uma matriz que é a parte da molécula que toca e estrutura os dados. Existem muitos modelos que você pode ativar na isca métrica na descrição deste vídeo para cima em um URL da documentação do Elasticsearch. E você pode navegá-lo para dar uma olhada em todos os módulos disponíveis. E você pode escolher os que você precisa com base nos requisitos do sistema. Em seguida, vamos ver como métrica, qual serviço funciona? talão métrico funciona em quatro etapas. Primeiro, os serviços instalados e configurados na máquina de destino, doentes e coleta informações de monitoramento com base nos módulos ativados e as métricas são configuradas. Esses dados são armazenados e indexados dentro do Elastic Search. E, finalmente, podemos criar relatórios e painéis interessantes sobre esses dados usando a interface do usuário do Kibana. Você também pode usar os painéis padrão fornecidos por essa sucessão. Aqui está a esperança de configurar o lance métrico para esta demonstração no servidor Web Apache habilitará o módulo Apache, que fornece o status para o servidor Web Apache. Também ativaremos o módulo do sistema, que fornece métricas do sistema. Finalmente, também ativamos o módulo de beats esperam. Este buret Mohr nos ajudará a monitorar o serviço Apache no servidor ELK permitirá o módulo de espera de pesquisa elástica, que nos ajudará a monitorar o Elasticsearch em si, também permitirá que o módulo Kibana espere o que nos ajudará a monitorar Kibana. Ativará o módulo especialista em bits, que nos ajudará a habilitar outros bits instalados em seus serviços. Agora, uma coisa a notar é que usaremos a mesma métrica com incenso para monitorar a si mesmo. Isso não é o que você verá em um ambiente de produção. Seu cluster de produção pode ser mais parecido com isso, onde você tem um cluster de produção separado e um cluster de monitoramento separado. Porque em caso de interrupção no cluster de monitoramento, você ainda pode ter os serviços de produção sendo monitorados por meio do cluster de produção. E também no caso de o cluster de produção morrer, você pode solucionar problemas por que ele falhou usando o cluster de monitoramento. Agora vamos passar para o nosso sistema de laboratório. Oferta métrica instalada. Agora, uma vez que a métrica está instalada, a primeira coisa que precisamos fazer é habilitar o monitoramento no cluster do Elasticsearch. Então o que faremos é ir para o Elasticsearch, acertar arquivos EML para que eu possa sudo nano slash, ETC, barra Elasticsearch. Elasticsearch começa para o Iêmen. Ele apertou ir até a parte inferior deste arquivo. No entanto, como fazer um comentário para uma nova seção. E vou citar que espera monitoramento. E acabou esperando monitoramento. Vou copiar essas duas configurações. Espere a coleta de monitoramento habilitada como verdadeira e espere o monitoramento. coleção de pesquisa elástica ativada é verdadeira. Essas duas configurações permitem o monitoramento de nosso cluster. Copie isso e cole-o aqui. Agora vamos dizer minha final. Depois disso, reinicio meu serviço Elasticsearch, o sistema CTL, reinicio a pesquisa elástica. Uma vez ativos de TI, como AP, podemos instalar e configurar uma métrica, ser prototipando sudo nano slash ETC, métricas de barra, métricas de barra. Aqui, a primeira configuração configurada é o carregamento da biblioteca. Ou a configuração faz é que ele procura o arquivo de configuração do módulo nesta parte. E se houver alguma alteração nesse arquivo de configuração, ele as recarregará automaticamente sem a necessidade de reiniciar o serviço de batidas métricas. Vou mudar isso para verdade. Bem-vindo e recarregar o período de pontos. Agora, uma agenda e nome, podemos especificar um nome personalizado para o remetente. Por padrão, o bit métrico usa o nome do host da máquina na qual o remetente está sendo executado. Posso digitar ELK dash um e os ovos. Vou especificar que esta é a máquina ELK, então vou me livrar de toda essa tag de especificação chamada ELK. Em painéis. Podemos configurar painéis padrão do Kibana para lances métricos para o remetente, mas cancelar o comentário e definir isso verdadeiro, verdadeiro. Ou podemos usar o painel é Kumar. O que vou fazer é definir isso como verdade aqui. Mas quando fazemos o servidor web e mostramos como fazê-lo através do comando. Agora sob Kibana precisa descomentar o anfitrião, mas podemos deixá-lo como hospitais locais, o remetente está funcionando na mesma máquina que o Kibana. mesmo para o Elastic Search, que possamos deixá-lo como host local. E o protocolo, vamos descomentar isso e alterá-lo de STDEV.S para Azure DB. Em nome de usuário, precisamos especificar o usuário Elastic e a senha. Você precisa especificar a senha para o usuário Elastic. Agora, em seguida, precisamos especificar o registro em log. Vamos para a seção chamada log. E aqui precisaremos descomentar o nível de log, mas vamos deixá-lo como padrão e descomentar os seletores de log também. Então, vamos deixá-lo como eleitores de pulsos padrão. Depois disso, precisamos copiar essas configurações. A primeira configuração configura o registro para ir para Arquivo. E depois disso, especificamos um bot para o arquivo de log. E especificamos o nome do arquivo de log. Depois disso, especificamos quantos arquivos precisamos seguir , e precisaremos especificar as permissões para o registro em log. Vou copiar tudo isso e colar aqui. Agora, finalmente, precisamos configurar o monitoramento para nossa instância métrica beat. Portanto, recomendarei o monitoramento ativado. E agora vamos adicionar isso a true. Isso vai até a parte inferior onde diz o ponto de monitoramento Elastic Search e descomente. Essa configuração de ninguém faz é pegar o que especificamos nas saídas para o Elastic Search como a saída, ele irá pegar a saída daqui. Podemos salvar esse arquivo e iniciar o serviço de grandes métricas. Então, pseudo-sistema CTL, comece. E podemos digitar no sistema sudo CTL habilitar métricas, isca métrica ativada também. Agora, depois disso, precisamos configurar um habilitar alguns módulos. Então, se eu for para métricas de barra ETC. Aqui, se eu fizer um ls, você verá que há um diretório chamado módulos. Vou entrar em módulos ou D, fazer um ls. Você verá que todos os módulos estão presentes neste diretório, mas todos eles estão desativados, exceto o módulo do sistema. Agora, para o servidor ELK, deixe-me limpar o Salvo novamente. Agora, para o ELK Solver, o que precisamos fazer é habilitar a pesquisa elástica, o módulo de espera, o módulo Kibana espera e o sistema desativado ou fazer. Então, vamos fazer isso primeiro. Portanto, o lance pseudométrico habilitado Elastic Search Depois disso, podemos permitir que Kibana espere. Agora, precisamos habilitar as esperanças Beta também. Este módulo será usado para monitorar outros remetentes que instalamos no servidor. Seria esperar. Agora, se assim o escolhermos, podemos desativar o sistema ou desabilitar. Agora vamos configurar o elasticsearch espera primeiro. Sudo nano Elastic Search dash espera. Aqui precisamos especificar o nome de usuário e a senha para nosso usuário de monitoramento remoto para o Elastic Search. Estou chegando a ambos e vou para meus arquivos, vou para o Ansible e para o armazenamento de credenciais TM. Bem, claro, todas as credenciais. Eles copiarão o nome de usuário primeiro e a senha colocará em que ordem usá-lo. Vamos salvá-lo. E agora vamos apenas modificar Kibana esperar e fazer o mesmo. Agora podemos dar gorjeta para isso. Acabei de perceber que eu desabilitei o beta esperar em vez de desabilitar o sistema. Então, o que vou fazer é permitir que eu espere primeiro desabilitado o modelo do sistema. Agora deixe-me configurar que esperaríamos. Agora, aqui, precisamos especificar o usuário do sistema beat, nome de usuário. Então, copiarei o uso de uma informação para usuários do sistema B. Então, sistema de sublinhado beta. Agora deixe-me elogiar isso e eu vou colar isso, e vou salvar esse arquivo. Agora, o lance métrico deve ser configurado no meu servidor ELK. que eu possa ir para o console do GCP, copiar o endereço IP público do meu servidor ELK. Instruindo o navegador com 45601. Da página inicial do Kibana. Posso clicar no menu no canto superior esquerdo. Deixe-me derrubar meu médico. Posso entrar no monitoramento da pilha e, se eu configurei a batida métrica corretamente, eu deveria começar a ver outras coisas. Pilhas na minha pilha. Aqui eu preciso clicar em demo ELK. E como você pode ver, tenho informações de monitoramento para meu Elasticsearch, Kibana e batidas. Então, vamos clicar em batida e clicar em ELK one. Você pode ver que eu tenho minhas taxas de eventos. Agora, posso ir ao ELK de demonstração e clicar em Visão geral no meu Elastic Search para analisar a integridade do meu índice do Elastic Search, posso ver saturados, como latência, latência de indexação e taxas. Posso clicar em nós, examinar minhas anotações, concordar com os passos do OneNote em status verde, posso observar a carga da CPU e o espaço discreto para esse nó. Também posso ver meus índices. Acabei de receber um índice chamado lance métrico. Agora posso ir ao Kibana e clicar em Visão geral. Olhe para Kibana. Então, como aqui, posso ver solicitações da planta e o tempo de resposta. A memória. Quantas instâncias de tempo máximo de resposta? Se eu clicar em instâncias, posso ver as instâncias do Kibana que também tenho. Agora, esta é a configuração do nosso servidor ELK. Em seguida, teremos que configurar um servidor web. O que vou fazer é do console do GCP, copiarei o endereço IP público do meu servidor web. Vou abrir um novo terminal com base no endereço IP público. Agora, no lado esquerdo, são chamadas de instruções de instalação e configuração de um servidor web. No lado direito, tenho minha conexão SSH no servidor web. Portanto, o primeiro passo é instalar a chave de assinatura pública para Elasticsearch. Então, vamos fazer isso. Depois disso, vamos controlar o transporte como pacote UDP. Depois disso, precisamos salvar as definições de diretório. Agora podemos fazer uma atualização, uma métrica do instalador bate. Então sudo apt-get update, sudo apt-get install metric, betas não métricas e armazenadas. Então, vamos primeiro limpar a tela. Agora podemos impedi-los de descobrir o talão métrico. Agora, essa configuração seria semelhante ao que fizemos para o verão do ELK. Vamos configurar o carregamento da biblioteca. O primeiro nome seria servidor web. Fui configurado os painéis padrão do Kibana porque quero mostrar como fazer isso através da linha de comando. O host do Kibana, precisarei colocar o endereço IP interno da instância. Então, ele irá para o console do GCP, copiará isso e colará aqui. O mesmo para o Elastic Search. Agora podemos ativar o registro em log. Depois disso. Vamos ativar o monitoramento. Finalmente, podemos descomentar o ponto de monitoramento Elastic Search e salvar nosso arquivo. Agora vamos iniciar o serviço de batidas métricas. Portanto, o pseudo-sistema CTL habilita o serviço. Agora vamos dar uma olhada no status do serviço em execução. Então, em seguida, o que faremos é começar a ativar módulos. O primeiro módulo será ativado nisso é o módulo Apache. Depois disso, ativamos a batida. Espere mais. Agora vamos dar uma olhada na lista de habilitar mais módulos nesta máquina. Você pode fazer isso digitando pseudo. Um pouco. Mais unidades listam que registram três módulos ativados nesta máquina. Apache Beta espera que acabamos ativar e o sistema ou atrasos ativados por padrão. Vamos dar uma olhada nas configurações do módulo. É claro, esta primeira barra sudo nano, bit métrico de barra ETC, mais distorcido d slash apache. Aqui, vamos descomentar o status dos conjuntos de matrizes. Não precisamos colocar o nome de usuário e a senha porque nosso servidor web padrão não possui autenticações. O que eu recomendaria é que alterássemos o valor no host de 127001 para o endereço IP ou o nome de domínio do nosso servidor web. Isso nos ajudaria a identificar esse servidor web em nosso painel. Então, o que vou fazer é remover tudo isso. Copiarei o endereço IP interno do meu servidor web. Volte para o terminal, e eu vou colá-lo aqui. Agora, posso salvar esse arquivo. Agora vamos dar uma olhada na configuração do Beat Expert. Aqui. Precisamos fornecer o nome de usuário e a senha para que possamos nos autenticar contra os beats. Este seria o usuário do sistema de praia. Essa seria a senha para o usuário do sistema V8. Agora esse bit é usado para monitorar outras bundas no sistema. Mas como ainda não temos nada instalado no sistema, isso não fará nada. Então, vamos sair desse arquivo. Eu prometi antes. Agora vou mostrar como configurar painéis por meio da linha de comando. Para fazer isso, você precisa digitar sudo metric bid set-up, dash, dash, dashboard. Agora, uma vez que os painéis forem carregados, você verá uma mensagem que diz painéis carregados. Agora vamos voltar para nossa instância Kibana. Aqui. Vamos primeiro para clusters e demonstração ELK entender o monitoramento. Vamos descer para beterraba. Agora, você pode ver que temos dois bits, ELK um e o outro deve ser um observador. Portanto, esses dados são do monitoramento interno acima da própria praia. Agora, para obter as informações sobre o subúrbio, você precisa ir para a matriz. Aqui. Você verá que começamos a obter métricas, detalhes sobre nossos servidores da web. Então, clicaremos nele e clicaremos na matriz do host. Você pode ver que começamos juntos todos os detalhes sobre nossos servidores web. Mas depois disso, vamos passar para painéis sob Kibana. Veja um painel de controle de amostra produzido por isca métrica para um servidor Apache. Aqui, na caixa de pesquisa do painel, vou digitar o Apache. Em seguida, abrirei o painel denominado métrica com a visão geral do Apache ECS. Agora este é um painel de exemplo. Podemos obter coisas como nomes de host em nosso ambiente, tempo de atividade de nossos servidores, bytes de acesso total, trabalhadores ocupados e ociosos, diferentes tipos de conexões, lóbulo de CPU, nó de rede, etc. Agora vou deixar vocês configurarem um servidor web para com isso, chegamos ao final deste vídeo. Obrigado por assistir. Vejo você no próximo. 24. Filebeat: Ei pessoal, vamos instalar e configurar o arquivo dentro desta palestra. A batida de arquivos é leve, mais barata para encaminhar e tentalizar dados registrados. Ele é instalado como um agente em seus servidores e monitora os arquivos de log são locais especificados, coleta eventos de log desses arquivos são locais e os encaminha para o Elastic Search ou Log Stash. Ele tem dois componentes. O primeiro é chamado de colheitadeira, e o segundo é uma entrada. Uma colheitadeira é responsável por ler o conteúdo de um único arquivo. Linha por linha. A entrada é responsável por gerenciar as colheitadeiras e encontrar todas as fontes para ler dados de registro. Agora, vamos dar uma olhada em como o file beat funciona. Agora, depois de iniciar o arquivo, qual serviço ele inicia uma ou mais entradas que examinam o local especificado para os dados de log. Por exemplo, insira um, veremos a má sorte e qualquer arquivo de log dentro do Verilog. Agora, para cada arquivo de log que ele descobriu dentro deste local, ele inicia um novo éster de contratação. Este harvester é responsável ler o arquivo de log linha por linha e envia esses dados para um líquido. Agora, esse lipídio agrega os eventos e como os dados agregados à saída que você especificar, por exemplo, ele pode enviar os dados para Log Stash Elastic Search. Nesta demonstração, primeiro configuraremos a batida de arquivos em nosso servidor ELK. Existem seis etapas. Então, primeiro, vamos validar que os logs estão configurados corretamente no servidor ELK. Depois disso, instalaremos e configuraremos o serviço de inicialização de arquivos. Depois disso, configuraremos métricas para monitorar nosso arquivo, qual serviço. Então, também temos algum tipo de monitoramento em vigor. Em seguida, iniciaremos um serviço habilitado do file beat. E, finalmente, habilitaremos e configuraremos os módulos ELK em nosso cluster para bater arquivos. Então Elasticsearch, Kibana e system servem agora. Em segundo lugar, configuraremos a batida de arquivos para nossos servidores web. As etapas são semelhantes. A única diferença é que os módulos serão configurados no serviço de 5 bits para servidores web serão Apache e o sistema nos permitirá começar. Agora aqui no meu laboratório. E já que tenho as etapas para instalar e configurar o caso do arquivo Britton Hill no lado esquerdo, e a conexão SSH no meu IELTS no lado direito. O que vou fazer é anexar essas etapas à descrição deste vídeo para que vocês também possam ter acesso a este documento. Agora, no EMACS, a primeira etapa é validar que o log está configurado para instâncias de pesquisa elástica. Então vou digitar sudo nano slash ETC, Elastic Search slash Elastic Search dot YAML. Agora, neste documento, o que vou fazer é ir para caminhos e verificar se logs de pontos comprados estão definidos como var log Elastic Search. E não é comentado. Se isso for comentado para você, você terá que descomentá-lo e certificar-se que os logs de pontos do caminho estão configurados. Depois de verificarmos que podemos sair disso. Em seguida, vamos para nossa instância Kibana. Então sudo nano slash TTC slash Kibana slash mantenha seu conhecido Tiamat. Agora, aqui teremos que ir até o registro. Agora, por padrão, você verá que o Kibana registra na saída padrão. Então, o que teremos que fazer é que teríamos que mudar isso. Vou abrir espaço aqui. Copie tudo isso, cole-o no lado direito. Agora, o que essas configurações fazem é primeiro configurar o destino do ponto de registro para estar em log incorreto e, em seguida, o arquivo Kibana. Em seguida, ativamos a rotação de log e lidamos com o sistema que queremos manter alguém arquivos de log. Depois que fizermos isso, podemos salvar esse arquivo e entrar. Agora, um problema com o Kibana é a configuração é que ele não pode criar o arquivo Kibana no Verilog. Então, o que vamos fazer é que teremos que fazer barra de log de barra Kibana, criando um novo arquivo chamado Lei submarino Kibana. Deixe-me fazer isso com o sudo. Agora, depois disso, fomos alterados a propriedade deste arquivo de log Kibana ser de propriedade do usuário e grupo do Kibana sudo C-H no Kibana. Lóbulo de barra de corte Kibana. Especialmente. Agora, este arquivo é propriedade do usuário Kibana e do grupo Kibana. Agora, depois de termos feito isso, podemos reiniciar o serviço Kibana. Então, pseudo sistema CTL, reinicie o cupom. Vamos dar uma olhada no status de Kibana. Agora, vamos ver se o arquivo Kibana que você acabou de criar no log var começou obter dados registrados da instância do Kibana. Vamos fazer uma cauda menos f cama de barra. Lei inglesa, especialmente como você pode ver, que começamos a receber dados registrados em nosso arquivo de log do Kibana. Vamos sair disso. Deixe-me limpar daqui. Agora, o próximo bit do ELK Stack instalando o servidor é a métrica de batidas. Então, vamos verificar novamente se a isca métrica está configurada com logging sudo nano slash abc slash metric main.xml. Este arquivo, vamos para a seção de registro em log. Agora vamos configurar o log neste arquivo. Copie tudo isso com base aqui. Agora, depois disso, salve esse arquivo também. Vamos reiniciar a métrica. Qual serviço? Então, pseudo-sistema CTL, métrica de pilha. Mas vamos dar uma olhada no status do lance métrico em execução. Agora, temos o log configurado em nosso cluster ELK. Depois disso, o que podemos fazer é agora instalar o arquivo qual serviço? Então sudo apt-get install. Agora, uma vez instalado, podemos ir para o arquivo YAML de ponto de arquivo e configurar o serviço híbrido. Então, para fazer isso, vamos digitar sudo, barra ETC slash slash fobic dot YAML. Agora, aqui neste arquivo, o que faremos é primeiro descer e configurar o carregamento da biblioteca. Então, em Módulos de bit de arquivo, iremos recarregar ponto ativado e alterar o valor de false para true. Vamos descomentar, recarregar o período de pontos e deixá-lo como padrão dez segundos. Agora vamos para baixo na seção de gênero e damos uma etiqueta. Então, como este é um cluster ELK, basta dar a ele uma tag ELK. Agora vamos até painéis e arquivos habilitados, quais painéis? Vou descomentar este painel de pontos de configuração iniciado Ativar e alterar o valor para true. Depois disso, na seção Kibana, sou o comando do URL do host Kibana, e deixarei como local ou excedente é 01 porque esse incenso de fibra é iniciado localmente. Muito instância Kibana é tudo para instalá-la. Depois dessa saída como Elastic Search. E deixarei a seção host como localhost 9200. Eu mudo o protocolo para usar o GDB. Altere a senha para a senha de usuários do Elastic e descomentarei o nome de usuário e a senha. Agora, depois disso, irei para a seção de login e configurarei o log para o nível de ponto de registro não confirmado e lido do arquivo . E vou deixá-lo como depuração padrão. E vou descomentar os seletores de pontos de registro e deixarei como estrela padrão. Copie tudo isso, cole-o aqui. Agora, finalmente, posso configurar o monitoramento por meio de my-attribute, descer neste arquivo. E eu vou copiar como gdb dot habilitado uma porta de ponto ester db. Agora, o que isso faz é que as métricas monitorem a batida de arquivos sobre o STDP. Baseie isso aqui. Agora posso salvar esse arquivo. Agora, desde que habilitamos o monitoramento de iscas métricas porta 5067 x mais verifique se o módulo beat expect no lance métrico está ativado ou não. Então, para fazer isso, vamos primeiro verificar a lista de lances sudo Electric, listar todos os módulos e os que foram ativados. Agora, se você puder ver que não temos o módulo de espera Beta ativado. Então, vamos primeiro ativar este módulo porque esse módulo é usado para monitorar outros bits instalados no servidor para matricular. Módulos de lance pseudo métrica ativados Esperamos que este módulo esteja ativado. Teremos que configurar este módulo para assistir à porta 5067. Para fazer isso, deixe-me primeiro limpar tudo. Então eu digito sudo nano slash, dc slash slash slash bead esperam. Neste arquivo, o que terá que fazer é primeiro alterar o URL em hosts do excedente local 6625067, porque esta é a porta para a qual o arquivo está exportando dados. Agora, sob nome de usuário e senha, temos que usar o nome de usuário e senha do sistema de praia. Eu não movi isso. Altere o nome de usuário. Sistema de sublinhado. E altere a senha para ser atendida sublinhado senha do usuário do sistema. E deixe-me salvar esse arquivo. Por fim, verifique essa métrica quais serviços executam o bit retórico de status CTL do sistema sudo. Agora podemos iniciar o serviço de inicialização de arquivos. Então, pseudo-sistema CTL. Agora vamos dar uma olhada no status do arquivo, qual serviço? Agora o serviço está em execução. Em seguida, o que faremos é ter que ativar os módulos nesta superfície. Deixe-me primeiro sair de tudo. Deixe-me mergulhar. Pseudo. Os módulos podem habilitar a pesquisa elástica, para ativar o módulo Elastic Search. Depois disso, deixe-me ter sido pseudo módulos de 5 bits habilitados, Kibana, habilitar os módulos Kibana. E por último, faremos o sistema habilitado para módulos sudo vibrate para permitir que o sistema faça. Agora, teremos que configurar todos esses três módulos. Vamos para sudo, nano dash abc slash, slash star d slash Elasticsearch Ottoman. Neste módulo, você pode ver que ele tem algumas partes. Por padrão, x os bots com base na sua distribuição. Então, como não mudamos essas partes para caminhos personalizados, não precisamos editar nada aqui. Mas se você alterou o passe para ser peças personalizadas em sua instalação, você terá que entrar aqui e fazer essas alterações de configuração. Vou sair desse arquivo. Da mesma forma, para o sistema de rodamina Gibbon, com base na distribuição, leva todas as partes padrão. Se você mudou as peças, você terá que entrar aqui e fazer as alterações. Agora, vamos para nossa instância Kibana. Copiarei o endereço IP público 5601, digite o nome do usuário e senha do Elastic. Agora, primeiro, se o lance estiver sendo monitorado corretamente, devemos ser capazes de ver essa criação de arquivos surgir sob monitoramento de pilha, menu CO2. Vá para Monitoramento de etapas. Aqui vamos clicar na demonstração irrigar, e vamos descer. Você pode ver que temos dois bits. Você tem o FIB sob o nome de EL dado. Vamos clicar nisso. Este é o nosso arquivo antes de ser monitorado corretamente e começar a ver que você tem algumas taxas de eventos para colocar, etc. Agora, depois disso, se você tiver dois clusters, demo e nunca olhar para a seção abaixo logs, você pode ver que começamos a coletar registros. Portanto, temos muitas informações e registros e aplicativos estão aquecendo lóbulos em nosso Elastic Search. Portanto, isso significa que nosso serviço é capaz capturar logs do cluster ELK. Agora vamos passar para a saída nominal daqui K. E passar para o servidor web. Olá, copie o endereço IP do servidor web um, cohere, SSH, cole o endereço IP. Em seguida, fecharei em seções para ***** acima da instalação do Albert. E abrirei aqueles para o servidor web. E eu olho neles no modo de visualização. Agora em nosso site. Mas primeiro teremos que validar que o log está configurado para matriz. Então, vamos fazer sudo, nano slash, etc slash predict bit slash pode líquido ponto YAML. Agora, aqui temos que ir até a seção de registro. Vamos descomentar o nível de log com depuração e selecionar estrela. Deixamos os dois como padrão. Copie esta seção. Então Controle C, controle V. Agora, depois disso, vamos salvar esse arquivo. Vamos reiniciar o bit MATLAB. Agora, uma vez que a métrica que o serviço aparece, podemos instalar um objeto de arquivo para status no serviço grande métrico primeiro, vamos fazer uma clara Então, temos uma tela clara. E aqui posso digitar sudo apt-get install. Agora, depois disso, podemos configurar nosso serviço vibrate. Então, deixe-me primeiro limpar. Digite sudo nano DC slash, barra cinco. Agora, as etapas são as mesmas, então vamos descer a carga da biblioteca configurada primeiro. Em seguida, vamos adicionar uma tag. Mantenha a tag como camada da Web, porque este é um servidor da Web. Painel de configuração. Ponto de configuração Início do painel ativado como verdadeiro. Agora, depois disso, vamos minar o anfitrião Kibana. Agora, para o OVNI, o que faremos é usar o endereço IP interno do nosso servidor Kibana. Então, copiarei isso e alterarei o host local para o endereço IP interno do nosso primeiro trimestre. Vou até a seção de saída do Elastic Search. Faça o mesmo para o URL do host aqui também. Altere profundamente as informações do protocolo. Digite a senha para o superusuário elástico. Agora vou até a seção de registro em log, verifique se o log está configurado. Agora, finalmente, vou descer e habilitarei a métrica para monitorar esse serviço. Salve esse arquivo e adicione um módulo quadrado Vx de verificação habilitado para lance métrico ou não. Então, pseudo bit métrico. Mais dívidas ativadas. Fedex de volta. Posso configurar este módulo. Então sudo, nano, especialmente ETC, barra de barra que esperaríamos. Neste arquivo. Eu mudei a placa host para 5067 porque este é o quinto arquivo que Peter está configurado. Eu perco o nome de usuário e a senha do sistema beat. Posso dizer esse arquivo. Agora vamos apenas fazer um status na métrica. Métrica quais serviços funcionam. Agora vamos começar com base em arquivos. Então, pseudo-sistema CTL arquivo. Depois disso, podemos primeiro colocar o serviço de fibras para verificar se ele foi realmente iniciado. Agora, depois de verificarmos que o serviço foi iniciado, podemos limpar tudo e habilitar o módulo. Pseudo. Bata. Os modelos ativam, habilitem o módulo Apache. Em seguida, habilitaremos isso como dois modelos. Agora, uma vez feito isso, podemos voltar para nossa instância Kibana. Aqui. Vamos apenas atualizar o passo em qualquer coisa em uma instância do Kibana. Se descermos, veremos que você tem quatro batidas agora, então clicaremos em bits. E, como você pode ver, temos o surgimento de 5 bits para o nosso servidor web também. Podemos verificar o status deste feed clicando no servidor da Web. E isso deve nos fornecer taxa de eventos, taxas de falha de throughput, etc. Agora, o que podemos fazer é dar uma olhada em um dos exemplos do painel desse arquivo para um servidor Web Apache. Para fazer isso, vamos ao Menu e depois ao painel. Aqui, no painel, vamos procurar pelo Apache. E vamos clicar no arquivo com o ECS excedente e analógico do Apache. Agora, este é um painel de controle de exemplo que o FileReader cria usando o excesso e editar logs de um serviço Apache. Você pode usar isso para examinar endereços IP exclusivos que acessam a si mesmo com esses códigos de resposta são um detalhamento único do navegador, etc. É assim que você pode instalar e configurar o arquivo em um servidor E e K e um servidor web. O que eu quero que você faça é eu quero que você entre e instale e configure o arquivo na web em algum lugar. O que você deve esperar é que, depois de fazer isso, você não consiga obter informações como essa para o absoluto. E também, se você for para o passo 100 coisa, você terá seis batidas. Uma métrica seja um arquivo para o segundo servidor web. Com isso, chegue ao final deste vídeo. Obrigado por assistir. Vejo você no próximo. Tchau. 25. Heartbeat 7: Ei pessoal, instalar lições e configurar pulsação. Neste vídeo, o heartbeat permite verificar periodicamente o status de seus serviços e determinar se eles estão disponíveis ou não. Agora, por exemplo, pense que você tem um servidor web. E se você fizer login no console do servidor web e fizer uma verificação de serviço no serviço HTTP. O serviço volta em execução ou você tenta carregar a página da Web, o baseado na Web não carrega, você obtém um editor na página da Web, que significa que seus usuários em nossa tabela usam seu site para o que quer que eles estivessem tentando usá-lo para. Agora você pode usar pulsação para monitorar esse tipo de cenários. Onde o cockpit fará é verificar se há um código de status de volta do servidor da Web. E se não estiver recuperando o código de status, ele realmente mostrou que os serviços da Web não respondem ou inativos. Agora, existem três tipos diferentes de monitores que você pode configurar dentro da pulsação. Primeiro, você pode configurar um monitor de ping ICMP. Ele basicamente pensa que esse nome de host de porta de endereço IP específico. E se ele conseguir um ping bem-sucedido, ele o mostra como se fosse. E se não for bem sucedido, mostra a pedra do monitor. Em seguida, você pode imaginar o TCP. Este monitor permite que você se conecte a um endpoint específico por meio de PCP. E você também pode modificar esse monitor para verificar se o endpoint está ativo a carga personalizada semelhante desse endpoint. Agora, em terceiro lugar, você também pode configurar um HTTP monitorado para se conectar via HTTP aos seus endpoints. Este monitor também pode ser configurado opcionalmente para verificar respostas específicas ou pontuações de status de seus endpoints. Em seguida, há cinco etapas para instalar o pulsação. Primeiro, você teria que instalar o pacote elástico heartbeat dash. Depois disso, configuraremos o serviço híbrido. Ele configurará isca métrica para monitorar nossa instância de pulsação. Em quarto lugar, configuraremos monitores, que é o monitor SERDP, ICMP, TCP. Finalmente, começamos a habilitar o serviço híbrido. Então, vamos passar para a esquerda. Agora, aqui no sistema de laboratório, acordo com as instruções para instalar e configurar um batimento cardíaco no ALEKS no lado esquerdo. E eu tenho minha conexão SSH e faço meu servidor ELK no lado direito. Agora, uma coisa a observar é que estaremos instalando pulsação somente no ALEKS nesta demonstração. Instale pulsação. Esse é o tipo em sudo apt-get update. Sudo apt-get install heartbeat. Eles realmente elásticos e batem enter. Depois que a pulsação estiver instalada, vamos começar a configurar o serviço de pulsação. Precisamos digitar sudo nano slash, ETC slash heartbeat slash heartbeat ou PMA. Neste arquivo YAML. Vamos primeiro configurar ao vivo abaixo. Mude a integral do ponto do Senhor para fazer e deixaremos o período de recarga padrão como cinco segundos. Depois disso. Vamos primeiro comentar todos os monitores embutidos. Porque você usará o local do monitor para configurar esses monitores. O caminho é barra, monitores de barra de pulsação de barra ETC em direção a D e NAM e arquivo dentro do local. Depois de comentar todos os monitores embutidos deste arquivo YAML de ponto de pulsação. Vamos para malas e saco de teatro. Ele tinha vai especificar o alvo como ELK. Depois disso, vamos para Kibana. E na seção Kibana, descomentaremos a parte do host, mas deixaremos o host local padrão 5601. Agora vamos passar para a saída do Elastic Search e deixamos o host local padrão do URLS 90 a 100, alteramos o protocolo para STDP e forneceremos os detalhes de autenticação. Agora, após a ação, vá para a seção de registro em log. Implementaremos o nível de registro. Também descomente os seletores de log, mas mantenha os valores padrão para ambos. Saiba, copiarei essa configuração das minhas instruções, especifique o login para ir para um arquivo. Isso está configurado, agora podemos configurar como monitoramento GDB para nosso incenso de pulsação. Vou copiar esses dois valores. Se você perceber que estamos usando a porta 5069 para monitoramento de nossa instância de pulsação, adicionaremos essa placa em nosso arquivo de configuração de espera beta depois disso. Então, vamos esse arquivo por enquanto. Agora vamos primeiro para a nossa batida. Bata. Ou você classifica D? E esperaríamos monitoramento da configuração do ventilador AutoML na porta 5069. Ele tinha uma vírgula de escada. Agora aprendi o URL http localhost 5069. Posso salvar esse arquivo. Agora, primeiro verifica a matriz, ela está sendo executada. Então, pseudo-sistema CTL, status. Ele se repete. Deslumbrante. Não, vamos também verificar se esperaríamos que esteja habilitado. Então, a pseudolista e você pode ver o Beta esperado está habilitado. Então isso está tudo bem. Agora, vamos sair de tudo e podemos começar com batimentos cardíacos insensíveis. Então, pseudo-sistema CTL, inicie o batimento cardíaco elástico. Vamos primeiro verificar o status do serviço. Certifique-se de que ele esteja em execução. E agora é hora de configurar monitores. Para fazer isso. Vamos primeiro para ATC, monitor híbrido armazenado. Aqui. Você verá que existem alguns arquivos de monitor de amostra disponíveis. Usará isso e os personalizará. Quem cria nossos próprios arquivos de monitor? Primeiro vou digitar sudo copy, sample, ICMP dot yammer dot desativado, copiar dois Pi seno PWM. Agora farei um nano no ICMP dot YAML para configurar o ICMP monitorado. Agora, para o nosso monitor ICMP, primeiro terá que alterar o ID e o nome. Para ID. Usarei o status do traço ICMP para nome. Usarei a verificação de status do ICMP. Vamos descomentar isso para ativar o monitor. Agora vamos deixar a programação como padrão cada cinco segundos para que nossos hosts, que especificamos na matriz de hosts. A cada cinco segundos. Teríamos que especificar uma lista de hosts aqui. Agora, o que vou fazer é primeiro especificar o endereço IP interno do nosso servidor web. Então, apenas para demonstrar no endereço IP externo do nosso servidor web para 193.68 ponto a ponto nove, que é o endereço IP interno dos meus quadris um espaço de coma. E eu copiarei o endereço IP do meu servidor web para aqui. Agora, o que também farei é adicionar um endereço IP externo acessível ao público, também. E isso hibridizar um hit ponto-ponto-ponto está sempre em cima não o próximo aliviado o modo como padrão, você pode desabilitar pelo IPV6 agora, mas vamos deixá-lo como padrão. Você também pode especificar um diamante ou uma taxa irá para a seção Tag em seguida e agregará o DAG chamado web. E agora podemos salvar esse arquivo. Assim que isso for feito, vamos seguir em frente e configurar nosso PCP. Querendo fazer o deck, vamos apenas copiar o arquivo de monitor TCP de amostra. Pseudo cópia amostrada tcp dot gmail dot desabilitado para tcp dot YAML. E agora vamos modificar este RPM de inicialização do PC. Agora aqui. Em primeiro lugar, teríamos que especificar a ideia novamente. Então, vamos começar porque usaremos esse monitor para verificar o status da conexão SSH e sob nome e tipo na verificação de status SSS. Depois que isso for ativado, o monitor deixará sua programação como padrão cinco segundos. E os hosts, especifiquei o endereço IP interno do meu servidor web. Um, especifique a porta, para que a porta SSH seja 22. Agora eu posso especificar a porta aqui, porta especificar uma lista de placas. Se o host não contiver um número de porta na opção ports. Portanto, esses são os dois lugares que você pode especificar portas. Deixamos todos os outros valores como padrão. Uma coisa a observar é que você pode usar os pintores personalizados do cheque enviado e recebido. Passaremos para a seção de tags e adicionaremos a tag para o europeu. E vou salvar esse arquivo agora. Em seguida, vamos seguir em frente e copiar a pseudoamostra do monitor de TV. Http dot YAML estão desativados para Esther db.json modificar SGD goo.gl, sudo nano dot YAML arquivo aqui, ID Eu especifico status da web e nome pode ser verificação de serviço web habilitado o monitor. E em hosts, adicionarei meu elástico e meu URL do Kibana. Depois disso, terei que especificar a indicação porque você configurou o esperado em nosso sistema. Eu fui o nome de usuário e senha, elástico e a senha para o usuário Elastic. Agora, podemos usar as outras configurações para especificar uma verificação de status personalizada ou um personalizado pintado nesta solicitação também. Mas vamos deixá-los como padrão e passar para a parte de tags, especificar que o DAG se adaptou e descomentamos isso. E agora podemos salvar esse arquivo também. Agora, antes de seguirmos em frente, vamos verificar o status do nosso serviço de pulsação. Mais uma vez, está funcionando. Então, agora vamos passar para o nosso Kibana, essa página. Agora, a primeira coisa a verificar seria que a pulsação aparece um monitoramento de pilha. Então, vamos para casa. Em seguida, pilha de monitoramento Aqui, vamos clicar na demonstração, e vamos até as batidas. E como você pode ver, temos batimentos cardíacos e um pouco. Podemos clicar em batida e , em seguida, pulsação para verificar o status de nossa instância de madeira dura. Agora, para os monitores reais, precisamos ir à nossa página inicial e depois aplicar sob observabilidade. Aqui, você pode procurar por todos os monitores que estão para cima ou para baixo. Agora, pelo que parece, todos os nossos monitores estão na posição vertical agora. Você pode usar o filtro para cima e para baixo para filtrar um status específico desejado. No topo, à direita, você pode especificar a hora. Então, por exemplo, você pode especificar se deseja que seus dados de 15 minutos atrás ou 15 dias ou horas atrás, você também pode especificar a quantidade de tempo. Como você pode especificar um absolutamente. Agora, você também pode verificar se há barcos. Temos três portas configuradas de 90 a 22560001. Para nossos cheques. Você pode especificar o esquema, ICMP ou UDP ou TCP para filtrar os endpoints. Ou você pode procurar por tags. Temos ELK e tag de nível da web. Portanto, há clique no nível da web. Se você fizer isso, você só verá os monitores específicos dessa tag em particular. Com isso, você chega ao final deste vídeo. Obrigado por assistir. Vejo você no próximo. 26. Auditbeat: Ei pessoal, neste vídeo, vamos instalar e configurar a auditoria V8. bit de auditoria permite monitorar a atividade e os processos do usuário em seu sistema Linux, se comunica diretamente com a estrutura de auditoria do Linux. E desde os dados coletados para pesquisa elástica em tempo real. São quatro etapas para instalar e configurar nosso serviço de débitos. Primeiro, instalaremos o bit de auditoria. A segunda semana configurou um pouco e configure os três modelos disponíveis dentro do serviço de auditoria V8. Atualmente, esses módulos são auditoria D, integridade de arquivos e sistema ou fazem. Depois disso, configuraremos métrica be para monitorar a auditoria, qual serviço? Finalmente, começaremos e habilitaremos o serviço de praia de auditoria. Agora, uma coisa a observar é que não há opção de carregamento de biblioteca para atender. Antes de mudarmos para o sistema de laboratório, vamos dar uma olhada em cada um desses módulos individualmente. E primeiro, vamos dar uma olhada no módulo de estranheza. O módulo recebe eventos de auditoria da estrutura de auditoria do Linux, que faz parte do kernel do Linux. O que ele faz é estabelecer uma assinatura no canto para receber eventos de auditoria à medida que eles ocorrem. Agora, uma coisa a observar é que talvez seja necessário interromper outros serviços que estão sendo executados em seu sistema, como estranheza. E geralmente, para que esse modelo funcione, existem dois tipos diferentes de regras que você pode configurar dentro do módulo ordenado. A primeira regra é um sistema de arquivos. O que essa regra faz é permitir a auditoria do acesso a um determinado arquivo ou a um diretório. Pense nisso como colocar um relógio nesse arquivo específico. Portanto, você é notificado quando o arquivo está sendo acessado ou modificado. A sintaxe desta regra é menos W caminho para o arquivo que você precisa para colocar o relógio em menos p. Quais permissões, como ler, escrever, executar, menos kx, nome ky. O próximo tipo de regra que você pode configurar é um sistema chamado regra. O que essa regra faz, permite o registro do custo do sistema que qualquer programa especificado faz. A sintaxe dessa regra é menos uma ação que pode ser sempre ou nunca. Isso, que seria tarefa, exceto usuário ou excluído, seguido pela chamada do sistema, que é especificada pelo nome. E, finalmente, você pode usar campo e valor para modificar ainda mais a regra para corresponder a eventos com base em coisas específicas, como arquitetura, grupo, o ID do processo, etc. Agora, em seguida, vamos dar uma olhada módulo de integridade do arquivo e do módulo de integridade detectam eventos quando um arquivo é alterado, o que significa quando um arquivo é criado ou atualizado ou excluído no disco. Ele faz isso criando uma assinatura com o sistema operacional para receber notificações de alterações em arquivos ou diretórios específicos. Agora, o que ele faz é quando você inicia este módulo pela primeira vez, ele executa uma varredura inicial de todos os caminhos que você configurou. E, em seguida, ele monitora esses caminhos para detectar quaisquer alterações desde que você perdeu a execução deste módulo. Ele usa dados persistentes localmente para enviar somente eventos para arquivos novos ou modificados. Depois disso, vamos dar uma olhada no sistema ou no sistema duplo ou coletar várias informações relacionadas à segurança sobre um sistema. Os conjuntos de dados enviam informações periódicas, por exemplo, um estado dos processos em execução atuais e alterações em tempo real. Por exemplo, quando um processo inicia ou interrompe cada conjunto de dados, vez que dois tipos diferentes de estado e eventos de inflamação, as informações de estado são enviadas periodicamente e no sistema iniciadas e podem ser controlado usando uma configuração chamada State DOT period. As informações do evento são enviadas à medida que o evento ocorre. Por exemplo, quando você inicia ou interrompe um processo. Para informações de eventos ou conjuntos de dados, use o modelo de osso para recuperar esses dados. frequência das pesquisas pode ser controlada pelo parâmetro de configuração do período. Agora vamos passar para o sistema de laboratório. Aqui no meu sistema de laboratório, tenho as instruções para instalar e configurar auditoria grande no EHS no lado esquerdo. E, no lado direito, tenho minha conexão SSH no EHS, nosso primeiro teríamos que instalar pessoas de auditoria para fazer isso. Vamos digitar sudo apt-get, instalá-lo melhor. Agora, uma coisa a lembrar é que somos capazes de fazer isso porque fizemos todos os pré-requisitos para adicionar repositório de pesquisa elástica, a chave de assinatura e o transporte Apigee como GTPase pacote neste sistema já quando fizemos a instalação de pesquisa elástica. Se você não tiver feito isso, você não poderá fazer essa etapa. Então você teria que voltar à etapa em que instalamos o Elastic Search e abordar esses pré-requisitos nesta máquina. Agora, após a instalação da auditabilidade , eles podem digitar sudo nano slash ETC. Auditoria de barra V8 de auditoria de barra com o ammer de pontos. Abra o arquivo de configuração de lances de auditoria. Agora, neste arquivo, a primeira coisa que faremos é configurar os módulos. Então, primeiro vamos configurar o módulo. Vamos descer e você verá que há uma seção chamada alterações de identidade. E esta seção permite que você coloque regras de firewall que observam arquivos como grupos de arquivos de sombra WD e G. Você pode, estou chegando isso para habilitar essas regras, vamos adicionar uma regra personalizada para colocar um relógio em nossos arquivos de configuração do Elasticsearch e Kibana. Tenho a regra aqui. Menos w FASTA arquivo é Gráficos para o Elasticsearch curto diâmetro cinco menos b para permissões e, em seguida, as permissões são WA e, em seguida, a chave é alterações. Então, vamos apenas copiar esses dois e colá-lo aqui. Para chave. A menos que também habilite essas regras. Agora, também podemos observar tentativas de acesso não autorizado ao nosso sistema. Então, vamos usar regras padrão para fazer isso. Agora, vamos configurar o motivo da integridade do arquivo. Agora, em File Integrity, você verá que existem alguns caminhos que já estão configurados, como foram usados, foram sbin ou cetera. Agora vamos adicionar nossas peças personalizadas para Elasticsearch e Kibana. Então, copie a pasta. Agora, depois disso, o que quero mostrar a seguir é que eles podem ser rápidos para que você não queira monitorar o caminho especificado no módulo Integridade do arquivo. Você pode excluir esses arquivos usando o arquivo sublinhado excluído. Segundo, vou apenas copiar essa configuração e colá-la dentro desse arquivo. Agora, o que essa configuração faz é procurar um nome de arquivo ou um back-end para esse nome e exclui que esses arquivos sejam lavados. Eu usei um experimento que exclui os arquivos de referência. Portanto, o arquivo de referência de ponto de lance de métrica ou referência curta do Elasticsearch seja monitorado. Em seguida, vamos dar uma olhada neste módulo do sistema. Existem dois tipos de informações para que você possa obter dados do sistema ou fazer. Primeiro são as informações do evento. Isso pode ser algo como qual pacote já está instalado em seu sistema ou removido ou atualizado. A frequência do monitor, essa inflamação pode ser modificada usando a configuração de períodos. Atualmente, o padrão é definido para ser de dois minutos, então vamos deixá-lo assim. Em segundo lugar, as informações do estágio de informações de estado podem ser monitoradas quanto a coisas como login do host, processo, soquete e usuário por padrão. E essa inflamação pode ser coletada por uma frequência de 12 horas por padrão, mas isso pode ser modificado modificando o valor do estado escuro período onde seria, mas vamos deixá-la como padrão em grande. Agora, vivemos o resto das configurações como padrão e passaremos para as configurações gerais. Primeiro. Configurado, um DAG. Então, ovos, vou descomentar e adicionar uma etiqueta chamada ELK. Em seguida. Em painéis, habilitarei os painéis padrão. Depois disso. Vamos passar para a seção Kibana. Ele havia deixado o URL do host sem confirmação. Depois disso, vamos para a saída do Elasticsearch. E estou chegando protocolo e altero o valor do protocolo para ser como UDP. Em seguida, vamos adicionar os detalhes de autenticação de usuários do Elastic. Agora, depois disso, vamos configurar o registro em log. Então, vou descomentar o nível de ponto do log, mas deixá-lo como comando de depuração padrão registrando seletores de pontos e novamente deixá-lo como padrão como seletores inteiros. Agora vamos configurar o registro para ser arquivo. Copie esta seção, cole-a aqui. Agora, após esse teste, faça a pontuação baixa e configure o monitoramento HTTP. Então, vamos copiar essas configurações. Stdev dot habilitou uma porta de ponto de grau extra. Agora, para a batida de auditoria, configuraremos a porta de monitoramento 5068 porque se você se lembrar, 5067 está sendo usado por batida de arquivo nesta demonstração. Agora podemos salvar esse arquivo não depois disso. Vamos primeiro verificar se esperaríamos que o modelo esteja habilitado no meu atributo. Então sudo pip list. Você pode ver que o BTEX back está ativado. A ópera isso me deixou limpar tudo. Agora. Há editado o arquivo de configuração modular redex back. Então sudo nano slash barra de barra ETC, barra classificação D do módulo de barra seja esperada ou TML. Agora, neste arquivo, vamos adicionar o marketing para o host. Após a quantidade de inflamação para o arquivo, eu digito http, localhost 68. Agora vamos salvar isso. Agora, depois disso, podemos iniciar pseudo sistema de bits ordenado CTL, start ou deadbeat. Agora vamos verificar o status do que temos o status do serviço. Agora isso falhou por algum motivo. Então, vamos investigar primeiro uma boa ideia do que analisaríamos as informações que inserimos e nos certificamos de que a sintaxe está correta. Então sudo, nano, etc slash auditoria bit slash auditoria beat ou OGM. Agora parece que exclui arquivos configurados incorretamente. Então, vamos colocar alguns espaços aqui que seguem o índice Shamatha. Só há salvar esse arquivo. E vamos tentar reiniciar nossa auditoria. Qual serviço? Então, pseudo-sistema CTL, comece a bater. Agora vamos fazer um status novamente, ver se ele surgiu. Agora parece que esse foi o problema e não ordenou qual serviço não está sendo executado? Vamos passar para nossa instância do Kibana para ver alguns painéis que ela criou por padrão para nós. Agora aqui, vamos primeiro passar para monitoramento de pilhas, demonstração ELK. Vamos descer às batidas. E você pode ver que temos auditoria com serviço aqui. Agora. Podemos clicar no trigo e, em seguida, clicar no serviço de quarto encomendado. Procure algumas informações sobre auditoria V8. Podemos ir para Início e, em seguida, painel de controle. Agora, aqui podemos abrir um desses painéis de bits de auditoria. Então, vamos abrir o painel de integridade do arquivo. Agora, este é um painel de controle de exemplo que podemos sair da auditoria V8. Você pode ver que a contagem inicial da varredura era 1043. Você pode ver que o tempo em que a varredura inicial foi feita. Proprietários e grupos de nossos arquivos, o arquivo que foi mais alterado pela contagem de arquivos, alguns eventos de arquivos de alguém. Agora, depois disso, vamos seguir em frente e configurar rapidamente a auditoria. Aguarde pelo nosso servidor web. Agora, aqui no sistema de laboratório, tenho a conexão SSH no meu servidor web. Então vou digitar sudo apt-get install. Agora, depois disso, vamos configurar rapidamente. Então sudo nano slash slash slash auditoria auditoria com ponto YAML. Agora vamos adicionar os relógios de arquivo, não no servidor da Web. O que faremos é não ter modificações Elasticsearch e Kibana European. Então, acabei de copiar essa regra. Então. Vou modificá-lo para minha métrica beat e arquivar arquivos KML beta, salvá-lo aqui. E mudei o passado para arquivo do Elastic Search para ETC. Corte. Mudou a chave para ser alterações. Posso copiar isso e colar aqui e as alterações para arquivar câmeras de vídeo a e arquivar. Então barra barra arquivo melhor câmera. Agora, como é um arquivo importante que você pode querer assistir nesta prata seria sua Web Apache. Vários arquivos podemos copiar o mesmo e alterar o caminho barra barra ponto www barra HTML index.html. E vamos mudar a chave Bu epsilon. Depois disso. Vamos passar para o módulo de integridade do arquivo. Aqui. Eu queria esse HTML de barra WWW. Agora, não precisamos fazer nenhuma alteração no sistema ou fazer. Agora vamos passar para ovos e agenda. Aqui, descomente a configuração x. E vamos adicionar a tag para o nível da Web habilita os painéis padrão. Agora vamos descer os hosts e adicionar o endereço IP do meu AKS, nosso 192 ponto 0,68 ponto um ponto 34. E vamos testar fazer o mesmo para plásticos. Essa saída mudou o protocolo ou judeu ou DB. E vamos adicionar a senha, ir mais para baixo e adicionar registro em log. Finalmente, vamos configurar, esperar coisas maravilhosas. Não necessariamente salve esse arquivo e não adicione a inflamação de monitoramento dentro que esperaríamos. Então sudo nano slash slash slash, mais distorcido d barra b para esperar. Este arquivo novamente, vírgula espaço http localhost 5068. Agora também podemos salvar esse arquivo. Agora vamos começar. Então, pseudo-sistema CTL. Comece pedigreed. Vamos procurar o status de servidores de reinicialização. Então, status do pseudo-sistema CTL ou eles estavam sendo executados. Vamos voltar para nossa instância Kibana. Agora, aqui, a pontuação deles para empilhar um ou chegar primeiro, e vamos clicar neles. E aqui você pode ver que temos que auditar pesos. Agora você também pode ir para o painel e vamos escolher um painel diferente desta vez. Vamos apenas escolher o painel de visão geral do sistema. Este painel fornece uma visão geral de seus ambientes, como número de seus ambientes, como hosts em seu ambiente, contagem de login, ações de login, alterações do usuário após distribuição, início de processos e paradas, soquetes, abertos e fechados, alterações de pacotes, etc. Você também pode listar os eventos do seu sistema no canto inferior direito. Agora, o que eu quero que você faça depois disso é ir e instalar a auditoria bater-se no servidor web para também tentar explorar outros painéis disponíveis e painéis para a batida de auditoria para ver que tipo de informações que você pode obter deste serviço. Com isso, chegamos ao final deste vídeo. Obrigado por assistir. Vejo você no próximo. 27. Packetbeat 7: Neste vídeo, vamos discutir como você pode instalar e configurar o bit de pacote para monitorar o tráfego de rede entre seus aplicativos. Packet é um analisador de pacotes de rede em tempo real que você pode usar com o Elastic Search para fornecer um sistema de monitoramento de aplicativos e análise de desempenho. Ele funciona capturando o tráfego de rede entre servidores de aplicativos. E ele decodifica os protocolos da camada de aplicativo , como HTTP, MySQL, etc. Você pode implantá-lo de volta no mesmo servidor em que seus aplicativos residem em alguém inexplicável em um ambiente Cloud porque eles sublinharam que os dispositivos de rede não estão expostos a você. É difícil implantar centenas de pacotes em alguém. Portanto, nesta demonstração, implantaremos a taxa de pacotes em nosso servidor web e monitoraremos nosso tráfego HTTP usando a taxa de pacotes. Há quatro etapas para implantar de volta e nós, primeiro, instalaremos a Semana do Pacote. Segunda semana configure a taxa de pacotes e configurados de sniffer de tráfego e os fluxos configurados de sniffer de tráfego e desktop para nosso repositório de bucket. Configuraremos a métrica. Estamos monitorando o pacote. E, finalmente, iniciaremos e habilitaremos o pacote. Vamos passar para o nosso sistema de laboratório. Aqui no lado esquerdo, tenho as instruções para instalar e configurar o bit de pacote no epsilon, no lado direito, tenho minha conexão SSH e amanhã 1º de outubro, próximo pacote de instalação taxa. Assim, podemos digitar o pacote sudo apt-get install e pressionar Enter. Agora, uma vez instalado o pacote, você pode começar a configurá-lo para o próximo primeiro CD e barra de impressão, bit de pacote de barra ETC. Aqui, se eu fizer um ls, você verá que eu tenho meu pacote, leia o arquivo de referência, que posso referenciar quando estou configurando meu arquivo de configuração de instalação do pacote, que é pacote com ponto YAML. Vamos fazer sudo. Número. Poderia estar suja Emma. Neste arquivo, a primeira coisa que tenho que configurar é a interface de rede da qual eu quero farejar dados . Máquinas Linux. Tenha um valor de qualquer que significa cheirar esse tráfego de toda a interface conectada. Ou você pode especificar uma interface de rede específica para direcionar somente a rede perfeita nessa interface. Agora vamos deixá-lo como padrão e, em seguida, os fluxos de pacotes são ativados por padrão. Para fluxos desativados, você pode definir habilitado como falso e configuração de fluxo para desativá-lo, mas vamos deixá-lo como ativado. E agora é hora de configurar os protocolos para os quais queremos monitorar os fluxos de rede. Agora isso está sob protocolos Bedard de pacotes. Agora, aqui vamos monitorar as ferramentas de rede para ICMP, IPv4, DNS, um HTTP desativado. O resto dos fluxos terá que comentá-los. Vou fazer isso agora. Agora, uma coisa a observar é que o campo esportivo é usado para configurar as portas para as quais você deseja monitorar as informações de fluxo para o seu servidor web pode estar sendo executado em um teste de porta diferente de uma dessas portas padrão. Por exemplo, seu servidor Web pode estar sendo executado na porta 8.001. Fluxo para o cenário de índice do seu servidor web, o que você terá que fazer é entrar aqui e adicionar seu quadro específico assim, e também excluir o restante deles. Como estamos executando na porta 80, eles movem todas as outras portas. E agora vou passar para a próxima seção, que é sexo. Aqui. Etiquetas incomuns. E vou manter as tags aparecerem. Depois disso, vamos configurar alguns painéis. Configuração da classificação do painel de pontos configurada ativada como verdadeira. Então deixe-me apenas primeiro descomentar isso e definir isso como verdadeiro. Habilitará painéis padrão para pacotes com instância Kibana. Depois disso, teremos que cancelar o comentário pós-sessão para o Kibana e corrigir o URL. Este será o endereço IP interno de nossa instância padrão. Quando você faz 168 pontos mp4. Depois disso, vamos passar para a saída. E a saída, a primeira coisa que temos que fazer é corrigir o URL para minha saída elástica, seção 921681 ponto 34, que é o IP interno da minha instância ELK. Em seguida, em protocolo, vamos configurar o protocolo para ser STDP. Agora, depois disso, temos que configurar a autenticação, usuário Elastic e a senha. Em seguida, vamos configurar o log, descomentar o nível de log, mas deixá-lo como antes, depurar os seletores de log, mas deixá-lo como estrela padrão, que significa que tudo Há certo que sabe o arquivo do Google. Preciso copiar essa configuração e colá-lo aqui. O que essa configuração faz é permitir o registro em log, ser enviado para um arquivo. Em seguida, especificamos os parâmetros para o arquivo que precisa ir para, por exemplo, o caminho do arquivo, o número de arquivos a serem mantidos e as permissões nesse arquivo. Após esta configuração de palestra deve ser monitorado através do talão métrico. Copie esses dois cirurgiões e cole-os aqui. Agora, a primeira configuração permite que o HTTP queira beber e a segunda configuração. Essa pode ser a porta necessária para dados de monitoramento central. O que faremos é configurar esta porta em nosso arquivo beat expect são limitados. Então, vamos salvar esse arquivo. Depois disso. Vamos editar nossos fundos especializados. Então sudo, nano slash, ETC slash modelos retributivos certamente esperam. Neste arquivo e na seção de host, temos que adicionar o URL para o nosso pacote ler aspas de espaço de vírgula militar http localhost. Na parte 070 do córtex. Posso salvar isso. Depois disso, vamos primeiro verificar se o peso métrico está sendo executado. Então, status do pseudo-sistema CTL. Agora isso está sendo executado. Agora vamos começar nosso pacote com a instância. Então, o pseudo-sistema CTL é iniciado. Vamos fazer um status em bits de pacote. Portanto, o status de pseudo-cisto para CTL está funcionando sem problemas. UI do Kibana, para ver algumas das pessoas são painéis criados por pacote. Da página inicial da minha UI Kibana. Primeiro vou ao menu. Vou carimbar nele. Ele tinha impuro. Vá para a seção quatro batidas. E posso ver que há um pacote beat board com, para que eu possa clicar em batidas. Vamos clicar no ideal. Eu conseguia ler. Você pode ver que ele começou a receber alguns dados. Para nossa instância de back-end. Na verdade, veja alguns painéis que foram criados por pacote para nós em nosso painel de especialistas em UI do Kibana. Aqui. Vamos digitar o pacote. Então, vamos clicar no Painel que diz que eu poderia ler como o PIB é, sim. Agora, aqui, este painel fornece as transações STDP, por exemplo, número de transações, estratos, pontuações e relatórios, histórico de doutrinas, solicitações de banco de dados, etc. Da mesma forma, você também pode olhar para a rede médicos. E aqui você pode ver conexões ao longo do tempo de postagens criando tráfego, postagens, recebimento de tráfego, tráfego de rede entre hosts. DNS cheio de exibição, você pode obter alguns dados relacionados ao DNS. Por exemplo, o DNS consulta alguém em suas solicitações ao longo do tempo, os tipos de perguntas em seus IPs de cliente e servidor, muitas vezes perguntas para DNS. Agora, em seguida, você também pode ver se as transações do CPS. Você pode ver contagens de pescoço e declínio, contagem de transações, colunas em branco, transferência de dados, faixa, basta digitar ao longo do tempo. Agora este é o pólo do seu painel. Pode examinar clientes que estão tentando acessar seus sites em suas transações. Transações, tipos de transação, resposta ao longo do tempo, percentis de tempo de resposta, erro versus transações bem-sucedidas, termos que eles não buscaram, etc O que eu quero que você faça depois disso é eu quero que você para implantar no servidor web. Isso chegará ao final deste vídeo e você está assistindo, eu te vejo no próximo. 28. Como implantar um cluster de nós multi: Ei pessoal, Nesta palestra, criaremos um cluster Elasticsearch de 3 nós com dois nós qualificados para mestre também separará nosso aplicativo Kibana em sua própria instância. A comunicação entre nós de pesquisa elástica será sobre SSL e a comunicação entre o Kibana e nosso cluster Elasticsearch será por HTTPS. Agora, aqui estão alguns passos. Primeiro, criaremos três nós do Elasticsearch em nossa conta de avaliação do GCP. Em seguida, também criaremos uma VM Kibana em nossa conta de avaliação do GCP. Depois disso, instalaremos a pesquisa elástica, todos os três nós do Elasticsearch e instalaremos o Kibana em sua própria carga. Em seguida, geraremos uma CA de pesquisa elástica e criaremos todos os certificados. Isso ocorre porque usaremos certificados autoassinados. Se você não quiser fazer isso, poderá gerar solicitações de assinatura de certificado e fazer CA da sua empresa ou uma CA pública forneça os certificados para o cluster. Depois de obter os certificados, distribuirá esses certificados para todos os nós. Em seguida, configuraremos o Elasticsearch e o Kibana. E, finalmente, garantiremos que os nós do Elasticsearch se juntem ao cluster Elasticsearch e que o nó Kibana possa se comunicar com o Elastic Search por HTTPS. Então, vamos começar. Como vocês podem ver, estou dentro da minha página de instâncias de VM do Compute Engine. Aqui. Clicarei em Criar instância. Vou clicar no novo senso feminino do modelo, e escolherei o modelo ELK e clique em Continuar. Vou mudar a região para US West One. Vou manter o nome como ELK um. E vou até a seção de rede, expandirei isso e, em seguida, expandirei o trabalho. Vou me certificar de que esta VM seja uma VPC de pesquisa elástica e na sub-rede de monitoramento. E depois disso, clicarei em criar. Agora, uma vez criada essa VM, posso criar mais duas. Depois que eu tiver as três instâncias de pesquisa elástica criadas, clicarei no botão Criar instância novamente para finalmente criar minha instância de câmera, clicarei na instância de VM do Modelo e novamente usarei meu Modelo ELK e clique em Continuar aqui, alterarei o nome para Kibana, alterarei a região novamente núcleo para rede. Certifique-se de que ele esteja sob sub-rede de monitoramento e clique em Criar. Finalmente, tenho minhas três instâncias do Elasticsearch e meu incenso Kibana prontos seguida, testaremos a conectividade com todas elas. O que vou fazer é primeiro clicar nessas três linhas para alterar a exibição da coluna. Não quero zonas porque conheço todo o teorema das zonas. Não quero que as recomendações sejam usadas por, e clicarei em OK, agora vou alterar o tamanho da janela do meu navegador para abrir meu terminal. Então agora eu tenho minha conta de avaliação do GCP, do lado esquerdo e meu terminal para Mac no meu lado direito. E verificarei a conectividade do meu Mac para o endereço IP externo das minhas instâncias do GCP. Então, vou digitar o espaço SSH, laboratório em e, em seguida, copiarei o IP externo e colarei e pressionarei Enter it. Sim, poderei fazer login na primeira instância. Em seguida, abrirei uma nova guia com o perfil básico. Aqui vou digitar no laboratório SSH na luz extra que temos a segunda instância e ela entra, sim, a mesma coisa. Vou adicionar outra guia, SSH, laboratório em e, em seguida, copiarei o endereço IP da próxima instância. Sim. Finalmente, copiarei o IP externo da instância de microbiologia, abrirei uma nova guia e farei bit de laboratório SSH e colarei aqui. Demorou anos e agora sou capaz de me conectar a todos eles. Então, vou minimizar isso e começaremos a configurar nossas instâncias. Então, primeiro teremos que instalar a pesquisa elástica em todas as instâncias do R3, três do Elasticsearch. Então, vá em frente e você pode seguir as mesmas etapas que mostrei em uma implantação de um único nó. Só não configure o ponto do Elastic Search YAML Ainda, basta instalá-lo e voltar e eu farei o mesmo nessas instâncias. Depois de instalar a pesquisa elástica em todas as três notas do Elasticsearch, é hora de instalar o Kibana no nó Kibana. Já instalei a chave de assinatura pública e salvei essa definição de diretório. Então, tudo o que precisamos fazer nesta instância é sudo APT obter Update and end. Sudo APT instale o Kibana e pressione Enter. Agora, como você pode ver, o Kibana foi instalado com sucesso nesta máquina depois que o Gibbon não armazenei. O que vou fazer é passar para o Visual Studio Terminal para que eu possa fazer referência às minhas anotações enquanto estiver configurando os serviços. Aqui na tela, eu tenho minha janela do Visual Studio Code aberta com minhas anotações no lado esquerdo e no terminal no lado direito e acima, usei este ícone de mais para criar quatro abas cada um na minha carga individual na conta do GCP. Então, primeiro começaremos a configurar o ELK uma máquina. Aqui. Vou fazer sudo VI slash, ETC, barra Elastic Search slash elastic search.html. Aniquile entrar. Vou para o Insert. E a primeira coisa que preciso fazer é configurar um nome para o meu cluster. Isso terá que ser o mesmo em todos os meus últimos nós de esforço ou limitar o sublinhado de demonstração ELK. Em seguida, darei um nome a este nó. Vou chamar esse nó ELK um. Podemos manter o caminho para o diretório de dados e log mesmo, tudo bem. Em seguida, entrarei na rede e alterarei o valor do host de pontos de rede para 0. ponto 0 é 0. Em seguida, descomentarei a porta de pontos STDP. Em seguida, teremos que especificar os hosts de semente para nosso cluster. Esses são os hosts iniciais. Que formará nosso cluster aqui, colocarei o endereço IP privado de todos os meus nós do Elastic Search. Se eu entrar no meu console do GCP, os IPs privados serão 192.6781681. Então é isso que vamos entrar aqui. Depois de fornecermos anfitriões de sementes, precisamos fornecer quais nós podem ser dominados elegíveis. Queremos que a ELK se pergunte que Neil K2 seja elegível para o mestre. Então é isso que vamos entrar aqui. Vou digitar EL k1 e k2. Agora, isso é tudo para esse arquivo. Por enquanto, posso salvá-lo um ponto de exclamação q azul. Agora, uma vez que eu tenha feito isso, o que vou precisar fazer é ir para o compartilhamento do usuário Elastic Search e agora, uma vez dentro do bin, podemos fazer um ls e você verá que existe um utilitário chamado Elastic Search traço 30 hotel. Usaremos isso para primeiro criar uma CA e , em seguida, gerar alguns certificados para uma replicação, esses certificados serão certificados autoassinados. Então, vamos começar primeiro, temos que gerar um vidente. Faça isso, vamos digitar sudo dot slash Elastic Search dash sagital. E para gerar um vidente, o comando é C, e vamos pressionar Enter. Podemos manter os padrões e nenhuma senha para o CEO. Este ponto de arquivo p12 é, em parte, compartilhamento do usuário Elastic Search. Então eu farei um LS aqui para garantir que este arquivo esteja lá, lá está. Agora o CFI IS, é gerado. Agora precisamos gerar os certificados SSL a serem usados pelas cargas do Elasticsearch. O que faremos é voltar ser novamente e eu vou pressionar a seta para cima para ir para o meu comando do Elastic Search Utility remove CA, e desta vez vou digitar insert porque queria gerar certificados. E para gerar os certificados, eu tenho que fornecer uma CA, vou digitar traço, traço C, e copiaremos o nome do nosso arquivo CAP 12 e colocá-lo aqui porque o arquivo está sob permanência para o local. Não precisamos fornecer um caminho totalmente qualificado para e eu pressionarei Enter quando ele pedir uma senha para ca, não fornecemos uma quando estávamos gerando o CS, então tudo bem, podemos clicar em Enter. Agora vamos aceitar padrões para o arquivo de certificado também, ou senha. Agora, esse arquivo também deve estar no compartilhamento do usuário Elastic Search. Então vou entrar nesse diretório e fazer um ls. E este é o nosso arquivo de certificado do Elastic Search. Agora, isso é para o SSL. Então, se voltarmos ao nosso PowerPoint, isso é para a comunicação entre os nós do Elasticsearch. Para comunicação Kibana, precisamos criar um certificado STDP. Agora, para fazer isso, podemos cd em been. Desta vez vou digitar a tabela de sergio de pesquisa elástica sudo dot slash. E aqui vou digitar STDP, regenerar o SGD será certificados. Eu não quero gerar um CSR, então vou digitar agora, essa é a opção que você usa quando estiver usando uma CA de terceiros, por exemplo, a CA pública da sua empresa, CA pública. Mas como estamos usando os certificados autoassinados, vou digitar 0 e pressionar Enter. Sim, queremos usar um CS existente, então vou digitar sim, no próximo ele quer o caminho para o meu arquivo CASB T12. Então, copiarei o caminho que é o compartilhamento do usuário Elastic Search. Vou copiá-lo aqui é Elastic Search ca dot p12. Então eu vou copiar isso aqui também, e eu vou pressionar enter. Agora não há senha para este arquivo SCF. Agora, a seguir, pergunta-me quanto tempo eu quero que os certificados sejam válidos. Agora, eu quero o padrão, então vou mantê-lo como cinco anos a seguir, ele pergunta se, se você quiser gerar um certificado por carga em uma configuração de produção, você pode. Então você vai sim aqui, mas por enquanto eu clico em Não e pressionarei Enter. Agora ele quer os nomes de host para todos os nós, ou podemos fornecer curingas. Agora, vou te mostrar algo por um minuto. Ele irá para outra instância. Agora, aqui faremos hosts sudo V slash, ETC, slash para abrir meu arquivo host. Agora, todas as instâncias do GCP têm um DNS interno, que se parece com isso. Suponha que o nome do host fornecido durante a configuração, a região lá m ponto c e, em seguida, o projeto em que eles estão e, em seguida, ponto interno. O que faremos é gerar um certificado usando o ponto estrela interno. Terceiro tipo em estrela para cobrir tudo, desde nome do host, projeto de ponto de região. E então vou digitar interno e apertar Enter e, em seguida, pressionar Enter novamente vou sim, está correto. Agora ele quer que forneçamos os endereços IP de todos os meus nós. Então eu vou fazer isso. 92 ponto 168 ponto um ponto 6190 ponto 168 ponto um ponto 7192 ponto 168 ponto um ponto oito. Obviamente, isso será diferente para você. Então, o que você terá que fazer é acessar o console do GCP e examinar os IPs internos e fornecê-los neste local. Se eles não estiverem corretos, seus nós não se juntarão ao cluster. Então, vou digitar Inserir um Enter novamente para sair. Sim, eles estão corretos. Não quero alterar nenhuma opção. Vou clicar em Não, não quero fornecer nenhuma senha. Clique em Enter e aceitarei todos os padrões. E isso deve criar um arquivo zip no meu site de compartilhamento do usuário Elastic Search. Então, vamos um nível acima de um claro e fazer um ls. Agora geramos um arquivo, um certificado para nós do Elasticsearch e um arquivo zip. Agora vamos ver o que está dentro do arquivo zip. Então, vou digitar o zíper de ponto do Elastic Search. Ele não consegue encontrar o Unzip. Então, essa é uma solução fácil. Vou digitar sudo apt-get install, descompactar, saber o que está descompactando instalado. Faremos o mesmo comando e anexaremos pseudo-ilícito fora disso para analisar. Agora, precisamos entrar nessa pasta. Então eu farei cd Elastic Search. E a menos que ele tenha o arquivo STDEV dot p12. Agora vamos um nível acima e fazer análise novamente, havia também uma pasta Kibana. Então, vamos para lá. E sempre que houver um arquivo CA Him de pesquisa elástica . Então, há um arquivo http dot p12 e um arquivo ca dot vm que foi criado neste momento é o que faremos é mover todos esses arquivos relevantes para o meu diretório temporário de barra para que eu possa baixar tudo isso e, em seguida, distribuí-los pelos empréstimos. Então, primeiro vou um nível acima claro, quando Alice, farei uma cópia de certificados elásticos para copiar o arquivo de certificado primeiro para barra TMP, e terei que adicionar um pseudo. Agora, em seguida, preciso copiar meu CFL Elastic Stack, ca dot p12 barra TMP barra. Em seguida, preciso fazer uma cópia sudo Elastic Search barra o arquivo STDP dentro da pasta Elastic Search, tmp também. E, finalmente, preciso fazer uma cópia sudo Kibana e o arquivo PEM do Elastic Search ca dot dentro dessa pasta Kibana para cortar o TMP. Agora, uma vez que eu tenha feito isso, preciso entrar na pasta TMP de barra. E o que vou fazer é fazer um mod CH e dar permissões completas a todos nesses arquivos. Então elástica estrela, e eu farei isso usando sudo e finalmente pseudo CH mod 777. Farei isso para o meu arquivo STDEV.P 12 quando ls menos l para ter certeza de que está feito, parece que é. Agora, antes de baixá-los, moverá os arquivos de certificado relevantes para esse nó específico diretamente para o conflito. Deixe-nos entrar no ETC. Slash Elastic Search tipo no sudo SU. Primeiro, entraremos em CD, ETC, Elastic Search. Aqui vamos criar um diretório chamado pesquisa. Uma vez feito isso, copiaremos o certificado SSL para o nosso Elastic Search, que é esse certificado na pesquisa elástica de compartilhamento do usuário na pasta de pesquisa, copiar barra de barra de barra Elastic Search. E o certificado é certificado elástico armazenado B12. E copiaremos o certificado dentro da pasta de origem, barra de pesquisa, pressionamos Enter, depois vamos fazer um cd nesta pasta de pesquisa, certifique-se de que o certificado foi copiado corretamente, isso está feito. Agora, o que temos que fazer é nos deixar ir um nível acima aqui, novamente Editar nosso arquivo YAML ponto Elastic Search. Então, farei um VI elástico search.html. E dentro deste arquivo terá que ir direto para a segurança e, sob segurança , copiará algumas configurações de segurança das minhas anotações. Portanto, espera que a segurança habilitada true permite que a segurança espera que o transporte de segurança SSL enable true habilite o SSL no transporte, usamos o certificado SSL modo de verificação I e garantimos que seja obrigatório que os clientes sejam autenticados. E, finalmente, teremos que fornecer o KeyStore e confiar ou parte para o nosso arquivo de pupila de ponto de certificado elástico, que acabamos de copiar pasta de origem dentro de Della tal conflito diretamente. Mas antes de fazermos isso, porque passamos para a terceira pasta, temos que fornecer o FQDN dessa parte. Então, vamos digitar barra ETC barra de pesquisa de barra Elastic Search loja de certificados elásticos sair. Bem, nós copiamos isso e colamos aqui também. E agora podemos copiar todas essas configurações, colá-las aqui. Antes de seguirmos em frente, também temos que habilitar a comunicação https ou outro cluster para isso, teremos que primeiro habilitar como GDB, outro cluster e, em seguida, temos que fornecer um pote para o SGD P. arquivo volve. Como fizemos antes. Eu fornecerei o FQDN porque você alterou o pote ADC Elastic Search slash slash slash SRB dot py arquivo e copie essas duas configurações na parte inferior do meu arquivo YAML de ponto do Elastic Search. E agora posso salvar esse arquivo. Agora, uma vez que fizermos isso, também copiarei esse arquivo para minha pasta Temp. E novamente, farei um CH mais. Então e assim por diante. No meu arquivo YAML ponto do Elastic Search dentro deles está este e pressione Enter e há uma cópia sedentária do nosso apresentador de certificado. Então copie a barra, usr slash share slash Elasticsearch, elasticsearch slash STDP dot py entrar na pesquisa de pesquisa elástica ATC. E vamos passar para a pasta de origem para garantir que esse arquivo esteja lá. Agora, vamos voltar para a janela do console do GCP para baixar todos esses arquivos. Agora, aqui no console do GCP, clicarei em SSH ao lado da minha instância ELK one. Isso abrirá o SSH para essa instância em uma nova guia do navegador. Agora, uma vez concluídas as conexões SSH, clique no botão Configurações no canto superior direito e clique em Baixar arquivo e, a partir daqui, dê o FQDN. Então, corte os certificados elásticos de barra temporária ponto p12 e clique em Download. Nós baixamos o primeiro certificado. Agora, em seguida, temos que baixar nosso arquivo STDEV dot p12. Então os termos de barra slash std P.volve é baixá-lo uma vez. Em seguida, clique no arquivo de download novamente. Desta vez, vamos baixar o arquivo PEM ponto. Então, para obter o nome, entrarei no meu diretório temporário para analisar e obter o nome do meu arquivo PEM de pontos. Aqui. Eu baixei isso. Agora. Em seguida, precisamos baixar nosso arquivo YAML curto Elasticsearch. Então, vou clicar em Baixar arquivo e os termos de barra barra do ponto Elastic Search YAML, e clicarei em Download. Uma vez feito isso, posso fechar esta guia SSH e abrir uma nova guia para o meu ELL k2. Agora, quando o SH2 GLP-2 estiver aberto, clicaremos no botão Configurações novamente, clicamos em Upload File e iremos para o local onde baixamos os certificados. E o primeiro arquivo, um é o certificado de pesquisa elástica. E eu vou clicar em Abrir, e isso carregará esse arquivo para o treinamento elaborado de barra inicial três. E o próximo arquivo que eu quero aqui é o arquivo HTTP. Então, vou clicar no upload novamente e fazer o upload do SGD P.volve para o mesmo local. E, finalmente, vou fazer o upload do meu elástico search.html, este arquivo. Agora, uma vez que fizermos isso, temos que carregar esses três arquivos para a terceira instância do Elasticsearch também. Então, vou fazer isso agora. Depois de carregar os arquivos para ELL K3, temos que ir para a instância do Kibana, fazer a mesma coisa, mas desta vez só temos que carregar o arquivo Elastic Search ca dot vm. Então, vou clicar no botão Configurações, clicar em Upload File e no arquivo PEM de ponto para Elastic Search veja e clicarei em Abrir. Agora, depois de carregar todos esses arquivos, todos eles foram enviados para o diretório inicial do usuário em execução do laboratório ou seu usuário individual em suas máquinas Linux. Temos que copiá-los para a parte correta. Primeiro, vamos para ELL K2 aqui. Vamos primeiro passar para o treinamento de TI do laboratório de barra inicial três. E você pode ver se você tem um arquivo YAML de ponto do Elastic Search e dois arquivos de certificados. Primeiro quanto ao sudo SU para se tornar raiz. Em seguida, entraremos nosso diretório de pesquisa elástica aqui, criaremos um novo diretório chamado pesquisa, copiaremos nossos certificados para este novo diretório. Então STDEV ponto p12 em terços barra. E o próximo é o certificado Elastic Search. Portanto, ferramenta de ponto py de certificado elástico e para pesquisar, agora vamos para o terceiro seletor para garantir que eles foram copiados e fazer análises aqui, tudo bem. Agora, precisamos substituir nosso arquivo YAML de ponto Elastic Search existente pelo novo arquivo que acabamos de copiar. Portanto, copie o laboratório de barra de barra inicial executando três barras elásticas search.html na barra ETC Elastic Search. E vamos um nível acima e fazer um ls menos l. E aqui teremos que alterar algumas configurações dentro deste arquivo YAML de ponto do Elastic Search. Então sudo nano elastic search.html terá que ir até o nome do ponto do nó, e teremos que mudar isso para ELL K2, ec2, e deve ser isso. Agora parece que fiz um erro de digitação e carreguei o nome do ponto. Precisamos que isso seja ELK dash, o número de carga 12 ou três. Então deixe-me verificar o que eu fiz no verdadeiro k1 aqui no meu ELK um. Então vou para ETC, Elastic Search e farei um nano apenas última coisa, search.html. E eu vou mudar isso para traçar um também. E vou salvar isso agora que coletamos, vamos salvar esse arquivo também e passar para o ELK a3. Então, temos que fazer a mesma coisa. Então, pseudo-cópia barra barra home slash biblioteca treino três barra http dot slash elastic search.html to slash, ETC. Slash Elastic Search criou a pasta e copiou todos os certificados certos em seu caminho. Agora, o que podemos fazer é fazer um arquivo search.html nano ou não elástico e podemos alterar o nome da carga. Podemos salvar esse arquivo. Agora vamos passar para nossa instância Kibana. No Kibana, havia apenas um arquivo, então treinamento elaborado em casa três pela lista de fornecedores. Há apenas um Elastic Search, ponto PM. Então vamos fazer um sudo SU, é Co2, ETC. Corte Kibana, faça um novo diretório chamado pesquisar aqui e copie o arquivo Elasticsearch ca dot vm do nosso diretório de treinamento de nível para pesquisar. E agora vamos fazer um nano no teclado AutoML aqui, a primeira coisa que temos que fazer é descomentar a porta de ponto do servidor. Em seguida, temos que alterar os hosts de pontos do servidor para 0. E aqui onde diz URL de base pública do servidor, temos que fornecer a URL, essa mesa Kibana serviço Goneril, não, não faremos HTTPS para nossa interface GUI Kibana. O que vou fazer é digitar a barra de barra http. Eu vou para instâncias de VM, copio o IP interno da instância de microbiota, cole-o aqui e configurei o Kibana para ser executado em 5601. Então vou digitar que aqueles que fizeram isso primeiro temos que especificar são vários nomeados para Kibana. Então, vou descomentar esse tipo de função na demonstração do Kibana aqui e aqui precisamos especificar todas as instâncias do Elastic Search para nossas consultas. Então, basicamente, se você quiser que suas consultas sejam executadas em uma única instância do Elasticsearch, você terá que especificar o endereço IP dessa incidência. Mas como queremos que eles sejam executados em todas as nossas instâncias, vou fornecer todas as instâncias do Elasticsearch aqui. Voltarei às minhas anotações e copiarei esta string daqui, e removerei isso e colarei, e corrigirei a diapedese. A única que eu fiz isso. A próxima coisa que temos que fazer é fornecer o caminho do arquivo dot bm. Para fazer isso, temos que ir para as autoridades de certificação SSL do ponto Elastic Search, e vou descomentar isso. E aqui à esquerda para fornecer as partes ao meu arquivo ca dot vm. Então, vou remover tudo isso e digitar barra ETC barra de pesquisa de barra Kibana o nome da barra de arquivo vm do ponto do Elasticsearch Elasticsearch ca dot pm. E uma vez que eu tenha feito isso, posso seguir salvar este arquivo. Agora é hora de iniciar nosso cluster Elasticsearch. Agora vou para o meu rendimento dado máquina. Vou digitar a CTL do sistema, iniciar o Elastic Search e, em seguida, irei para minha máquina. No CTO do sistema fora daqui, inicie o Elastic Search e digite sudo na frente. E então vou para minha terceira máquina, mas a mesma coisa. Então, o pseudo-sistema CTL inicia o Elastic Search e ele entrou, vamos ver se o primeiro jogo de instância do Elasticsearch bem, parece que houve um problema. Então, para solucionar problemas quando você pode usar CTL geral f menos u e, em seguida, o nome do serviço. Então, vamos dar uma olhada. É justo iniciar o serviço. Outro lugar que você pode procurar é o registro de roupas íntimas Elastic Search. Se fizermos um ls, haverá um arquivo de log de pontos. Então, vamos fazer um gato nisso. Diz excesso de noite para o arquivo do certificado. Então, vamos voltar para nossa pasta Elastic Search. Deixe-me limpar tudo aqui. Vamos fazer uma pasta ls menos l r certificado é uma pontuação rude do Elastic Search. Insira lá e faça um, deixe-me S menos L. Nosso certificado Elasticsearch tem permissões r, w e, em seguida, nada para o grupo. Agora talvez precisemos mudar isso, então faremos o modo CH. E por enquanto vou digitar 777 e o certificado do Elastic Search ponto p12. E farei a mesma coisa pelo meu HTTP. Ou, para descobrir isso para uma implantação de produção, talvez seja necessário examinar as permissões no certificado, mas, por enquanto, vamos tentar iniciar o serviço com essas permissões. Parece que começou a encontrar desta vez. Então, vamos fazer um sistema CTL, status Elastic Search. Observe que está feito. Podemos ir para a outra instância e aqueles CDC Elastic Search quanto ao sudo SU aqui Vamos desenhar ETC, Elastic Search e, em seguida, ls menos l e olhar para a pasta de origem, a menos que coincidam com isso. E vamos ver as permissões no certificado agora, veja o status desta máquina. Então este está sendo executado. Vamos dar uma olhada nos dados da terceira máquina. Então, como você pode ver, se houver um problema de permissões, seu serviço pode não aparecer. Se eu voltar para minha primeira instância, tudo o que você precisa fazer é se você tiver algum problema ao iniciar este serviço do Elastic Search, você pode ir para onde logs Elasticsearch para analisar e examinar esse arquivo . E, como mostrei anteriormente, ele lhe dará uma dica de onde o erro foi feito por enquanto, também mostrei como alterar as permissões em vários arquivos para resolver quaisquer problemas. Agora, como você pode ver, com uma permissão de 755, esse certificado foi carregado corretamente. Então, provavelmente o que temos que fazer é ir para o ATC Elastic Search e entrar em busca, alterar as permissões para 755 neste certificado do Elastic Search também. E vamos tentar fazer o mesmo pelo nosso certificado STDP Bidwell, a menos que tente reiniciar os dólares de serviço para um status CTL do sistema, pesquisa de plástico está sendo executada. Não vamos esclarecer. Em seguida, precisamos gerar as credenciais para nosso cluster Elasticsearch. Nós vamos compartilhar o Elastic Search e estivemos dentro da análise de benefícios, há um arquivo de senhas de configuração, então faremos o conjunto de senhas do Elasticsearch. E vou fazer automaticamente para gerar automaticamente todas as minhas senhas. Vá, sim, e gerou a senha para este cluster para mim, vou copiá-los em arquivos. Eu tenho isso. Agora, antes de fazer qualquer coisa, preciso ir à minha instância do Kibera e depois dividir meu teclado sem arquivo YAML de ponto. Vou fazer o arquivo sudo SU Kibana. E aqui vou aprender sobre a rodamina Kibana. E neste arquivo, fornecerei as credenciais para o meu usuário do sistema Kibana. Então, dessa forma, usaremos a autenticação por senha para o nosso Kibana para se comunicar com o Elastic Search. Copie isso e salve esse arquivo. E vamos começar o Kibana. Vamos fazer um status neste serviço é vetorial. Agora, o que podemos fazer é voltar para nossa instância do Elasticsearch, amarelo fornecido, e vamos obter o status desse cluster para garantir que todos os três nós tenham se conectado. Illustrator. Então vou para minhas anotações, copiarei o comando curl e adicionarei o nome de usuário e a senha do usuário Elastic a este comando menos u elastic e, em seguida, forneço a senha para esse espaço de usuário. E eu pressionarei Enter e alterarei o STDP para HTTPS. E percebi esse erro quando você tenta se conectar por meio curl que existe um certificado autoassinado e uma cadeia de certificados. Tudo o que você precisa fazer é dizer a curl para ignorar um certificado autoassinado irá logo no canto superior direito após Carl e menos k e pressione Enter. E aqui você pode ver que nosso cluster tem três nós, é chamado Demo ELK e o status desse cluster é verde. Essa é uma resposta positiva. Então, o que faremos é copiar o endereço IP público do nosso Kibera e ver se eles podem acessar a interface do usuário do Kibana usando isso exerce um e a interface do usuário do Kibana está carregada. Então, o que faremos a seguir é tentar ver se podemos fazer login usando o usuário elástico. Copie a senha. Elastic band forneceu a senha ou o que quer que seja aqui. Agora clique em Explorar por conta própria. Então, como você pode ver, eu não tive solução bem-sucedida. É assim que você pode criar um cluster ELK multimodo. Com isso, chegamos ao final desta palestra. Obrigado por assistir. Vejo você no próximo. Tchau. 29. Os nós de elasticsearch: Ei pessoal, nesta palestra, vamos dar uma olhada em um cluster Elasticsearch com mais detalhes. E o cluster Elasticsearch é um grupo de uma ou mais instâncias de nós que estão conectadas entre si. Agora, o que é o Elastic Search e load? Um nó de pesquisa elástica é um único servidor que faz parte de um cluster. E o que isso significa é que todos esses nós dentro do arquivo de configuração YAML elástico ou curto terão a mesma configuração de nome de ponto do cluster. Portanto, todos os nós que têm a mesma configuração de nome de ponto do cluster como a mesma podem formar um cluster. Um nó armazena dados e participa dos recursos de indexação e pesquisa de clusters à medida que um nó entra ou sai de um cluster, o cluster se reorganiza automaticamente para distribuir uniformemente os dados em todos os nós disponíveis nesse cluster. Portanto, em caso de perda de um nó, você não perde os dados e eles estão disponíveis em todos os outros nós. Agora, se você estiver executando uma única instância do Elastic Search, esse tipo de cluster estará totalmente funcional, mas caso você perca seu nó, você perderá todos os seus dados. Portanto, se você tiver requisitos de alta disponibilidade ou tolerância a falhas, estará melhor com o cluster. Agora, os nós em um cluster do Elasticsearch podem ter várias funções. Isso é especificado pela definição de metas Node.js em seu arquivo YAML de estratégia de pesquisa elástica. Agora, aqui na tela, dei a você um breve resumo de todas as funções de nó disponíveis no Elastic Search. E agora vamos dar uma olhada em cada um deles. Primeiro, vamos dar uma olhada nos nós qualificados dominados são o nó principal em um cluster do Elasticsearch é responsável por ações leves em todo o cluster como criar ou excluir um índice, rastreando qual nós fazem parte do cluster e decidem quais gráficos alocar para quais nós. Então, basicamente, quais dados são armazenados em qual nó é importante para a integridade do cluster ter um nó mestre estável porque o nó muscular executa todas as atividades de gerenciamento de cluster. E se o nó principal estiver mais estável, o cluster não consegue descobrir o que está acontecendo. Agora, existem dois tipos de nós qualificados mestre. Você pode ter um mestre dedicado ou um mestre somente de votação agora são nó mestre dedicado, como o nome sugere, é um nó dedicado que atua como um nó mestre para esse cluster. Agora, esse tipo de configuração é benéfico se você tiver um cluster muito grande e suas tarefas de gerenciamento de cluster forem tanto que você precisa fornecer uma norma muscular dedicada para clusters menores, você provavelmente não precisa de um nó principal dedicado. Você especifica qual nó é um mestre dedicado fornecendo apenas o valor mestre no valor das funções de ponto do nó. Este nó não atuará como nenhum outro nó. Agora, um segundo tipo de carga qualificada mestre pode ser um nó mestre somente para votação. Agora, esse tipo de nó pode participar de uma eleição mestre, mas nunca pode ser um nó principal. Portanto, ele pode fornecer que vale a pena quando um mestre está sendo eleito, mas nunca lançará seu nome para ser um nó principal. Agora, vamos dar uma olhada nas normas de dados. Datanodes possuem as camisas que contêm os documentos que você indexou. Portanto, eles contêm um pedaço de dados que você armazenou em seu cluster. Datanodes tratavam de operações relacionadas a dados, como operações de criação , leitura, atualização e exclusão, como operações de agregação. Essas operações são de entrada-saída, CPU e memória intensiva. Portanto, é sempre uma boa ideia monitorar esses recursos nesses nós de dados. E quando eles ficam sobrecarregados para adicionar mais nós de dados ao cluster para equilibrar a carga. Agora, você pode ter um DataNode de conteúdo que acomoda conteúdo criado pelo usuário. E eles podem idempotentar operações como graduar ou criar, ler, atualizar e excluir essas agregações em seu cluster. Agora, os nós de dados podem ser configurados em vários níveis. Então, vamos dar uma olhada em cada um deles. Agora, para dar um exemplo, digamos que seus dados tenham chegado recentemente ao cluster. Digamos que você tenha alguns dados de CRM que foram para o cluster e que estão chegando. Obviamente, todos os seus associados de vendas ou qualquer outra pessoa que precise desses dados de CRM. Analisaremos esses dados assim que eles chegarem. Então você espera uma alta frequência de busca por esse tipo de dados. Você o armazenará no nível quente. Portanto, esses são dados que acabaram de chegar e estão sendo pesquisados com frequência. Agora, vamos dizer que os dados se tornaram provavelmente três meses de idade, então sua lista de clientes ficou um pouco obsoleta. Talvez seja necessário fazer algumas pesquisas nele como era quando os dados acabam de entrar, você armazenará esse tipo de dados no nível quente. Depois disso, você tem igualdade aqui. É quando os dados ficam mais velhos e raramente têm sido esse suporte. Você armazenará esse tipo de dados no nível frio. E, finalmente, quando os dados, então todos os dias apenas ad hoc uma vez em um tipo de lua azul de pesquisas, talvez você queira armazenar esse tipo de dados no nível congelado. Uma coisa importante sobre o nível congelado é que você só pode armazenar índices parcialmente montados no nível congelado. Então, basicamente, o que acontece é que os dados nessa camada não são armazenados no cache local. Há uma gueixa compartilhada entre o cluster e esse tipo de dados é armazenado nesse cache compartilhado. Então, obviamente, as pesquisas se tornam mais lentas. Agora, o principal motivo para ter esse tipo de arquitetura é para que, por exemplo, para nós importantes, você possa fornecer mais recursos, mais CPU, mais memória, etc. Então, por exemplo, um nó, mas um nó terá mais recursos do que um nó frio e menos recursos do que um nó cardíaco. E da mesma forma, de acordo com o nó ainda terá um cache local, mas este é provavelmente um sistema mais lento do que um conhecido. Dessa forma, você pode especificar recursos mais baratos para os níveis à medida que seus dados envelhecem. Agora, para especificar cada um desses níveis de dados. Por exemplo, para especificar um nó como estando na camada quente, você especificará sob funções de ponto zero, o valor do volume de sublinhado de dados. E para o seu voluntário e cortesão, você especificará os dados sublinhados dos dados da mulher sublinhando frio. Agora, em seguida, vamos dar uma olhada no nó de ingestão. E o nó de ingestão pode executar pipelines de pré-processamento, que são compostos de um ou mais processadores de ingestão. Depois disso, temos nós de coordenação. Agora, os nós de coordenação se comportam como balanceadores de carga inteligentes. O que esses nós fazem é dizer que você tenha um cluster grande e tenha uma grande quantidade de dados entrando em seu cluster. Esses nós podem atuar como balanceador de carga e beneficiar o cluster ao descarregar a parte de coordenação da tarefa para alguns nós específicos para que seus nós de dados não fiquem sobrecarregados. Agora, em seguida, você tem lóbulos elegíveis remotos. O que esses nós podem fazer é, por exemplo, você tem um cluster e, em seguida, nosso cluster remoto chamado clusterizado para. Agora você pode ativar pesquisa entre clusters entre esses dois clusters. E você pode definir um nó como uma carga qualificada remota. Portanto, as consultas que atingem esse nó podem realizar uma pesquisa no cluster remoto. Dessa forma, você pode combinar os dados em dois clusters, mas as pesquisas em um cluster remoto serão mais lentas. Agora, em seguida, você tem nós de aprendizado de máquina. Agora, esses nós executam trabalhos e lidam com solicitações de API de aprendizado de máquina. E você pode especificar esse nó configurando a regra do nó como ML. E, finalmente, você transformou nós que transformam e lidaram com solicitações de API de transformação. Você pode configurar esses Bye configurando a função de ponto de carga como transformação. Portanto, esses são os tipos de nós que você pode configurar no cluster do Elasticsearch. Com isso, chegamos ao final desta palestra. Nesta palestra, tentei fornecer uma visão geral de diferentes tipos de nós em um cluster do Elasticsearch. Onde quer que faça é anexar alguns links na descrição deste vídeo. Assim, você pode estudar um pouco mais sobre os diferentes tipos de nós em um cluster do Elasticsearch. Obrigado por assistir e verei você no próximo. Adeus. 30. Elasticsearch 8x: Ei pessoal, elastic.co, a empresa-mãe do Elastic Search, anunciou recentemente a disponibilidade geral do Elasticsearch versão oito ponto x. Esta versão tem algumas mudanças e o as etapas de instalação também são um pouco diferentes. Vamos dar uma olhada neles agora. Aqui na tela, tenho o que há de novo na página aberto a partir da documentação do Elasticsearch. Em primeiro lugar, ele introduz várias alterações nas APIs restantes do Elastic Search. Mas o que eles fizeram foi que permitiu compatibilidade com 7 X, o que deve lhe dar tempo suficiente, prepare-se para uma atualização. Em seguida, os recursos de segurança são ativados e configurados por padrão. Quando você instala o Elastic Search, ele já deve criar alguns certificados autoassinados e incluir algumas configurações segurança no arquivo YAML de traçado do Elasticsearch. Depois disso, há segurança nos índices do sistema. Na versão oito ponto 0, mesmo o superusuário elástico não tem acesso nativo aos índices do sistema. Para fornecer acesso a índices do sistema, você precisa configurar, permitir sublinhado, índices de sublinhado restritos permissão para true para um usuário específico. Agora, depois disso, há algumas melhorias na pesquisa, armazenamento, indexação e processamento de linguagem natural. Em seguida, vamos dar uma olhada nas notas de versão. Agora, na página da nota de lançamento, você verá alguns problemas conhecidos, o que é basicamente incerto. As plataformas Linux, a senha do usuário Elastic e o token de registro do gabinete não são gerados automaticamente, mas fornece uma lista de comandos que você pode executar para gerá-los após o instalação. Em seguida, ele lista todas as alterações quebrantes nesta versão. Agora, se você já estiver dando suporte a um cluster de produção, eu recomendarei que você vá e veja cada uma dessas alterações para garantir que não haja surpresas após a atualização. Com isso, podemos passar para instalar o Elasticsearch oito pontos 0 em nossas VMs. Agora estou dentro da minha plataforma do GCP e das instâncias de VM, tenho uma máquina ELK onde instalaremos o Elasticsearch np.zeros. Vou copiar o endereço IP externo desta máquina. E então, no meu Visual Studio Code, tenho alguns passos no lado esquerdo e no meu terminal no lado direito. Então, vou digitar o espaço SSH, laboratório no e, em seguida, o endereço IP externo. E eu vou clicar em Enter aqui, digite sim. E uma vez dentro da máquina, vou digitar sudo apt-get update para atualizar o sistema. Em seguida, vou limpar isso e digitar sudo apt-get install W get to install duplicate nesta máquina. Uma vez que nós fechamos e armazenamos, podemos começar com a instalação do ELK Stack. Então, primeiro, vou baixar e instalar a chave de assinatura pública. Então, copiarei o comando e colarei dentro do meu terminal e pressiono Enter. Agora, o que vou fazer é incluir todos esses comandos com a descrição deste vídeo. Então vocês também podem ter acesso a esses comandos. Em seguida, instalaremos o pacote HTTPS de transporte sbt. Depois disso, limparei minha tela e, em seguida, salvaremos a definição do diretório. Uma coisa importante a notar é que quando diz oito pontos x para 7,6 pacotes neste local, ele dirá sete pontos x. Não há nada importante na URL. Apenas uma pequena mudança de sete para oito e cole-a aqui. E isso deve baixar as definições do repositório do Elastic Search Adx nesta máquina. Agora, estou pronto para instalar meu ELK Stack nesta máquina. Então eu copiarei esse comando e colarei aqui, e pressionarei Enter. Agora, durante a instalação, você verá algumas informações pop-up em informações de configuração automática de segurança. Sob este título, você verá a senha elástica do superusuário incorporada. Então, sob essa linha, essa senha gerou para o superusuário incorporado elástico é esta. Você precisa salvar essa senha porque usaremos isso mais tarde. Vou descer nas minhas anotações. Vou salvá-lo aqui. Agora, depois que tudo estiver instalado, vou sair da minha tela. Agora, a partir daqui, primeiro configuraremos nosso Elastic Search. Então pseudo via barra ATC, barra Elasticsearch, elasticsearch inicia ML. Agora, neste arquivo, primeiro alteraremos o nome do cluster. Vou chamá-lo demo ALK. Em seguida, alterarei o nome do nó, que chamarei de ELK de um. Em seguida, irei até o host de pontos de rede e alterarei o valor do valor padrão para 0 ponto 0000. Depois disso, vou descomentar a porta, mas vou deixá-la como padrão de 90 a 100. Como este é um cluster de nó único, não precisamos fazer nada sob descoberta até a porta http dot. A configuração era semelhante ao que tínhamos que fazer para 7 x de um vértice em diante, você começará a ver uma seção chamada configuração automática de segurança do Pickin no arquivo YAML curto do Elasticsearch. Isso ocorre porque, como eu disse anteriormente, o Elasticsearch agora, por padrão inclui algumas opções de segurança. Se você puder ver aqui, espera que a segurança esteja ativada por padrão. inscrição de segurança também está ativada por padrão. Ele criou um caminho KeyStore para comunicação e afirmações HTTP e o arquivo é http dot p12. Também criou autenticação mútua, keystone e terrestre. Agora deixamos todas as configurações como padrão e salvaremos isso. Agora aqui, se eu entrar. Meu diretório Elasticsearch. Então sudo SU, e se eu fizer um LS aqui, você verá que existe um diretório chamado certs. E se eu entrar em busca e fazer uma lista, você verá a afirmação C, que é STDP sublinhado CA dot CRD, esse certificado de transporte sob ponto de transporte p12 e o certificado HTTPS sob http dot py 12. Agora podemos iniciar o sistema de serviço Elasticsearch, CTL, iniciar o Elastic Search. Agora, uma vez que o serviço tenha começado, se eu tentar fazer um curl, assim como costumava fazer para o sistema 7 x. Então curl menos x GET http localhost ou 9200 cluster de sublinhado e mantido bonito. E se eu fizer uma entrada aqui, receberei um erro porque um cluster está realmente em HTTPS. Então, vou precisar primeiro mudar de HTTP para HTTPS. Mas mesmo quando eu executo isso, eu deveria receber um erro. Ele diz problema de certificado SSL, certificados autoassinados e queixo de certificado. Para superar isso, vou apertar a seta para cima e, pouco antes de x chegar, vou digitar menos k e apertar Enter. E desta vez eu tenho as credenciais de autenticação ausentes. Agora, ainda não configuramos as senhas de usuário de construção nesta máquina, mas, por padrão, o Elastic configurou a senha do usuário elástico para nós. Então, copiarei essa senha e pressionarei a seta para cima. E depois da opção menos p, que era ignorar a célula enviar certificados cada tipo em menos u espaço elástico e, em seguida, dois pontos, e então eu fornecerei a senha colocar o usuário Elastic. E agora, se eu pressionar Enter, eu deveria obter o cluster de saúde. Então, como você pode ver, o status do cluster é verde. Com os certificados autoassinados, você precisa usar a opção menos K por padrão. Agora você precisa usar o usuário Elastic, obter a integridade do cluster pela primeira vez. Depois de fazer isso, vamos sair da tela. Agora, antes de configurar o Kibana, temos que configurar a senha para o usuário do sistema sublinhado do Kibana. Então, primeiro vou entrar no usr, compartilhar o Elastic Search, e faço um LS desse compartimento, usarei o utilitário de senhas de configuração do Elastic Search. A partir daqui, usarei o utilitário de redefinição de senha do Elastic Search. Então, vou digitar a barra de pontos Elastic Search redefinir a senha. E vou digitar menos u grupo dizer ao sistema qual redefinição de senha. E vou digitar o sistema de sublinhado do Kibana e pressionar Enter e nunca digitar nas proximidades aqui. E eu tenho a senha do meu usuário do sistema sublinhado Kibana. Ele copiará isso e eu vou colar isso aqui também. Agora, uma vez que eu tenha feito isso, agora posso configurar o Kibana. Então pseudo VA ATC Kibana, Kibana ponto YAML. E novamente, vou descomentar a porta de ponto prata, descomentar vários host de pontos e mudar do host local ou zeros 000. E a seguir, descomentar o URL da base pública do ponto lateral. E aqui vou digitar http, e agora precisamos do endereço IP interno de nossa instância Kibana. Copiarei o IP interno colado aqui e fornecerei a porta. Em seguida, podemos configurar o self.name. E aqui vou digitar uma demonstração, banner empoeirado. Em seguida, iremos para o sistema Elastic Search. E lá embaixo, fornecerei o valor para o nome de usuário do Elastic Search. Mantenha o sistema sublinhado por padrão. E então teremos que fornecer a senha, que acabamos de gerar. Copie isso aqui e cole-o. E agora, se você descer no sistema elástico, tão opcional porque estamos usando certificados autoassinados para esta demonstração, descomentarei o modo de verificação SSL do ponto Elastic Search e alterarei o valor de completo para nenhum. Isso ignorará quaisquer avisos para certificados autoassinados. Agora, outra coisa a observar é que a partir da versão oito ponto X em diante, Kibana por padrão logs É logon em um arquivo. Em algumas versões anteriores, os logs do Kibana por padrão, mas só estão disponíveis na saída padrão. Então, isso também é uma boa mudança. Agora vamos salvar esse arquivo e vamos começar o Kibana. Então, sistema sudo CTL, inicie o Kibana. Agora vamos obter esse status. Está ativo e em execução. Vamos voltar para nossa instância, copiar o endereço IP público, colá-lo em um navegador e, em seguida, fornecer a porta 5601. Agora estou recebendo um servidor Kibana não está pronto erro. Então, voltarei à minha implantação. E aqui vou abrir meu arquivo YAML novamente e procurarei erros. Agora, dentro do meu arquivo gibbon ou DML, esqueci de colocar o valor do host para pesquisa elástica para a versão ponto oito. O que você precisa fazer é vir aqui e mudar de HTTP para HTTPS. Agora vou salvar esse arquivo novamente e vamos reiniciar o Kibana. Agora, depois que o serviço for reiniciado, vamos verificar o status ativo e em execução. Temos a mensagem dizendo que o servidor HTTP executando anúncios zeros, zeros 005601. Agora vamos voltar para o navegador. Deixe-me atualizá-lo. Agora. Temos a página de login do Kibana. Então vou digitar elástico aqui e copiarei a senha do meu superusuário elástico, voltarei e colocarei a senha e pressionarei Login. Clique em nunca, e estamos dentro. É assim que você pode instalar o Elasticsearch versão oito ponto 0. As etapas são um pouco diferentes do Elasticsearch versão 7 x, mas não são tão diferentes. A maioria das configurações está dizendo que, se você for cuidadoso, tenho certeza que você será capaz de confiar menos configurar seus próprios clusters nisso, chegamos ao final desta palestra. Vejo você no próximo. Tchau. 31. Instalando o agente elástico e a análise de logs do Apache: Ei pessoal, existem duas maneiras de enviar dados de seus servidores para pesquisa elástica. Primeiro, você pode usar o beats, que são remetentes de dados leves que enviam dados para um cluster do Elasticsearch para cada caso de uso, há um lance específico. Por exemplo, para dados de matriz, você usa lance de métrica para dados de arquivo como arquivos de log, você usa o FileReader. Agora, isso torna um pouco complicado de gerenciar porque, dependendo do seu caso de uso, talvez seja necessário instalar vários bits na mesma VM. Agora, o segundo método é agente elástico. Elastic Agent é um único agente para dados de registros, métricas, segurança e prevenção de ameaças. Como este é um único agente, é mais fácil e rápido implantar o monitoramento em todo o ambiente. agente elástico faz uso de integrações e Kibana, que fornecem uma maneira fácil de conectar o Elastic Search a sistemas e serviços externos. Por exemplo, se você precisar coletar logs do servidor Web Apache, use a integração do Apache para instruir o agente elástico a coletar esses dados de um servidor Apache. Essas integrações são gerenciadas por meio da interface do usuário do Kibana. Agora, toda a comunicação entre os agentes elásticos e Elastic Search acontece por meio do servidor da frota. Agora, esse servidor de frota é um componente usado para gerenciar centralmente todos os agentes elásticos. É assim que funciona. Se você criar uma política no Kibana, sempre que essa política for criada, ela será salva no Elastic Search. Elastic Agent gerará uma chave de autenticação ou chave de registro, que usará para autenticar no servidor de frutas. Depois de fazer isso, ele pedirá ao servidor de inundação uma política. Agora, esse servidor invertido obterá essa política do Elastic Search e a fornecerá ao agente elástico. É assim que funciona quando uma nova política de agente criada no Kibana é salva no Elasticsearch. Para se inscrever na política, os agentes elásticos enviam uma solicitação ao servidor de frota usando a chave de registro gerada para autenticação. Em seguida, o Fluid Server recebe essa solicitação e obtém a política do agente da pesquisa elástica. E, em seguida, ela muda essa política para todos os agentes inscritos nessa política. Em seguida, o Elastic Agent usa informações de configuração armazenadas dentro desta política para coletar e enviar dados para o Elastic Search. Agora, dê um exemplo. Digamos que você tenha instalado o Apache neste agente e o MySQL instalado neste agente aqui no Kibana, você atribuirá uma política do Apache. Esse agente se inscreverá nessa política com o servidor de flare solar da frota enviará essa política para este agente, o que lhe dirá para coletar logs do servidor Apache. Depois de obter a política, ele pode enviar esses registros e outros dados para o Elasticsearch. Agora, esse agente que tem o MySQL nele, não será inscrito na política de dívidas. Você atribuirá alguma outra política a esse agente. Dessa forma, você pode ter servidores diferentes enviando diferentes camadas de dados Elasticsearch Cluster. Em seguida, existem dois métodos para implantar agentes elásticos. Primeiro, você pode gerenciá-los por uma frota. Isso permite que políticas e ciclos de vida do agente sejam gerenciados centralmente. No Kibana, há outra opção de idades elásticas autogerenciadas, que é um caso de uso avançado em que você precisa gerenciar manualmente cada agente. Para esta palestra, usaremos agentes de gerenciamento de frota. Agora, aqui estão as etapas de configuração. Primeiro, você configura o YAML curto elasticsearch e, em seguida, instala um servidor de frutas. Depois disso, você instala um agente elástico. Depois de instalar o agente nos servidores, você configura uma política de agente. E, finalmente, você valida que os dados foram enviados corretamente observando painéis e outras métricas. Então, vamos começar. Agora, aqui na tela, tenho meu servidor elástico de nó único. Então primeiro terei que criar um servidor frito. Então, clicarei em Criar Instância e, em seguida, clicarei em Nova e instância de VM do modelo, escolha ELK e, em seguida, continuarei. Vou mudar o nome para o servidor flip mudará a região para US West One e, em seguida, descerá em rede. Vou me certificar de que estou dentro da VPC de pesquisa elástica e na sub-rede de monitoramento e, em seguida, clique em Criar. Agora, enquanto esses frutos ou estiverem sendo criados, clicaremos em Criar Instância novamente para criar nosso servidor web. Então, vou clicar na nova instância de VM a partir do modelo, escolher os observadores e clicar em Continuar. Aqui, vou mudar a região para US West One. Você pode manter o nome como está, e eu vou para o networking. E na rede, alterarei a interface de rede do monitoramento para a sub-rede do servidor web. Em seguida, clico em criar. Agora, uma vez que tenhamos as três máquinas virtuais prontas, podemos começar com a instalação. Agora vou passar para o meu Visual Studio Code. Agora, dentro do meu Visual Studio Code, tenho minhas anotações para instalar o agente elástico no servidor de inundação e no servidor web do lado esquerdo. E eu tenho meu terminal em todas as três máquinas do lado direito. Portanto, o terminal um é dado EL, terminal dois é o servidor web e terminal três é o meu servidor de frutas. Então, vamos começar agora primeiro, temos que ir para o servidor ELK. Então vou passar para o terminal um. E no servidor ELK, temos que adicionar essas duas configurações em nosso Elasticsearch atingiu arquivos de configuração YAML vários digitação sudo VI slash, ETC, barra Elastic Search slash Elastic Pesquise o ponto YAML e pressione Enter. Agora, dentro deste arquivo, você verá que a primeira configuração esperada ou o ponto de segurança ativado é verdadeiro. Entrarei no modo de inserção. E aqui, logo abaixo do ponto de segurança esperado ativado, colarei a configuração de ponto de segurança esperado, chave API de ponto ativada como verdadeira. Então, ele copiará isso e colará aqui. E uma vez que eu tenha feito isso, posso salvar esse arquivo. Então escape e vou escrever para este arquivo, e agora posso iniciar meu Elastic Search. Então, pseudo sistema CTL, reinicie o Elastic Search. Agora, depois que o serviço for reiniciado, vamos começar como um serviço. Portanto, pseudo-sistema, CTL, status, Elastic Search, certifique-se de que o serviço esteja ativo e em execução. E agora vamos passar para o nosso servidor de campo, que está no terminal três. Vou mudar para um servidor fluido nesta máquina primeiro, temos que baixar o agente elástico. Então, copiarei o comando curl e o colarei no terminal para baixar o agente elástico. Agora, uma vez que o aplicativo do agente elástico tenha sido baixado, precisamos extrair o arquivo tar , copiar este comando estrela menos Z F e colá-lo no terminal e pressionar Enter. Agora em seguida, passaremos para a página da Web do Kibana. Então eu tenho a página da Web do Kibana aqui no menu de navegação à esquerda. Vou ficar sob gestão. Vou clicar na frota e, em seguida, irei para Configurações. Agora aqui vou clicar em Ações e as saídas deixarão o nome como padrão e o tipo seria pesquisa elástica porque queremos enviar saída de servidores fluidos para o Elastic Search e o host, Vou mudar de HTTP para HTTPS. E, em seguida, substituirei o valor do host local pelo endereço IP privado da minha instância ELK. Então eu vou copiá-lo daqui e vou substituí-lo. Agora em seguida, precisamos voltar ao nosso Visual Studio Code e, em seguida, precisamos ir para o Elastic Search. E na instância do Elasticsearch, preciso fazer o sudo SU primeiro e depois CD EDC, Elastic Search e depois pesquisar. Agora, se eu fizer um ls neste diretório, você verá que ele tem meu CSRP. Então, vamos obter esse certificado. Portanto, obtenha um ponto CA de CA de sublinhado em DB CRT. Agora, uma vez que você tenha a saída do comando cat para certificado de CA, o que precisamos fazer é atualizar o certificado de CA sob a configuração YAML avançada. Dessa forma, estamos dizendo ao sistema que usamos esse certificado de CA para estabelecer confiança entre nosso servidor fluido e o servidor Elasticsearch. Você pode fazer isso de duas maneiras. Você pode usar a impressão digital confiável da CA ou colar o certificado de CA para esta demonstração Colaremos o certificado da CA. Agora, a maneira como você faz isso é usar uma configuração chamada autoridades de certificação SSL, e então você cola o ESC um certificado e deixe-me expandi-lo. Portanto, esse é um exemplo da tela. Então, em autoridades de certificação SSL, copie este certificado para sua máquina, o que seria diferente do que ele mostra na minha. Então, vamos apenas copiar tudo isso e eu substituirei este e vou colá-lo aqui. Agora você pode precisar atualizar a formatação um pouco. Agora, vamos apenas copiar todo esse comando e passar para nossa configuração YAML avançada na minha página do Kibana e colar isso aqui assim. Agora, depois de fazer isso, podemos salvar isso, salvar e aplicar configurações e sete, implantar. Agora, depois disso, precisamos ir aos agentes. Agora, na página do agente, ele dirá que o flips over é necessário antes que possamos começar a inscrever agentes. Então, faremos isso agora. Agora, em Adafruit, o servidor deixará a política do agente como padrão. Já baixamos o servidor fluido em nossa frota Server VM, para que possamos pular isso. Em escolher um modo de implantação, usaremos o QuickStart para esta demonstração. O que isso faz é permitir que o servidor fluido gere certificados autoassinados para seu sistema de produção, você precisará escolher a produção e fornecer seu próprio certificado em seu fluido configuração do servidor. Agora em seguida, na etapa quatro, precisaremos fornecer a URL do nosso host de servidor fluido. Então HTTPS, agora precisamos ir para instâncias de VM e copiar o endereço IP interno do nosso servidor de frutas e colá-lo aqui e aliviar a porta como padrão Etudes 0 para esta demonstração e clicar em Adicionar host. Agora, depois de adicionar o host, precisamos clicar em Gerar token de serviço. Agora, depois disso, na etapa seis, nos dá o comando para começar nossas viradas. Ele copiará esse comando e voltará para o nosso Visual Studio Code. E estou nas frotas, nosso terminal. Mas antes que possamos colar esse comando, precisamos fazer algumas alterações. Agora aqui tenho o comando de amostra que funcionará. Então, vou colar o comando que copiamos da instância do Kibana. A partir desse comando, pegaremos o URL ES do servidor de inundação e eu alterarei as viradas sobre o valor ES para isso. Agora, para URL, precisamos fornecer o endereço IP privado do nosso servidor de frota. Então, irei para instâncias de VM, copiarei esse endereço IP privado do servidor fluido, voltarei e, em seguida, alteraremos o valor do servidor de inundação IP privado para o endereço IP real do servidor de inundação. Em seguida, precisamos fornecer o token de serviço que acabamos de gerar. Ele copiará tudo isso e alterará o token de serviço de valor com o novo valor da diretiva de servidor da frota, não para o seu sistema. Isso pode ser diferente e, depois disso, precisamos adicionar mais dois valores. Servidor de frota ES inseguro esse comando é necessário porque nosso servidor Elasticsearch está usando certificados autoassinados. E também o último inseguro é porque nosso servidor invertido também está usando certificados autoassinados. Agora, em sua implantação de produção, como você não usará certificados autoassinados, você não precisa desses dois últimos comandos. Agora, por outro lado, nosso terminal, deixe-me expandi-lo um pouco. Se eu fizer um ls, você verá que existe um diretório para o agente elástico. Vou cd para este diretório. Agora aqui vou digitar sudo dot slash elastic Agent install e menos F, e então usarei o caractere de escape. Agora primeiro forneceremos o URL do nosso servidor fluido. Então eu vou copiá-lo das notas, colá-lo aqui e clicar em Enter. Em seguida, fornecerei o URL ES do servidor de frota. Portanto, o URL do meu servidor Elasticsearch para se conectar e ele foi inserido. Em seguida, fornecerei o token de serviço, copiarei, colarei aqui e ele entrou. Depois disso, forneceremos a política sob a qual registraremos esse servidor fluido, que é a política padrão e ele inserido. Em seguida, forneceremos o comando ES insecure, que é certificados autoassinados no Elastic Search novamente. E, finalmente, forneceremos o comando inseguro, que é certificados autoassinados no servidor da frota. Agora vou pressionar Enter e isso deve iniciar a implantação do nosso agente elástico no meu fluido server. primeiro log informa que ele está gerando certificados autoassinados para o fluido server. Em seguida, ele tenta iniciar o servidor fluido. Então você pode ver que a verificação SSL, TLS foi desativada porque estamos usando o modo inseguro. E, finalmente, você tem que o agente elástico está inscrito com sucesso. Então, agora o que podemos fazer é mover para trás a página Kibana, e você deve ser capaz de ver que o servidor de inundação estava conectado e eu vou clicar em Continuar. Agora, se você estiver fluido que o servidor foi conectado com sucesso e estiver configurado corretamente, você deverá ver o status como íntegro. E quando você clicar nele, você poderá ver alguns detalhes. E, em seguida, precisamos verificar se ele é capaz enviar logs para o Elastic Search, o que pode. Agora, se você tiver algum problema ao implantar esse servidor de frota, o que você pode fazer é se eu voltar ao meu Visual Studio Code e limpar tudo, você pode digitar o sistema sudo CTL, agente elástico de dados, veja os logs e você deve ser capaz de ver os logs aqui. Agora, além disso, se você implantou o agente de servidor fluido, mas por algum motivo ele não está se conectando e você precisa desinstalá-lo. Se você fizer isso entrando no compartimento do usuário e, em seguida, o agente elástico. E aqui, se eu fizer um menos h, preciso adicionar pseudo. Você deve ser capaz de ver os vários comandos disponíveis com o script de agentes elásticos. Existe um comando do Android se você quiser registrar agentes nessa frota que está instalado o comando, que acabamos de usar para instalar o fluido Server Agent. Você pode reiniciar o demônio, você pode executar o demônio, você pode fazer o status do demônio e desinstalar esse agente elástico. Portanto, pode haver alguns cenários em que você precisa desinstalar, reinstalar o demônio. É assim que você pode fazer isso. Basicamente, basta ir para o agente elástico do compartimento do usuário e digitar a desinstalação de saída para fora dele agora e sair da tela. Agora, devido ao agente clássico estar instalado e saudável, o que podemos fazer é instalar o agente elástico em nosso servidor web. Então, para fazer isso, vamos ao nosso terminal para no servidor web. Agora, no servidor web primeiro, temos que baixar o agente elástico. Então, copiarei tudo isso de nossas anotações e colarei o comando no terminal e pressionarei enter. Agora, uma vez que o arquivo tenha sido baixado, podemos extrair esta estrela de ponto menos agente plástico Z F e pressionar enter. Agora, uma vez que você tenha feito isso, vamos voltar para a nossa página do Kibana e depois ir para a frota. Agora, aqui, há um botão adicionar agente. Se eu clicar em Adicionar agente deixará a política de agente padrão. Agora já baixamos o agente elástico. Em seguida, ele nos dá um comando. Então, vamos copiar isso e voltar para o nosso terminal. Colarei esse comando, mas não vou executá-lo. Mas preciso fazer é acrescentar menos, menos inseguro para este comando porque estamos usando certificados autoassinados. Novamente, para sua implantação de produção, você não precisará adicionar isso. Agora, se eu pressionar Enter, agora esqueci de entrar no diretório do agente elástico primeiro e fazer um ls. E a partir daqui, precisamos executar esse script. Vou apertar a seta para cima até obter o comando e agora vou executá-lo e digitar. Sim, e eu tenho agente elástico instalado com sucesso. Então vou voltar para o meu Kibana e fechar quando o agente foi instalado corretamente. Eu deveria ser capaz de vê-lo nesta página. Então agora você pode ver, eu posso ver o servidor web. Então, novamente, clicaremos neste servidor web. Vamos nos certificar de que temos registros fluindo do servidor web também, o que temos. Agora, antes de te deixar ir, quero mostrar mais uma coisa. Agora, o agente elástico faz uso de integrações. Agora, como nosso servidor web é um servidor web Apache, podemos aprimorar o monitoramento para o servidor Apache. O que faremos é voltar para a frota. E então o que faremos é que precisamos adicionar uma política de agente. Então, vamos criar política de agente, manterá essa diretiva de servidor web de nome de política. Agora vamos adicionar alguma descrição. Essa política é usada para coletar métricas e registros do Apache. Deixaremos tudo como padrão e clicarei em Criar política de agente. Agora, essa política é criada. O que precisamos fazer é que precisamos adicionar algumas integrações a esta política. Vou clicar no menu de navegação à esquerda, e isso vai até integrações. Então, sob integrações de gerenciamento, aqui podemos ver as várias integrações que estão disponíveis. Por enquanto. Estamos interessados no Apache, servidor Apache HTTP, então eu vou clicar nisso. Agora, esta página fornece uma visão geral da integração do Apache HTTP Server. O que faremos é clicar em Adicionar servidor Apache HTTP. Agora, a partir de configurar o discurso de Integração, podemos dar um nome a ele, então vamos deixá-lo como padrão Apache um. Em seguida, manteremos os logs de coleta da instância Apache ativados. Não quero ativar o recurso experimental e vamos deixar as métricas de coleta do Apache e dos sensores também. Agora, em seguida, precisamos especificar uma política onde aplicar essa integração. Então, clicaremos no menu suspenso e, em seguida, escolhemos a política de servidor web que acabamos de criar. Em seguida, clicaremos em Salvar e continuar. E agora a mensagem diz para concluir essa integração, adicione agente elástico ao host para coletar dados. E vou clicar em Adicionar agente elástico mais tarde. Agora o que precisamos fazer é que precisamos voltar para nossa frota, frota. Precisamos ir para o servidor web um. Então, vou clicar nisso. E aqui, o que vou fazer é clicar em Ações e clicar em atribuído a uma nova política. Em seguida, escolherei a diretiva do servidor da Web e, em seguida, clicarei em Atribuir política. Agora, antes de fazer isso, ele diz a política de agente selecionada, mas coleta dados de duas integrações, sistema, que é padrão e a Integração do Apache HTTP Server que nós apenas configurado. Então, vou clicar em Atribuir política. Agora, uma vez que fizermos isso, clique nisso e ele diz as entradas para essa integração, nossos registros e métricas de nossa instância Apache. E a integração do sistema coletará logs quando logs e métricas do nosso sistema operacional. Agora, em seguida, vamos para o menu de navegação à esquerda e, em seguida, vamos aos painéis. Agora, aqui você verá que há mais alguns painéis disponíveis para você. O que faremos é digitar o Apache agora para verificar se estamos recebendo registros do Apache, podemos clicar em Logs de acesso e erros. E na lista suspensa à esquerda em nome do host, selecionaremos nosso servidor web. Agora, se sua integração estiver configurada corretamente, você deve começar a ver alguns dados como aqui. Estou vendo todas as pontuações de resposta. Agora. Em seguida, vamos verificar outro painel. Então, vou para o painel e clique no Apache, digite Apache novamente. E desta vez vou clicar em métricas, visão geral do Apache para ver se você está recebendo dados de métricas do nosso servidor Apache ou não. Agora, aqui, em solicitações por segundo, você pode ver que há alguns dados fluindo. É assim que você pode instalar um servidor de frota e, em seguida, registrar seus servidores Web ou qualquer outro servidor de aplicativos em sua frota. E, em seguida, você pode usar integrações para coletar alguns dados significativos de seus aplicativos ou servidores da Web. Com isso, chegamos ao final desta palestra. Obrigado por assistir. Vejo você no próximo. Tchau.