ElasticSearch 101: Guía para principiantes | Vikas Yadav | Skillshare

Velocidad de reproducción


1.0x


  • 0.5x
  • 0.75x
  • 1x (Normal)
  • 1.25x
  • 1.5x
  • 1.75x
  • 2x

ElasticSearch 101: Guía para principiantes

teacher avatar Vikas Yadav

Ve esta clase y miles más

Obtenga acceso ilimitado a todas las clases
Clases enseñadas por líderes de la industria y profesionales activos
Los temas incluyen ilustración, diseño, fotografía y más

Ve esta clase y miles más

Obtenga acceso ilimitado a todas las clases
Clases enseñadas por líderes de la industria y profesionales activos
Los temas incluyen ilustración, diseño, fotografía y más

Lecciones en esta clase

    • 1.

      ¡Hola!

      0:54

    • 2.

      Introducción a la búsqueda elástica

      2:27

    • 3.

      Resumen de datos

      2:17

    • 4.

      Diferencia entre bases de datos relacionales y no relacionales

      4:24

    • 5.

      Resumen de JSON

      1:52

    • 6.

      Resumen de la API de descanso

      6:07

    • 7.

      Introducción a la búsqueda elástica

      4:29

    • 8.

      Pila elástica - vista de pájaros

      3:43

    • 9.

      Cómo instalar elasticsearch en un Linux

      8:24

    • 10.

      Cómo instalar elástico en un RPM Linux

      8:29

    • 11.

      Cómo instalar ELK en un servidor Windows

      14:39

    • 12.

      Cómo proteger tu clúster con seguridad

      5:22

    • 13.

      Cómo agregar datos a nuestro grupo de alces usando Kibana

      12:56

    • 14.

      Cómo crear visualizaciones con Kibana

      4:47

    • 15.

      Cómo contar una historia

      6:23

    • 16.

      Presentaciones en tiempo real

      4:55

    • 17.

      Resumen de los reinos de autenticación de elástico

      3:56

    • 18.

      Cómo entender los controles de acceso basados en Kibana

      9:39

    • 19.

      Cómo categorizar tus paneles con espacios de Kibana

      6:43

    • 20.

      Introducción a Logstash

      4:32

    • 21.

      Cómo generar y transformar datos CSV

      22:10

    • 22.

      Cómo instalar un servidor web

      1:58

    • 23.

      Instala y configura Metricbeat

      20:15

    • 24.

      Instala y configura

      22:13

    • 25.

      Instala y configura latido

      11:35

    • 26.

      Cómo instalar y configurar auditbeat

      16:47

    • 27.

      Cómo instalar y configurar Packetbeat

      9:12

    • 28.

      Cómo implementar un cluster de nodos

      26:23

    • 29.

      Resumen de nodos de búsqueda elásticos

      7:45

    • 30.

      Cómo instalar v8.x

      10:19

    • 31.

      Cómo instalar un agente elástico y analizar registros de apache

      18:08

  • --
  • Nivel principiante
  • Nivel intermedio
  • Nivel avanzado
  • Todos los niveles

Generado por la comunidad

El nivel se determina según la opinión de la mayoría de los estudiantes que han dejado reseñas en esta clase. La recomendación del profesor o de la profesora se muestra hasta que se recopilen al menos 5 reseñas de estudiantes.

124

Estudiantes

--

Proyectos

Acerca de esta clase

Hola

Bienvenido a mi curso ELASTICSEARCH 101, una guía para principiantes para pila elástica . Esto es un curso práctico con enfoque en el despliegue y gestión de pila elástica.

Este curso adopta un enfoque práctico para aprender y se centra en

  • Profesionales de DevOps que serán responsables de implementar y administrar clusters de búsqueda elástica

  • Ingenieros de soporte técnico que serán responsables de apoyar implementaciones de pila elástica

  • y podría beneficiar a desarrolladores de software si necesitan una comprensión de cómo se implementan y administran los clusters de Elasticsearch

En este curso empezaremos con algunos conceptos básicos, como cuáles son los diferentes tipos de datos que encontrarás en un entorno empresarial y luego veremos la diferencia entre bases de datos relacionales y no relacionales antes de pasar a tener una comprensión de las API JSON y descans.

Después de tener el conocimiento previo y necesario que es esencial si quieres trabajar en búsqueda elástica veremos la búsqueda elástica y la pila elástica desde una vista de pájaros y luego es hora de ensuciarse, primero vamos a configurar nuestro ambiente de laboratorio y luego vamos a ver cómo puedes provisión de un cluster de búsqueda elástico de diferentes maneras. A continuación, veremos un componente esencial de la pila elástica si quieres transformar tus datos e ingerir algunos datos csv usando tuberías de Logstash.

En la sección final veremos qué ha cambiado en la versión 8 de elástico y luego implementaremos un cluster v8 en un solo nodo.

Por último, instalaremos un agente elástico que es un único agente necesario para enviar cualquier tipo de registros desde los servidores de aplicaciones a Elasticsearch.

Archivos de cursos

Documentación de búsqueda elástica

Conoce a tu profesor(a)

Teacher Profile Image

Vikas Yadav

Profesor(a)

Hi Everyone, 

I have been an IT engineer for over 11 years now, during this time i have worked in a many fields like networking , systems engineering, virtualization , unified communications and more recently cyber security. I lover tweaking around with systems , deploying and configuring enterprise infrastructure and applications. 

On a personal level, i love reading about historical events and characters and have been trying to learn how to surf (to no avail ;)). 

thanks

Vikas

Ver perfil completo

Level: Beginner

Valoración de la clase

¿Se cumplieron las expectativas?
    ¡Superadas!
  • 0%
  • 0%
  • Un poco
  • 0%
  • No realmente
  • 0%

¿Por qué unirse a Skillshare?

Mira las galardonadas Skillshare Originals

Cada clase tiene lecciones cortas y proyectos prácticos

Tu membresía apoya a los profesores de Skillshare

Aprende desde cualquier lugar

Ve clases sobre la marcha con la aplicación de Skillshare. Progresa en línea o descarga las clases para verlas en el avión, el metro o donde sea que aprendas mejor.

Transcripciones

1. ¡Hola!: Bienvenido a mi curso la semana pasada. Tal uno-a-uno, una guía para principiantes de Elastic Stack. Se trata de un curso práctico con enfoque en el despliegue y administración de Elastic Stack. Mi nombre es Ricardo y soy Arquitecto Senior de Soluciones, más de 15 años de experiencia en TI. Y actualmente estoy trabajando en una multinacional que he diseñado e implementado Elastic Stack en un entorno de producción. He impartido más de 3400 niños en Udemy y tengo una calificación promedio de 4.4 en todos mis cursos. Se trata de un curso práctico, se centrará en el aprendizaje práctico. En este curso, implementarás Elastic Stack y luego agregarás algunos datos a tu clúster. Dos métodos diferentes como log stretch e integraciones de Kibana. Y también transformarás esos datos con el fin de extraer algún significado de ellos. Por último, desplegará agente elástico que extrae fácilmente datos de matriz y registros de sus servidores de aplicaciones y almacenará y analice esos datos en Elasticsearch. Así que por favor únete a mí en este viaje para aprender Elastic Stack. 2. Introducción a elasticsearch 101: Hola chicos, bienvenidos a mis puntuaciones para principiantes en Elastic Stack. Estoy encantado de que me hayas dado la oportunidad guiarte en el camino hacia convertirte en un profesional de búsqueda elástica. Este curso adopta un enfoque práctico hacia el aprendizaje y está enfocado hacia profesionales de DevOps que serán responsables desplegar y administrar clústeres de Elasticsearch. Apoya al personal que se encargará de apoyar las implementaciones de Elastic Stack. Y podría beneficiar a los desarrolladores de software si necesitan una comprensión de cómo clústeres de Elasticsearch son diploides, por favor tenga en cuenta que se trata de unas puntuaciones para principiantes, por lo que evitaré el buceo profundo en cualquiera de los temas En este curso. Empezaremos con algunos conceptos básicos, como cuáles son los diferentes tipos de datos que encontrarás en un entorno empresarial. Y entonces vamos a echar un vistazo a la diferencia entre las bases de datos relacionales y no relacionales antes pasar a tener una comprensión de JSON y las API de descanso después de que tengas el conocimiento prerrequisito, que es esencial si quieres trabajar en Elastic Search, veremos Elastic Search and Elastic Stack desde una vista de pájaro, y luego es hora de ensuciarte las manos. En primer lugar, vamos a configurar nuestro entorno de laboratorio y luego veremos cómo se puede aprovisionar búsqueda elástica de diferentes maneras. Y seguiremos esto agregando algunos datos nuestro clúster a través de integraciones de Kibana. Entonces te ayudaré a crear tu primera visualización de Kibana. Y luego configuraremos algunos dashboards. Después de eso, te ayudaré a organizar tus dashboards en diferentes categorías como marketing, operaciones, etc, mediante el uso de espacios Kibana. A continuación, te daré una visión general de la gestión de usuarios en Elastic Search. Y veremos Elastic Search, usuarios incorporados, roles incorporados, y cómo puedes usar usuarios y roles que crean controles de acceso basados en roles para tu Clúster de Elasticsearch. A continuación, veremos Log Stash, que es un componente esencial de Elastic Stack si quieres transformar tus datos. Y luego vamos a ingerir algunos datos CSV mediante el uso de tuberías de corte de registro. En la siguiente sección, te ayudaré a entender los latidos agentes y diversos casos de uso que puedes resolver mediante el uso de diferentes latidos. Dice que necesita usar la métrica Btu ingerir datos de métricas en tu clúster de Elasticsearch. Y necesitas usar 5 bits para ingerir datos de registro basados en archivos en tu clúster de Elasticsearch. Después de esto, desplegaremos un clúster de Elasticsearch multimodo. Y te daré una visión general de varios nodos en el entorno Elastic Search. En la sección final, veremos lo que cambió en la versión ocho de Elasticsearch y luego desplegaremos un clúster de la versión ocho en un solo nodo. Por último, instalará el agente elástico, que es un único agente necesario para enviar un nuevo tipo de registros desde sus servidores de aplicaciones a la búsqueda elástica. Así que empecemos. 3. Descripción de datos: Hey chicos, si están trabajando en Elastic Search, rendir predominantemente nosotros trabajando en datos. Por lo que es importante tener una comprensión de los diferentes tipos de datos disponibles. En primer lugar, hablemos de datos estructurados. Los datos estructurados están altamente organizados y debidamente formateados. Este es el tipo de datos que se pueden almacenar en una hoja de cálculo. Base de datos relacional como SQL. Un ejemplo de datos estructurados serán las cifras de ventas por trimestre para una empresa o información de empleado como identificación de empleado, nombre de empleado y salario. Este tipo de datos es más fácil de almacenar y buscar, ya que como su nombre indica, tiene una estructura a la misma. A continuación, echemos un vistazo a los datos no estructurados. Los datos no estructurados son más difíciles de buscar. Se trata de datos que no están organizados ni formateados. Un ejemplo de este tipo de datos son los archivos de texto, archivos vídeo o audio, me gusta en las redes sociales y comentarios. Estos datos constituyen casi el 80% de la carpeta de datos en el mundo real. Y como su nombre indica, no está estructurado. Por lo que es más complejo almacenar este tipo de datos y buscar en. Ahora, a continuación, echemos un vistazo a los datos semiestructurados. Los datos semiestructurados son una mezcla entre datos estructurados y no estructurados. Son datos que no se pueden organizar en una base de datos relacional, pero aún tiene una estructura suelta a la misma. Por ejemplo, datos que se pueden organizar en torno a un tema. Y un buen ejemplo de este tipo de datos son los datos de correo electrónico. Dado que los correos electrónicos se pueden organizar a través de campos como de sujeto, mensaje, cuerpo, etc. A continuación, los datos numéricos son básicamente datos expresados en números en lugar de textos, por ejemplo, sensores, temperatura, edad, etc. Otro tipo de datos que podrías encontrar son los datos geoespaciales. Los datos geoespaciales son los datos que pertenecen a un objeto en la Tierra. Contiene cosas como la ubicación, que es longitud y latitud, tamaño y forma de un objeto. Con esto, hemos llegado al final de esta conferencia, una visión general de los diferentes tipos de datos que verás en el campo cuando trabajes en cualquier herramienta de transformación o analítica de procesamiento de datos . Espero que te haya gustado y te veré en la siguiente. 4. Diferencia entre bases de datos relacionales y no relacionales: Hey chicos, hay diferentes tipos de bases de datos que te encontrarás en cada uno ofrece sus propios beneficios únicos. Estos se pueden categorizar principalmente en Sequel, relacionales y bases NoSQL o no relacionales . En primer lugar, echemos un vistazo a una base de datos relacional. La base de datos relacional es un tipo de base de datos que almacena datos en tablas. En una base de datos relacional, cada fila de la tabla es un registro con un ID único llamado clave. Las columnas de la tabla tienen atributos de los datos y cada registro suele tener un valor para cada atributo, lo que facilita establecimiento de relaciones entre los puntos de datos, y de ahí el nombre relacional sistema de gestión de bases de datos o RDBMS. Este tipo de base de datos sólo puede trabajar en datos estructurados y lenguajes de programación estructurados como SQL, puede ser utilizado de manera efectiva para insertar, buscar, actualizar o eliminar registros de bases de datos. Algunos ejemplos comunes de RDBMS son Oracle, MySQL, Microsoft SQL Server y Postgres SQL. Ahora, aquí hay un ejemplo de cómo se ve una base de datos relacional. Digamos que tienes una tabla que fuente usa detalles. Y digamos que esta tabla se llama usuarios. Ahora la tabla de este usuario tendrá detalles como ID de usuario, nombre del usuario, apellido del usuario, y su edad. Ahora veamos también que hay otra tabla que almacena a los usuarios licenciatura educativa. Y se puede relacionar con la tabla de usuarios mediante el uso de la columna ID de usuario. Como se puede ver, este tipo de datos está estructurado y se almacena en tablas, y se pueden relacionar entre sí mediante columnas, la columna ID de usuario en este ejemplo. Ahora, hablemos de bases de datos no relacionales. La base de datos no relacional es una base de datos que funciona en datos semiestructurados o no estructurados. También se le llama una base de datos NoSQL y tiene un esquema dinámico para el almacenamiento de datos no estructurado. Estos datos se pueden almacenar de muchas maneras, lo que significa que pueden estar orientados a documentos, orientados a columnas, basados en gráficos o una tienda de clave-valor. Esta flexibilidad significa que la base de datos se puede crear sin tener primero una estructura definida. Ahora bien, si comparas esto con bases de datos relacionales, siempre es necesario predefinir la estructura y adherirse a esa estructura a lo largo de la vida de la base de datos. Las bases de datos Nosql almacenan datos en documentos que consisten en pares clave-valor. La sintaxis varía de base de datos a base de datos, y puede agregar campos a medida que avanza. La mayoría de las bases de datos iguales proporcionan un modelo de datos flexible con la capacidad de almacenar y combinar fácilmente datos de cualquier estructura sin la necesidad de modificar el esquema. Y por lo tanto, es adecuado para big data y aplicaciones web en tiempo real. Elastic Search es un tipo de base de datos NoSQL que almacena datos como documento JSON adjunta un enlace del blog de búsqueda elástica. Si quieres leer más sobre esto, ahora echemos un vistazo a un ejemplo de una base de datos NoSQL. Aquí en la pantalla, tengo una base de datos NoSQL que consta de dos documentos. Como se puede ver, la estructura de ambos documentos difiere. Por ejemplo, el documento número dos tiene un par clave-valor para la educación, que no está presente en el documento número uno. Además, si miras los pasatiempos, hay un hobby extra de nadar para nuestro usuario. Ahora esta flexibilidad permite utilizar bases de datos NoSQL para aplicaciones de big data. Ahora hay otra diferencia entre las bases de datos NoSQL y SQL, que es cómo escalan. Las bases de datos relacionales escalan verticalmente y bases de datos NoSQL o no relacionales escalan horizontalmente. Lo que eso significa es cuando se tiene que aumentar la capacidad de su base de datos, la única forma de hacerlo en un modelo de base de datos relacional es tener una máquina más grande. Ahora, lo que esto significa es tiempo de inactividad para aumentar la capacidad y tarea de mantenimiento de distancia para evitar tener un tiempo de inactividad más tarde es preaprovisionamiento de capacidad. No obstante, la otra cara de eso es que toda esa capacidad esencialmente se desperdiciaría hasta que sea necesaria. bases de datos no relacionales o NoSQL resuelven este problema escalando horizontalmente. Lo que eso significa es que siempre que necesite capacidad, puede agregar más capacidad solo agregar más máquinas a su clúster. De esta manera, no tienes que preabastecer ninguna capacidad y tampoco necesitas tiempo de inactividad. Con esto, hemos llegado al final de esta conferencia. Gracias por mirarte, y te veré en la siguiente. Adiós. 5. Descripción de JSON: Hey chicos, Elasticsearch almacena datos como documentos JSON. Por lo que sería una buena idea obtener una visión general de JSON. Json o JavaScript Object Notación es un formato de intercambio de datos basado en texto. Y la palabra clave aquí es el intercambio de datos. Dado que JSON se usa principalmente para compartir datos, JSON está construido sobre dos estructuras. En primer lugar, un objeto, que es una colección desordenada de valor de nombre o un par clave-valor. En segundo lugar, una lista ordenada de valores, también llamada matriz. Ahora echemos un vistazo a un ejemplo de datos JSON. Aquí tenemos un objeto JSON. Un objeto, como dije anteriormente, es un conjunto desordenado de valor de nombre o pares clave-valor. Comienza con un corsé rizado izquierdo y termina con la llave rizada derecha, cada nombre o clave, y su valor está separado por pares de dos puntos y nombre-valor. Por ejemplo, el nombre John y la edad 29 está separado por una coma. Nuestro ejemplo también contiene una matriz que es matrices de contacto comienzan con un corchete izquierdo y terminan con un corchete derecho. Ahora, los objetos JSON pueden tener siete tipos diferentes de valores. Una cadena es una secuencia de 0 o más caracteres envueltos en comillas doble. Por ejemplo, Mi nombre es John, aquí hay una cadena, un número, por ejemplo, 1234 o JSON clave también puede tener otro objeto JSON como su valor. También puede ser una matriz, y también puede ser booleano, que es verdadero o falso. Y por último, el valor adyacente también puede ser nulo. Si quieres leer más sobre JSON, he incluido algunos enlaces con la descripción de esta conferencia para que puedas obtener una comprensión más profunda. Ya que con Elastic Search principalmente estará trabajando con documentos JSON con esto para acompañar el final de esta conferencia. Gracias por mirar. Te veré en la siguiente. Adiós. 6. Descripción de la API de Rest: Hey chicos, en esta conferencia, echemos un vistazo a las APIs RESTful, que es un método popular para comunicarse entre aplicaciones informáticas. Api es un acrónimo de Application Programming Interface Editor no es más que un conjunto de definiciones y protocolos para construir e integrar software de aplicaciones. Por ejemplo, es posible que desee usar una API donde un usuario pueda suministrar un ID de estudiante y su API responderá con los razonadores de examen de ese estudiante beneficio de usar API es que su aplicación el software no tiene necesidad de saber cómo se implementa el software de aplicación cliente. El descanso es un acrónimo de transferencia estatal representacional. Lo que eso significa es que transfiere una representación del estado del recurso. Y esa representación no es nada un pedazo de datos que se solicitan necesidades de su aplicación. El descanso funciona en el modelo cliente-servidor. Lo que eso significa es que el recurso solar retiene esa pieza de datos. Un cliente solicita ese pedazo de datos mediante el uso de crud, crear, leer, actualizar o eliminar operación. Y para hacer esa solicitud utiliza métodos HTTP de una sola vez. Una vez que esa solicitud ha sido hecha por el cliente, el servidor responde con ese pedazo de datos que está sosteniendo en una representación de ese pedazo de datos que tiene el servidor. Ahora, echemos un vistazo a algunos de los métodos STDP. Post le permite crear un nuevo recurso en el puerto del servidor, le permite actualizar un recurso existente en el servidor, obtener le permite recuperar un recurso existente y eliminar, le permite eliminar un recurso existente. Estos son algunos de los ejemplos de los métodos que puedes implementar usando API de rest. Otra cosa a tener en cuenta es que las solicitudes API de resto son apátridas. Lo que eso significa es que todas las solicitudes de clientes se tratan como nuevas solicitudes y no se almacena ningún historial de sesión en el servidor. Ahora, antes de seguir adelante, echemos un vistazo a un ejemplo aquí en la pantalla. Tengo un ejemplo de una llamada a API que se usa para verificar el estado de un clúster de Elasticsearch. Primero tenemos el método que podría ser cualquiera de GET, PUT, post, o delete. En nuestro caso, estamos utilizando GET y esta prueba el servidor que queremos recuperar alguna información. Después de eso, hemos especificado el punto final en el servidor que queremos enviar una solicitud para agregar. Es http localhost en el puerto 9000. Esto es importante porque podríamos tener múltiples servidores y nuestro entorno y cada servidor podría estar ejecutando múltiples servicios. Por ejemplo, el mismo servidor también puede estar ejecutando un servidor web en el puerto 80, pero queremos conectarnos a un servicio que se está ejecutando en el puerto 9200 en el host local. Después de que hayamos especificado endpoint, necesitamos especificar el recurso en ese punto final al que queremos conectarnos en nuestro ejemplo que los recursos cluster health. Ahora, cada punto final podría estar ejecutando múltiples recursos en nuestro caso porque queríamos obtener la salud del clúster. Estamos utilizando los endpoints de salud del clúster para conectarnos y obtener el estado. Y por último, podemos especificar un parámetro. Por ejemplo, en esta muestra, queremos que el servidor responda con la información en un formato legible por humanos o bastante para nosotros después de que hayamos enviado esta solicitud, el servidor luego responde con un respuesta. En este ejemplo, el verano ha respondido con la salud del clúster en formato JSON. También puedes obtener esta respuesta en varios otros formatos, por ejemplo, HTML, XML, o textos sin formato, etc. Ahora, hay múltiples herramientas disponibles para que te ensucies las manos en llamadas API. Puedes usar herramientas especializadas como carteros, swagger, etc. O puedes usar el comando plane o curl desde tu terminal Linux o Mac. Y por último, también puedes hacer una API llamada programáticamente desde dentro de tu código basado en alguna lógica. Ahora antes de seguir adelante, hagamos algo práctico. Tengo la ventana terminal de mi macOS. Y a partir de aquí trataremos de invocar una API pública para bromas. Primero, necesito escribir rizado. Después de eso, necesitaba tener los puntos finales. Entonces HTTPS, hacemos punto broma API, profundidad de punto y luego necesito proporcionar el recurso en el punto final. Por lo que voy a escribir en slash, broma slash cualquiera y golpear Enter. Como se puede ver, el servidor de bromas respondió con una broma. Ahora, puedes usar esta API para crear una sección de broma en tu sitio web si lo deseas. O simplemente puedes leer estos chistes o a tu despacho depende de ti. Ahora, antes de seguir adelante, quería mostrarte cómo hacer exactamente lo mismo usando una herramienta llamada Cartero. Ahora aquí tengo la entrevista de esta herramienta para crear una solicitud API, haré click en plus. Esto abrirá aquí el formulario API, puedo elegir qué método necesito. En este caso, necesito obtener, entonces necesito especificar los puntos finales. Entonces HTTPS, hacemos punto broma API dot dev. Y luego necesito escribir en el recurso que es chiste slash cualquiera. Y para ejecutar esto, todo lo que tengo que hacer es dar click en enviar. Y se puede ver que tengo una respuesta del servidor de nuevo. Ahora este es un ejemplo muy básico, pero como este no es un curso de API de STI, te lo dejaré para que te conozcas más sobre este tema si no lo sabes ya. He añadido algunos recursos En la descripción de esta conferencia, para que puedas usar eso como punto de partida de tus estudios posteriores. Ahora, antes de pasar a cómo cubrir una última cosa, que son estos códigos de estado. Ahora si ves aquí, verás Status 200, de acuerdo, y si pasas el cursor sobre él, obtendrás un poco de una explicación de las puntuaciones de estado. Ahora, cada vez que haces una solicitud al servidor, devuelve un código al cliente, lo que te da el estado de la solicitud. Ahora aquí en la pantalla, tengo varios tipos de respuesta que puedes esperar del servidor. Respuesta que comienza con unos 22 dígitos después de eso generalmente significa que la solicitud ha sido exitosa. Por ejemplo, como vimos en carteros, nos dieron un 200 OK, que significa que todo está bien. Y responde con tres o cuatro, significa que el cliente puede utilizar la versión en caché del recurso solicitado. Cualquier cosa. Para XXX, que significa cuatro y luego dos dígitos después de eso, o cinco, XX significa cinco y luego dos dígitos después eso significa un error para XX significa un lado del cliente otro, lo que significa que hay algo mal en el cliente. Phi de x. X significa que es un error del lado del servidor, lo que significa que hay algunos problemas con el servidor. Entonces esta fue una introducción rápida a las llamadas API de descanso. Hay un poco más y quiero que seas un 100% seguro porque lo usarás para tu gestión y administración de Elastic Search. Por favor, ve a través de los enlaces que he adjuntado con la descripción de este video. Con esto, hemos llegado al final de esta conferencia. Te veré en la siguiente. Adiós. 7. Introducción a la búsqueda elasticsearch: Hey chicos, Elastic Search es un motor de búsqueda y análisis distribuido, que es el corazón de Elastic Stack o motor de búsqueda distribuido, es uno donde la tarea de indexación y procesamiento de consultas se distribuye entre múltiples computadoras en lugar de una sola supercomputadora manejando todo. Se construye sobre Apache Lucene y se desarrolla en Java. Permite almacenar, buscar y analizar enormes volúmenes de datos de forma rápida y en casi tiempo real y devolver respuestas en consultas de milisegundos que normalmente tardarían diez segundos o más que secuencia devolverá resultados en menos diez milisegundos en búsqueda elástica utilizando el mismo hardware, Elastic Search puede manejar todo tipo de datos, por ejemplo, semicírculo estructurado, etcétera Hay una variedad de casos de uso para Elastic Search. Por ejemplo, puede agregar un cuadro de búsqueda a una aplicación o sitio web para una búsqueda rápida de su catálogo. También puede almacenar y analizar registros, métricas y datos de eventos de seguridad. O puede utilizar el aprendizaje automático para modelar automáticamente el comportamiento de sus datos en tiempo real. Elastic Search proporciona una API de rest para administrar su clúster, indexar y buscar sus datos para ello capacidades de búsqueda, Elasticsearch admite tres tipos de consultas. Las consultas estructuradas te permiten buscar en datos estructurados y son igual que las consultas SQL para consultas de texto te permiten buscar en analizar campos de texto como el cuerpo de un correo electrónico aquí que estarás haciendo cosas como encontrar una palabra en particular en un párrafo consultas complejas, combinación de consultas estructuradas y de texto completo. Ahora pasemos a documentos e índices en búsqueda elástica, la unidad más pequeña de datos se llama campo. Cada campo tiene un tipo de datos definido y contiene una pieza específica de datos. Por ejemplo, el nombre John, no, los documentos son la unidad base de almacenamiento en Elastic Search. O documento se compone de múltiples campos en el mundo de base de datos relacional o documento será equivalente a una fila en una tabla. Los datos en un documento se almacenan como un campo que son pares nombre-valor, y hay algunos alimentos reservados en nuestro documento. Ahora aquí en la pantalla, tengo un ejemplo de datos que se almacenan en un documento. En este ejemplo, ID es el identificador único del documento. Tipo es el tipo de índice. Este documento forma parte de un índice, es el nombre de este índice. Como ejemplo, el análisis de documentos representa un artículo de enciclopedia o entradas de registro de un servidor web. Ahora en este ejemplo, nos referimos a algo llamado índice. Entonces echemos un vistazo a lo que es. Un índice es una colección de documentos relacionados lógicamente que tienen características similares. Por ejemplo, puedes tener un índice para usuarios, puedes tener un índice para productos y uno para pedidos y así sucesivamente y así sucesivamente. Es la entidad de más alto nivel que se puede consultar. Una búsqueda elástica es similar a la base de datos en una base de datos relacional. En Elastic Search es en realidad lo que se llama un índice invertido. Y el índice invertido es un mecanismo por el cual funcionan todos los motores de búsqueda. Básicamente, este índice consiste en una lista de palabras únicas impares que aparecen en cada documento. Y para cada palabra, se compone de una lista de todos los documentos en los que aparece esa palabra. Ahora, echemos un vistazo a las siguientes frases que cada código de contenedor de la serie de televisión Game of Thrones, invierno viene nuestro sistema furia, y la elección es tuya. Ahora hagamos nuestro índice en orden. Entonces primero, escribiremos los términos en los tres documentos en una columna, y luego escribiremos la frecuencia tal y como aparece en los tres centros, es en segunda columna. Y luego en la tercera columna se escribirá el documento en el que ese término parece a punto de tomar un ejemplo, invierno aparece sólo una vez en las tres frases y no es fuente de documento, mientras que es la segunda término en el documento uno realmente llega tres veces y aparece en los tres documentos. Entonces tenemos 123 aquí. De igual forma, eso aparece dos veces en el documento dos y árbol de documentos como este, podemos construir nuestro índice invertido, una combinación de términos y una frecuencia se llama diccionario. Si volvemos tontos, y la frecuencia se llama diccionario y el número de documentos o término particular aparece en se llama postings. Por lo que este será diccionario y esto serán publicaciones Utilizando de esta manera. Si quieres hacer una búsqueda rápida de cualquier término, digamos furia Elasticsearch mirará su índice invertido y encontrará esa furia un PS1 y aparece en el documento para por tanto, un índice term es la unidad de búsqueda más pequeña en Elastic Search, este es el truco que Elasticsearch utiliza para realizar búsquedas rápidas. También he incluido un enlace a un blog de búsqueda elástica que puede ayudarte a entender más cómo funciona la búsqueda en Elastic Search. Con esto, hemos llegado al final de esta conferencia. Te veré en la siguiente. Adiós. 8. Pilas elásticas: una vista de ojo de aves: Antes de iniciar el despliegue, me gustaría darles una breve visión general de cada uno de estos productos de búsqueda elástica que desplegaremos en este laboratorio, Elasticsearch es una lista de código abierto para un distribuido un motor de análisis de este tipo dependía Apache Lucene Log Stash es una canalización de procesamiento de datos del lado del servidor de código abierto que ingiere datos de varias fuentes, transforma, y luego los envía a Elasticsearch. Kibana es un panel de visualización de datos de código abierto para Elasticsearch. En palabras simples, digamos que tiene datos de registro de aplicaciones de servidores de aplicaciones. Ahora, en caso de que no necesites hacer ningún procesamiento sobre esos datos, puedes enviarlos directamente a Elastic Search para restaurarlos índice. No obstante, si necesita hacer algún procesamiento personalizado, por ejemplo, es posible que deba agregar un ID de cliente que esté registrado evento para que pueda atar un registro en particular, evento de registro a un cliente en particular. Primero tendrás que enviar esos datos a Log Stash, procesamiento o transformación de Buda, y luego enviarlos a Elastic Search para ser almacenados. Una vez almacenados e indexados los datos en Elasticsearch, puedes usar Kibana quien crea algunas visualizaciones encima de sus datos. Ahora hablemos de beat bead side, esencialmente como agentes muy especialmente construidos que adquirieron datos y luego alimentarlos a los latidos de Elastic Search o golpear en un marco de bits iluminado. Y facilita la creación bits personalizados para cualquier tipo de datos, si quieres enviar a Elasticsearch, Beats tenía arrecifes estándar que están disponibles, que he enumerado en pantalla. Si uno de estos beats no hace el trabajo, puedes usar el marco lipídico para crear tu velocidad personalizada. Entonces hablemos de algunos de los latidos estándar. Primero, hay algo que pelearía, encontraríamos que beat es un peso ligero, más barato para reenviar y centralizar los datos de registro. En inicio como agente en el blanco de verano pelean grandes monitores. Los archivos de registro son ubicaciones que has especificado, recopila, registra eventos, y los reenvía ya sea a Elasticsearch son búsqueda de registro para indexación o deadbeat. Es esa probabilidad más barata que puedes instalar en tus servidores para auditar las actividades de los usuarios y procesos en tu sistema. Por ejemplo, puedes usar auditoría V8, la izquierda y centralizada o eventos desde Linux, pero una puja métrica diferente es ligeramente más barata que puedes instalarla en tus servidores para recolectar métricas periódicamente del sistema operativo y de los servicios que se ejecutan en la métrica plateada, grande X, las métricas y estadísticas que recopila y cambia la salida a cualquiera de las búsquedas elásticas de Log Stash. Heartbeat es un demonio ligero que instalas en un servidor remoto. Verifica periódicamente el estado de tus servicios y determina si están disponibles. La diferencia entre líquidos y latidos del corazón es que la métrica solo te indica si tus servidores están arriba o abajo. Considerando que los latidos del corazón, como si sus servicios están disponibles. Por ejemplo, dice que tienes Apache instalado en un líquido de make Southern te dirá si el servidor está arriba o abajo. Heartbeat realmente te dirá si tu sitio web está hecho. Packet beat es un analizador de paquetes en tiempo real que puedes usar con Elastic Search. Proporcionar un sistema de monitoreo de aplicaciones y análisis de rendimiento que podría superar, proporciona visibilidad de la comunicación que ocurre entre los servidores de su red. Generalmente beat es un remitente ligero para reenviar y centralizar los datos de registro del sistema leer los periodistas. También es instalar un agente en tus servidores y monitorea las ubicaciones generales que especifiques, recopila eventos de registro, y luego reenvía estos eventos a cualquiera de las búsquedas elásticas en Log Stash, no son remolacha chips. Registros de eventos de Windows en Elastic Search o Log Stash. Se instala como una función de servicio de Windows beat es un elástico que despliegas como una función en tu entorno sin servidor para recopilar datos de los servicios de Cloud y enviarlo conjunto elástico. Con esto, hemos llegado al final de esta conferencia. Gracias por mirar. Te veré en la siguiente. Adiós. 9. 11: Hey chicos, En este video, vamos a instalar y configurar Elasticsearch y Kibana en un sistema Linux basado en DBN de un solo nodo. Los pasos para esta conferencia son primero, instalaremos la clave pública de firma de Elastic Search. Después instalaremos el paquete HTTPS de transporte APT. Después de eso, guardaremos definiciones de repositorio de búsqueda elástica en nuestro sistema Linux. Después haremos una actualización del sistema y luego instalaremos Elasticsearch y Kibana. Una vez instaladas las tres aplicaciones, configuraremos Elasticsearch y Kibana. Dedicaré una conferencia separada para Log Stash. Y por último, probaremos la conectividad a nuestros servicios. Así que empecemos. Aquí en la pantalla, estoy dentro de mi cuenta GCP y en la página de Instancias VM, usaremos esta página para crear nuestro sistema Linux de nodo único. Daremos click en Crear Instancia. Entonces haré clic en nueva instancia de VM de Template, y luego elegiré la plantilla ELK y presionaré Continuar. Ahora desde esta pantalla, puedo mantener el nombre como ELK uno, pero cambiaré la región a US West One. Y luego dejaré todo lo demás como predeterminado e iré a networking. Y bajo networking, me aseguraré de que tenga la etiqueta correcta, Kibana. Y también me aseguraré de que esté bajo Elasticsearch VPC y subred de monitoreo. Una vez validado estas cosas, haré clic en Crear para crear mi instancia de Linux. Ahora una vez que esta máquina esté arriba, iré a mi Código Visual Studio aquí. En el lado izquierdo, tengo las notas para instalar ELK Stack en una máquina Linux. Y en el lado derecho, tengo mi terminal aquí. Primero iré a mi página de Instancias de VM y desde aquí copiaré la dirección IP externa para mi instancia de Linux. Y luego dentro del VS Code Terminal, escribiré SSH, elaboraré en, y pegaré la dirección IP de mi instancia de Linux y golpearé enter. Aquí escribiré sí, como se puede ver, pude conectarme con éxito a mi instancia de Linux. Ahora primero escribiré claro, y ahora podemos empezar a instalar nuestras aplicaciones. En primer lugar, voy a hacer un sudo apt-get update. Por lo que sudo APT consigue actualización y pulsa Enter. Y ahora, una vez actualizado el sistema, primero limpiaré la pantalla. Entonces necesito instalar W gate si no está ya instalado en el sistema. Entonces voy a hacer eso ahora. Ahora después de que se hayan hecho estos prerrequisitos, puedo instalar la clave pública de firma para Elastic Search, por lo que copiaré todo esto y pegaré en la terminal y pulsaré enter. Una vez que tenga el mensaje bien, puedo instalar el paquete HTTPS de transporte APT. Por lo que voy a copiar este comando sudo apt-get install transporte epitelial, STDEV.S y el sí y golpear enter. Una vez hecho esto, volveré a borrar mi pantalla. Y ahora tenemos que guardar las definiciones de directorio. Por lo que copiaré todo esto de mis notas y lo pegaré en la terminal, y presionaré Enter. Ahora una vez guardadas las definiciones de directorio, ahora podemos instalar la sesión de registro de búsqueda elástica Kibana. Entonces el comando es sudo apt-get update, actualizar primero el sistema. Después instalaremos Elastic Search, Log Stash y Kibana. Entonces voy a copiar todo esto y lo pegaré aquí, y voy a golpear Enter. Ahora, una vez instaladas las tres aplicaciones, ya es el momento de configurar nuestras aplicaciones. Así que primero me despejaré de esto. Después haré sudo SU y luego voy a cd en primer ATC Elastic Search para configurar mi Servicio Elasticsearch. Ahora dentro del directorio de configuración de Elastic Search, si hago un LS, hay un archivo llamado Elastic Search dot YAML, que es el archivo de configuración principal llamado Elastic Search. Por lo tanto tipo pivotal en sudo, el Elastic Search dot YAML para configurar este archivo. En este archivo, lo primero que necesitamos cambiar es el nombre de punto agrupado. Así que primero entraré en Insertar, luego descomentar el nombre del punto del clúster. Esta configuración se utiliza para establecer un nombre descriptivo para su clúster. Así que voy a llamar a mi cluster demo dash ELK. Ahora siguiente ajuste que quiero cambiar es el nombre del punto del nodo. Esta configuración consiste en configurar un nombre descriptivo para este nodo en el clúster. Entonces lo voy a llamar nodo uno. Ahora una vez que haya hecho eso, puedo dejar los valores predeterminados para los datos de punto de ruta y los registros de puntos de ruta y tendré que entrar en red. Bajo configuración de red, quiero cambiar es host de punto de red. De forma predeterminada, Elasticsearch solo es accesible en el host local. Tenemos que cambiar eso, así que vamos a cambiar este valor, va 0. Ahora a continuación vamos a descomentar http dot port, pero lo dejaremos como está en un entorno de producción. Si desea cambiar el puerto predeterminado en el que se puede acceder a Elastic Searchings, vendrá aquí y cambiará este valor. Ahora vamos a dejar el descubrimiento tal cual, porque es un clúster de un solo nodo irá hacia abajo y hacia abajo, lo que vamos a hacer es que vamos a poner en un entorno llamado discovery dot type. Por lo que escribiré en el tipo de punto de descubrimiento. Y el valor para esta configuración es nodo único porque se trata de un servidor de un solo nodo. Va a ir a revisar esto en mis notas. Descubierto punto tipo un solo nodo. Por lo que ahora podemos guardar este archivo. Haré WQ y pegaré Enter. Y para iniciar Elasticsearch Service, escribiré en sistema CTL, iniciaré Elastic Search y pulsaré enter. Ahora una vez iniciado el servicio, primero podemos comprobar el estado del servicio por sistema de mecanografía, CTL. Un estado Búsqueda Elástica y el estado muestra la ejecución activa. Entonces voy a Control C, luego menos probar conectividad a nuestro clúster ALK, tipo de suelo en chica menos x obtener como PIB y luego localhost y luego el puerto que la búsqueda elástica corre en 90 a 100. Y luego para comprobar la salud del clúster, necesitaré escribir en yeso de subrayado luego sostuvo. Y quiero que la salida sea en un formato legible por humanos. Por lo que escribiré bonita y pegaré Enter. Ahora el estatus volvió como verde y hay un solo nodo en este clúster, que es lo que queríamos. Por lo que el servicio elástico está instalado y configurado. Voy a despejar de todo y continuación es hora de configurar Kibana. Por lo que voy a entrar en CD, ATC, luego Kibana y golpear enter. Ahora aquí si hago un ls, verá que hay un archivo similar Kibana dot YAML que necesitamos configurar. Por lo que escribiré sudo VI Kibana dot YAML y pegaré Enter. Ahora dentro del archivo YAML de Kubernetes entrará primero en Insertar, luego ir al puerto de punto de verano, y luego sin comentar, pero dejar el ajuste tal como está. Este es el puerto que Kibana y así sucesivamente. En un entorno de producción, posible que desee cambiarlo de 5601. A continuación iremos a varios host de puntos, descomentar eso y cambiarlo de host local a 0 o 0 hacia 0 a 0. Esto permitirá que Kibana sea accesible por el mundo exterior. He cambiado eso. Ahora siguiente ajuste que queremos cambiar una URL de base pública punto de verano. Por lo que voy a descomentar esto. Y luego aquí lo que necesito hacer es que necesito escribir http y luego la dirección IP privada de mi instancia de Kibana. Entonces vamos a nuestra página de Instancias de VM, y desde aquí copiaré la dirección IP interna. Ahora aquí escribiré http, luego pegaré la dirección IP interna de mi instancia de Kibana, y luego especificaré el puerto 5601. A continuación, necesito especificar un nombre descriptivo para mi instancia de Kibana. Entonces voy a descomentar el nombre del punto del servidor, y aquí escribiré en demo dash Kibana. A continuación necesito especificar la URL donde el host Elastic Search sea accesible. Por lo que aquí bajo Elasticsearch enseñó hosts, dejaré el valor como predeterminado porque se está ejecutando en el mismo servidor donde Elastic Búsquedas se ejecutan. Para que podamos dejarlo como está ahora, podemos guardar este archivo y ahora es el momento de arrancar Kibana. Entonces sistema CTL, arranca Kibana y le pegaré Enter. Parece que hice un sistema tipográfico CTL arranque Kibana y voy a golpear enter. Ahora, una vez que regrese el servicio, haré un sistema CTL status Kibana y la actividad de servicios en ejecución. Así que volvamos a nuestras instancias de VM. A partir de aquí, copiaré la dirección IP externa de mi instancia. Abriré una nueva pestaña del navegador, la pegaré aquí, y luego especificaré el puerto donde se está ejecutando Kibana. Por lo que 5601 y voy a golpear Enter si Kibana está instalado y configurado con éxito, comenzarás a ver cargando elastico primero. Ahora una vez que Kibana se haya cargado correctamente, verás bienvenido a elastic. Y si haces clic en Explorar por mi cuenta, llegarás a la interfaz de usuario de Kibana. Ahora hay una última cosa que quería mostrarte antes de dejarte ir, que es si quieres que tu aplicación Elasticsearch y Kibana se inicie automáticamente cuando reinicies tu sistema, lo que tendrás que hacer es que tengas que escribir en sistema CTL habilitar búsqueda elástica y el sistema CTL habilitar Kibana, un altar mover el punto. Y con esto, hemos llegado al final de esta conferencia. Gracias por mirar. Te veré en la siguiente. Adiós. 10. 12: Hey chicos, En esta conferencia vamos a instalar y configurar elasticsearch log session Kibana en un sistema Linux basado en RPM. Para ello, primero tendremos que instalar Elastic Search GPG key, y luego tendremos que configurar nuestra sesión de registros de búsqueda elásticos repositorios Kibana en el sistema RPM. Después de eso, instalaremos nuestras aplicaciones. Después configuraremos Elasticsearch y Kibana. Y después de haber hecho con la configuración, podemos iniciar el servicio de Elasticsearch y Kibana y probar conectividad. Así que empecemos. Ahora aquí en pantalla, estoy dentro de mi cuenta GCP. Y bajo instancias de VMI, ya se puede ver el sistema Linux basado en Debian en el que instalamos nuestro sistema de búsqueda elástica de nodo único anteriormente en las conferencias anteriores. Aquí haré clic en Crear Instancia, y luego haré clic en nueva instancia de VM de Template, y luego elegiré ELK. Entonces le pegaré a Continue. Dejaremos el nombre como ELK T2, pero cambiaremos la región a US West One. Entonces bajaré y bajo disco de arranque, haré clic en cambiar. Aquí. Bajo sistema operativo, haremos click en el desplegable, y aquí elegiremos Red Hat Enterprise Linux. Ahora, podemos cambiar la versión de Linux que queremos para esta máquina. Lo dejo como predeterminado y le pegaré a Select. Una vez que haya hecho eso, bajaré al networking. Y bajo redes, me aseguraré de que tenga la etiqueta de red correcta, Kibana, y estoy dentro la VPC de búsqueda elástica y bajo subred de monitoreo. Y luego haré clic en Crear. Una vez mis ELK dos instancias en funcionamiento, copiaré la dirección IP externa y luego iré a mi Código de Visual Studio. Y en mi código de Visual Studio, en el lado izquierdo, tengo las notas para instalar Elastic Search en un sistema RPM. Y en el lado derecho, tengo una ventana terminal bajo tipo terminal en SSH y luego la laboratorio en. Y luego pegaré la dirección IP externa y presionaré Enter. Haga clic en sí. Ahora una vez que me haya conectado a esta instancia, haré clic en Borrar y ahora estamos listos para comenzar a instalar nuestros servicios. En primer lugar tenemos que importar Elasticsearch clave GPG en este sistema. Entonces copiaré todo esto y lo pegaré en mi sistema y presionaré Enter. Es. No se puede abrir el índice usando el permiso V5 denota. Lo que haré es ejecutar el mismo comando usando sudo, sudo y presionaré Enter y una vez que la clave se importe correctamente comenzará a instalar repositorios RPM. Así que primero tendré que crear tres archivos, Elastic Search dot repo, Kibera, repo, y log Slashdot repo dentro de mi joven hija repost o D. Así copiaré primer comando touch y pulsaré Enter. Tendré que escribir en sudo primero. Ahora me mudaré a sudo SU. A continuación copiaré el segundo comando touch, y luego copiaré el tercer comando touch. Así que ahora si voy a mi pequeña hija, repost o D, nefrona haz un ls. Tengo mis tres archivos, Elasticsearch, repo corto, troncos, arteria gesto Po, y reporte de puntos Kibana. A continuación tendremos que configurar archivos. Así que primero vamos a hacer VI en Elastic Search corto repo, y entraré en Insertar y luego tendré que configurar estos ajustes dentro del perfil de Marie. Por lo que voy a hacer clic en pegar y voy a hacer algún formateo. Ahora esta definición de repositorio no es más primero tenemos el nombre de esta configuración de configuración, luego tenemos la URL de donde obtener el paquete. Gpt comprueba la clave GPG si está habilitada o no y el tipo. Ahora, guardaré este archivo. Siguiente. Haremos un VI en Kibana dot repo, y van a entrar en insert y copiaré todos los ajustes de mi teclado o tres perfiles. Yo las pego aquí. Y de nuevo tendré que hacer algún formateo. Y ahora puedo guardar este archivo también. Y por último, tendré que editar mi tronco perfil de arteria estirada. Voy a insertar una copia la configuración para el registro estirado o triple, y guardaré este archivo. Ahora no tienes que preocuparte por esta configuración de configuración. Lo que voy a hacer es adjuntaré mis notas y el enlace descriptivo de este video que también puedas tener acceso a estas. Entonces una vez que hayamos configurado nuestros tres repos, ahora podemos instalar todo. Entonces primero tenemos que instalar Elastic Search y el comando es sudo yum install enabled repo. Y luego hace referencia al Elastic Search Report que acabas de configurar. Y luego el nombre del servicio es Elastic Search. Así que voy a copiar, lo pegaré aquí y le pegaré enter. Si la aseguradora te pide que descargues un paquete de búsqueda elástica, solo di que sí y sigue adelante. Ahora una vez Elastic Búsquedas y almacenadas, podemos instalar Kibana y Log Stash In type in sudo yum install Kibana para instalar Kibana y pulsa Enter, voy a golpear sí aquí. Ahora una vez instalado Kibana, puedes escribir en sudo yum instalar Log Stash para instalar Log Stash NAL head, sí. Ahora una vez que las búsquedas de registro también están instaladas, es el momento de configurar nuestros servicios. Esto sería similar a lo que hemos hecho por nuestro sistema basado en DBN. Si ya lo has hecho, probablemente puedas configurarlos por tu cuenta si no lo has hecho, por favor sigue esta conferencia. En primer lugar, configuraremos Elasticsearch. Así CD, ETC slash búsqueda elástica. Aquí, si hago un ls, veré que hay un archivo llamado Elastic Search si lo soy, y este es el archivo de configuración para Elastic Search. Así que vamos a editar eso. Por lo que teclearé VI Elastic Search dot YAML y pegaré enter. Ahora aquí en este archivo, primero entraré en Insertar. Y el primer ajuste que necesito cambiar es el nombre de punto agrupado. Voy a cambiar eso a demo dash ELK. A continuación quise cambiar la configuración del nombre de punto del nodo, así que vamos a cambiar esto a ELK dash one. Después de esto, puedo dejar el camino hacia datos y path dot log configuración como está, tendré que ir por debajo de la red y dentro red lo que voy a hacer es ir a la red dot host, descomentar eso y este valor a $0 o 0 hacia 0. Ahora lo que sucede es por defecto, búsqueda elástica solo es accesible desde localhost cambiando a 0 o 0 o 000. Estamos exponiendo esto a cualquiera en el mundo. A continuación, vamos a descomentar el puerto punto STDP, pero dejaremos el puerto como predeterminado 9200. Si está ejecutando un clúster de producción, es posible que desee cambiar esto a algún otro puerto, pero lo dejaremos como está. Ahora, por fin, iré justo al final de este expediente. Y aquí voy a escribir en un entorno para el descubrimiento doctype. Ahora este valor de configuración sería de carga única porque estamos configurando un solo nodo Elasticsearch cluster o discovery dot type. Y el valor es nodo de guión único. Y ahora puedo guardar mi Elasticsearch golpeó YAML, así que voy a golpear Entrar ahora puedo iniciar mi Servicio Elasticsearch. Por lo que el sistema CTL inicia Búsqueda Elástica. Ahora una vez que el servicio está activo, puede hacer estado para comprobar el estado del servicio. Es activo y en funcionamiento. Ahora para comprobar la conectividad a nuestro clúster, escribiremos menos x, obtenemos STDP y luego localhost, y luego el puerto que Elastic Seeds se ejecuta en 90 a 100. Y luego nos conectaremos a la API de clúster y al servicio de salud en esa API. Y lo que queremos es que queremos la salida en formato legible por humanos. Por lo que vamos a teclear bonita y pegaremos Enter. Y como se puede ver, el estado de nuestro clúster es verde y el número de nodos es divertido. Ahora, podemos empezar a configurar nuestro Kibana. Entonces voy a entrar en slash, ETC, slash Kibana, y voy a borrar de todo y hacer un ls dentro de este dado o carpeta, hay un archivo llamado teclado AutoML, que es el archivo de configuración para Kibana. Por lo que voy a hacer VI Kibana dot YAML. Ahora entraré primero en Insertar. El primer ajuste que quiero cambiar es nuestra trama de puntos, pero dejaré este valor tal cual, porque este es un sistema demo. Si estuvieras en un sistema de producción, tal vez quieras cambiar este valor a otra cosa. Entonces descomento servidor dot host, y luego lo cambiaré de localhost a $0 punto 0. Así que de nuevo, esto lo hace accesible al mundo exterior. Ahora varios puntos URL base pública es la URL en la que Kibana es accesible. Para obtener el valor esta configuración tendrá que ir a nuestras instancias de VM. Entonces bajo IHL k2, copiaré la dirección IP interna y escribiré http, y pegaré la dirección IP interna, y le proporcionaré el puerto que tiene 5601. A continuación cambiaremos el nombre del servidor, pero entraré en self.name, descomentar y darle el nombre demo dash Kibana. Entonces iré a los anfitriones cortos de Elastic Search. Y puedo dejar el valor predeterminado porque estas instancias de Kibana se ejecutan en el mismo servidor que los servicios de Elasticsearch que se ejecutan en. Y una vez que haya hecho eso, puedo guardar mi archivo de configuración. Y ahora puedo empezar Kibana. Una vez gibbon empecé, puedo hacer el sistema CTL status Kibana y el servicio está activo y en ejecución. Entonces iré a mis instancias de VM, copiaré la dirección IP pública de mi instancia de Kibana, basándola en la pestaña del navegador y escribiré 5601 para conectarme al servicio de Kibana en el servidor podrá llegar a la interfaz de usuario de Kibana. Ahora una vez que llegas a esta pantalla, haces clic en explorado por mi cuenta y deberían llevarte a la interfaz de usuario de Kibana. Ahora, antes de dejarte ir, quiero mostrarte una última cosa. Ahora, si quieres que tus servicios de Elasticsearch y Kibana vuelvan a subir automáticamente después de que el sistema se reinicie, tienes que escribir en el sistema CTL habilitar la búsqueda elástica, habilitar el servicio Elasticsearch y sistema CTL habilitar Kibana, habilitar el servicio Kibana. Con esto, hemos llegado al final de esta conferencia. Gracias por mirar. Te veré en la siguiente. Adiós. 11. Instala ELK en el servidor de Windows: Hey chicos, En esta conferencia instalaremos la búsqueda elástica en un servidor Windows. Para empezar, descargaremos algún software. Por lo que primero descargaremos Elasticsearch y Kibana. Después de eso, lo instalaremos llamados NSSS son gestor de servicio no chupando. Esta herramienta le ayuda a instalar una aplicación como Servicio. Ahora la razón por la que necesitamos esta herramienta es porque Kibana no viene con la utilidad de paquetes gratuitos que nos puede ayudar a instalar Kibana como servicio. Por lo que usaremos NSSA para Elastic Search. Tenemos una utilidad llamada Elastic Search En esta oscuridad atrás dentro del archivo zip de búsqueda elástica, que se utilizará para instalar un activo como un Servicio en Windows Server. Ahora, después de haber descargado NSSS, descargaremos e instalaremos 7-Zip. Una vez terminadas las Descargas, configuraremos Elasticsearch y dadas nuestras aplicaciones, entonces las ejecutaremos como Servicio. Y una vez que hayan comenzado con éxito, probaremos la conectividad a nuestro Clúster Elasticsearch y otra instancia de Kibana en tu boceto iniciado aquí. Tengo mi ventana en alguna parte, dondequiera que esté haciendo instalando Elasticsearch y Kibana en este servidor, primero abriré una pestaña del navegador. Y en el navegador escribiré en búsqueda clásica Windows descarga y pulsa Enter. Y desde aquí voy a ir a la URL que dice elástico. Descarga una búsqueda elástica. Por lo que voy a hacer clic en este enlace. Y una vez que esté en este enlace, me aseguraré de estar en la pestaña de lanzamiento de GA. Y desde el primer paso descargaremos clásico como si Windows, voy a hacer click en este botón Descargar. Y mientras esto se ha descargado, abriré otra pestaña y escribiré en Kibana windows download. Y aquí también, voy a ir a la URL de descargas para Kibana. Y desde esta URL también, voy a ir al paso uno, descargar y descomprimir Kibana. Me aseguraré de que la espuma negra sea elegida como Windows, y haré clic en el botón de descarga para Windows. Y esto debería iniciar la descarga para mi proceso de Kibana también. Ahora mientras esto se está descargando, abriré otra pestaña y escribiré descarga y SSM y pulsaré Enter. Y de los resultados, elige el enlace para un SSM dot cc y descargas. Y desde esta página web, voy a ir bajo Sección última versión. No han hecho click en la utilidad y SSM 2.24. Por lo que voy a hacer click en esto y ahora voy a abrir otra pestaña y escribiré descarga 7-Zip y entra. Y desde la página de descarga 7-Zip DOT ORG, haré clic en el enlace para descargar la utilidad para Windows de 64 bits. Por lo que voy a hacer clic en este enlace de descarga aquí. Ahora una vez que se hayan descargado todos los archivos, primero haré clic en 7-Zip instalado, 7-Zip en el sistema. Desde el cuadro de diálogo del instalador, haré clic en ejecutar, y desde aquí elegiré la carpeta de destino predeterminada y haga clic en Instalar. Y una vez que la IP de alguien haya instalado, puedo dar click en. Y ahora abriré mi carpeta de descargas. Ahora una vez dentro de la carpeta de descarga, puedes hacer clic derecho en Elasticsearch zip, y puedes usar 7-Zip para extraer los archivos. Por lo que haré clic en Extraer archivos. Y a partir de aquí, se puede elegir el camino donde desea extraer estos archivos. Ahora lo que he hecho para esta conferencia es que ya he aceptado estos archivos dentro de mi carpeta de documentos. Voy a ir a la carpeta Mis documentos y como pueden ver, aquí tengo una carpeta de búsqueda elástica, y también tengo una carpeta Kibana. Entonces empecemos a configurar estos. Abriré la carpeta Elastic Search, y desde aquí elegiré Elastic Search. Nuevamente. Iré al conflicto. Dentro de la carpeta conflictiva, necesitamos editar el archivo corto YAML Elasticsearch. Por lo que voy a hacer clic derecho en este archivo y usaré VS Code para editar este archivo. Puedes utilizar el editor de tu elección. Así que siéntase libre de abrir y editar este archivo. Ahora una vez que tengo abierto el archivo corto YAML de Elasticsearch, lo que haré es que la primera configuración que necesito cambiar es agrupada o nombre. Y cambiaré esto a demo dash ELK. Entonces necesito cambiar el nombre del nodo. Por lo que voy a cambiar esto a ELK dash one. Después de eso, no necesito especificar una ruta a mi directorio de datos o directorio de registros porque esta es una instancia demo. Por lo que voy a mantener, dice default. Ahora voy a ir a la sección Red y descomentar el host de punto de red. Y cambiaré este valor a 0. Después de eso, voy a descomentar http dot pork, pero mantendré el puerto como predeterminado. Y por último, voy a ir hacia el fondo de este expediente. Y aquí escribiré en el tipo de punto de descubrimiento, y le daré al valor dashboard único porque esta es una sola solución Norton. Ahora puedo guardar este archivo y una vez que lo haya hecho, puedo iniciar mi Servicio Elasticsearch. Entonces para hacer eso, entraré a mi cuadro de búsqueda y escribiré en PowerShell, y aquí elegiré la aplicación de escritorio de Windows PowerShell. Ahora entré dentro de mi consola PowerShell. Escribiré cd si necesito ir a Documentos, y luego necesito ir a carpeta Elasticsearch y luego Elasticsearch otra vez, y luego estado dentro de bin si hago un ls. Ahora aquí verás que hay un archivo llamado Elastic Search service dot Ph.D. Ahora necesitamos ejecutar este archivo. En primer lugar lo saldré de mi pantalla. Y desde aquí escribiré dot slash Elastic Search, dash, service dot. Y aquí necesito teclear instaladores. Así dot slash Elasticsearch service dot VAT space install, y voy a hacer clic Enter. Ahora bien, esto debería iniciar la instalación de un activo como un Servicio. Una vez finalizado esto, lo que puedes hacer es que puedas acudir a servicios dot MSC desde tu cuadro de búsqueda. Aquí, puedes encontrar el servicio Elasticsearch, y ahora puedes iniciar el servicio. Pero primero, cambiaremos el tipo de inicio en el servicio de manual a automático para que el servicio se ponga en marcha después los arranques celulares entren automáticamente en propiedades. Iremos al tipo de inicio y cambiaremos eso a automático y pulsamos en Aplicar. Una vez que hayas hecho eso, puedes hacer clic en Empezar para comenzar. El servicio va a hacer clic en OK. Y se puede ver que los servicios funcionando. Ahora, déjame maximizar mi publicación. Ahora aquí, también puedes usar la misma utilidad para administrar este servicio también. Déjame mostrarte el uso. Si pondría en dot slash servicio de búsqueda clásico almacenado IVA y pulsa Enter. Ahora se puede ver el uso. Puede instalar un servicio de eliminación de servicio, iniciar parada, y puede administrar un servicio. Ahora, intentemos detener este servicio usando estas utilidades para que pueda escribir en stock y presionar Enter. Ahora recibió el mensaje de que este Servicio Elasticsearch ha sido detenido. Y puedo validar eso al entrar en mis servicios dot MSC y dar click en Ejecutar este botón Refrescar, se puede ver que el servicio fue detenido. Ahora vamos a empezar el servicio y golpear enter, y tenemos el mensaje de que los servicios comenzaron. Así que vamos a validar eso otra vez. Por lo que haré clic en refrescar y se puede ver que el servicio se estaba ejecutando para probar conectividad a nuestra instancia de Elasticsearch, lo que tenemos que hacer es que tengas que abrir la ventana de Chrome. Y desde Chrome, vamos a abrir otra pestaña. Y aquí vamos a escribir http slash slash host local y luego compramos 90 a 100 y golpeamos Enter nervosa services up. Verás alguna información regresando de tu clúster. Ahora, lo que también puedes hacer es que puedas mirar la salud del clúster. Para ello, escribirás barra tras la URL y subrayar yeso otra barra y cabeza y luego signo de interrogación y luego bastante líquido la cabeza del racimo. Ahora se puede ver el estado del clúster es verde y el número de nodos es uno. Entonces así es como puedes instalar la búsqueda elástica en una máquina Windows. A continuación, configuraremos nuestra instancia de Kibana. Ahora para configurar nuestro Kibana, abriré el explorador de archivos. Y desde aquí iré a Documentos. Y abriré mi carpeta Kibana. Y luego Kibana carpeta otra vez, y luego config. Y dentro de Config, necesitaré editar las finanzas de Kibera TML, así que haré clic derecho sobre él y haga clic en abrir para abrir este archivo en un editor. Ahora dentro de este archivo, descomento solver.py, pero lo dejo como predeterminado. Entonces descomento servidor dot host y cambiaré el valor del host local a 0 punto 000. A continuación, cambiaré la URL de base pública de varios puntos, así que descomento eso. Y para obtener su valor, debes ir a la siguiente configuración de netflix. Y a partir de aquí, volveré a hacer clic en Red para obtener la dirección IP de esta máquina, que es estándar 0 punto a punto 15. Por lo que la URL base pública será STDP diez punto 0 punto punto 15. Y luego el libro se llevó el 601. Por lo que esta es la URL en que se podrá acceder dar honor. Bajaré un poco. Después siguiente, cambiaré varios nombres de puntos y cambiaré el nombre descriptivo de mi instancia de Kibana de tu anfitrión mejorado demo dash Kibana. A continuación, voy a descomentar los anfitriones de puntos de Elastic Search. Pero puedo dejar esto como predeterminado porque esta instancia de Kibana se instala localmente en el mismo servidor con búsquedas elásticas. Ahora a continuación, por defecto, registros de Kibana, Es registros en STD out. Queremos cambiar eso y queremos configurar nuestro Kibana o iniciar sesión sus registros en el registro de sangre mientras se encuentra en algún lugar. Para ello, necesitamos bajar y encontrar la línea que dice login dot t ESD. Está en línea 97, voy a descomentar esto. Y antes de cambiar su valor, abriré mi explorador de archivos y voy a subir un nivel. Y aquí voy a crear una nueva carpeta llamada logs. Y voy a abrir eso. Y luego voy a hacer clic derecho en los registros en la barra superior. Y copiaré direcciones textos, y ahora voy a sustituir estradiol por este texto. Aquí, voy a hacer otra barra y fui a llamar a mi archivo de registro Kibana oscuro bajo. Entonces con esto, Kibana lo escribirá registros en este archivo. Ahora, también podemos descomentar el registro dot silent y logging dot quiet, pero vamos a mantener estos valores como falsos. Ahora si quieres un registro detallado, puedes descomentar esto y cambiar su valor de false a true. Esto te dará detalles de nivel granular de Kibana está bloqueado. Ahora, podemos guardar este archivo. Ahora antes de usar un SSM para iniciar Kibana como servicio, quiero mostrarles cómo iniciar Kibana manualmente. Entonces iré a mi PowerShell y desde aquí y escribiré cd y desde documentos, iré a Kibana y luego Kibana de nuevo. Y luego desde el interior Kibana se van a doblar esta vez. Y aquí si hago un ls, verás que hay un archivo llamado Kibana dot dot dot. Tenemos que ejecutar este expediente. Primero. Voy a despejar de esto, y luego escribiré en dot slash Kibana, y voy a golpear Enter. Ahora después de esto, pasemos a nuestra ventana del navegador y tecleemos http slash slash dot, dot to dot 15 y se les da un puerto 5601 y voy a golpear Enter. Y esto debería llevarme mi página de Kibana, no dependiendo de lo poderoso que sea tu servidor Windows. Podría tomar algún tiempo para que Kibana se cargue, así que solo dale algo de tiempo. Ahora después de esto, veamos cómo instalar Kibana como servicio. Primero, abriré PowerShell y detendré esta instancia. Presiona Control C y entra y gestiona sistema minutero telón de fondo puedo teclear, sí, voy a dominar esto. Y una vez que esté fuera de esto, saldré de Kibana, abriré mi explorador de archivos que descargue , extraiga un SSM. Por lo que 7-Zip. Si los archivos, y elegiré documentos y haga clic en Aceptar y luego OK de nuevo. Y una vez que un FSM está dentro de mis documentos, puedo volver a PowerShell y CD y SSM y hacer un LS aquí. Ahora, aquí hay otra carpeta llamada SSM, así que vamos a cd en eso y haremos un LS desde aquí. Necesito entrar cuando 64 porque mi máquina se sabe alguna vez 64 máquina. Si estás en una máquina Windows de 32 bits, debes ingresar a este directorio. Entraré cuando 60 cuartos, por lo que CD en 64. Si hago un LS aquí, habrá un archivo EXE llamado EXE punto SSM. Entonces voy a hacer dot slash y SSM dot EXE. Y para mostrarte el uso, lo haré terminó aquí. Ahora el uso es innecesario, una de las opciones y luego algunos argumentos. Instalar un servicio, necesitamos utilizar una instalación de SSM. Por lo que aquí escribiremos barra de puntos y espacio SSM EXE en tienda. Y ahora tenemos que dar el nombre del servicio. Por lo que Kibana y pegó entrar. Una vez que hayas pulsado Enter, abre un cuadro de diálogo. Y dentro de ese cuadro de diálogo en la pestaña de aplicación, necesitamos especificar la ruta para el archivo por lotes para Kibana. Voy a hacer clic en este botón aquí. Después iremos a Documentos, Kibana, Kibana, y luego bin. Y a partir de aquí voy a especificar mantener en nuestro archivo por lotes y dar click en abrir ahora y abrir el paso detallado. Puedo escribir algunos detalles, así que escribiré en Kibana y la descripción también será Kibana. Puede especificar el tipo de inicio puede ser automático, automático, retrasado, manual o deshabilitado. Dejaremos esto como automático. Puede especificar el inicio de sesión como información aquí, dependencias de este servicio, el comportamiento de cierre de prioridad de proceso. Pero dejamos todo como predeterminado y pulsamos en el servicio de instalación después de que me haya dado una confirmación de que los servicios de Kibana instalaron, puedo hacer click en Okay. Y eso va a despegar el cuadro de diálogo, proteger el estado del servicio de Kibana. Puedo teclear NASM, cmd.exe espacio status Kibana, y golpear Entrar ahí, dice Stock de servicio. En primer lugar, tenemos que iniciar el servicio nsf dot EXE espacio stark space key button y presiono Enter. Ahora tengo confirmación de que esta operación de servicio se completó con éxito. Entonces voy a ir a mis servicios dot ventana MSC, refrescar esto, y voy a ir a mi servicio de Kibana. Y puedo ver que los servicios de Kibana se ejecutan. Por lo que abriré otra pestaña del navegador y golpearé Refrescar y seguridad cargas virales. Podría tomar algún tiempo de nuevo. Voy a publicar el video aquí. Ahora me tomó unos minutos para mi incienso Kibana vuelva a subir, pero ya está arriba puedo hacer clic en Explorar por mi cuenta y empezar a trabajar en mi interfaz de usuario de Kibana. Ahora antes de dejarte ir a continuación, valida que nuestra instancia de Kibana esté iniciando sesión en el archivo de registro que especifican. Entonces voy a los documentos Kibana, Kibana, y luego entraré en registros. Puedo ver que mi archivo de registro de puntos Kibana está ahí y tiene algunos centros de datos. Ábrela. Y aquí se puede ver que Kibana está escribiendo x datos de log dentro de este archivo de registro. Entonces con esto, hemos llegado al final de esta conferencia. Te he mostrado cómo instalar Elasticsearch y Kibana en un Windows Server. Gracias por mirar. Te veré en la siguiente. Adiós. 12. 14: Hey chicos, En esta conferencia configuraremos espera seguridad en nuestro Clúster Elasticsearch. En primer lugar, detendremos a Kibana en el servicio de Elasticsearch. Entonces vamos a habilitar espera ir a día dentro de ese archivo de configuración de Elastic Search. Entonces iniciaremos el servicio Elasticsearch. Después de eso, configuraremos las credenciales predeterminadas para los usuarios incorporados de Elastic Search. Después configuraremos Kibana para que utilice la autenticación por contraseña para conectarnos a nuestro Clúster de Elasticsearch. Y por último, iniciaremos nuestro servicio de Kibana y probaremos la conectividad. Empecemos. Aquí en la pantalla, tengo mis notas para configurar la seguridad de espera en nuestro Clúster Elasticsearch y en el lado derecho, mi conexión SSH dentro de mi máquina dada ELL. Se trata de un clúster ELK de un solo nodo que implementamos en un paquete DBN. Entonces aquí, primero, tengo que detener a Kibana, una búsqueda elástica. Por lo que voy a teclear en sistema CTL, detener Kibana y sistemas CTO detener búsqueda elástica. Una vez que tenga fuertes servicios de junta primero tendré que habilitar expect inside Elastic Search golpeó Yammer. Entonces iremos a Elasticsearch. Y luego aquí escribiremos VI Elastic Search dot YAML. Y en este archivo bajará a la parte inferior, y entraré en modo de inserción. Y hacia abajo, agregaré el ajuste espera seguridad habilitada como verdadera. Entonces lo copiaré y lo pegaré aquí. Y ahora puedo guardar este archivo. Ahora a continuación tendré que iniciar mi clúster de Elasticsearch. Por lo que escribiré en el sistema CTL, iniciaré Elastic Search. Ahora una vez iniciados los servicios de Elasticsearch, echemos un vistazo al estado escribiendo en sistema CTL status Elasticsearch, está activo y en ejecución. Ahora en nuestro video anterior, utilizamos el comando curl para probar la conectividad a este clúster. Ahora, si hago un Control R y escribo en Curl, y si volvemos a ejecutar este comando, veamos qué pasa. Obtenemos una excepción de seguridad de que nos faltan las credenciales de autenticación. Lo que tendremos que hacer ahora es que tendremos que generar las credenciales de autenticación para nuestros usuarios incorporados. Así que limpiaré la pantalla. Y para ello, tendremos que ir a usr, compartir Elastic Search y luego bin. Y si hago un LS aquí, verás que hay muchas utilidades dentro de esta carpeta. El que buscamos es la utilidad de contraseñas de configuración de Elastic Search. Así que voy a escribir en dot slash Elasticsearch dash setup password. Y aquí tengo dos modos. O bien puedo entrar en modo interactivo y configurar cada contraseña yo mismo. Así que déjame mostrarte que primero escribiré interactiva y voy a golpear, y dice iniciando la configuración de contraseña para usuarios reservados. Y da un nombre de usuarios y dice que se le pedirá que ingrese contraseñas a medida que avanza el proceso, por favor confirme que le gustaría continuar. Yo escribiré aquí primero. Lo que me gustaría es que Elastic Search genere automáticamente contraseñas para mí. Entonces vamos a hacer eso. Escribiré auto y golpearé enter. Y ahora vuelve a decir, pero esta vez dice que las contraseñas se generarán e imprimirán al azar a la consola usando auto, las contraseñas se generan de forma automática, mientras que usando interactivas, son ingresado manualmente por el usuario. Entonces escribiremos sí, para generar automáticamente mis contraseñas. Tengo la contraseña está aquí, así que copiaré todos estos y pagaré dentro de mis notas. Ahora, una vez que haya hecho eso, déjame salir de esto. Hagamos cd para salir de todo y claro. Ahora, volvamos a ejecutar nuestro comando curl. Pero esta vez lo que quiero hacer es usar la opción menos u para especificar el nombre de usuario y contraseña justo después de Carl, escribiré menos u y escribiré en elastic como nombre de usuario. Elastic es un superusuario en el clúster de Elasticsearch. Y luego especificaré la contraseña para mi superusuario elástico. Entonces haré control C. Lo pegaré aquí y luego pondré un espacio. Y ahora si pego Enter, verás que soy capaz de obtener información de un clúster. Nuevamente, eso significa que nuestro clúster está configurado correctamente con seguridad esperada y autenticación de contraseña. Ahora a continuación, la instancia de Ikebana, si intentamos iniciarla ahora, nos dará un error porque no puede conectarse a Elasticsearch. Por lo que tenemos que suministrar las credenciales de Elastic Search para que mi instancia de Kibana se conecte al clúster de Elasticsearch. Para ello, haremos cd ADC, Kibana, y luego bajo Kibana editará el archivo YAML de punto Kibana. Y dentro de este archivo, entraré en insert y entraré en la sección donde dice Elasticsearch enseñó nombre de usuario y el nombre de usuario incorporado utilizado para esta integración es el sistema de subrayado Kibana. Entonces este es nombre de usuario. Entonces todo lo que tenemos que hacer es descomentar la contraseña y eliminar el valor predeterminado y copiar la contraseña para el usuario del sistema Kibana y pegarla aquí. Y una vez que hayas hecho eso, puedes guardar este archivo. Y empecemos el servicio de Kibana. Soy la estrella del CTO Kibana. Ahora hagamos un estatus y el servicio está activo y funcionando. Ahora cuando cargamos la página web de Kibana, debe pedirnos autentiquemos. Entonces cerraré esta pestaña. Volveré a copiar la dirección IP pública de mi máquina, y la pegaré y escribiré 5601. Y veamos qué pasa ahora en este momento nos está pidiendo el nombre de usuario y contraseña. Y aquí bajo nombre de usuario, escribiré elastico y bajo contraseña pegaré en la contraseña para superusuario elástico un login. Y ahora puedes ver que estoy dentro de Kibana usando mi elástico de usuario incorporado para mirar todos los perfiles de usuario en esta instancia de Kibana. Puedes entrar en la administración y luego puedes entrar en la gestión de la pila y entender la gestión. Puedes entrar en usuarios. Y desde aquí podrás ver todos los usuarios incorporados que se crearon cuando lo configuramos espera seguridad en este sistema. Con esto, hemos llegado al final de este video. Gracias por mirar. Te veré en la siguiente. Adiós. 13. Añadir datos a nuestro clúster de elk con Kibana: Hey chicos, En las últimas conferencias, hemos instalado nuestro clúster de Elasticsearch. Ahora es el momento de conseguir algunos datos en nuestro clúster. En primer lugar, cargaremos datos que no sean de series temporales, y luego cargaremos datos de series temporales. Y entonces te mostraré la diferencia entre ambos. Así que vamos a ensuciarnos las manos aquí en mi pantalla. Tengo mi instancia de Elasticsearch. Por lo que copiaré su dirección IP externa, abriré otra pestaña del navegador, pegaré, y ha habido 5601 y me conectaré a mi instancia de Kibana. Ahora una vez que estoy en la página de inicio de mi instancia de Kibana, hay un patrón llamado subir un archivo, así que voy a hacer clic en él, subir algunos datos. Ahora, usando este patrón, puedes subir archivos de hasta un tamaño de 100 MB y pueden estar en el siguiente formato. Podría ser un archivo de texto delimitado como CSV o TSV, o un archivo JSON delimitado, o un archivo de registro con un formato común para la marca de tiempo. Para esta conferencia, cargaremos archivos de texto delimitados que podrían ser CSV o TSV. Ahora para conseguir algún conjunto de datos para este tutorial, abriré otra pestaña del navegador y iré a un sitio web llamado kaggle.com. Y en Kaggle.com iré a conjuntos de datos. Entonces le pegaré a enter. Ahora bajo este sitio web, tendrá que registrarse o inscribirse en este sitio web para descargar los conjuntos de datos. Y una vez que lo hagas desde el menú de navegación de la izquierda, si estás en conjuntos de datos en busca los conjuntos de datos usando este estado de búsqueda Botón Salir. Ahora, también puedes filtrar por los conjuntos de datos que quieras. Por ejemplo, porque solo puedo subir hasta 100 MB archivos, escribiré aquí 100 MB y escribiré, en tipo CSV. Y el tamaño inicial del archivo podría ser de 0 y b y aplicar militar. Ahora desde los resultados, haré clic en el conjunto de datos llamado espectáculos de Netflix. Y aquí puedo ver el tamaño de este conjunto de datos que está alrededor de 90 KB. Si hago clic en compacto, puedo ver algunos datos de muestra dentro del conjunto de datos. Y ahora voy a hacer clic en descargar para descargar este archivo. Este archivo se descarga como archivo zip. Así que voy a mostrar en Finder y desde una ventana Finder, está en mis descargas. Por lo que voy a hacer doble clic en él para extraer este archivo. Y ahora ya puedes ver tengo el archivo netflix dot csv en mi máquina ahora volverá a Kibana. O bien puedo arrastrar y soltar este archivo, pero puedo subir este archivo. Por lo que voy a ir a mis Descargas aquí. Buscaré este expediente. Entonces netflix dot CSV, y voy a hacer clic en Abrir. Ahora lo que hace Kibana es analiza las primeras mil líneas de este archivo y recogió algunos datos sobre este archivo. Por ejemplo, ha descubierto que se trata un archivo delimitado y el delimitador es una coma, y también tiene una fila de encabezado. Ahora podemos hacer clic en la configuración de sobrescribir para anular algunos ajustes en este archivo. O puedo mirar explicación de análisis para averiguar cómo llegó Kibana a esta conclusión. Por lo que voy a hacer clic en eso y se puede ver alguna explicación de este análisis que voy más cerca ahora, también se pueden ver algunos arranques de archivo. Por ejemplo, hay 13 valores de calificación distintos en 999 documentos. Una vez que haya pasado por todo esto, haré clic en importar para importar estos datos en la siguiente página me pide que cree un índice. Puedo hacerlo usando método simple o método avanzado para esta demo, solo usaremos el método simple y el nombre del índice. Tendré que especificar el nombre del nuevo índice que se creará. Entonces lo llamaré índice de Netflix. Ahora, de nuevo, index es la forma en que almacenas datos en Elasticsearch. La siguiente opción es crear un espectro de índice. Ahora en comparación con un índice, un patrón de índice es cómo se puede buscar y analizar esos datos en Kibana, index es para almacenar datos en Elasticsearch, un patrón de índice es analizar esos datos. Y Kibana, quiero que se cree un patrón de índice porque sí quiero visualizar estos datos y Kibana. Por lo que haré clic en importar. Entonces puedes decir que primero procesa el archivo, luego crea el índice, crea canalización de ingestión y carga los datos, y luego crea un patrón de índice para estos datos. Una vez hecho todo esto, recibirás un mensaje completo de importación. O bien puedes hacer estos datos en descubiertos a algún manejo de índices. Por ejemplo, puede especificar cuándo se eliminarán nuevamente estos datos del índice etcétera, etcétera manager, botón de índice. Y hablaremos de File bit más adelante. Pero por ahora, sí queremos descubrir este índice en nuestra pestaña histórica para llegar a la página Descubrir, otra forma es haciendo clic en estas tres líneas desde arriba a la izquierda y luego bajo analítica y luego discutir bajo página descubierta en el lado izquierdo, la primera pieza de información es la orina índice. Si tuvieras múltiples índices, puedes hacer click en este desplegable y seleccionar el índice en el que quieres estar, entonces tienes los campos disponibles. Y si tienes más de unos pocos campos, por ejemplo, algunos índices podrían tener 100 metros o más, también puedes buscar nombres de un campo en este cuadro. Si quisiera dejar decir buscar calificación y obtendré todos los campos que tienen la palabra rating oil. Quita eso. Ahora en el lado derecho, la primera pieza de información es el número de hits o el número de documentos en este índice. Por lo que tenemos 1000 documentos y luego cada documento individual, si amplio eso, se pueden ver todos los campos y sus valores que están en este documento. Ahora, contra cada campo verá cuatro botones. El primer botón se filtra por valor. Entonces si quisiera, en mi filtro de índice para todos los documentos que tienen una descripción de calificación de 80, puedo hacer click en este botón y se mostrará mi filtro en la parte superior izquierda aquí. Y filtrará los resultados en mi pestaña descubierta, todos los resultados que coinciden con mi filtro. Para que puedas ver fuera de 1000, tengo 15 hits donde la descripción de la calificación fue 82 filtro de eliminación. Sólo voy a hacer clic en esto. La deuda Xnor fue cuando se quiere filtrar por un valor particular, también se puede filtrar un valor. Por ejemplo, en esto, quiero todas las películas que no fueron lanzadas en 2004. Filtrar para el año de lanzamiento 2004. Por lo que voy a hacer clic en este menos, y esto me dará todas las películas donde el año de lanzamiento no es 2004. Y de nuevo, voy a quitar esto y experimento de los documentos. Ahora a continuación se toggled columnas en una tabla. Entonces en esta mesa no hay columnas a partir de ahora, si quieres introducir columnas para que tu mesa se vea más ordenada para que lo busques. Por ejemplo, si quiero que la primera columna sea título, me peinaré contra el título. Voy a hacer clic en Toggle columna en tabla. Y ahora puedes ver todos mis documentos están ordenados por título. A continuación, quiero que mi columna sea Elisa. Daré clic en Toggle columna en la tabla al lado del año de lanzamiento. Y a continuación quiero que mi siguiente columna sea puntuación de calificación de usuario. Y haré clic en Toggle columna en la tabla para incluir la puntuación de calificación de usuario también. Para no quitar ninguna de las columnas conmutadas, simplemente iré a ese campo y eliminaré esa columna. Ahora puedo ordenar por esta columna también. Por ejemplo, si hago clic en esta flecha, dice ordenar puntuación de calificación de usuario ascendente. Así que permítanme minimizar esto. Y si hago clic en eso, ordenará el puntaje de calificación de usuario manera ascendente. Y si quiero moverlo a descendente, volveré a hacer clic en esto y ahora lo ordenará descendiendo. Ahora a continuación puedes usar esta barra de búsqueda o buscar tu conjunto de datos usando el lenguaje de consulta Kibana. Así que primero veamos todas las películas que se lanzaron en el año 2 mil de mis campos. Voy a ver qué campo me da liberación aquí. Por lo que el campo en realidad se llama año de lanzamiento. Entonces escribiré esa Elisa y ahora puedo aplicar algunos operadores. Por ejemplo, colon significa que esta liberación aquí es igual a algún valor menor que, igual a es básicamente la Louisiana menor o igual a algún valor mayor o igual a lo que sugiere, menos que, mayor que dos puntos y una estrella para especificar si mi conjunto de datos contiene un año de lanzamiento en cualquier forma que filtrará todos los documentos que tengan valores nulos o vacíos para este campo en particular. Digamos que en 2004. Y ahora voy a hacer clic en actualización. Y esto me mostrará todos los títulos que se estrenaron en 2004. Para volver a comprobar que agregaré liberado aquí haciendo clic en este signo más en mi mesa también. Así que además, y ahora lo puedes ver un poco más fácil. Ahora digamos que quiero agregar un criterio más a mi búsqueda. Lo que puedo hacer es que puedo poner un espacio después mi búsqueda inicial y puedo o bien hacer un AND o, O ADD es básicamente ambos argumentos tienen que ser ciertos. Entonces escribiré N Y en mi conjunto de resultados esta vez, solo quiero aquellas películas que tengan una puntuación de calificación de usuarios de 80 y superiores. Por lo que escribiré usuario y seleccionaré la puntuación de calificación de usuario de relleno. Y quiero que el valor sea 80 y por encima, tan mayor que un igual a firmar. Y esta vez escribiré 80 y haga clic en Actualizar. Ahora, de esos intentos iniciales, sólo tenemos estos cuatro hits. Entonces así es como puedes usar el lenguaje de consulta Kibana para buscar en tu conjunto de datos. Ahora si quieres guardar esta consulta, por ejemplo, si esta consulta se repite varias veces, puedes guardarla haciendo clic en este icono de disquete. Voy a hacer clic en eso y haré clic en Guardar consulta actual. Y diré mi consulta demo como nombre de esta consulta. Ahora porque nuestro conjunto de datos no tiene un campo de marca de tiempo, no voy a especificar incluir filtro de tiempo, pero si había algún filtro en mi conjunto de datos, si quería incluirlos, puedo escoger eso como sí, eso no puse en ningún filtro, así que voy a quitar eso y voy a hacer clic en Guardar y mi consulta fue guardada. Ahora la próxima vez si quiero hacer una reutilización mi consulta guardada. Entonces digamos si elimino todo esto, haga clic en Actualizar para llegar a mi conjunto original, y haga clic en este desplegable junto al icono del disquete y haga clic en mi consulta. Se puede ver que puedo volver a ejecutar rápidamente la misma consulta contra mi conjunto de datos. Ahora a continuación, a continuación, descarga algunos datos de series temporales volviendo a Kaggle, voy a ir a los conjuntos de datos están bajo conjuntos de datos. Volveré a hacer clic en Filtros. El tamaño del archivo sería de 0 a 100 MB. Y en las etiquetas escribiré en series temporales, y luego voy a hacer clic en, Ahora está fuera de las reservas. Daré clic en el primer resultado, omicron casos diarios por país. Y aquí si bajo puedo ver el estado que es aproximadamente cuatro MB y hay un solo archivo COVID varianza dot CSV. Y puedo hacer clic en un vistazo compacto a algunos datos de muestra. Así que descarguemos estos datos. Ahora una vez descargado este archivo de datos, volveré a abrir buscador, extraer este archivo. Ahora tengo el archivo de varianza COVID. Por lo que volveré a mi página de Descubrir, vaya a la página principal de Kibana. Puedo hacer clic en subir un archivo. Aquí. Te mostraré otro método para hacer lo mismo. Entonces iré aquí y luego bajo administración, iré a integraciones. Aquí puedo ver que hay muchas integraciones predeterminadas integradas en Kibana. Entonces primero escribiré una integración para si hago clic en subir un archivo para llegar a mi subir una integración de archivos. Hablaremos de integraciones en una próxima conferencia. Nuevamente, seleccionaré el archivo, por lo que varianza COVID, haré clic en Abrir, y esto analizará mis datos. Ahora, después de analizar las primeras 11000 líneas, se descubre que los datos están delimitados por una coma. Tiene fila de cabecera y también tiene una marca de tiempo. Y el formato para el campo de tiempo es ISO 8601. Ahora haré clic en Importar y volveré usar el método simple para especificar un índice y le daré un nombre a este índice de índice de subrayado COVID. Ahora puedo hacer click en Importar. Ahora una vez que tengas el mensaje diciendo importar completo, veamos esta indexación descubrir. Ahora aquí, si hago click en este desplegable, se puede ver que puedo cambiar entre índice está usando mi desplegable de índice. Volveré al índice COVID. Puedo ver todos los campos disponibles en el lado izquierdo. Y lo nuevo esta vez es este filtro de tiempo. Entonces básicamente mis datos contienen valores de campo de tiempo entre el 11 de mayo de 20252022. Puedo usar eso para básicamente reducido en una fecha específica. Entonces digamos que solo quiero buscar datos entre primero del 20 de diciembre, 21 de enero de 2021. Entonces lo que puedo hacer es hacer clic en este botón contra iniciado, y aquí tengo que especificar una fecha de inicio. Por lo que voy a hacer clic en absoluto por ahora, y voy a hacer click en diciembre. Y quiero que esto sea primero de diciembre de 2020, y pueda comenzar a las 0. Si hago clic en eso, a continuación, voy a hacer clic en terminado. Y aquí especificaré 2021. Puedo dejar esto como enero y voy a hacer clic en uno, que fue un viernes. Ahora puedo especificar algún otro tiempo, pero los datos sólo hasta 2330 o 1130. Haga clic con el botón derecho en eso y haré clic en Actualizar. Sólo me mostrará el subconjunto de datos que coincide esta vez para su referencia, esta es la diferencia entre los series temporales y los datos no de series temporales. Si vuelves a mirar tu índice de Netflix, no había filtro de tiempo para que filtraras sus datos porque nuestros datos no tenían una marca de tiempo. Ahora volviendo al índice COVID, también se pueden especificar plazos relativos. Por ejemplo, puedes especificar datos de, digamos, hace un mes, si tengo uno y puedes especificar uno de los campos laterales, por ejemplo, 1 segundo, 1 son de un minuto, etcétera, etcétera. Por lo que haga clic en eso. ¿ Y qué terminó? Vuelvo a ir Relativo. Es decir de hace un mes, hace diez días, de hace un mes hasta hace diez días, y da clic en actualización. Y esto me dará todos los datos de hace un mes hasta hace diez días. Ahora, en lugar de hace diez días, también puedo especificar ahora y establecer la fecha y hora de finalización para ahora, y me dará nuestros datos para el último mes. Entonces esta es la diferencia entre los datos de series temporales y no series temporales. No tiene un valor de filtro de tiempo en datos que no sean de series temporales. Con esto, hemos llegado al final de esta conferencia. Gracias por mirar. Te veré en la siguiente. Adiós. 14. Crear visualizaciones con Kibana: Hey chicos, Ahora que tenemos algunos datos en nuestro clúster y podemos explorar esos datos usando la pestaña Descubrir. Es hora de que visualicemos estos datos. Las visualizaciones de datos permiten a los usuarios de su negocio dar sentido a grandes cantidades de datos muy fácilmente. Y aquí es donde realmente se puede ver el poder de Kibana. Hay dos formas de crear visualizaciones en Kibana. En primer lugar, puede crear visualizaciones específicas del tablero, o puede utilizar la biblioteca de visualización donde puede agregar visualizaciones que necesita en más de un elemento como paneles o almohadillas de trabajo de lona. Ahora, hay algunas opciones para que elijas cuando creas tus visualizaciones. Primero, tienes lente, que es un sencillo editor de arrastrar y soltar. Entonces tenemos TSV, que se utiliza para el análisis avanzado de datos de series temporales. Después de eso, también puede usar basado en agregación, que se utiliza para los datos de gráficos basados en agregación. También puedes elegir mapas si tus datos tienen coordenadas de geolocalización, también puedes crear visualizaciones personalizadas usando la sintaxis vaguer. Esto está fuera de alcance para este curso. No hablaremos de esta opción. Ahora empecemos. En esta demo, crearemos una visualización que muestre el puntaje promedio de calificación de la película por año de lanzamiento. Primero al menú de navegación de la izquierda y bajo analytics irá a visualizar biblioteca. A partir de aquí, haremos click en crear nueva visualización para crear nuestra primera visualización. Y luego elegiremos lente. Ahora en el editor de lentes, primero desde el menú de la izquierda, puedes elegir el índice en el que quieras trabajar. Por ejemplo, si quisiera trabajar en el índice COVID, elegiré índice COVID y me mostrará todos los campos disponibles dentro del índice COVID. Pero para esta demo, elegiré el índice de Netflix en el medio es donde se mostrará tu gráfico. A partir de aquí, puedes elegir el tipo de gráfico que quieras. Entonces por ejemplo, si quieres una visualización de tipo métrico, una línea de visualización de barras, donut por etc. para esta demo, elegiremos una barra vertical. Ahora el lado derecho es donde especificará qué campos van a qué acceso. Primero tendremos que definir un eje horizontal para nuestros borradores, haré click en Agregar o arrastrar y soltar un campo. Y a partir de aquí elegiré el desplegable para el campo selector y elegiré liberar aquí. Ahora aquí puedo aumentar o disminuir la granularidad de este campo, pero lo dejaremos como predeterminado. Podemos cambiar el nombre para mostrar, por lo que voy a capitalizar el primer alfabeto de cada palabra. También puede especificar el formato de valor. Lo dejaré como predeterminado y haré click en Cerrar. Ahora a continuación podemos elegir el eje vertical. Volveré a hacer clic en Agregar o arrastrar y soltar un campo de nuevo. Y luego desde el campo selector, elegiré puntuación de calificación de usuario. Y luego de la función selector, elegiré en promedio para mostrar el puntaje promedio. Ahora a continuación, puedes volver a cambiar el nombre para mostrar así que volveré a capitalizar el primer alfabeto, promedio de puntuación de calificación de usuario. A continuación, puede cambiar el formato de valor. Entonces, por ejemplo, si quieres que el formato sea porcentajes en lugar de números, puedes hacerlo. Y esto entonces te mostrará el porcentaje de calificación de usuarios. Lo dejaré como predeterminado por ahora. Ahora, también puedes cambiar el color de la serie. Por ejemplo, si hago clic en el color Ceres y elijo azul, el gráfico cambiará a azul. También puedo cambiar qué lado del eje mostrarán mis datos si hago clic a la izquierda, que es por defecto. Si quisiera cambiarlo, puedo cambiarlo a derecha. Y esto comenzará a mostrar los datos sobre el eje derecho. Lo dejaremos su defecto, y haré clic en Cerrar. Ahora aquí, debajo de tu gráfico, puedes ver algunas sugerencias de Kibana. Por ejemplo, si hubiera seleccionado el gráfico de líneas, así es como se mostrará su gráfico. Si hubieras seleccionado métrica, así es como aparecerá tu visualización. dejaremos como lo que estamos diseñados ahora en la parte superior, puedes filtrar aún más estos datos mediante el uso del lenguaje de consulta Kibana. Por ejemplo, digamos que solo queremos mostrar datos para películas que fueron lanzadas después de 1984. Lo que entonces puedo hacer es que puedo hacer click aquí y luego puedo escribir en el año de lanzamiento, y luego puedo elegir es mayor que o igual a. Y luego puedo escribir en 1984 y dar click en Actualizar. Y ahora nuestro gráfico solo mostrará datos para películas que fueron lanzadas después de 1984. Ahora a continuación, vamos a quitar el pastel se filtrará, y luego se puede guardar esta visualización. En primer lugar, tenemos que proporcionarle un título, así que lo llamaré calificación promedio de películas por lanzamiento aquí. Ahora podemos proporcionar alguna descripción. Entonces esta visualización muestra calificación promedio de películas por Lavoisier en Netflix. Ahora a continuación podemos agregarlo a nuestro dashboard, crear un nuevo dashboard para esta visualización. Pero para esta demo simplemente elegiremos ninguno. Y se puede ver que la casilla de verificación Agregar a la biblioteca ha sido seleccionada por defecto. Ahora después de eso, también puedes usar etiquetas para agrupar visualizaciones juntas. Ahora, haremos clic en las etiquetas y pulsaremos en Crear etiqueta. Y voy a crear una etiqueta llamada Netflix. Puedes cambiar el color de la etiqueta, para que pueda cambiarla a azul y haré clic en ataque. Ahora ya puedes ver que la etiqueta Netflix ha surgido aquí y luego podemos hacer click en Guardar y Agregar a Biblioteca. Ahora una vez que lo hayas hecho, si vuelves a visualizar la biblioteca, puedes ver que tu visualización se ha agregado a la biblioteca. Ahora antes de dejarte ir, solo quiero mostrarte dónde se almacenan las etiquetas desde el menú de navegación izquierda, si vas a anotar bajo gestión y luego apilar gestión aquí bajo Kibana, es necesario seleccionar las etiquetas. Y aquí es donde puedes ver todas las etiquetas que has creado dentro de Kibana. Con esto, hemos llegado al final de esta conferencia. Gracias por mirar. Te veré en la siguiente. Adiós. 15. Panel: Hey chicos, son dashboard está formado por múltiples visualizaciones que cuentan una historia común a los usuarios de tu negocio. Antes de que puedas crear un dashboard, necesitas dos cosas. En primer lugar, necesitas una comprensión clara de tus datos, y segundo, necesitas requisitos claros de lo que quieres lograr desde tu tablero. Como primer paso, he enumerado en pantalla todos los campos que están disponibles en el índice de subrayado COVID, que es el índice que usaremos para esta demo y lo que se almacena en cada campo. Por ejemplo, el campo de ubicación contiene el nombre del país para el que se proporciona la información de variante. Fecha proporciona la fecha de entrada de datos. Variant es el nombre de variante correspondiente a esa entrada de datos en particular. Las secuencias de subrayado Num contenían el número de secuencias de proceso y las secuencias porcentuales contiene un porcentaje de secuencias a partir del número total de secuencias. Y finalmente num secuencias. Total es el número total de secuencias para esa fecha de finalización de la variante de país. Ahora, como parte de esta demo, crearemos tres visualizaciones en nuestro dashboard. En primer lugar, crearemos número de casos únicos de COVID visualización a nivel mundial. Segundo, crearemos una visualización que represente el número total de secuencias para los diez países principales. Y por último, vamos a crear una visualización que te diga la varianza que se extiende por el país superior. Así que empecemos. Ahora aquí en la página Kibana para crear un dashboard irá primero al menú de navegación de la izquierda. Después iremos al tablero bajo efectos analíticos. Y para crear un dashboard primero hará clic en crear nuevo dashboard. Ahora desde esta página, al hacer clic en crear visualización para crear nuestra primera visualización, que formará parte de este dashboard. Ahora primero, cambiaremos el conjunto de datos de hace 15 minutos a hace 15 semanas. Hey chicos, En esta conferencia, crearemos un tablero de Kubernetes. Un tablero está formado por múltiples visualizaciones que cuentan una historia común a los usuarios de su negocio. Antes de comenzar, necesitamos dos cosas para crear nuestro dashboard. En primer lugar, necesitamos tener una comprensión clara de nuestros datos. Y segundo, necesitamos tener una comprensión clara de los requisitos, que es básicamente lo que queremos lograr desde este tablero. Ahora como parte del primer requisito, he enumerado todos los campos que están disponibles en el índice de subrayado COVID y qué datos contenía cada uno de esos campos. Por ejemplo, el campo de ubicación contiene el nombre del país para el que se proporciona la información de variante. El campo de secuencia de subrayado num contiene el número de secuencias procesadas para ese país, variante y fecha, etcétera Ahora, lo que haremos en este dashboard es que tendremos tres visualizaciones. En primer lugar, tendremos la visualización que representa el número de varianza COVID única a nivel mundial. Segundo, tendremos una visualización que represente el número total de secuencias para los diez países principales. Y por último, tendremos una visualización que proporcione variantes repartidas por países. Así que empecemos a crear un dashboard desde mi página de inicio de Kibana. Voy a hacer clic en el menú de navegación de la izquierda y luego haga clic en dashboard desde la página del tablero, haré clic en crear nuevo dashboard desde aquí, primero voy a cadenas los datos serán en lugar de hace tres meses, a ser hace tres años, que estamos buscando en todos los datos en este índice y voy a hacer clic en actualización. Una vez que haya hecho eso, haré clic en crear visualización. Ahora la primera visualización que necesitamos crear es número de varianza COVID única a nivel mundial. Entonces primero elegiremos métrica. Entonces bajo métrica, haré clic en Agregar o arrastrar y soltar un campo. Desde campo selector, elegiré variante y luego haré clic en flujos. A partir de esta visualización, podemos obtener el valor del número de varianza única a través de nuestra base de datos. Ahora, haré clic en guardar y volver. Después de eso, volveré a hacer clic en crear visualización. Y para mi segunda visualización, necesito representar el número total de secuencias para los diez países principales. Por lo que volveré a mi página web de lentes Kibana. Ahora aquí voy a cambiar el gráfico tipo dos barra vertical, y luego para eje horizontal, elegiré la ubicación del campo, y elegiré los diez valores principales. Y luego haré clic en Cerrar. Ahora para eje vertical, voy a hacer publicidad o arrastrar y soltar otra vez. Y luego elegiré el campo de secuencias de subrayado num. Y luego voy a hacer clic en algunos desde debajo de la función de selector. Entonces puedo dar click en cerrar. Ahora esto me da el número total de secuencias para los diez primeros países. Se trata de todas las variantes de COVID para este país en particular en este intervalo de fechas. Por lo que volveré a hacer clic en siete volver después de eso para nuestra tercera visualización, haré click en crear visualización. Y esta vez necesito crear una variante propagada por el país superior. Por lo que volveré a cambiar el gráfico tipo dos barra vertical. Y para eje horizontal, elegiré ubicación y cambiaré a los diez primeros países. Ahora a continuación, elegiré eje vertical, las secuencias de subrayado número de campo. Y esta vez elegiré la función máxima y haga clic en cerrar. Después de eso, desglosaré estos datos por número de variantes. Por lo que haré clic en añadir o soltar un campo y un desglose, y luego elegiré variante. Y a partir de aquí puedo especificar el recuento de valores que quería mostrar. Por defecto son tres, lo que solo representará los tres primeros. Pero debido a que tenemos mucho para la varianza total, también puedo escribir en 20 voltios aquí. Y luego para cada país, se desglosan los datos por todas las variantes afectan click en Cerrar aquí y me desplomo sobre los datos para Estados Unidos, se pueden ver los detalles de cuántos casos para cada variante particular de COVID, Se acerca dentro de un intervalo de fechas especificado, que es de los últimos tres años. Ahora, haré clic en guardar y volver. Y en este dashboard podemos ver las tres visualizaciones diferentes. Ahora lo que puedo hacer es guardar este dashboard. Puedo darle un nombre. Entonces COVID dashboard y bajo tags, haré click en crear una etiqueta, y luego le daré el nombre de la etiqueta de COVID y haga clic en crear etiquetas. Puedo hacer click en Guardar. Ahora si quieres almacenar tiempo con el tablero de mandos, puedes hacerlo, pero lo dejaré como predeterminado y haga clic en Guardar. Ahora una vez guardado el tablero, puedes volver al tablero. Este dashboard de nuevo, solo da click en él y para mirar diferentes fechas, todo lo que tienes que hacer es, por ejemplo, si cambio de hace tres años a hace tres semanas y dar click en actualizar, verá que los resultados cambian por sí solos. O no teníamos ningún dato en las últimas tres semanas. Entonces por eso está mostrando aviso. Pero si iba a decir, digamos hace tres meses y haga clic en Actualizar, volveré a ver los datos. Ahora así es como se puede crear un tablero de Kibana con esta bienvenida al final de esta conferencia. Gracias por mirar. Te veré en el siguiente byte. 16. Lienzo: Hey chicos, Gabbana Canvas es una herramienta de visualización y presentación de datos que te permite poner datos en vivo de Elasticsearch y luego enriquecerlos con colores, imágenes, y libro de texto crear poderosos presentaciones para los usuarios de su negocio. Ahora Canvas utiliza pads de trabajo para agregar visualizaciones, mazos de imágenes, etc, para crear tu presentación. Así que nos ensuciemos las manos, no de la página de inicio de Kibana. Para llegar a Canvas, debes hacer click en el menú de navegación de la izquierda. Y luego bajo analítica, es necesario hacer click en Canvas para no crear nuestro primer trabajo, pero necesito hacer click en Crear libro de trabajo. Y desde este verde, puedes agregar tu primer elemento haciendo clic en el botón Agregar elemento. El primer elemento utilizará textos. Ahora aquí, puedes usar este elemento para agregar algo de texto a tu presentación usando el lenguaje de markdown. Por lo que voy a cambiar ese texto por decir bienvenido a la presentación del índice de Netflix. Eliminaré este texto y diré, aquí está la visión general de los datos en el índice de subrayado de Netflix. Entonces debajo de esto, verás que se está refiriendo a alguna información en los datos demo. Por ejemplo, te está dando la longitud de fila y luego te está dando todos los nombres de columna mediante el uso de cada atributo de columnas. Por lo que tiene todos los nombres de columna, pero esto está reflejando los datos demo para este elemento. Por lo que primero voy a hacer clic en aplicar. Y después de haber hecho eso, haré clic en Datos y cambiaré la fuente de datos de datos de demostración a Elastic Search. Y luego me aseguraré de que estoy en el índice de Netflix y haré clic en Guardar. Y tan pronto como golpee Guardar, se puede ver que ahora este cuadro de texto refleja los datos de mi índice de Netflix. Ahora para el segundo elemento, vamos a agregar la visualización que agregamos a nuestra biblioteca de visualización. Da click en Agregar Elemento y luego haré click en Agregar desde Kibana. Y luego seleccionaré la visualización que guardamos dentro de la biblioteca de visualización. Y a continuación lo moveremos por un costado. Ahora puedes cambiar el filtro de tiempo haciendo clic en la hora. Por ejemplo, si quisiera cambiar de los últimos 15 minutos para dejar que digamos los últimos 30 minutos, puede hacer eso. Y este panel reflejará el cambio en el tiempo. Ahora como tercer elemento, voy a crear un gráfico. Por lo que haré clic en Agregar elemento, haré clic en Gráfico, y luego haré clic en métrica, y luego moveré esta métrica debajo de mi elemento de visualización. Ahora para esta métrica, cambiemos nuevamente la fuente de datos para que sea índice de Netflix. Y haré clic en Guardar por un minuto. Esto nos dará un error, pero pasemos a mostrar. Ahora, para la medida, necesitamos un valor único de título. Ahora, el formato métrico está numerado, pero necesitamos cambiar la etiqueta. Entonces reemplazaré a los países por títulos de películas únicos. Ahora bien, este es el número de títulos de películas únicos en nuestro índice de Netflix. A continuación, también podemos cambiar los textos métricos. Entonces digamos que queremos que la matriz sea en rosa. ¿ Por qué no dejarnos hacer eso? Y también podemos cambiar el tamaño y la fuente y el color de nuestra etiqueta. Digamos que quiero que mi fuente sea Helvetica. Así que voy a hacer clic en eso y cambiaré un poco el tamaño, así que lo cambiaré a 24. Y digamos que quiero que el color sea verde, así que seleccionaré eso. En realidad éste parece mejor. Ahora puedo ajustar el tamaño de mi visualización. Sepa a continuación, agreguemos una imagen. Por lo que haré clic en Editar límite. Voy a hacer clic en Imagen, y luego volveré a hacer clic en la imagen. Ahora esto nos da una imagen predeterminada. Así que voy a minimizar esto un poco. Y puedo importar una imagen usando el botón Importar. Puede proporcionar un enlace a una URL de imagen. Por ahora, haré clic en importar y luego haré clic en Seleccionar o arrastrar y soltar una imagen. Ahora, elegiré una imagen de mi carpeta de descargas. Y digamos que quiero mostrar mi rostro en esta presentación aquí. Ahora para ver este pad de trabajo en pantalla completa, solo tienes que hacer click en este botón de pantalla completa y verás toda la información en pantalla completa. Saldré de pantalla completa por ahora. Ahora este paseo de regreso se guarda automáticamente. Si voy a Canvas y puedo ver aquí mi cama de libros, puedo dar click sobre la obra, pero de nuevo, voy a conseguir todos los elementos de datos que compartan este trabajo. Pero puedo hacer clic en Compartir y ya sea puedo crear un informe PDF para que pueda seleccionar diseño de página completa y hacer clic en Generar PDF. Y ahora dice que tu licencia básica no soporta informes PDF. Entonces si tuvieras una licencia de producción, serías capaz de descargar el informe PDF. Ahora volvamos a hacer click en Compartir. Ahora, si haces clic en Compartir en un sitio web, te dará instrucciones de cómo puedes compartir este lienzo en la página web. A continuación, también podemos descargar esto como JSON. Por lo que voy a hacer clic en Descargar como JSON y se descargará el JSON para este trabajo, difícil de cambiar el nombre de este libro, pero puedo ir a trabajar por configuraciones de Ed como y cambiar el nombre para ser Netflix. Caminar hacia atrás. Ahora puedo cambiar algunos detalles como muy resolución si tengo alguna variable en este trabajo llevan configuraciones CSS globales, etcétera Pero por ahora, así es como se puede crear un lienzo Kibana trabajar mejor con esto. Ven al final de esta conferencia. Gracias por mirar. Te veré en la siguiente. Adiós. 17. Reinos de la boda: Hey chicos, En esta conferencia, les daré una visión rápida de los reinos de autenticación disponibles para nosotros en Elastic Search, reinos de autenticación se utilizan para autenticar usuarios y aplicaciones contra elasticos buscar, existen dos tipos principales de reinos de autenticación. El primero son las costillas de autenticación internas. Estos son de búsqueda interna a elástica y no hay integración a un sistema exterior. Este tipo de habitación está totalmente administrado por Elastic Search. Sólo puede ser un máximo de un reino configurado, pero de tipo DLM interno. Ahora, echemos un vistazo a un ejemplo de cada tipo de franco interno. El primero es el reino de autenticación nativa. Y domo de autenticación nativa es donde los usuarios se almacenan en un índice de Elasticsearch dedicado. Este reino admite y token de autenticación en forma de nombre de usuario y contraseña y está disponible por defecto cuando se configuran explícitamente reinos bajos. Entonces recuerda cuando estábamos instalando Elasticsearch, el usó un script para restablecer contraseñas para nuestros usuarios de sistemas de subrayado elástico y Kibana. Esos usuarios se configuran bajo autenticación nativa. Esto por sí solo está disponible en la licencia gratuita. Expediente. Autenticación reino es también un reino de autenticación interna disponible en la licencia gratuita. Este reino es muy usuarios se definen en archivos almacenados en cada nodo en el clúster de Elasticsearch. Este reino admite y token de autenticación en forma de nombre de usuario y contraseña, y siempre está disponible. Ahora después de esto, echemos un vistazo rápido a los reinos externos. La autenticación externa no requiere interacción con partes y componentes externos a la búsqueda elástica, como Microsoft Active Directory o cualquier otra aplicación de nivel empresarial. Si estás ejecutando un clúster de cuadrícula de producción, sería muy probable que tengas que configurar un reino externo. En el clúster de Elasticsearch, puede tener tantos externos, si lo desea, cada uno con su propio nombre y configuración únicos, la característica de seguridad Elastic Stack proporciona la siguiente referencia externa tipo. Así LDAP, Active Directory, PKI símbolo de autenticación Kerberos o IDC. No, el reino de autenticación es, utiliza un servidor web externo para autenticar a sus usuarios. Por lo que los usuarios se almacenan en un servidor de autenticación externo, e integramos con ese servidor para autenticar a los usuarios. Este reino admite un token de autenticación en forma de nombre de usuario y contraseña y requiere una configuración explícita para poder ser utilizado. A continuación, tenemos dominio de autenticación de Active Directory. Esta ronda utiliza un servidor de Active Directory externamente, indique los usuarios en los que se almacenan los usuarios. Por ejemplo, los usuarios de Microsoft AD se autentican utilizando nombres de usuario y contraseñas se convirtieron en reino autentica a los usuarios usando infraestructura de clave pública, clave pública y clave privada. Este reino trabaja en conjunto con SSL y TLS e identifica al usuario a través de su nombre distinguido o ADN de los clientes extraer el certificado 509. Entonces si usamos esta fila, necesitarás certificados instalados en los usuarios. Sam Hill es que facilita la autenticación mediante el protocolo SAML 2 Web SSO. Este reino está diseñado para soportar la autenticación a través Kibana y no está destinado a ser utilizado en el resto API. Ahora Kerberos es que reino autentica al usuario usando autenticación Kerberos, los usuarios se autentican sobre la base de tickets Kerberos o IDC es que facilita la autenticación usando OpenID Connect permite la búsqueda elástica como una parte de confiado de OpenID Connect y proporciona soporte de SSO. Ahora a lo largo de estas conferencias, usaremos la autenticación nativa para conectarnos a nuestro clúster de Elasticsearch. Para tus clústeres de producción, sería muy probable que necesites configurar uno de estos reinos externos. Lo que haré es que proporcionaré algunos enlaces a diversas URL sobre cómo puedes configurar cada uno de estos reinos en tus clústeres de producción. Con esto, hemos llegado al final de esta breve conferencia. Gracias por mirar. Te veré en la siguiente. Adiós. 18. Usuarios y roles: Hey chicos, hasta ahora en esta demo, hemos estado usando el superusuario elástico para autenticarse contra nuestro clúster. Esto está bien para nuestro laboratorio de demostración, pero en un entorno de producción, posible que tengas cientos de personas que necesiten autenticarse y no querrás compartir la contraseña para tu superusuario a cada uno usuario. Ahora, ingresa roles. Los roles son una colección de privilegios que te permiten realizar acciones y Kibana y Elastic Search. Ahora estos roles te dan el privilegio de realizar alguna acción contra tu índice de elasticsearch Kibana. Por ejemplo, es posible que algunos usuarios solo quieran poder crear dashboards. los otros que podrías querer manejen tus índices más lejos, podría haber un grupo que necesite actuar como administrador de tu instancia de Kibana, lo que necesitarás hacer es que necesites crear roles para cada uno de estos diferentes tipos de usuarios. cada rol que tenga diferentes niveles de acceso, entonces le asignará ese rol, cada uno de esos usuarios, los usuarios no se les otorgan privilegios directamente, sino que se les asigna una o más regla que describe el nivel de acceso deseado. Entonces como dije, maravilloso podría dar los usuarios sólo acceso para ver los dashboards. Ahora cuando asigna a los usuarios múltiples roles, el usuario recibe una unión de los privilegios de roles. Ahora, digamos que tienes dos índices, índice e índice b. Y tienes rol que otorga acceso a índice a inscribirse sea que otorga exceso al índice B. Ahora digamos que tienes un usuario y a este usuario se le asigna tablero estos roles. Ahora, debido a que tiene estos dos roles, la unión de estos dos roles le permitirá acceder a datos tanto del índice como del índice b Ahora, elasticsearch entra con algunos roles incorporados. Por ejemplo, que todos los beats sistema de subrayado podría bailar el acceso necesario para los sistemas de playa, métrica, cebo, latido del corazón, basado en archivos, etcétera Para enviar datos a nivel de sistema a Elastic Search. Kibana subraya la regla del sistema que no es necesario exceso para usuario del sistema Kibana lea y escriba a los índices Kibana. Y si recuerdas, cuando estábamos configurando el sistema Elasticsearch y Kibana, configuramos la contraseña para este usuario dentro de nuestro archivo Kibana dot YAML. Ahora Elastic Search también viene con un elástico de superusuario que otorga acceso a todas las áreas de tu clúster. Por lo que es acceso completo al sistema. Ahora como medida de seguridad, no querrías iniciar sesión con este usuario después de aprovisionar el sistema. Y como parte de tu aprovisionamiento, aprovisitarás ya sea administrador y superusuarios que puedan vincularse a una persona que va a desempeñar ese rol. Y una vez que hayas hecho eso, querrías almacenar estas contraseñas de súper usuarios en un lugar seguro y nunca más usarlas. Volvamos a nuestra instancia de Kibana para ver cómo podemos crear roles y usuarios para no crear un rol personalizado. Primero haremos click en Crear rol, luego necesitaremos especificar un nombre de rol para Roma nombre, voy a escribir en administrativo porque este es un rol de administrador que estamos configurando bajo privilegios de clúster, haré click en Todo. Y luego bajo privilegios de Índice, puedo darles acceso a uno de estos índices o porque este es mi usuario administrador, escribiré en Empezar aquí para darles acceso a todos los índices. Y luego bajo privilegios, haré click en Todo. Siguiente. Bajo Kibana, voy a hacer click en Add Kibana privilegio primero, tenemos que darles acceso a todos los espacios y luego pueden o bien proporcionar este rol acceso personalizado a cada característica. Por ejemplo, bajo Analytics, puedo darle acceso a este rol para descubrir dashboard, etc. O como hay un rol de administrador, podemos darle todos los privilegios y hacer clic en crear privilegio global sobre piedra. Demos clic en Crear rol. Ahora a continuación vamos a crear un rol que solo tiene acceso a ciertos índices. Por lo que haré clic en Crear regla, y la llamaré COVID admin. Y vamos a mantener el resto de los ajustes mismos que lo que anteriormente teníamos bajo índices. Escogeré índice COVID y le daré a este rol acceso a todos los privilegios. Y luego lo mismo para Kibana. Le daré acceso a todos los espacios y todas las características. Por lo que haré clic en Crear privilegio global y haga clic en Crear rol. Ahora a continuación, vamos a crear tres usuarios. El primero será un administrador usuarios. Por lo que haré clic en Crear usuario. Daré este nombre de usuario admin. El nombre completo sería admin uno y direcciones de correo electrónico admin en test.com. Y luego vamos a especificar algunas contraseñas. Y después de eso, necesitamos asignar algunas reglas a este usuario. Por lo que por ahora, asignaremos rol de administrador y también asignaremos el rol de usuario de monitoreo porque se necesita este rol para acceder a la función de monitoreo de pila. Y luego haré clic en Crear usuario. Ahora vamos a cerrar la sesión de esta cuenta de superusuario y luego crearemos nuestro administrador recién creado para hacer más aprovisionamiento primero, y escribiremos nombre de usuario y luego contraseña para este usuario. Déjame silenciar esta advertencia a continuación, primero vayamos a descubrir y comprobar si tienes acceso a ambos índices, Netflix y cubierto. Por lo que puedo ver algunos datos en el índice de Netflix. Ahora pasemos a cubrir índice. Ahora aquí necesito ampliar mi búsqueda de tiempo. Por lo que hace 1415 semanas, y voy a hacer clic en actualización, y puedo ver que tengo acceso a este índice también. Ahora a continuación, vamos a los dashboards. Puedo ver el tablero de COVID que creamos. Ahora a continuación, volvamos a ir a la gerencia y a la dirección del personal. Y aquí, usuarios. Ahora crearemos un segundo usuario. Haga clic en Crear usuario. Y se trata de un usuario que tiene acceso administrativo. Sólo al índice COVID. Por lo que lo llamaremos COVID guión bajo admin, y el nombre sería COVID-19 y dirección de correo electrónico COVID test.com. Entonces le daré alguna contraseña ahora para el privilegio, le daré el privilegio de COVID admin, y haga clic en Crear usuario aprendido. Déjame cerrar sesión de este usuario. Y aquí escribiré en COVID guión bajo admin, y luego escribiré la contraseña para este usuario. Ahora una vez que hayas iniciado sesión, vamos a nuestra pestaña Descubrir, así que a casa y luego descubrir. Y aquí, si eliges el índice de Netflix, no verás índices coincidentes y ningún resultado coincide con tus criterios de búsqueda. Pero si elijo el índice COVID y cambio esa fecha de hace 15 minutos, lo cambiamos a hace 15 semanas y hacemos clic en actualización. Ver que puedo ver algunos datos. Ahora este usuario también puede crear usuarios. Entonces si vas a Stack Management y usuarios, puedo crear un usuario, pero te mostraré otra cosa, porque no proporcionamos el privilegio de monitorear usuario de subrayado a esta cuenta de usuario. No tenemos monitoreo de pila bajo gestión se muestran para este usuario. Por lo que esto es algo importante a tener en cuenta, pesar de que puedes proporcionar todos los privilegios bajo Kibana, tienes que asignar específicamente rol de usuario de subrayado de monitoreo para los usuarios que quieres dar la sección de monitoreo de exceso de pila privilegiada bajo administración. Ahora a continuación crearemos un tercer usuario que solo tenga acceso a dashboards y descubrimos que para hacerlo, primero, vamos a Roles y creemos un rol, y llamemos a este rol COVID subrayar reporting. Ahora no queremos darle a este usuario ningún privilegio de clúster, por lo que lo dejaremos como en blanco. Sólo queremos que este usuario tenga acceso en índice de subrayado COVID. Y el único privilegio que queremos para este usuario es poder leer desde este índice. Ahora a continuación, necesitamos sumar algunos privilegios de Kibana, así que le daremos acceso a todos los espacios. Y a continuación lo mantendremos como personalizar y luego ir a la analítica. Y luego les daremos acceso de solo lectura en Discover y de solo lectura en Dashboard. Y también les daríamos acceso a Canvas y visualizaríamos biblioteca. Y luego haremos clic en Crear privilegio global. Y luego haremos clic en Crear rol para crear este rol. Ahora vamos a los usuarios y haremos click en Crear Usuario. Y en esta ocasión llamaremos a este usuario informes de subrayado COVID. El nombre estaría informando de usuario, un correo electrónico estaría reportando un test.com. Le daremos una contraseña. Entonces contraseña y luego bajo privilegios, le daremos el privilegio de reportar puntaje COVID-19, y luego haremos clic en Crear usuario. Después de eso, logout y veamos el exceso de este nombre de usuario de usuario. Escribiré en informes de subrayado COVID y nuestro especificar una contraseña. Ahora una vez que estés dentro, solo verás analíticas en tu pantalla de inicio. Eso se debe a que tu usuario solo tiene acceso a funciones de análisis. Ahora si hace clic en nuestro menú de navegación de la izquierda, y bajo analítica, vamos a descubrir, tenemos algunos datos para el índice de subrayado COVID. No obstante, si cambiamos al índice de Netflix obtendrá un error diciendo que ningún índice coincide con mejor índice de netflix. Eso se debe a que nuestro usuario no tiene acceso al índice de Netflix bajo tablero. Si acabo de hacer clic en el tablero de COVID, podré ver todos los datos de mi tablero de COVID. Ahora a continuación, a continuación, pasa a Canvas y abre el trabajo de Netflix por ahora, ya que este usuario no tiene acceso a ningún dato en el índice de Netflix, obtendré errores. Ahora vamos a cerrar la sesión de este usuario y volvamos a iniciar sesión como el usuario admin, admin y la contraseña. Ahora vamos a hacer clic en el menú de navegación de la izquierda y bajar a la derecha a la gestión de la pila. Y luego vamos a ir a los usuarios ahora desde esta pantalla, si quieres eliminar al usuario, por ejemplo, si quisiera eliminar mi usuario de informes de subrayado COVID, solo puedo seleccionar ese usuario y hacer click en eliminar un usuario y haga clic en Eliminar. Pero no voy a hacer eso ahora, si quiero cambiar la contraseña para este usuario, voy a hacer clic en ella, bajar y hacer clic en Cambiar contraseña. Y aquí puedo actualizar la contraseña para este usuario. Soul cancela de esto también si quería desactivar a este usuario, así si quería desactivar a este usuario, que mantén a este usuario en el sistema, pero evita que los usuarios accedan a él. Puedo hacer click en desactivar usuario. Y si quiero cambiar privilegios para este usuario, puedo entrar aquí y asignarle un rol diferente. Así es como puedes usar usuarios y roles para proporcionar controles de acceso basados en roles tu clúster de Elasticsearch. Con esto, hemos llegado al final de esta conferencia. Gracias por mirar. Te veré en la siguiente. Adiós. 19. Espacios: Hola chicos, y luego empresa. Habrá múltiples equipos que necesitarán acceso a Kibana. Por ejemplo, el equipo de marketing podría necesitar acceso a tableros de marketing. El equipo de operaciones necesitará acceso a tableros de operaciones. Ahora esto puede hacer que las cosas se desordenen muy rápidamente para ayudarte con esta situación, Kibana tiene una característica llamada espacios. Te permite organizar tus objetos guardados, como tableros, en categorías significativas. A partir de nuestro ejemplo, crearás un espacio para el marketing y ellos crearán todos sus dashboards dentro de ese espacio. De igual manera, crearás un espacio para operaciones y ellos limpiarán sus dashboards dentro del espacio de TI el marketing no podrá ver lo que hay dentro de las operaciones o incluso notar que un existe espacio de operaciones. De igual manera, las operaciones no sabrán sobre el espacio de comercialización. Ahora para que un usuario pueda ver un espacio, es necesario asignar específicamente el exceso con ese espacio para ese usuario. Por ejemplo, todos en equipo de marketing tendrán acceso al espacio de marketing. Todos en el equipo de operaciones tendrán acceso al espacio de operaciones. Y si alguien necesita acceso tanto a marketing como a operaciones, le asignará acceso a ambos espacios. Ahora Kibana crea un espacio predeterminado para ti y todos nuestros objetos que hemos creado hasta ahora en este curso se han creado dentro del espacio predeterminado de la cubierta. Y por último, para administrar espacios, necesitas el rol de administrador de subrayado de Kibana son equivalentes. Ahora vamos a romper en mi página web de Kibana. He iniciado sesión usando mi cuenta de administrador, admin one para configurar espacios, necesito hacer click en el menú de navegación de la izquierda y luego bajar a la derecha a la administración de pila bajo administración. Por lo que voy a hacer clic en él. Y la configuración de espacios se puede encontrar bajo Kibana y espacios. Ahora aquí puedes ver que acabo de conseguir mi espacio predeterminado por ahora. Vamos a crear un nuevo espacio aquí. Por lo que haré clic en crear espacio, y nombraré este espacio de subrayado COVID. Ahora a continuación, puedo crear un avatar. Por defecto se establece en iniciales, pero también puedes subir una imagen para tu avatar, dejará como iniciados por defecto, pero cambiaré el color de fondo a verde. Ahora bajo características, podemos especificar qué características están disponibles bajo el espacio. Así que eliminaré todo excepto analítica porque solo quiero acceder a las funciones de analítica usando este espacio. Y luego haré clic en crear espacio. Ahora, una vez que he calificado el espacio, necesitamos algunos objetos en este espacio. Ahora, todos nuestros objetos por defecto están dentro del espacio predeterminado. Por ahora, lo que haremos es copiar el índice COVID y el tablero COVID al espacio de subrayado COVID. Entonces para hacer eso, necesito ir a salvo, y luego necesito encontrar COVID y el tablero de puntuación. Y desde estos tres botones hasta el extremo izquierdo de esa línea, necesito hacer click sobre ella y necesito hacer click en Copiar al espacio. Una vez ahí, puedo elegir Copiar acciones. Por ejemplo, crear nuevos objetos con identificadores aleatorios se verifican en busca de objetos existentes. Lo dejo como predeterminado porque sé que no hay objetos en mi espacio de subrayado COVID. Y luego necesito hacer click en el espacio de subrayado COVID, debajo de espacios seleccionados, y luego haré clic en Copiar a un espacio. Una vez realizada la copia, se mostrará cuántos objetos para copiados y podrá hacer clic en Finalizar. De igual forma, necesito copiar el índice de subrayado COVID deberá hacer click en eso y luego haga clic en Copiar al espacio también. Entonces voy a hacer clic en COVID, subrayar el espacio, y luego haré clic en corporativo o en un espacio. Ahora, si hay algún error, los verá aquí. Por ahora, haré clic en Finalizar. Una vez que los objetos se han trasladado a este espacio, comenzaron a asignar este espacio a un rol. Así que vamos a anotar a seguridad y luego rollos y averiguar el subrayado COVID reportado todo. Una vez dentro tenemos que bajar a la derecha a Kibana y luego dar click en este ícono de lápiz. Y desde espacios donde dice todos los espacios, tenemos que quitar eso y luego elegir el espacio de subrayado COVID. Una vez que hayas hecho eso, puedes hacer clic en Actualizar privilegios de espacio. Por lo que esta regla sólo puede dar acceso al espacio COVID ahora. Y luego puedes hacer clic en la regla de actualización. Una vez que hayas hecho eso, salgamos de sesión de este usuario admin y volvamos a iniciar sesión usando el usuario que informa. Desde esta pantalla, escribiré el nombre de usuario COVID y el reporte de puntuación y facilitaré mi contraseña y pulsaré en Iniciar sesión. Ahora aquí, justo al lado del bate, puedes notar que ya no estoy en el espacio predeterminado. Y ahora voy a hacer clic en el menú de navegación de la izquierda. Y primero iremos a nuestra pestaña Descubrir. Ahora puedes ver por defecto estoy dentro del índice COVID, pero afecto click en el desplegable. Ni siquiera veo el índice de Netflix. Eso es porque no está asignado a este espacio. Ahora para ver datos, necesito cambiar la búsqueda de tiempo a través hace 15 semanas y haré click en Actualizar. Y se puede ver que tengo acceso a los datos. Ahora a continuación, veamos si nuestro tablero sigue funcionando. Por lo que haré clic en Dashboard y haga clic en el tablero de COVID. Y se puede ver que tengo datos dentro de mi tablero también. Si alguien acerca de este error, ahora a continuación, si voy a Canvas, ya puedes ver que ni siquiera veo el Wordpad de Netflix. Así Espacios es una buena manera de mantener tus objetos organizados para diversas categorías. Por ejemplo, el marketing puede tener acceso solo a sus dashboards, etcétera. Ahora obviamente, si creas un nuevo objeto dentro de este espacio, automáticamente se le asignará a este espacio y no al espacio predeterminado. Entonces si hago clic en el menú de navegación de la izquierda y hago clic en Visualizar biblioteca. Y si hago clic en crear nueva visualización, y elegiré lente. Y digamos que quiero el número total de países en mi base de datos. Por lo que voy a hacer clic en métrica, Analítica en la ubicación. Ahora tengo un tipo único de ubicación que es 64. Ahora no puedo guardar esto porque mi usuario informa de usuario no tiene ningún permiso correcto en esta base de datos. Pero si cierro sesión y vuelvo a iniciar sesión como usuario admin, y aquí seleccionaré espacio de subrayado COVID. Y se puede ver que a pesar mi usuario tiene muchos más privilegios, sólo puedo ver lo que se asigna a mi espacio. Así que no obtengo todas las funciones de búsqueda y disponibilidad, etcétera Solo estoy obteniendo analítica y administración de pila. Ahora desde aquí, haré clic en Visualizar biblioteca. Voy a hacer clic en crear nueva visualización y lente. Y luego cambiaré el tipo de visualización de métrica y cambiaré la fecha a hace 15 semanas. Y desde aquí volveré a arrastrar ubicación, ver una cuenta única de ubicación es 64. Y ahora tengo el botón guardar de nuevo. Por lo que haré clic en Guardar y lo llamaré países únicos. Y lo muevo al tablero existente, que es tablero de puntuación COVID-19. Y haré clic en Guardar y Ir al tablero. Y aquí he agregado el cuarto elemento a mi panel de control para países únicos o hago clic en Guardar para guardar los cambios en este panel. Y ahora si vuelvo a mi usuario de informes cubierto bajo informes de puntaje, y hago clic en el tablero de COVID y cambio la fecha a hace semanas, también puedo ver la nueva visualización. Así es como puedes usar espacios para categorizar tus objetos dentro de Kibana. Con esto, hemos llegado al final de esta conferencia. Gracias por mirar. Te veré en la próxima pelea. 20. Introducción a Logstash: Hola chicos, hablemos de sesión de registro. Esta sección, Log Stash le permite agregar sus datos de diferentes fuentes, transformarlos y luego enviarlos a búsqueda elástica o a cualquier otra aplicación de su elección. Por ejemplo, si desea analizar los datos, puede enviarlos a Elastic Search o MongoDB. No obstante, si solo quieres almacenar los datos, puedes enviarlos a algo como Amazon S3 se almacenan en un archivo en tu sistema de archivos local. Hay muchos destinos dependiendo de su caso de uso. Y he adjuntado un enlace a un artículo donde podrás encontrar más información sobre los destinos y Log Stash. Ahora, antes de que sepamos más sobre búsquedas de registros , detalles de nivel inferior, siempre es buena idea entender algunos casos de uso. Por lo que el primer caso de uso de Log Stash es registros y métricas. En ocasiones no hay una forma estándar entender sus datos de registro. En estos escenarios, Log Stash puede ayudarte a definir lógica para que puedas transformar y dar sentido a tus datos de registro. A continuación, también puedes consumir datos del servicio web HTTP, o puedes generar eventos mediante la acumulación y el endpoint HTTP, ejemplo, puedes sacar Twitter y obtener algunos datos de Twitter usando Log Stash. También puede utilizar estatuas de registro transformar y entender los datos relacionales o no relacionales que se almacenan en sus bases de datos. Y por último, Log Stash es una columna vertebral común de recolección de eventos para ingestión de barcos de datos desde dispositivos móviles, hogares inteligentes, vehículos conectados, sensores de atención médica, y muchos otros industrias, aplicaciones específicas de IoT. Ahora, la tubería Log Stash tiene tres etapas. Tiene una entrada de filtro y luego salida. Por ejemplo, tienes algunos datos en tu data store. Podría ser un almacén de datos de IoT o podría ser una aplicación o una base de datos, cualquier cosa, usted envía esos datos a Log Stash. Ahora, dentro de esa canalización inglesa, primero tendrías que definir una entrada. Y esto es que le dices Log Stash cómo vas a obtener estos datos. Por ejemplo, podría obtenerlo de un archivo. También podría obtenerlo en un puerto TCP o UDP. También podrían ser datos de log sys. Por lo que definirás toda la deuda en la entrada Siguiente. Una vez que tengas esos datos, tienes que procesarlos. Y esa lógica de procesamiento se configura dentro de los filtros de filtro, o cómo puedes transformar tus datos. También puedes usar condicionales dentro del filtro para hacer algunas transformaciones solo cuando coincida con cierto criterio. Ahora algunos filtros de uso común son cultivo grok tiene alrededor un 120 patrones le permiten pasar datos no estructurados. Miraremos a grok un poco más de detalle en una próxima conferencia. Mutate realiza transformaciones generales en un campo de eventos. Puedes hacer cosas como Cambiar nombre del campo de eliminación de tus datos y reemplazar un campo y modificar campos en sus eventos. te permite soltar un evento por completo y clon te permite duplicar un evento. Ahora, la salida es, una vez que tienes los datos a través de tu entrada, has hecho alguna transformación. Es necesario definir dónde es necesario que estos datos vayan más allá. Entonces la salida es cómo se pasa en un evento a uno o más destinos. Ahora bien, esto es más comúnmente la búsqueda elástica. Si estás utilizando la búsqueda de registros, quieres integrarte con Elastic Search. Pero también pueden ser cosas como una salida de archivo o puedes enviarlo a algo así como una cola Kafka. Depende de ti, básicamente el próximo destino de los datos, una vez que sale de la canalización Log Search se configura bajo salida. Ahora antes de que en realidad comenzemos a configurar canalizaciones de Elasticsearch, hay una cosa más que necesitas entender que son los códecs. códecs son filtros de corriente que pueden funcionar como parte de entrada o salida. Un códec le permite separar fácilmente el transporte de su mensaje del proceso de serialización. Básicamente toma un ejemplo de un códec multilínea. Ahora, piense en un registro de aplicaciones, que se extiende por múltiples líneas por defecto, lo que la búsqueda de Locks intentará y hacer. Tratará de hacer que cada línea en y Log Stash evento. Ahora es posible que no puedas entender ese archivo de registro si se extiende por múltiples eventos. Por lo que quieres que todo eso entre en un solo evento. En ese caso, usará el códec multilínea. De igual forma, si quieres codificar o decodificar tus datos en JSON, utilizarás el códec decente. Entonces los códecs son filtros que te ayudan a separar el transporte de tu mensaje del proceso de esterilización de Log Stash. Con esto, hemos llegado al final de esta conferencia. Gracias por mirar. Te veré en la siguiente. Adiós. 21. Ingesting y transformación de datos CSV con Logstash: Hey chicos, En esta conferencia, vamos a transformar los datos CSV usando Log Stash. Crearemos un archivo de configuración de canalización con tres fases. Una fase de entrada con una entrada de archivo nos ayudará a ingerir un archivo CSV. Entonces usaremos una fase de filtro, y usaremos el filtro CSV para transformar nuestros datos CSV. Y por último, en la fase de salida, utilizaremos dos salidas. Se utilizará la salida estándar durante la fase de prueba. utilizará una salida de búsqueda elástica para finalmente almacenar los datos en nuestro clúster de Elasticsearch. Ahora una vez que estemos listos con el archivo de configuración de pipeline, lo probaremos ejecutando Log Stash. Empecemos. Aquí en la pantalla. Mi único nodo clúster de Elasticsearch. Entonces lo que haré primero es crear dos conexiones SSH, y luego copiaré la dirección IP externa e intentaré ver si puedo conectarme a mi instancia de Kibana. Puedo conectarme a mi instancia de Kibana en el puerto 5601. Ahora volveremos a nuestra instancia SSH, y luego haré clic en la parte superior en el ícono de Configuración, y luego haré clic en Subir archivo. Y a partir de aquí, desde mis Descargas subir los rankings de competencia, el ESV, y haré clic en Abrir. Una vez que el archivo haya terminado de subir, puedo escribir ls en mi directorio de inicio para asegurarme de que el archivo esté ahí. Ahora, antes de que podamos iniciar la transformación de estos datos, primero tendremos que entender estos datos. Por lo que voy a teclear cat, rankings de competencia, iniciar CSV y golpear Enter. Por lo que hay alrededor de 5 mil registros en este expediente. Ahora, voy a despejar y vamos a hacer una competencia cabeza ranking punto CSV para mirar los primeros registros. Entonces la primera línea es el encabezado, y esta línea explica cada columna. Por ejemplo, la primera columna está clasificada, la segunda columna es de nivel, la tercera columna es nombre de usuario, y cada columna está separada por un punto y coma, Cinco mil registros, y cada columna es separados por un punto y coma. Por lo que ahora podemos empezar a escribir nuestro archivo de configuración de canalización. Para hacer eso, voy a cd in slash, ETC slash Log Stash. Y entonces aquí voy a hacer un ls. Ahora dentro de Log Stash, hay un directorio llamado dot t Lo que sucede es cuando ejecutas barra de registro como servicio, lo que hace es que recoge todos los archivos de configuración desde dentro de constructo d. Entonces escribiremos nuestros archivos de configuración dentro de este directorio. Hay otro archivo de configuración llamado Locke's —sample.com. Y este archivo es un archivo de configuración de muestra que el plástico te proporciona. Entonces hay tendencia en este archivo. Vamos a echar un vistazo rápido. Ahora este archivo tiene una entrada que acepta algunos datos en un puerto y luego sin transformación, datos del censo o punto a búsqueda elástica. Así que vamos adentro frío para D y vamos a escribir nuestro archivo de configuración de tubería. Así que voy a despejar de todo. Haré un ls. Este directorio está vacío. Haré sudo touch y llamaremos a nuestro fichero de configuración CSV data.com. Y luego escribiré sudo vía CSV data.com. Y voy a cerrar esto y aquí, hacer un inserto. Ahora en nuestro ducto, primero tenemos que definir una fase de entrada. Entonces escribiré entrada y luego corchetes rizados, y luego moveré el soporte rizado hacia abajo. Y aquí necesitamos especificar una entrada de archivo porque estamos ingiriendo datos de un archivo. Entonces volveré a hacer corchetes rizados y hacer algún formateo. Ahora bajo entrada de archivo, necesitamos especificar algunos ajustes. Lo que haré es que abriré otra pestaña y escribiré entrada de archivo Log Stash, y iremos a la documentación del plug-in de entrada de archivo. Ahora, en esta documentación, puedes leer sobre cómo funciona este plug-in. Por ejemplo, ¿cuáles son los diferentes modos? Hay un modo cuento que no se archiva, y hay un modo de lectura. Se puede entender cómo esta entrada rastrea la posición actual en el archivo que está viendo. Pero lo que nos interesa es las opciones de configuración de entrada. En las opciones de configuración de entrada, verá todos los ajustes que se pueden configurar en esta entrada. Y además, se puede ver qué ajustes se requieren para esta entrada. Ahora, por el momento, el único ajuste que se requiere es el ajuste de ruta. Y esta configuración de parte es una matriz. Por lo que esta configuración de parte es necesaria para especificar la ruta del archivo que vas a leer. Para nosotros. Permítanme abrir la instancia SSH. Y aquí voy a hacer un ls y luego haré un PWD. Entonces este es mi camino y este es el nombre de archivo que necesitamos especificar para esta entrada. Volveré a la configuración de mi tubería. Voy a escribir, pero luego es igual a y luego flecha. Y aquí voy a especificar el camino. Entonces escribiré comillas dobles y luego copiaré la trama y pegaré aquí esta parte, y luego pondré una barra, y luego copiaré el nombre de mi archivo, y luego pegaré eso aquí también. Ahora, después de esto, echemos un vistazo a algunas configuraciones más. El siguiente ajuste es la posición de inicio, y es una cadena, y puede ser un principio único o n ¿Lo que necesitamos saber es cuál es el valor predeterminado de esta configuración? Por lo que voy a hacer clic en esta URL y dice que el valor predeterminado es. Y así básicamente empezará a leer el archivo desde abajo si quieres configurarlo para empezar a leer el archivo desde arriba, que es lo que queremos hacer. Tendremos que configurarlo como principio. Volvamos. Aquí. Escribiré en Posición de subrayado de inicio, y el valor estaría comenzando. Después de eso, quiero mostrarte otro valor. Entonces volveré a subir. Ahora hay un valor llamado sendero sensible. Básicamente lo que desde db es, es un archivo de base de datos que hace un seguimiento de cuánto del archivo está siendo leído por Log Stash. Básicamente, si tu archivo tiene 100 registros y la slash log ha leído 50 de ellos, este valor se almacenará en archivo de sensibilidad. Ahora, dado que db path le da la parte del archivo sinc TB, la ruta predeterminada es path dot data slash plug-ins slash inputs. Un archivo en nuestro caso porque acabamos de conseguir un solo archivo y queremos seguir releyendo ese mismo archivo porque estaremos probando diversas opciones. Lo que tendré que hacer es que tendré que configurar la parte de sensibilidad como slash dev slash null. Eso significa es que ya que db estará escribiendo a ninguno, y esto nos permitirá seguir releyendo ese expediente. Entonces escribiré desde db underscore path y configuraré el valor de ruta como slash dev slash null. Ahora una vez que he hecho eso, he terminado con mi entrada de archivo. A continuación, tendré que especificar el filtro, transformar nuestros datos. Por lo que escribiremos filtros y corchetes rizados. Ahora bajo filtro, lo que necesito especificar es un filtro CSV. Entonces CSV y corchetes rizados de nuevo, ahora bajo CSV tendrán que especificar algunos ajustes. Entonces echemos un vistazo a la documentación. Csv, fruta y Log Stash. Y abriré el enlace para la documentación. Y aquí entraré en opciones de configuración. Entonces primero, podemos detectar automáticamente nombres de columna o podemos especificar nombres de columna. Entonces lo que voy a hacer es que quiero especificar los nombres de columna manualmente aquí. Entonces necesito especificar una configuración llamada columnas, y es una matriz. Entonces volveré a mi filtro, y aquí especificaré columnas. Y luego escribiré entre corchetes porque esta es una matriz. Ahora para obtener nombres de columna, volveré a la segunda instancia de SSH. Y aquí escribiré en cabeza competencia ranking ordenar csv, y copiaré los nombres de las columnas desde aquí. Después me volví y los pego. Ahora necesito hacer algún formateo. Básicamente lo que tengo que hacer es que necesitamos primero todas estas columnas dentro de comillas dobles como esta. Y entonces necesito cambiar el punto y coma en coma. Haré eso ahora. Una vez que haya terminado con eso, lo siguiente que quería hacer es especificar cuál es el personaje que separa mis columnas. Entonces volvamos a la documentación. Y lo que necesitamos especificar es un ajuste llamado separador, y es una cadena. Entonces volveré, pegaré Enter. Y aquí escribiré en separador es igual a flecha. Dentro de los tribunales especificarán punto y coma porque nuestros datos están separados por punto y coma. Ahora una vez que he hecho eso, quiero mostrarte dos configuraciones más. En primer lugar, podemos omitir columnas vacías y saltar filas vacías. Para la demostración, especificaré omitir columnas vacías. También podemos omitir el campo de cabecera. Entonces si nos fijamos en nuestros datos, la primera fila es un encabezado. Usando esta configuración de encabezado omitir, pueden decirle a Log Stash que salte la primera fila. Ahora hay una salvedad a eso. Tienes que asegurarte de que tus nombres de columna coincidan exactamente con la primera fila de tus datos. Si no lo hacen, Log, Stash no saltará los encabezados. Entonces, cualquiera que sea lo que esté en esta línea, los nombres de las columnas tienen que coincidir exactamente con lo que especifique como nombre de columna para que funcione la configuración de encabezado omitir. Entonces vamos a configurar eso. Omita columnas vacías como verdaderas. Y también skip header es cierto. Ahora puedes agregar comentarios en tu archivo de configuración de canalización usando el símbolo hash. Entonces escribiré hash. Hash le permite omitir la primera línea del archivo fuente. Los nombres de las columnas tienen que coincidir exactamente. Por lo que ahora estamos listos para especificar la salida. Para empezar, usaremos una salida estándar como salida. Otro tipo en salida, llaves rizadas. Y voy a mover esto hacia abajo. Y aquí escribiré en STD fuera como mi salida. Y dentro de esto, escribiré en Kodak y Kodak sería debug rubí. Y ahora estamos listos para ejecutar este gasoducto. Guardaré este archivo. Y para ejecutar una canalización, lo que tienes que hacer es que tengas que escribir en sudo slash, usr slash share slash Log Stash. Y luego ha sido una visión cuando hay una utilidad llamada Log Stash que vamos a usar. Esta utilidad es la ruta completa a su archivo de configuración de canalización. Pero debido a que estamos en el mismo directorio donde está el archivo de configuración de canalización, solo podemos especificar una ruta relativa. Por lo que CSV data.com y golpeó enter. Ahora, si tu tubería se configuró correctamente, obtendrás un resultado como este. Entonces tus datos se dividen en varios campos. Por ejemplo, unido a él entra en un campo llamado fecha de unión, el número de problemas, metales, etcétera Hay algunos campos generados por el sistema. Hay un campo de mensaje, que es un campo generado por el sistema que contiene cada marca de tiempo de versión de fila individual. Ahora, este campo de marca de tiempo es el momento en que Log Stash ingirió este archivo de datos. Y usaremos este campo para buscar y explorar nuestros datos dentro de Kibana. Con esto, ahora podemos especificar la salida Elastic Search fuera de esto usando el control C, esto detendrá la canalización. Ahora, volveré a editar mi archivo de configuración de canalización o hecho. Puedo quitar el STD arriba o simplemente puedo agregar otra salida. Entonces entraré en modo de inserción y quiero simplemente agregar otra salida. Por lo que escribiremos en Elastic Search y corchetes rizados. Mueve esta piedra. Ahora bajo salida de Elasticsearch, la primera configuración que necesito proporcionar es una lista de hosts a los que quería enviar estos datos. Escribir en hosts es igual a una flecha, y esta configuración toma una matriz. Así que puse comillas dobles y http localhost y luego 90 a 100 porque estoy ejecutando la búsqueda de registros localmente en la misma máquina donde está mi clúster de Elasticsearch. A continuación, también puedo especificar un índice en Elastic Search donde se escribirán estos datos. Entonces vamos a escribir en índice y luego le daré el nombre del índice, índice de subrayado CSV. Ahora una cosa a tener en cuenta con esto, si no creo primero un índice en Elastic Search, esto creará automáticamente el índice en mi clúster de Elasticsearch para mí. Así que probemos eso primero, guardaré este archivo y luego volveré a ejecutar mi pipeline. Y mientras esto se está ejecutando, si miras a mi Kibana y si entro en gestión de índices y administración de personal, y luego en la gestión de índices, no hay ningún índice aquí. Para que esto termine, no hay votos que el gasoducto haya escrito allí. Parece que hay algunas dificultades para conectarse a búsqueda elástica porque tengo un mensaje diciendo elástico, tan inalcanzable hará un control C para cerrar este ducto. Por lo que parece que se ejecutan los servicios de búsqueda elástica. Así que echemos un vistazo a nuestro archivo de configuración de nuevo. Ahora, la razón por la que falló fue porque hay un typo, por lo que Altcoin para insertar y arreglaré mi typo localhost 9200, y luego guardaré este archivo y vamos a ejecutar la canalización de nuevo. Ahora, una vez que el ducto ha terminado de procesar nuestros datos, su puntuación a la gestión de índices no están ocupados en una página y volvamos a cargar índices. Aquí. Se puede ver el índice CSV. Se ha creado automáticamente, por lo que voy a despedir y cuenta con 5 mil documentos. Ahora, intentemos explorar estos datos en nuestra pestaña Descubrir. Por lo que voy a hacer clic en estas tres líneas desde arriba a la izquierda y luego iré a descubrir. Pero aquí no se puede ver ningún dato porque dice para visualizar y explorar datos y Kibana, se debe crear un botón de índice. Entonces echemos un vistazo a lo que es un patrón de índice. Si recuerdas de conferencias anteriores, un índice es la entidad de nivel más alto que puedes consultar en contra de una búsqueda elástica. Usando nuestro Pipeline de Búsqueda de Registro almacenará nuestros datos dentro de un índice. Utilizando las API de resto de Elastic Search, podemos consultar los datos en contra de ese índice. No obstante, un patrón de índice identifica uno o más índices de búsqueda elásticos que deseas explorar con Kibana. Para explorar estos datos y Kibana, necesitamos crear un patrón de índice. Ahora, lo que hace Kibana, busca nombres de índice que coincidan con un botón especificado. Por ejemplo, un astérix será un comodín que coincida con 0 o más caracteres. Entonces, por ejemplo, si nuestra apuesta por una estrella de tablero CSV, coincidirá con todos los nombres de índice que son CSV dash one, CSV dash T2 o CSV data, etc. Vamos a crear un patrón de índice en nuestro Kibana. Aquí en el Kibana, tendré que entrar en la gestión de la pila. Por lo que voy a hacer clic aquí bajo administración y dentro de la gestión de la pila y necesito ir debajo de Kibana en botones de índice. Ahora necesitaré crear un botón de índice. Ahora nuestro índice fue si entro en mi pipeline y Control C y abro mi archivo de configuración o índices índice de subrayado CSV. Entonces lo que haré es crear un patrón de índice con CSV. Y en el lado derecho se puede ver que este botón de índice ha coincidido con un índice fuente, que es CSV y discordia en días. Ahora, si queremos usar el filtro de tiempo global, tenemos que especificar una marca como te he mostrado anteriormente. Siempre que me dejes salir de esto. Cada vez que se ejecuta la canalización Log Stash, crea automáticamente un campo de marca de tiempo llamado Agregar marca de tiempo, que contiene el tiempo en el que se ingirió el archivo. Entonces, dado que nuestros datos no tienen ningún campo de marca de tiempo nativo, usaremos este campo como nuestro campo de filtro de tiempo. Entonces iré a Patrones de Índice y seleccionaré, Agregar marca de tiempo, y luego crearé mi espectro de índice. Ahora una vez creado el botón de índice, se pueden ver todos los campos dentro de ese patrón de índice. Ahora ese reloj representa que este campo de marca de tiempo es el campo de tiempo que se utilizará para filtrar. Ahora, volvamos a nuestra pestaña Descubrir y ver si podemos explorar estos datos. Ahora, como se puede ver, después de que hayamos creado un patrón de índice para este índice, ahora podemos buscar estos datos. Así que recuerda, un índice te permite consultar esos datos contra Elastic Search, mientras que un botón de índice te permite explorar esos datos usando Kibana. Ahora, una vez que terminemos con esto, déjame mostrarte cómo eliminar un botón de índice y un índice. Por lo que vamos a entrar en gestión y gestión de personal. En primer lugar, voy a ir a Gestión de Index. Selecciona mi índice, haz clic en Administrar índice y luego eliminar índice. Entonces iré a los botones de índice, haga clic en CSV y eliminaré esto. Ahora quería mostrarte cómo crear un índice y Elastic Search. Para eso, volveremos a hacer clic en estos iconos y luego ir a la administración y luego a DevTools. Ahora podemos usar DevTools para ejecutar algunas llamadas a API contra nuestro clúster de Elasticsearch. Y esta vez voy a usar el método PUT para crear un índice llamado índice de subrayado CSV. Y el número de gráficos en este índice sería uno. Para que pueda configurar algunos ajustes. Y aquí escribiré todos los campos que quiero dentro de este índice. Haga clic en esta flecha, y esto borrará este índice. Ahora, podemos volver a nuestro pipeline y primero tenemos que asegurarnos de que este nombre de índice, el ajuste del índice, sea exactamente el mismo que el índice que acabamos de crear. De lo contrario, si este tiene un registro diferente, Sasha va a crear otro índice y no obtendrá los datos almacenados en su índice. Por lo que se aseguraron de que este nombre sea el mismo este escapará de este archivo y vamos a ejecutar nuestro ducto. Ahora una vez que el ducto haya terminado el procesamiento, volvamos a nuestro Kibana. Y aquí voy a entrar primero en la gestión de la pila y la gestión de índices, se puede ver que tengo un índice. Hay algún tamaño de almacenamiento, pero la columna del documento dice 0. Entonces tendremos que entrar en patentes de índice y crear un patrón de índice. Y de nuevo, será CSV y esto coincidirá con nuestro índice. Y usaré el campo de marca y crearé el patrón de índice. Y una vez que se crea este botón Es. Si voy y compruebo bajo Gestión de Índice, ahora, puedo ver el documento yendo más 5 mil. Y de nuevo, podemos explorar nuestros datos usando la pestaña Descubrir. Voy a minimizar este mensaje y hay 5 mil hits. Ahora, vamos a ver si nuestro rover de cabecera se saltó. Entonces entraré en mi segunda conexión necesaria y buscaré un nombre de usuario de valor dentro del campo de nombre de usuario. Lo que haré es ir a descubrir y escribiré nombre de usuario. Descartaré este mensaje, nombre de usuario. Y yo quería que esto fuera igual nombre de usuario. Y actualizaré qué resultados de nodo coinciden con tus criterios. Ahora, escojamos un nombre de usuario válido. Por ejemplo, BSI, descubre, voy a quitar eso. Están escribiendo PSI y voy a golpear Update. Y se puede ver que los valores válidos o todos los datos correctos se han almacenado en mi clúster de Elasticsearch. Y se saltan las filas de cabecera más antiguas. La clave para eso fue asegurarse de que las columnas que definas coincidan exactamente con las columnas de su archivo CSV. Ahora antes de dejarte ir, quería mostrarte una última cosa, que es cómo enviar datos desde Log Stash a una instancia de Elasticsearch con configuración de autenticación de contraseña en ella. Para esta demo, he creado un ELK separado. Una máquina esperaría la configuración de seguridad para la autenticación de contraseña. Si copio la dirección IP externa de esta instancia y voy a mi página web de Kibana. Me pedirá que proporcione mi nombre de usuario y contraseña. Ahora tengo un nombre de usuario y contraseña incorporados llamados elastic, que es la cuenta de superusuario. Voy a usar ese login a mi Kibana. Ahora, una vez dentro de Kibana, haré click en estas tres líneas desde arriba a la izquierda y luego iré a Stack Management. Y luego bajo seguridad y usuarios, puedo encontrar todos los nombres de usuario que se han configurado en este sistema. Todos estos son nombres de usuario incorporados. Entonces lo que haremos es que usaremos elastic para integrar nuestro Log Stash con la instancia de Elasticsearch en ELK. Por lo que haré clic en SSH en ELK T2 para abrir una conexión SSH. Ahora una vez tengo abierta la conexión SSH en cada tipo en sudo, V slash, ETC, slash Log Stash slash d. Y luego editaremos nuestro archivo de configuración llamado datos CSV. Y dentro de este archivo para configurar la salida para ir a la búsqueda elástica en ELK 1. En primer lugar, cambiaré el valor del host del host local Buddha dirección IP interna de ELK uno, lo siento, editaré todo esto, va a insertar y escribir en 192 punto 168 punto un punto F5. Y ahora necesito proporcionar el nombre de usuario y contraseña que voy a utilizar para autenticar. Entonces escribiré usuario, y aquí pondré en comillas dobles y escribiré en elastico, y luego escribiré contraseña. Y lo que haré es pondré en comillas dobles y copiaré la contraseña de mis notas. Ahora una vez que haya copiado la contraseña, podemos guardar este archivo y ahora estamos listos para ejecutar nuestro pipeline. Así que escribiré sudo slash, usr slash slash, log slash bin y Log Stash y menos F. Y copiaré todo esto. Lo pegaré aquí y pegaré Enter. Y una vez que el ducto haya terminado el procesamiento, Begin vaya a nuestra instancia de Kibana y comprenda la gestión. Podemos ir a la gestión de índices y se puede ver un índice llamado índice subrayado CSV con 5 mil documentos fue creado. Y de nuevo, tendré que crear un patrón de índice. Haga clic en Crear patrón de índice. Escribiré CSV y ha coincidido con mi índice y usaré el campo de marca de tiempo y haga clic en Crear espectro de índice. Ahora para explorar mis datos, voy a ir a la analítica y descubrir. Y aquí tendré que cambiar el índice de logs start a estrella CSV. Y al hacer eso, deberías poder explorar tus datos. Pero esto, hemos llegado al final de esta conferencia. Gracias por mirar. Adiós. 22. Instalación de servidores web de Apache: Hey chicos, En este video, mostraré cómo instalar servidor web Apache en la instancia de GCP VM. Primero, instalaremos el software, luego desplegaremos el nuevo archivo index.html. Después de eso, iniciaremos el servidor web Apache, y por último, probaremos acceso a nuestra página web ensamblada. Así que empecemos. Aquí en la pantalla. la consola de instancias de VM activada para mi plataforma GCP. Entonces elegiré nuevo sentido vitamínico de Plantilla. Y después de eso, elegiré la plantilla de servidor web que creamos anteriormente. A continuación voy a dar click en continuar. Después de eso, voy a cambiar la región a US West One siguiente video, bajar y dar clic en networking. Bajo networking, nos aseguraremos de que la etiqueta de red sea servidores web y luego necesitaremos cambiar la interfaz de red estará en la red de servicios web. Por lo que voy a cambiar eso de monitoreo a servidores web. Y después de eso, bajaré y haga clic en Crear. Esto creará nuestra instancia de VM, que usaremos para un servidor web. Ahora una vez que la VM está en funcionamiento, podemos pasar a Visual Studio Code. Ahora aquí en la consola de código de Visual Studio, tengo las notas para instalar un servidor web en el lado izquierdo, y en el lado derecho, tengo mi conexión SSH en este servidor web. Entonces primero, actualizaremos nuestro sistema. Entonces sudo APT obtener actualización menos y. ahora vamos a borrar a continuación, voy a escribir en sudo apt-get install Apache dos menos y y pulsa Enter. Siguiente. Voy a borrar de esto y luego copiaré este comando para crear un nuevo archivo index.html y poner algún código de ejemplo dentro de él para crear nuestro sitio web. Pega aquí, y pulsa enter. Ahora una vez hecho esto, puedo iniciar mi servicio Apache. Así pseudo sistema CTL inicia Apache dos y golpeó enter. Ahora vamos a comprobar el estado. Así pseudo sistema CTL, status Apache a su activo y en ejecución. Y ahora volvamos a nuestra Consola GCP. Y aquí copiaré la IP externa de esta máquina, y la pegaré aquí y golpearé enter. Ahora como se puede ver, tenemos nuestra página web de muestra arriba. Así es como se puede instalar un servidor web en la instancia de VM de GCP. Gracias por mirar. Te veré en la siguiente. Adiós. 23. Instalar y configurar Metricbeat: Hey chicos, tenemos nuestro Clúster Elasticsearch lo anexó a trabajar. Ahora es el momento de empezar a usar el clúster. En esta demo, recopilamos datos de auditoría del sistema como la CPU y la utilización de memoria, datos de registro como registros del sistema, borramos algunos dashboards geniales como este, nuevamente, insights sobre nuestros sistemas IP. Ahora, Elastic Search utiliza remitentes ligeros llamados beats que se instalan en las máquinas de destino y envían datos operativos al clúster de Elasticsearch. Y podemos utilizar estos datos operativos para crear informes y tableros. Ahora uno de los casos de uso más comunes es alimentar datos métricos del sistema a Elastic Search y utilizarlos para monitorear cosas como la CPU o la utilización de memoria, disco, etc. ahora los datos de métricas del sistema son factor de búsqueda elástica usando un beat llamado metric, que es un peso ligero, más barato que puedes instalar en tu servidor. Recopilar periódicamente métricas del sistema operativo y de los servicios que se ejecutan en eso. Por lo que toma estas métricas y estadísticas y las cambia a la salida de tu elección ejemplo podría ser Log Stash o Elastic Search. Para darte un ejemplo, digamos que les quieres un intervalo de tu máquina Linux para nuestros datos de métricas del sistema como CPU y utilización de memoria, etc. Lo que necesitas hacer es que necesites peso métrico en el servidor y habilitando sistema de módulos que recopila toda esta información y Chip-seq a Elastic Search. Este módulo te permite monitorear muchas cosas que he enumerado en la pantalla. Cada uno de estos ítems individualmente se llama matriz. O bien puede optar por habilitar. Todos estos son sólo los que te interesan. Las que no te interesan, necesitamos que nos comenten desde tu archivo de configuración. Por lo tanto, en teoría, un módulo de cuentas magnéticas, encuentra la lógica básica para recopilar datos de un servicio específico como el servidor web Apache HTTP. El módulo especifica detalles sobre el servicio, incluyendo cómo conectarse a ese servicio, con qué frecuencia recopilar métricas y qué métricas recopilar. Cada módulo tiene una o más matriz. Es una matriz que es la parte de la molécula que toca y estructura los datos. Hay muchos modelos que puedes habilitar en cebo métrico en la descripción de este video hacia arriba en una URL de la documentación de Elasticsearch. Y puedes navegar para echar un vistazo a todos los módulos disponibles. Y puedes escoger y elegir los que necesites en función de los requisitos de tu sistema. A continuación, veamos cómo métrica, ¿qué servicio funciona? Cuenta métrica funciona en cuatro pasos. En primer lugar, los servicios instalados y configurados en la máquina de destino, enfermos y recopila información de monitoreo basada en los módulos que están habilitados y se configuran las métricas. Estos datos se almacenan e indexan dentro de la Búsqueda Elástica. Y por último, podemos crear reportes y tableros geniales sobre estos datos usando Kibana UI. También puede utilizar los dashboards predeterminados proporcionados por esa sucesión. Aquí tienes la esperanza de configurar la puja métrica para esta demo en el servidor web Apache habilitará el módulo Apache, que proporciona el estado para el servidor web Apache. También habilitaremos el módulo del sistema, que proporciona métricas del sistema. Por último, también habíamos habilitado beats esperan módulo. Esta buret Mohr nos ayudará a monitorear el servicio Apache en el servidor ELK permitirá el módulo de espera de búsqueda elástica, lo que nos ayudará a monitorear el propio Elasticsearch, también habilitará el módulo de espera de Kibana que nos ayudará a monitorear a Kibana. Habilitará el módulo bit expert, que nos ayudará a habilitar otros bits que se instalen en su servicio. Ahora una cosa a tener en cuenta es que usaremos la misma métrica con incienso para monitorearse a sí mismo. Esto no es lo que verá en un entorno de producción. Tu clúster de producción podría verse más así, donde tienes un clúster de producción separado y un clúster de monitoreo separado. Porque en caso de una interrupción en el clúster de monitoreo, es posible que aún tenga los servicios de producción siendo monitoreados a través del clúster de producción. Y también en caso de que el clúster de producción muera, puedes solucionar por qué falló usando el clúster de monitoreo. Ahora pasemos a nuestro sistema de laboratorio. Puja métrica instalada. Ahora una vez métrica donde se instala, lo primero que tenemos que hacer es que necesitamos habilitar el monitoreo en el clúster de Elasticsearch. Entonces lo que vamos a hacer es ir a Elasticsearch, golpear archivos EML para que pueda sudo nano slash, ETC, slash Elasticsearch. Elasticsearch empieza a Yemen. Golpeó ir justo abajo al fondo de este expediente. Sin embargo, cómo hacer un comentario para una nueva sección. Y lo nombraré esperar monitoreo. Y terminó esperando monitoreo. Copiaré estos dos ajustes. Esperar cobro de monitoreo habilitado como verdadero y esperar Monitoreo. colección de búsqueda elástica habilitada es verdadera. Estos dos ajustes permiten el monitoreo de nuestro clúster. Copia esto, y pégalo aquí. Ahora digamos mi final. Después de eso, reinicio mi servicio Elasticsearch, el sistema CTL, reinicio la búsqueda elástica. Una vez activos de TI como AP, podemos instalar y configurar una métrica, ser prototipado sudo nano slash ETC, barra diagonal, métricas de barra diagonal. Aquí, el primer ajuste configure es la carga de la biblioteca. O la configuración sí es que busca el archivo de configuración del módulo bajo esta parte. Y si hay algún cambio en este archivo de configuración, los recargará automáticamente sin la necesidad de reiniciar el servicio de latidos métricos. Cambiaré esto a verdad. Bienvenido y recargar periodo de puntos. Ahora, una agenda y nombre, podemos especificar un nombre personalizado para el remitente. De forma predeterminada, el bit métrico toma el nombre de host de la máquina en la que se está ejecutando el remitente. Puedo escribir en ELK dash uno y los huevos. Voy a especificar que esta es la máquina ELK, así que me deshago de toda esta etiqueta especifica llamada ELK. Debajo de tableros. O bien podemos configurar dashboards Kibana predeterminados para la puja métrica para el remitente, pero sin comentar esto y establecer esto true, true. O podemos usar el tablero es Kumar. Lo que voy a hacer es que esto se haga realidad aquí. Pero cuando hacemos el servidor web y te mostramos cómo hacerlo a través del comando. Ahora bajo Kibana necesita descomentar anfitrión, pero podemos dejarlo como hospitales locales, el remitente está funcionando en la misma máquina que Kibana. Lo mismo para Elastic Search, por lo que podemos dejarlo como anfitrión local. Y el protocolo, vamos a descomentar esto y cambiarlo de STDEV.S a Azure DB. Bajo nombre de usuario, necesitamos especificar Elastic user y la contraseña. Es necesario especificar la contraseña para el usuario de Elastic. Ahora a continuación necesitamos especificar el registro. Iremos a la sección que se llama logging. Y aquí necesitaremos descomentar el nivel de registro, pero lo dejaremos como predeterminado y descomentar los selectores de registro también. Entonces lo dejaremos como electores de pulso por defecto. Después de eso, necesitamos copiar estos ajustes. El primer ajuste configura el registro para ir a Archivo. Y después de eso especificamos un bot para el archivo de registro. Y especificamos el nombre del archivo de registro. Después de eso, especificamos cuántos archivos necesitamos para seguir los cuales necesitaremos especificar los permisos para el registro. Simplemente copiaré todo esto y pegaré aquí. Ahora, por último, necesitamos configurar el monitoreo para nuestra instancia de latido métrico. Por lo que recomendaré el monitoreo habilitado. Y ahora vamos a añadir esto a true. Eso irá a la parte inferior donde dice monitoreo punto Elastic Search y descomentar. Esta configuración de nadie hace es que recoge lo que hayamos especificado en salidas para Elastic Search como salida, recogerá la salida desde aquí. Podemos guardar este archivo e iniciar el servicio grande métrico. Entonces pseudo sistema CTL, inicio. Y podemos teclear en sudo sistema CTL habilitar métricas, habilitado cebo métrico también. Ahora después de esto, necesitamos configurar un enable algunos módulos. Entonces si voy a ETC barra métricas. Aquí, si hago un ls, verás que hay un directorio llamado módulos. Voy a entrar en módulos o D, hacer un ls. Verás que todos los módulos están presentes en este directorio, pero todos ellos están deshabilitados excepto módulo del sistema. Ahora para el servidor ELK, déjame borrar el Salvo de nuevo. Ahora para ELK Solver, lo que tenemos que hacer es que necesitamos habilitar la búsqueda elástica, esperar módulo, Kibana espera módulo y sistema deshabilitado o hacer. Entonces hagamos eso primero. Así que la puja pseudo métrica habilitada Elastic Search dash expect. Después de eso podemos permitir que Kibana espere. Ahora, tenemos que habilitar también lo espera Beta. Este módulo se utilizará para monitorear a otros remitentes que instalamos en el servidor. Sería de esperar. Ahora, si así lo elegimos, podemos desactivar el sistema o deshabilitado. Ahora vamos a configurar elasticsearch expect primero. Sudo nano Elastic Search dash esperan. Aquí necesitamos especificar el nombre de usuario y contraseña para nuestro usuario de monitoreo remoto para Elastic Search. Vengo ambos y voy a mis archivos, vaya a Ansible y bajo credencial tienda TM. Bueno, claro, todas las credenciales. Copiarán primero el nombre de usuario y la contraseña pondrán en qué orden usarlo. Sólo vamos a guardarlo. Y ahora vamos a modificar Kibana esperar y hacer lo mismo. Ahora podemos darle propina a esto. Acabo de notar que he deshabilitado beta esperan en lugar de deshabilitar el sistema. Entonces lo que voy a hacer es que me permitiré esperar primero deshabilitado el modelo de sistema. Ahora déjame configurar lo esperaríamos. Ahora aquí, necesitamos especificar el usuario del sistema beat, nombre de usuario. Por lo que voy a copiar el uso una información para los usuarios del sistema B. Así sistema de subrayado beta. Ahora déjame encomiar esto y pegaré esto, y guardaré este archivo. Ahora, la puja métrica debe configurarse en mi servidor ELK. que pueda ir a la consola GCP, copiar la dirección IP pública de mi servidor ELK. Instruyendo al navegador con 45601. De la página de inicio de Kibana. Puedo hacer clic en el menú de arriba a la izquierda. Déjame llamar a mi doctor. Puedo entrar en el monitoreo de pila y si he configurado la métrica beat correctamente, debería empezar a ver algunas otras cosas. Pilas en mi pila. Aquí necesito hacer click en demo ELK. Y como pueden ver, tengo información de monitoreo para mi Elasticsearch, Kibana y beats. Entonces vamos a hacer click en beat y dar click en ELK uno. Se puede ver que tengo mis tarifas de eventos. Ahora, puedo ir a demo ELK y hacer click en Overview debajo de mi Elastic Search para ver la salud de mi índice de Elastic Search, puedo mirar saturados, tal latencia, latencia de indexación y tasas. Puedo hacer clic en nodos, mirar mis notas, acordar lanzamientos de OneNote en estado verde, puedo mirar la carga de la CPU y el espacio discreto para este nodo. También puedo mirar mis índices. Acabo de obtener un índice llamado oferta métrica. Ahora puedo ir a Kibana y dar click en Visión General. Mira a Kibana. Entonces como aquí puedo mirar las solicitudes de la planta y el tiempo de respuesta. El recuerdo. ¿ Cuántas instancias de tiempo máximo de respuesta? Si hago clic en instancias, puedo ver las instancias de Kibana que también tengo. Ahora, esta es la configuración de nuestro servidor ELK. A continuación, tendremos que configurar un servidor web. Lo que haré es desde la consola GCP, copiaré la dirección IP pública de mi servidor web uno. Abriré nueva terminal basada en dirección IP pública. Ahora, en el lado izquierdo se llaman las instrucciones de instalación y configuración para un servidor web. En el lado derecho, tengo mi conexión SSH en el servidor web. Por lo que el primer paso es instalar la clave pública de firma para Elasticsearch. Entonces hagamos eso. Después de eso, vamos a controlar el transporte como paquete UDP. Después de eso, necesitamos guardar las definiciones de directorio. Ahora podemos hacer una actualización, una métrica instaladora beats. Así sudo apt-get update, sudo apt-get install metric, betas no métricas y almacenado. Así que primero limpiemos la pantalla. Ahora podemos detenerlos figurando cuenta métrica. Ahora esta configuración sería similar a lo que hicimos para el verano ELK. Vamos a configurar la carga de la biblioteca. El nombre sería servidor web. Me han golpeado configurando los dashboards Kibana predeterminados porque quiero mostrarte cómo hacer esto a través de la línea de comandos. El host para Kibana, necesitaré poner en la dirección IP interna de la instancia. Por lo que irá a la consola GCP, copiará esto, y péguelo aquí. Lo mismo para Elastic Search. Ahora podemos habilitar el registro. Después de esto. Hagamos el monitoreo. Por último, podemos descomentar monitoreo dot Elastic Search y guardar nuestro archivo. Ahora comencemos el servicio de latidos métricos. Por lo que pseudo sistema CTL habilita el servicio. Ahora echemos un vistazo al estado del servicio en ejecución. Entonces lo siguiente que vamos a hacer es que comenzaremos a habilitar módulos. El primer módulo habilitará en esto es el módulo Apache. Después de eso habilitamos el beat. Esperar más hacer. Ahora echemos un vistazo a la lista de habilitar más módulos en esta máquina. Puedes hacerlo escribiendo pseudo. Bit. Más do lista unidad que graban tres módulos habilitados en esta máquina. Apache Beta espera que acabamos habilitar y sistema o retrasos habilitados por defecto. Echemos un vistazo a las configuraciones del módulo. Está claro, esta primera barra sudo nano, ETC barra métrica bit, más distorsionada d slash apache. Aquí, vamos a descomentar Matrix establece status. No necesitamos poner el nombre de usuario y contraseña porque nuestro servidor web predeterminado no tiene ninguna autenticación. Lo que recomendaría es que cambiamos el valor bajo host de 127001 a la dirección IP o nombre de dominio de nuestro servidor web. Esto nos ayudaría a identificar este servidor web en nuestro dashboard. Entonces lo que haré es que eliminaré todo esto. Copiaré la dirección IP interna de mi servidor web. Vuelve a la terminal, y yo la pegaré aquí. Ahora, puedo guardar este archivo. Ahora echemos un vistazo a la configuración de beat expert. Aquí. Necesitamos proporcionar el nombre de usuario y contraseña para que podamos autenticarnos contra los beats. Este sería el usuario del sistema de playa. Esta sería la contraseña para el usuario del sistema V8. Ahora este bit se usa para monitorear otros buttes en el sistema. Pero como aún no tenemos nada instalado en el sistema, esto no hará nada. Así que salgamos de este archivo. Lo he prometido antes. Ahora te mostraré cómo configurar dashboards a través de la línea de comandos. Para ello, es necesario escribir sudo metric bid set-up, dash, dash, dashboard. Ahora una vez que se carguen los dashboards, verá un mensaje que dice tableros cargados. Ahora volvamos a nuestra instancia de Kibana. Aquí. Primero vamos a los clústeres y demo ELK entender el monitoreo. Bajemos a la remolacha. Ahora, se puede ver que tenemos dos bits, ELK uno y el otro debe ser observador. Por lo que este dato proviene del monitoreo interno por encima de la propia playa. Ahora, para obtener la información sobre el suburbio, hay que ir a la matriz. Aquí. Verás que hemos empezado a obtener métricas, detalles sobre nuestros servidores web. Por lo que vamos a hacer clic en él y hacer clic en matriz de host. Se puede ver que hemos empezado juntos todos los detalles sobre nuestros servidores web. Pero después de esto, pasemos a los dashboards bajo Kibana. Mire un panel de muestra producido por cebo métrico para un servidor Apache. Aquí bajo cuadro de búsqueda del tablero, voy a escribir en Apache. Entonces abriré el panel denominado metric con descripción general de Apache ECS. Ahora este es un tablero de muestra. Podemos conseguir cosas como los nombres de host en nuestro entorno, tiempo de actividad de nuestros servidores, bytes de acceso total, trabajadores ocupados e inactivos, diferentes tipos de conexiones, lóbulo de CPU, nodo de red, etc. Ahora os dejaré configurar un servidor web para que con esto, hemos llegado al final de este video. Gracias por mirar. Te veré en la siguiente. 24. Filebeat: Hey chicos, vamos a instalar y configurar archivo dentro de esta conferencia. El latido de archivos es un peso ligero, más barato para reenviar y tentadores datos registrados. Se instala como agente en sus servidores y monitorea los archivos de registro son ubicaciones que especifica, recoge eventos de registro de esos archivos son ubicaciones y reenvía a Elastic Search o Log Stash. Cuenta con dos componentes. El primero se llama la cosechadora, y la segunda es una entrada. Una cosechadora es responsable de leer el contenido de un solo archivo. Línea por línea. Input es responsable gestionar las cosechadoras y encontrar todas las fuentes de donde leer los datos de registro de. Ahora, echemos un vistazo a cómo funciona el beat de archivos. Ahora una vez que inicie el archivo, qué servicio inicia una o más entradas que miran en la ubicación que especifique para los datos de registro. Por ejemplo, entrada uno, veremos la mala suerte y cualquier archivo de registro dentro de Verilog. Ahora por cada archivo de registro que descubrió dentro de esta ubicación, se inicia un nuevo éster de contratación. Esta cosechadora es responsable leer el archivo log línea por línea y envía esos datos a un líquido. Ahora este lípido agrega los eventos y ya que los datos agregados a la salida que especifique, por ejemplo, puede enviar los datos a Log Stash Elastic Search. En esta demo, primero configuraremos el beat de archivos en nuestro servidor ELK. Son seis pasos. Entonces primero validaremos que los registros estén configurados correctamente en el servidor ELK. Después de eso, instalaremos y configuraremos el servicio de arranque de archivos. Después de eso, configuraremos métricas para monitorear nuestro archivo, qué servicio. Por lo que tenemos algún tipo de monitoreo en su lugar también. Entonces iniciaremos un servicio habilitado el beat de archivos. Y por último, habilitaremos y configuraremos los módulos ELK en nuestro clúster para el beat de archivos. Por lo que Elasticsearch, Kibana y sistema lo harán ahora. En segundo lugar, configuraremos el beat de archivos para nuestros servidores web. Los pasos son similares. La única diferencia es que los módulos configurarán en el servicio de 5 bits para servidores web serán Apache y el sistema nos permitirá empezar. Ahora aquí en mi laboratorio. Y ya que tengo los pasos para instalar y configurar el archivo Britton Hill case sobre el lado izquierdo, y la conexión SSH en mi IELTS sobre el lado derecho. Lo que haré es adjuntaré estos pasos a la descripción de este video para que ustedes también puedan tener acceso a este documento. Ahora en el EMACS terminado, el primer paso es validar que el registro esté configurado para una instancia de búsqueda elástica. Entonces escribiré sudo nano slash ETC, slash slash Elastic Search slash Elastic Search dot YAML. Ahora en este documento, lo que voy a hacer es ir a paths y verificar que los logs de puntos comprados esté configurado en var log Elastic Search. Y no está comentado. Si esto se comenta para ti, tendrás que descomentar y asegurarte que los logs de puntos de ruta estén configurados. Después de que verificamos que podemos salir de esto. A continuación, vamos a nuestra instancia de Kibana. Por lo que sudo nano slash TTC recorta Kibana slash mantener en su saber Tiamat. Ahora aquí tendremos que bajar al registro. Ahora por defecto, verás que Kibana registra a salida estándar. Entonces lo que tendremos que hacer es que tendríamos que cambiar esto. Haré espacio aquí. Copia todo esto, péguelo en el lado derecho. Ahora lo que hacen estos ajustes es primero configuran destino del punto de registro para que esté bajo mal registro, y luego archivo Kibana. Después habilitamos la rotación de registros y tratamos el sistema que queremos mantener a alguien los archivos de registro. Después de que hayamos hecho eso, podemos guardar este archivo e ingresar. Ahora, un problema con Kibana es la configuración es que no puede crear el archivo Kibana bajo Verilog. Entonces lo que vamos a hacer es que tendremos que hacer slash slash log slash Kibana, creando un nuevo archivo llamado Kibana underbar law. Déjame simplemente hacer esto con el sudo. Ahora después de eso nos han cambiado titularidad de este archivo de registro Kibana ser propiedad del usuario de Kibana y grupo sudo C-H en Kibana. Kibana slash slash lóbulo. Especialmente. Ahora este archivo es propiedad es para el usuario Kibana y grupo Kibana. Ahora, después de que hayamos hecho eso, podemos reiniciar el servicio de Kibana. Así pseudo sistema CTL, reiniciar cupón. Echemos un vistazo al estatus de Kibana. Ahora, veamos si el archivo Kibana que acabas de crear en el log var ha comenzado a obtener datos registrados de la instancia de Kibana. Hagamos una cola menos f cama de corte. Derecho inglés, sobre todo como se puede ver, que hemos empezado a obtener datos registrados en nuestro archivo de registro para Kibana. Salgamos de esto. Déjame despejar desde aquí. Ahora, el siguiente bit de ELK Stack instalando el servidor es métricas beats. Así que vamos a verificar que el cebo métrico está configurado con el registro sudo nano slash abc slash metric main.xml. Este archivo, vamos a la sección de registro. Ahora vamos a configurar el inicio de sesión en este archivo. Copia todo esto basado aquí. Ahora después de esto, a continuación, guarde este archivo también. Vamos a reiniciar la métrica. ¿ Qué servicio? Así pseudo sistema CTL, stack metric. Pero echemos un vistazo al estado de la puja métrica en ejecución. Ahora, tenemos el registro configurado en nuestro clúster ELK. Después de esto, lo que podemos hacer es ahora podemos instalar archivo ¿qué servicio? Así sudo apt-get install. Ahora una vez que se instala, podemos ir al archivo dot YAML y configurar el servicio Hybrid. Entonces para hacer eso, vamos a teclear sudo, ETC slash slash fobic dot YAML. Ahora aquí en este archivo, lo que vamos a hacer es primero bajaremos y configuraremos la carga de la biblioteca. Entonces bajo Módulos de bits de archivo, iremos a recargar dot habilitado y cambiaremos el valor de false a true. Vamos a descomentar, recargar periodo de puntos y lo dejaremos como predeterminado diez segundos. Ahora bajamos en sección de género y le damos una etiqueta. Entonces como se trata de un clúster de ELK, solo dale una etiqueta ELK. Ahora vamos a bajar a los dashboards y al archivo habilitado, ¿ qué dashboards? Descomento este panel de punto de configuración iniciado Habilitar y cambiar el valor a true. Después de eso bajo la sección Kibana, estoy mando Kibana host URL, y lo dejaré como local o excedente es 01 porque este incienso de fibra se inicia localmente. Muy Kibana instancia es todo para instalarlo. Después de esa salida como Elastic Search. Y dejaré la sección anfitriona como localhost 9200. Cambio el protocolo para usar GDB. Cambie la contraseña a Contraseña de usuarios de Elastic, y descomento tanto el nombre de usuario como la contraseña. Ahora después de esto, iré a la sección de inicio de sesión y configuraré el registro para lectura de archivos, nivel de punto de registro no comprometido. Y lo dejaré como debug predeterminado. Y voy a descomentar los selectores de puntos de registro y lo dejaré como estrella predeterminada. Copia todo esto, pegarlo aquí. Ahora por fin, puedo configurar el monitoreo a través de my-attribute, bajar en este archivo. Y copiaré como gdb dot habilitado un puerto ester db dot. Ahora lo que esto hace es que permite a las métricas monitorear el latido de archivos sobre STDP. Base esto aquí. Ahora puedo guardar este archivo. Ahora ya que hemos habilitado el monitoreo de cebo métrico sobre el puerto 5067 x más comprobar si el módulo beat expect en la puja métrica está habilitado o no. Entonces para hacer eso, primero revisemos la lista de pujas sudo Electric, enumeremos todos los módulos y los que han habilitado. Ahora si se puede ver que no tenemos módulo de espera Beta habilitado. Así que primero habilitemos este módulo porque este módulo se utiliza para monitorear otros bits instalados en el servidor para matricular. Módulos de puja pseudo métrica habilitados. Esperaríamos que este módulo esté habilitado. Tendremos que configurar este módulo para ver el puerto 5067. Para hacer eso, permítanme primero aclarar todo. Entonces escribo en sudo nano slash, dc slash slash slash slash bead esperan. En este archivo, lo que tendrá que hacer es que primero tendríamos que cambiar la URL bajo hosts del superávit local 6625067, porque este es el puerto al que el archivo está exportando datos. Ahora bajo nombre de usuario y contraseña, tenemos que utilizar el nombre de usuario y contraseña del sistema de playa. Yo no moví eso. Cambiar el nombre de usuario. Sistema de subrayado. Y cambiar la contraseña para ser tendido subrayado contraseña de usuario del sistema. Y permítanme guardar este expediente. Por último, verifica esa métrica qué servicios ejecutan sudo system CTL status retórica bit. Ahora podemos iniciar el servicio de arranque de archivos. Así pseudo sistema CTL. Ahora echemos un vistazo al estado del expediente, ¿ qué servicio? Ahora el servicio está funcionando. A continuación, lo que haremos es que tendremos que habilitar los módulos en esta superficie. Déjame primero despejar de todo. Déjame sumergirme. Pseudo. Los módulos pueden habilitar la búsqueda elástica, para habilitar el módulo Elastic Search. Después de eso, déjame haber sido pseudo módulos de 5 bits habilitados, Kibana, habilitan los módulos Kibana. Y por último, vamos a hacer sudo vibrar módulos habilitados sistema para permitir que el sistema lo haga. Ahora, tendremos que configurar todos estos tres módulos. Vamos a sudo, nano dash abc slash, slash star d slash barra Elasticsearch otomana. En este módulo, se puede ver que tiene algunas partes. Por defecto es x los bots basados en tu distribución. Entonces, debido a que no hemos cambiado estas partes por rutas personalizadas, no necesitamos editar nada aquí. Pero si has cambiado el pase para que sean piezas personalizadas en tu instalación, tendrás que entrar aquí y hacer esos cambios de configuración. Saldré de este expediente. De igual manera para el sistema de rodamina Gibbon, basado en la distribución toma todas las partes predeterminadas. Si has cambiado las piezas, tendrás que entrar aquí y hacer los cambios. Ahora, vamos a nuestra instancia de Kibana. Copiaré la dirección IP pública 5601, escriba el nombre de Elastic user y password. Ahora, primero, si la puja se está monitoreando correctamente, deberíamos poder ver este archivo raza subir bajo monitoreo de pila, menú de CO2. Ir a Monitoreo de pasos. Aquí vamos a hacer click en demo irrigar, y vamos a bajar. Se puede ver que tenemos dos bits. Tienes FIB bajo el nombre de EL que se le da. Demos clic en esto. Este es nuestro archivo antes de ser monitoreado correctamente y empezar a ver que tienes algunas tarifas de eventos que poner, etcétera Ahora después de esto, si tienes dos clusters, demo y nunca mires la sección bajo logs, se puede ver que empezamos a recolectar registros. Por lo que tenemos mucha información y los registros y la aplicación están calentando lóbulos en nuestra Búsqueda Elástica. Entonces esto significa que nuestro servicio es capaz capturar registros del clúster ELK. Ahora pasemos a la salida nominal de aquí K. Y pasemos al servidor web. Hola, copie la dirección IP del servidor web uno, cohere, SSH, pegue la dirección IP. A continuación, lo cerraré en secciones para ***** por encima de la instalación de Albert. Y abriré los para el servidor web. Y los miro en modo de vista previa. Ahora en nuestra página web. Pero primero tendremos que validar que el registro esté configurado para la matriz. Así que hagamos sudo, nano slash, ETC slash predicen bit slash podría punto líquido YAML. Ahora aquí tenemos que bajar a la sección de registro. Vamos a descomentar el nivel de registro tiene debug y select star. dejamos a ambos como default. Copia esta sección. Entonces Control C, control V. Ahora después de esto, guardemos este archivo. Vamos a reiniciar MATLAB bit. Ahora una vez que surja la métrica que servicio surge, podemos instalar primero un objeto de archivo para el estado en la métrica big service, hagamos un claro Así que tenemos una pantalla clara. Y aquí puedo teclear sudo apt-get install. Ahora, después de esto, podemos configurar nuestro servicio vibrar. Así que permítanme primero claro. Tipo en sudo nano DC slash, slash cinco. Ahora los pasos son los mismos, por lo que iremos a la derecha abajo configurada carga de Biblioteca primero. A continuación, solo agreguemos una etiqueta. Mantenga la etiqueta como nivel web, porque se trata de un servidor web. Configurar tablero. Setup dot Dashboard start habilitado como true. Ahora después de esto, socavemos al anfitrión Kibana. Ahora para el OVNI, lo que haremos es que usaremos la dirección IP interna de nuestro servidor Kibana. Por lo que copiaré esto y cambiaré el host local a la dirección IP interna de nuestro Q1. Bajaré a la sección de salida de Elastic Search. Haz lo mismo para la URL del host aquí también. Cambia profundamente la información del protocolo. Ingrese la contraseña para superusuario elástico. Ahora bajaré a la sección de registro, aseguraré de que el registro esté configurado. Ahora por fin, voy a ir a la derecha hacia abajo y habilitada métrica ser para monitorear este servicio. Guarde este archivo, y agregue un chequeo Vx módulo cuadrado habilitado para la puja métrica o no. Así bit pseudo métrico. Más cuotas habilitadas. Fedex vuelve. Puedo configurar este módulo. Entonces sudo, nano, especialmente ETC, slash slash slash que esperaríamos. En este expediente. He cambiado la placa host a 5067 porque este es el quinto archivo que Peter está configurado. Pierdo el nombre de usuario y contraseña del sistema beat. Puedo decir este expediente. Ahora sólo hagamos un estado en métrica. Métrica que servicios trabajando. Ahora empecemos basado en archivos. Así pseudo sistema de archivo CTL. Después de eso, primero podemos dar estatus al servicio de fibras para verificar que en realidad se inicie. Ahora, una vez que verificamos que el servicio ha comenzado, podemos borrar todo y habilitamos el módulo. Pseudo. Batir. Los modelos habilitan, habilitan el módulo Apache. Entonces habilitaremos esto como dos modelos. Ahora, una vez hecho esto, podemos volver a nuestra instancia de Kibana. Aquí. Vamos a refrescar el paso sobre cualquier cosa en una instancia de Kibana. Si bajamos, veremos que ya tienes cuatro latidos, así que haremos click en bits. Y como se puede ver, tenemos el venir de 5 bits para nuestro servidor web también. Podemos comprobar el estado de este feed haciendo clic en el servidor web. Y debe darnos tasa de eventos, tasas de falla de rendimiento, etcétera Ahora lo que podemos hacer es que podamos echar un vistazo a uno de los paneles de muestra que archivan para un servidor web Apache. Para ello, vamos a Menu y luego dashboard. Aquí bajo tablero, busquemos Apache. Y hagamos click en archivo con exceso de Apache y ECS analógico. Ahora este es un panel de ejemplo que FileReader crea usando el exceso y edita registros desde un servicio Apache. Puedes usar esto para mirar direcciones IP únicas que acceden a ti mismo con que los códigos de respuesta son un desglose del navegador de una sola vez, etc. Así es como puedes instalar y configurar el archivo en un servidor E y K y un servidor web. Lo que quiero que hagas es que vayas a instalar y configurar archivo en la web en algún lugar. Lo que debes esperar es que una vez que hagas eso, no deberías poder obtener información como esta para lo absoluto. Y además, si vas a la cosa del paso 100, tendrás seis latidos. Una métrica sea un archivo para su segundo servidor web. Con esto, ven al final de este video. Gracias por mirar. Te veré en la siguiente. Adiós. 25. Heartbeat 7: Hey chicos, lección instalar y configurar latido del corazón. En este video, el latido del corazón te permite comprobar periódicamente el estado de tus servicios y determinar si están disponibles o no. Ahora, por ejemplo, piensa que tienes un servidor web. Y si inicia sesión en la consola de su servidor web y realiza una comprobación de servicio en el servicio HTTP. El servicio vuelve como corriendo o intentas cargar la página web, el basado en la web no se carga, obtienes un editor en la página web, lo que significa que tus usuarios en nuestra mesa para usar tu sitio web para lo que sea para lo que trataran de utilizarlo. Ahora puedes usar el latido del corazón para monitorear ese tipo de escenarios. Donde la cabina va a hacer es comprobará si hay un código de estado de vuelta de su servidor web. Y si no está recuperando su código de estado, realmente mostró que los Servicios Web no responden o bajan. Ahora, existen tres tipos diferentes de monitores que puedes configurar dentro del latido del corazón. En primer lugar, puede configurar un monitor de ping ICMP. Básicamente piensa que en particular el nombre de host del puerto de la dirección IP. Y si consigue un ping exitoso, lo muestra como arriba. Y si no tiene éxito, muestra esa piedra monitor. A continuación, se puede calcular TCP. Este monitor le permite conectarse a un punto final en particular a través de PCP. Y también puede modificar este monitor para comprobar que el punto final está arriba por la carga útil personalizada similar desde ese punto final. Ahora, tercero, también puedes configurar un HTTP monitoreado para conectarte vía HTTP a tus endpoints. Este monitor, también se puede configurar opcionalmente para comprobar si hay respuestas específicas o puntajes de estado de sus puntos finales. A continuación, hay cinco pasos para instalar latidos del corazón. En primer lugar, tendrías que instalar el paquete elástico del dash heartbeat. Después de eso, configuraremos el servicio híbrido. Configurará el cebo métrico para monitorear nuestra instancia de latidos del corazón. Cuarto, vamos a configurar monitores, que es SERDP, ICMP, monitor TCP. Por último, empezamos habilitando el servicio híbrido. Así que pasemos a la izquierda. Ahora, aquí en el sistema de laboratorio, acuerdo con las instrucciones para instalar y configurar un latido en ALEKS sobre el lado izquierdo. Y tengo mi conexión SSH y hago mi servidor ELK en el lado derecho. Ahora una cosa a tener en cuenta es que estaremos instalando heartbeat solo en ALEKS over en esta demo. Instalar latido del corazón. Eso es tipo en sudo apt-get update. Sudo apt-get install latido del corazón. En realidad se elásticos y golpean enter. Una vez instalado el latido del corazón, comencemos a configurar el servicio de latidos del corazón. Necesitamos teclear sudo nano slash, ETC slash latido del corazón barra latido del corazón o PMA. En este archivo YAML. Primero configuremos en vivo abajo. Cambia el Lord dot integral para hacer y dejaremos el periodo de recarga predeterminado como cinco segundos. Después de esto. comentemos todos los monitores en línea. Porque estarás utilizando el punto del monitor para configurar estos monitores. El path es slash, ETC slash heartbeat slash monitores hacia D y NAM y archivo dentro del spot. Una vez que hayas comentado todos los monitores en línea de este archivo YAML dot heartbeat. Vamos a las bolsas y a la bolsa de teatro. Tenía especificará el objetivo como ELK. Después de eso, pasemos a Kibana. Y bajo la sección Kibana, vamos a descomentar la porción de host, pero dejaremos el localhost 5601 predeterminado. Ahora pasemos a la salida de Elastic Search y dejamos la URLS default localhost 90 a 100, cambiamos el protocolo a STDP y le brindaremos los detalles de autenticación. Ahora después de la acción siguiente pasar a la sección de registro. Implementaremos el nivel de registro. También descomentar los selectores de registro, pero mantener los valores predeterminados para ambos. Saber, voy a copiar esta configuración de mis instrucciones, especificar login para ir a un archivo. Esto está configurado, ahora podemos configurar como monitoreo GDB para nuestro incienso latido del corazón. Copiaré estos dos valores. Si nota que estamos usando el puerto 5069 para el monitoreo de nuestra instancia de latido del corazón, agregará esta placa a nuestro archivo de configuración de espera Beta después de esto. Entonces vamos este expediente por ahora. Ahora vamos primero a nuestro ritmo. Batir. ¿ O ordenas D? Y esperaríamos que ventilador Automl configure monitoreo en el puerto 5069. Tenía una coma de escalera. Ahora aprendí la URL http localhost 5069. Puedo guardar este archivo. Ahora primero check matrix, se está ejecutando. Así pseudo sistema CTL, status. Se repite. Impresionante. No, también verifiquemos dos veces que esperaríamos esté habilitado. Así pseudo lista y se puede ver Beta espera está habilitada. Entonces eso está todo bien. Ahora, vamos a despejar de todo y podemos empezar con latidos del corazón insensibles. Así pseudo sistema CTL, iniciar latido del corazón elástico. Primero comprobemos el estado del servicio. Asegúrate de que esté funcionando. Y ahora es el momento de configurar monitores. Para hacer eso. Primero vamos a ATC, monitor híbrido almacenado. Aquí. Verás que hay algunos archivos de monitor de muestra disponibles. Utilizará esto y personalizarlos. ¿ Quién crea nuestros propios archivos de monitor? Primero escribiré sudo copy, sample, ICMP dot yammer dot disabled, copia dos Pi seno PWM. Ahora voy a hacer un nano en ICMP dot YAML para configurar ICMP monitoreado. Ahora para nuestro monitor ICMP primero tendrá que cambiar el ID y el nombre. Para ID. Usaré el estado del guión ICMP para el nombre. Utilizaré la comprobación de estado ICMP. Vamos a descomentar esto para habilitar el monitor. Ahora dejaremos el horario como predeterminado cada cinco segundos para que nuestros hosts, que especifiquemos bajo la matriz de hosts. Cada cinco segundos. Tendríamos que especificar aquí una lista de anfitriones. Ahora lo que voy a hacer es primero especificar la dirección IP interna de nuestro servidor web uno. Entonces solo para demostrar en la dirección IP externa de nuestro servidor web a 193.68 punto a punto nueve, que es la dirección IP interna de mis caderas sobre un espacio de coma. Y copiaré la dirección IP de mi servidor web a aquí. Ahora lo que también voy a hacer es que solo agregaré una dirección IP externa accesible públicamente, también. Y este hibridar un golpe punto-punto-punto siempre está arriba no siguiente aliviado el modo como predeterminado, puedes deshabilitado por IPV6 en este momento, pero vamos a dejarlo como predeterminado. También puede especificar un diamante o una tarifa irá a la sección Tag siguiente y agregado DAG llamado web. Y ahora podemos guardar este archivo. Una vez hecho esto, sigamos adelante y configuremos nuestro PCP. Querer hacer mazo, vamos a copiar el archivo de monitor TCP de muestra. Pseudo copia muestreada tcp dot gmail dot desactivado a tcp dot YAML. Y ahora vamos a modificar este PC arranque RPM. Ahora aquí. En primer lugar, tendríamos que volver a especificar la idea. Entonces empecemos porque usaremos este monitor para comprobar el estado de la conexión SSH y bajo nombre y tipo en comprobación de estado SSS. Después de que esto habilita, el monitor dejará su horario como predeterminado cinco segundos. Y los hosts, especificé la dirección IP interna de mi servidor web. Uno, especifique el puerto, por lo que el puerto SSH es 22. Ahora bien puedo especificar el puerto aquí, puerto especificar una lista de tableros. Si el host no contiene un número de puerto bajo la opción ports. Por lo que estos son los dos lugares que puedes especificar puertos. Dejamos todos los demás valores como predeterminados. Una cosa a tener en cuenta es que se puede utilizar cheque enviado, y recibido acto pintores personalizados. Pasaremos a la sección de etiquetas y agregaremos la etiqueta para European. Y guardaré este archivo ahora. A continuación vamos a seguir adelante y copiar la pseudo muestra del monitor de TV. Http dot YAML están deshabilitados para Esther db.json modificar SGD goo.gl, sudo nano dot archivo YAML aquí, ID Especifico estado web y nombre podría ser verificación de servicio web habilitado el monitor. Y bajo anfitriones, agregaré mi elástico y mi URL Kibana. Después de eso, tendré que especificar indicación debido a que has configurado espera en nuestro sistema. He sido el nombre de usuario y contraseña, elástico y la contraseña para el usuario Elastic. Ahora, podemos utilizar los otros ajustes para especificar una comprobación de estado personalizada o una personalizada pintada en esta solicitud también. Pero los dejaremos como predeterminados y pasaremos a la porción de etiquetas, especificamos que el DAG se ha adaptado y descomentar esto. Y ahora podemos guardar este archivo también. Ahora antes de seguir adelante, comprobemos el estado de nuestro servicio de latidos del corazón. Una vez más, se está ejecutando. Así que ahora pasemos a nuestro Kibana, esa página. Ahora lo primero que hay que comprobar sería que el latido del corazón aparece un monitoreo de pila. Así que vamos a casa. Entonces apilan el monitoreo. Aquí, vamos a hacer click en demo, y vamos a bajar a beats. Y como pueden ver, tenemos latidos del corazón y un poco. Podemos hacer clic en el latido y luego latido del corazón para comprobar el estado de nuestra instancia de madera dura. Ahora, para los monitores reales, tenemos que ir a nuestra página de inicio y luego aplicar bajo observabilidad. Aquí, puedes buscar todos los monitores que hacia arriba o hacia abajo. Ahora, por las miradas de ella, todos nuestros monitores están en posición vertical ahora. Puedes usar el filtro hacia arriba y hacia abajo para filtrar contra un estado específico que quieras. En la parte superior, derecha, puede especificar la hora. Entonces, por ejemplo, puede especificar si desea sus datos de hace 15 minutos o hace 15 días u horas, también puede especificar la cantidad de tiempo. ¿ Cómo se puede especificar un absolutamente. Ahora, también puedes comprobar si hay barcos. Tenemos tres puertos configurados 90 a 22560001. Para nuestros cheques. Puede especificar el esquema, ICMP o UDP o TCP para filtrar los puntos finales. O puedes buscar etiquetas. Tenemos ELK y etiqueta de nivel web. Por lo que hay click en el nivel web. Si haces eso, solo verás los monitores específicos de esa etiqueta en particular. Con esto, llegas al final de este video. Gracias por mirar. Te veré en la siguiente. 26. Auditoría: Hey chicos, En este video, vamos a instalar y configurar auditoría V8. El bit de auditoría le permite monitorear actividad y los procesos del usuario en su sistema Linux, se comunica directamente con el marco de auditoría Linux. Y desde los datos que ha recopilado a la búsqueda elástica en tiempo real. Son cuatro pasos para instalar y configurar nuestro servicio de débitos. En primer lugar, instalaremos bit de auditoría. Segunda semana configurada un poco y configurar los tres modelos disponibles dentro del servicio de auditoría V8. Actualmente, estos módulos son auditoría D, integridad de archivos, y sistema o hacer. Después de eso, configuraremos metric be para monitorear la auditoría, ¿qué servicio? Por último, iniciaremos y habilitaremos el servicio de playa de auditoría. Ahora una cosa a tener en cuenta es que no hay opción de carga de biblioteca para cumplir. Antes de pasar al sistema de laboratorio, echemos un vistazo a cada uno de estos módulos individualmente. Y primero, veamos el módulo de rareza. El módulo recibe eventos de auditoría del marco de auditoría Linux, que forma parte del kernel de Linux. Lo que hace es establecer una suscripción a la esquina para recibir eventos de auditoría a medida que se producen. Ahora una cosa a tener en cuenta es que es posible que deba detener otros servicios que se están ejecutando en su sistema como la rareza. Y en general, para que este modelo funcione, existen dos tipos diferentes de reglas que se pueden configurar dentro ordenó el módulo. La primera regla es un sistema de archivos. Lo que hace esta regla es que permite la auditoría del acceso a un archivo en particular o a un directorio. Piense en ello como poner un reloj en ese expediente en particular. Por lo que se le notifica cuando se está accediendo o modificando el archivo . La sintaxis de esta regla es menos W ruta al archivo en el que se necesita para poner el reloj menos p. Qué permisos como leer, escribir, ejecutar, menos kx, ky name. El siguiente tipo de regla que puede configurar es un sistema llamado regla. Lo que hace esta regla, permite el registro del costo del sistema que realice cualquier programa especificado. La sintaxis de esta regla es menos una acción que podría ser siempre o nunca. Eso, que sería tarea excepto usuario o excluir, seguido de llamada al sistema, que se especifica por su nombre. Y por último, puedes usar campo y valor para modificar aún más la regla para que coincida con eventos basados en cosas específicas como la arquitectura, grupo son el ID de proceso, etcétera Ahora a continuación, echemos un vistazo en el módulo de integridad de archivos y módulo de integridad detecta eventos cuando se cambia un archivo, lo que significa cuando un archivo se crea o actualiza o elimina en el disco. Lo hace al crear una suscripción con el sistema operativo para recibir notificación de cambios a archivos o directorios específicos. Ahora, lo que hace es cuando inicias este módulo por primera vez, realiza un escaneo inicial de todas las rutas que has configurado. Y luego monitorea esas rutas para detectar cualquier cambio desde que has perdido ejecutar este módulo. Utiliza datos persistentes localmente con el fin de enviar solo eventos para archivos nuevos o modificados. Después de esto, echemos un vistazo al sistema o sistema dual o sí recopila diversa información relacionada con la seguridad sobre un sistema. Los conjuntos de datos envían tanto información periódica, por ejemplo, un estado de los procesos en ejecución actuales y los cambios en tiempo real. Por ejemplo, cuando un proceso inicia o detiene cada conjunto de datos, ya que dos tipos diferentes de estado de inflamación y eventos, información del estado se envía periódicamente y en el sistema se inicia y puede ser controlado mediante el uso una configuración llamada periodo estatal DOT. La información del evento se envía a medida que ocurre el evento. Por ejemplo, cuando se inicia o detiene un proceso. Para información de eventos o conjuntos de datos, use el modelo de hueso para recuperar esos datos. La frecuencia de las encuestas puede ser controlada por el parámetro de configuración de periodo. Ahora pasemos al sistema de laboratorio. Aquí en mi sistema de laboratorio, tengo las instrucciones para instalar y configurar auditoría grande en EHS sobre el lado izquierdo. Y por el lado derecho tengo mi conexión SSH en el EHS, nuestro primero tendríamos que instalar gente de auditoría para hacer eso. Vamos a teclear sudo apt-get, instalarlo mejor. Ahora una cosa a recordar es que somos capaces de hacer esto porque hemos hecho todos los requisitos previos para agregar repositorio de búsqueda elástica, la clave de firma y transporte Apigee como GTPase paquete en este sistema ya cuando hicimos la instalación de búsqueda elástica. Si no lo has hecho, no podrás hacer este paso. Por lo que tendría que volver al paso que hemos instalado Elastic Search y aguantar esos requisitos previos en esta máquina. Ahora, después de que se instale la auditabilidad, pueden escribir en sudo nano slash ETC. Slash auditoría V8 slash auditoría con dot yammer. Abra el archivo de configuración de pujas de auditoría. Ahora en este archivo, lo primero que haremos es configurar los módulos. Por lo que primero vamos a configurar el módulo. Bajemos y verás que hay una sección llamada cambios de identidad. Y esta sección le permite poner en reglas de firewall que miran archivos como el grupo pasado WD y el archivo de sombra G. O puedes, estoy viniendo esto para habilitar estas reglas son, agreguemos una regla personalizada para poner un reloj en nuestros archivos de configuración de Elasticsearch y Kibana. Tengo la regla aquí. Menos w archivo FASTA es Gráficas al Elasticsearch diámetro corto cinco menos b para los permisos y luego los permisos son WA, y luego la clave es cambios. Así que vamos a copiar estos dos y pegarlos aquí. Para clave. A menos que también se habiliten estas reglas. Ahora, también podemos observar los intentos de acceso no autorizados a nuestro sistema. Así que utilicemos unas reglas predeterminadas para hacer eso. Ahora a continuación, configuremos el motivo de integridad del archivo. Ahora bajo Integridad de archivos, verás que hay algunas rutas que ya están configuradas, como se han usado, han sido sbin o cetera. Ahora vamos a añadir nuestras piezas personalizadas para Elasticsearch y Kibana. Así copiar pegar. Ahora después de esto, lo que quiero mostrarte a continuación es que podrían ser rápidos que no quieras monitorear la ruta que especificas bajo módulo Integridad de archivos. Puede excluir esos archivos utilizando el archivo de subrayado excluido. Segundo, solo copiaré esta configuración y la pegaré dentro de este archivo. Ahora lo que hace esta configuración es que busca un nombre de archivo o un back-end para ese nombre de archivo y excluye esos archivos de ser lavados. He usado un experimento que excluye los archivos de referencia. Entonces Elasticsearch archivo de referencia corta o punto de oferta métrica de referencia de punto de ser monitoreado. A continuación, echemos un vistazo a este módulo del sistema. Existen dos tipos de información para que puedas obtener datos del sistema o hacerlo. En primer lugar es la información del evento. Esto podría ser algo como qué paquete ya está instalado en su sistema o eliminado o actualizado. La frecuencia del monitor, esta inflamación se puede modificar utilizando el ajuste de periodos. Actualmente el valor predeterminado se establece en dos minutos, así que dejémoslo en eso. En segundo lugar, la información de la etapa de información del estado puede ser monitoreada para cosas como inicio de sesión de host, proceso, socket y usuario por defecto. Y esta inflamación puede ser recolectada por una frecuencia de 12 horas por defecto, pero esto se puede modificar modificando el valor de estado periodo oscuro donde lo haría, pero lo dejaremos como predeterminado en grande. Ahora, vivimos el resto de la configuración como predeterminada y pasaremos a la configuración general. Primero. Configurado, un DAG. Entonces huevos, lo descomento y agregaré una etiqueta llamada ELK. Siguiente. Bajo dashboards, habilitaré los dashboards predeterminados. Después de esto. Pasemos a la sección Kibana. Había dejado sin compromiso la URL del anfitrión. Después de esto, pasemos a la salida de Elasticsearch. Y vengo protocolo y cambio el valor del protocolo para que sea como UDP. A continuación, agreguemos los detalles de autenticación de usuarios Elastic. Ahora después de esto, vamos a configurar el registro. Entonces voy a descomentar el nivel de puntos de registro, pero lo dejaré como comando de debug predeterminado registrando selectores de puntos, y nuevamente lo dejaré como predeterminado como selectores enteros. Ahora vamos a configurar el registro para que sea archivo. Copia esta sección, pegarla aquí. Ahora, después de esta prueba anotar hacia abajo y configurar el monitoreo HTTP. Así que vamos a copiar estos ajustes. Stdev dot habilitó un puerto de punto de grado extra. Ahora para el beat de auditoría, configuraremos el puerto de monitoreo para que sea 5068 porque si recuerdas, 5067 está siendo utilizado por file beat en esta demo. Ahora podemos guardar este expediente no después de esto. Primero comprobemos que esperaríamos que el modelo esté habilitado en mi atributo. Entonces sudo pip lista. Se puede ver que BTEX back está habilitado. La ópera esto me dejó simplemente despejar todo. Ahora. Ahí se editó el archivo de configuración modular redex back. Así sudo nano slash ETC barra de barra, slash módulo sort D slash ser esperado o TML. Ahora en este archivo, vamos a agregar el marketing para el anfitrión. Después de la cantidad de inflamación para archivo, escribo http, localhost 68. Ahora vamos a guardar esto. Ahora después de esto, podemos empezar a ordenar bit pseudo sistema CTL, start o deadbeat. Ahora comprobemos el estado de lo que teníamos estado de servicio. Ahora esto ha fracasado por alguna razón. Así que investiguemos primero una buena idea de lo que veríamos en la información que hemos ingresado y asegurarnos de que la sintaxis sea correcta. Entonces sudo, nano, ETC recorta auditoría bit slash auditoria beat o GMO. Ahora parece que excluye archivos configurados incorrectamente. Así que vamos a poner aquí algunos espacios que sigue el índice de Shamatha. Sólo hay guardar este archivo. Y solo intentemos reiniciar nuestra auditoría. ¿ Qué servicio? Entonces pseudo sistema CTL, empieza a latir. Ahora vamos a hacer un estatus de nuevo, a ver si ha surgido. Ahora parece que ese fue el tema y desordenado ¿qué servicio no se está ejecutando? Pasemos a nuestra instancia de Kibana para ver algunos dashboards que ha creado por defecto para nosotros. Ahora aquí, pasemos primero a apilar monitoreo, demo ELK. Bajemos a los latidos. Y se puede ver que tenemos auditoría con servicio aquí. Ahora. Podemos dar click en trigo y luego dar click en el servicio de habitaciones ordenado. Busca alguna información sobre auditoría V8. Podemos ir a Inicio y luego tablero. Ahora aquí podemos abrir uno de estos tableros de bits de auditoría. Así que vamos a abrir el tablero de integridad del archivo. Ahora este es un panel de muestra que podemos sacar de la auditoría V8. Se puede ver que el recuento inicial de escaneo fue de 1043. Se puede ver esa vez que se realizó el escaneo inicial. Propietarios y grupos para nuestros archivos, el archivo que más cambió por conteo de archivos, algunos eventos de archivo de alguien. Ahora después de esto, sigamos adelante y configuremos rápidamente auditoría. Espere a nuestro servidor web. Ahora aquí en el sistema de laboratorio, tengo la conexión SSH en mi servidor web. Entonces teclearé sudo apt-get install. Ahora después de esto, vamos a configurar rápidamente. Así sudo nano slash slash auditoría slash auditoría slash con dot YAML. Ahora agreguemos los relojes de archivos, no en el servidor web. Lo que haremos es que no tenemos Elasticsearch y Kibana Europea modifica. Entonces acabo de copiar esta regla. Entonces. Lo modificaré para mis archivos de beat métrico y archivo beta KML, guárdelo aquí. Y cambié el pasado a archivo de Elastic Search a ETC. Slash. Cambió la clave para ser cambios. Puedo copiar esto y pegar aquí y cambios para archivar una y archivar cámaras de video. Así slash slash slash archivo mejor cámara. Ahora ya que es un archivo importante que tal vez quieras ver en esta plata sería tu web Apache. Varios archivos podemos copiar lo mismo y cambiar la ruta slash slash www dot slash HTML slash index.html. Y cambiaremos la llave Bu epsilon. Después de esto. Pasemos al módulo de integridad de archivos. Aquí. Yo quería que WWW slash HTML. Ahora no necesitamos hacer ningún cambio en el sistema ni hacer. Ahora pasemos a los huevos y a la agenda. Aquí, descomentar el ajuste x. Y vamos a agregar la etiqueta para nivel web habilita los dashboards predeterminados. Ahora vamos abajo por los hosts y agregando la dirección IP de mi AKS, nuestro 192 punto 0.68 dot one dot 34. Y probemos hacer lo mismo para los plásticos. Dicha salida ha cambiado el protocolo o judío o DB. Y añadamos la contraseña, vayamos más abajo y agreguemos el registro. Por último, vamos a configurar, esperar cosa maravillosa. No necesariamente guardar este archivo y no continuación añadir la inflamación monitorizada en el interior que esperaríamos. Así sudo nano slash slash slash, más distorsionado d slash b a esperar. Este archivo de nuevo, espacio de comas http localhost 5068. Ahora podemos guardar este archivo también. Ahora empecemos. Así pseudo sistema CTL. Inicio pedigrí. Busquemos el estado de un reinicio de servidores. Entonces pseudo sistema CTL status o se habían estado ejecutando. Volvamos a nuestra instancia de Kibana. Ahora aquí, su puntuación para apilar uno o conseguir primero, y vamos a hacer click sobre ellos. Y aquí se puede ver que tenemos que auditar pesos. También puedes ahora ir al tablero y vamos a elegir un tablero diferente esta vez. Vamos a elegir el panel de visión general del sistema. Este dashboard, te da una visión general de tus entornos como número de hosts en tu entorno, recuento de inicios de sesión, acciones de inicio de sesión, cambios de usuario distribución post, inicio de procesos y paradas, enchufes, abiertos y cerrados, cambios de paquetes, etc. También puedes ir a enumerar los eventos de tu sistema en la parte inferior derecha. Ahora, lo que quiero que hagas después de esto es ir e instalar auditoría superarte en servidor web para intentar también explorar otros dashboards disponibles y dashboards para auditar beat para ver qué tipo de información que puedes salir de este servicio. Con esto, llegamos al final de este video. Gracias por mirar. Te veré en la siguiente. 27. Packetbeat 7: En este video, vamos a discutir cómo puede instalar y configurar bit de paquete para monitorear tráfico de red entre sus aplicaciones. Packet es un analizador de paquetes de red en tiempo real que puede utilizar con Elastic Search para proporcionar un sistema de monitoreo de aplicaciones y análisis de rendimiento. Funciona capturando el tráfico de red entre servidores de aplicaciones. Y decodifica los protocolos de capa de aplicación como HTTP, MySQL, etcétera Puedes desplegarlo de nuevo en el mismo servidor que tus aplicaciones residen o alguien inexplicable en un entorno Cloud porque subrayaron que los dispositivos de red no están expuestos a usted. Es difícil desplegar cientos de roturas de paquetes en alguien. Por lo que en esta demo, implementaremos la tarifa de paquetes en nuestro servidor web y monitorearemos nuestro tráfico HTTP usando la tarifa de paquetes. Hay cuatro pasos para desplegar de nuevo y nosotros, primero, vamos a instalar Packet week. Segunda semana configure la tarifa de paquetes y los sniffer de tráfico y escritorio configurados flujos desniffer de tráfico y escritorio configuradospara nuestro repositorio de bucket. Vamos a configurar metric. Hemos estado monitoreando paquete. Y por último, vamos a empezar y habilitar paquete. Pasemos a nuestro sistema de laboratorio. Aquí en el lado izquierdo, tengo las instrucciones para instalar y configurar bit de paquete en el epsilon, en el lado derecho, tengo mi conexión SSH y mañana 1 de octubre, próximo paquete de instalación tarifa. Por lo que podemos teclear sudo apt-get install package y golpear Enter. Ahora una vez que el paquete instalado, puede comenzar a configurarlo a ese próximo primer CD e imprimir slash, ETC slash package bit. Aquí, si hago un ls, verás que tengo mi paquete, lee el archivo de referencia, al que puedo referirme cuando estoy configurando mi archivo de configuración de instalación de paquetes, que es paquete con punto YAML. Hagamos sudo. Número. Podría estar sucio Emma. En este archivo, lo primero que tengo que configurar es la interfaz de red desde que quiero oler datos . Máquinas Linux. Tener un valor de cualquiera que significa oler ese tráfico desde toda la interfaz conectada. O puede especificar una interfaz de red particular para apuntar solamente a la red perfecta en esa interfaz. Ahora lo dejaremos como predeterminado y lo siguiente en flujos de paquetes están habilitados por defecto. Para flujos deshabilitados, puedes configurar habilitada como false y configuración de flujo para desactivarla, pero lo dejaremos como habilitada. Y ahora es el momento de configurar los protocolos para los que queremos monitorear los flujos de red. Ahora esto está bajo paquete protocolos Bedard. Ahora aquí monitorearemos las herramientas de red para ICMP, IPv4, DNS, un HTTP deshabilitado. El resto de los flujos tendrán que comentarlos. Haré eso ahora. Ahora una cosa a tener en cuenta es que el campo deportivo se utiliza para configurar los puertos para los que desea monitorear la información de flujo para su servidor web podría estar ejecutándose en una prueba de puerto diferente de uno de estos puertos predeterminados. Por ejemplo, su servidor web podría estar ejecutándose en el puerto 8,001. Flow para tu escenario de índice de servidor web, lo que tendrás que hacer es o bien venir aquí y agregar tu tablero específico como este, y también eliminar el resto de ellos. Ya que estamos corriendo en el puerto 80, mueven todos los demás puertos. Y ahora pasaré a la siguiente sección que es género. Aquí. Etiquetas poco comunes. Y mantendré que aparezcan las etiquetas. Después de esto, vamos a configurar algunos dashboards. Configurado, configuración dot dashboard sort habilitado como true. Así que permítanme primero descomentar esto y poner esto en verdad. Habilitará dashboards predeterminados para paquete con instancia de Kibana. Después de eso, tendremos descomentar post-sesión para Kibana y corregir la URL. Esta será la dirección IP interna de nuestra instancia predeterminada. Cuando haces 168 dot dot mp4. Después de eso, pasemos a la salida. Y la salida, lo primero que tenemos que hacer es corregir la URL para mi salida elástica, sección 921681 punto 34, que es IP interna de mi instancia ELK. A continuación, bajo protocolo, vamos a configurar el protocolo para que sea STDP. Ahora, después de esto, tenemos que configurar la autenticación, usuario Elastic, y la contraseña. A continuación, vamos a configurar el registro, descomentar el nivel de registro, pero dejarlo como antes, depurar selectores de registro, pero dejarlo como estrella predeterminada, que significa que todo Hay cierto sabe el archivo de Google. Necesito copiar esta configuración y pegarla aquí. Lo que hace esta configuración es que permite el registro, ser enviado a un archivo. Después especificamos los parámetros para el archivo que necesita ir, por ejemplo, la ruta del archivo, número de archivos a conservar y los permisos en ese archivo. Después de esta conferencia la configuración debe ser el monitoreo a través de la cuenta métrica. Copiar estos dos cirujanos, y pegarlo aquí. Ahora el primer ajuste permite HTTP quiere beber, y el segundo ajuste. Ese podría ser el puerto que necesita para centralizar los datos de monitoreo. Lo que haremos es configurar este puerto en nuestro archivo beat expect son limitados. Así que guardemos este archivo. Después de esto. Editemos nuestros fondos expertos. Entonces sudo, nano slash, ETC recortar modelos retributivos sin duda esperan. En este archivo y la sección host, tenemos que agregar la URL para nuestro paquete leer comas militares comas espacio cotizaciones http localhost. En la corteza parte 070. Puedo salvar esto. Después de esto, primero verifiquemos que el peso métrico está funcionando. Así pseudo sistema CTL status. Ahora esto se está ejecutando. Ahora empecemos nuestro paquete con instancia. Así inicio de pseudo sistema CTL. Hagamos un estado en los bits de paquete. Entonces pseudo quiste a estado CTL se está ejecutando sin problemas. Kibana UI, para mirar a algunas de las personas son dashboards que son creados por paquete. De la página de inicio de mi Kibana UI. Primero iré al menú. Iré a estampar en él. Tenía impuro. Ir a la sección cuatro latidos. Y puedo ver que hay un paquete de beat board con, por lo que puedo hacer click en beats. Demos clic en el óptimo. Podía leer. Se puede ver que comenzó a recibir algunos datos. A nuestra instancia de backend. En realidad mira algunos dashboards que han sido creados por paquete para nosotros en nuestro panel experto en Kibana UI. Aquí. Vamos a escribir en paquete. Entonces vamos a hacer clic en el Panel de Control que dice que podría leer como es el PIB, sí. Ahora aquí, este dashboard le da las transacciones STDP, por ejemplo, número de transacciones, estratos, puntuaciones, e informes, historial de doctrinas, solicitudes de DB, etcétera Del mismo modo, también puede mirar netos doctores. Y aquí se pueden ver conexiones a lo largo del tiempo de publicaciones creando tráfico, mensajes, recibiendo tráfico, tráfico de red entre hosts. Dns llenos de vista, puedes obtener algunos datos relacionados con DNS. Por ejemplo, DNS consulta alguien en sus solicitudes a lo largo del tiempo, los tipos de pregunta en sus IPs de cliente y servidor, a menudo preguntas para DNS. Ahora a continuación, también puedes ver si las transacciones de CPS. Puedes ver conteos de cuello y declinación, conteo de transacciones, columnas en blanco, transferencia de datos, raya, solo escribe a lo largo del tiempo. Ahora este es el polo de tu salpicadero. Puede mirar a los clientes que están tratando de acceder a sus sitios web en sus transacciones. Transacciones, tipos de transacciones, respuesta a lo largo del tiempo, percentiles de tiempo de respuesta , error versus transacciones exitosas , términos que no buscaron, etc. Lo que quiero que hagas después de esto es que te quiero para desplegar en servidor web. Esto llegará al final de este video y tú estás viendo, te veré en el siguiente. 28. Cómo implementar un cluster de varios nodos: Hey chicos, En esta conferencia crearemos un clúster de Elasticsearch de 3 nodos con dos nodos siendo elegible maestro también separará nuestra aplicación Kibana en su propia instancia. La comunicación entre los nodos de búsqueda elástica será sobre SSL y la comunicación entre Kibana y nuestro clúster de Elasticsearch será sobre HTTPS. Ahora, aquí hay algunos pasos. En primer lugar, crearemos tres nodos de Elasticsearch en nuestra cuenta de prueba de GCP. Entonces también crearemos una VM Kibana en nuestra cuenta de prueba de GCP. Después de eso, instalaremos la búsqueda elástica, los tres nodos de Elasticsearch e instalaremos Kibana en su propia carga. Entonces generaremos una CA de búsqueda elástica, y crearemos todos los certificados. Esto se debe a que estaremos usando certificados autofirmados. Si no quieres hacer eso, puedes generar solicitudes de firma de certificados y obtener de tu empresa o una CA pública para que te den los certificados para tu clúster. Una vez que tengas los certificados, distribuirá estos certificados a todos los nodos. Después configuraremos Elasticsearch y Kibana. Y por último, nos aseguraremos de que los nodos de Elasticsearch se unan al clúster de Elasticsearch y el nodo Kibana pueda comunicarse con Elastic Search a través de HTTPS. Así que empecemos. Como pueden ver, estoy dentro de mi página de instancias de VM de Compute Engine. Aquí. Daré click en Crear Instancia. Voy a hacer clic en Las nuevas mujeres sienten desde plantilla, y elegiré plantilla ELK y haga clic en Continuar. Cambiaré la región a US West One. Mantendré el nombre como ELK uno. Y bajaré a la sección de redes, ampliaré esto y luego lo ampliaré trabajando. Me aseguraré de que esta VM sea una VPC de búsqueda elástica y en subred de monitoreo. Y después de eso, haré clic en crear. Ahora una vez creada esta VM, puedo crear dos más. Una vez que haya creado las tres instancias de búsqueda elástica, volveré a hacer clic en el botón Crear Instancia para finalmente crear mi instancia de cámara, haré clic en la instancia de VM de Template y volveré a usar mi Plantilla ELK y haga clic en Continuar aquí, voy a cambiar el nombre a Kibana, cambiar la región de nuevo núcleo hacia abajo a networking. Asegúrate de que esté bajo subred de monitoreo y haz clic en Crear. Por último, tengo mis tres instancias de Elasticsearch y mi incienso Kibana listos continuación probaremos la conectividad a todas ellas. Lo que voy a hacer es primero hacer clic en estas tres líneas para cambiar la visualización de la columna. No quiero zonas porque conozco todas las zonas teorema. No quiero recomendaciones en uso por, y voy a hacer clic en Aceptar, ahora cambiaré el tamaño de la ventana de mi navegador para abrir mi terminal. Así que ahora tengo mi cuenta de prueba GCP, el lado izquierdo, y mi terminal para Mac en mi lado derecho. Y revisaré la conectividad desde mi Mac a la dirección IP externa de mis instancias GCP. Por lo que escribiré en espacio SSH, lo laboratorio en, y luego copiaré la IP externa y pegaré y presionaré Enter it. Sí, podré iniciar sesión en la primera instancia. Entonces abriré una nueva pestaña con perfil básico. Aquí escribiré en el laboratorio SSH en entonces la luz extra tenemos la segunda instancia y entra, sí, lo mismo. Agregaré otra pestaña, SSH, lo laboratorio en, y luego copiaré la dirección IP de la siguiente instancia. Sí. Por último, voy a copiar la IP externa de la instancia de microbiología, abrir una nueva pestaña y hacer bit de laboratorio SSH en y pegarlo aquí. Tomó años y ahora soy capaz de conectarme con todos ellos. Por lo que minimizaré esto y comenzaremos a configurar nuestras instancias. Entonces primero tendremos que instalar la búsqueda elástica en todas las R3, tres instancias de Elasticsearch. Así que por favor adelante y puedes seguir los mismos pasos que te he mostrado en una implementación de un solo nodo. Simplemente no configures el punto Elastic Search YAML Sin embargo, solo instálalo y vuelve y haré lo mismo en estas instancias. Después de haber instalado la búsqueda elástica en las tres notas de Elasticsearch, es hora de instalar Kibana en el nodo Kibana. Ya instalé la clave pública de firma y guardo esa definición de directorio. Entonces todo lo que tenemos que hacer en esta instancia es sudo APT get Update and end. Sudo APT consigue instalar Kibana y pulsa Enter. Ahora como se puede ver, Kibana se instaló con éxito en esta máquina después de que Gibbon no almacené. Lo que haré es pasar a la Terminal de Visual Studio para poder referirme a mis notas mientras estoy configurando los servicios. Aquí en pantalla, tengo mi ventana de Visual Studio Code abierta con mis notas en el lado izquierdo y el terminal en el lado derecho y arriba arriba, he usado este ícono plus para crear cuatro pestañas cada uno en mi carga individual en la cuenta GCP. Por lo que primero comenzaremos a configurar la máquina ELK one. Aquí. Voy a hacer sudo VI slash, ETC, slash Elastic Search slash elastic search.html. Aniquilar entrar. Iré a Insertar. Y lo primero que tengo que hacer es que necesito configurar un nombre para mi clúster. Esto tendrá que ser lo mismo en todos mis últimos nodos de esfuerzo o limite el subrayado demo ELK. A continuación le daré un nombre a este nodo. Llamaré a este nodo ELK uno. Podemos mantener la ruta a los datos y el directorio de registro igual, eso está bien. A continuación entraré a la red y cambiaré el valor del host de punto de red a 0. punto 0 es 0. A continuación voy a descomentar el puerto de punto STDP. A continuación, tendremos que especificar los hosts semilla para nuestro clúster. Estos son los anfitriones iniciales. El cual formará nuestro clúster aquí, pondré en la dirección IP privada de todos mis nodos de Elastic Search. Si entro a mi consola GCP, las IPs privadas son 192.6781681. Entonces eso es lo que vamos a entrar aquí. Después de que proporcionamos hosts semilla, necesitamos proporcionar qué nodos se pueden dominar elegibles. Queremos que ELK maravilla Neil K2 sea master elegible. Entonces eso es lo que vamos a entrar aquí. Escribiré EL k1 y k2. Ahora, eso es todo por este expediente. Por ahora, puedo guardarlo un signo de exclamación q azul. Ahora una vez que haya hecho eso, lo que tendré que hacer es que necesito ir a user share Elastic Search y estado ahora una vez dentro de bin, podemos hacer un ls y verás que hay una utilidad llamada Elastic Search dash 30 hotel. usaremos para crear primero una CA y luego generar algunos certificados para una replicación, estos certificados serán certificados autofirmados. Entonces empecemos primero, tenemos que generar un vidente. Haz eso, escribiremos sudo dot slash Elastic Search dash sagital. Y para generar un vidente, el comando es C, y vamos a golpear Enter. Podemos mantener los valores predeterminados y sin contraseña para el CEO. Este archivo dot p12 es en parte cuota de usuario Búsqueda Elástica. Entonces voy a hacer un LS aquí para asegurarme de que este archivo esté ahí, ahí está. Ahora CFI IS, se genera. Tenemos que generar ahora los certificados SSL para ser utilizados por las cargas de Elasticsearch. Lo que haremos es volver a entrar en estado otra vez y voy a golpear flecha hacia arriba para ir a mi Elastic Search Utility comando elimina CA, y esta vez escribiré insert porque quería generar certificados. Y para generar los certificados, tengo que proporcionar una CA, escribiré en dash, dash C, y vamos a copiar el nombre de nuestro archivo CAP 12 y ponerlo aquí porque el archivo está bajo estancia por ubicación. No tenemos que proporcionar un camino totalmente calificado hacia y voy a golpear Enter cuando pida una contraseña para ca, no proporcionamos una cuando estábamos generando el CS, por lo que está bien, podemos golpear Enter. Ahora vamos a aceptar los valores predeterminados para el archivo de certificado también, o contraseña. Ahora este archivo también debe estar en la acción de usuario Elastic Search. Entonces voy a entrar en ese directorio y hacer una ls. Y este es nuestro archivo de certificado de búsqueda elástica. Ahora, esto es para el SSL. Entonces si volvemos a nuestro PowerPoint, esto es para la comunicación entre los nodos de Elasticsearch. Para la comunicación de Kibana, necesitamos crear un certificado STDP. Ahora para hacer eso, podemos cd en been. Esta vez escribiré sudo dot slash elastico search sergio tabla. Y aquí escribiré en STDP, regenerar el SGD serán certificados. No quiero generar una CSR, así que escribiré ahora, esta es la opción que usas cuando estás usando una CA de terceros, por ejemplo, la CA de tu empresa, CA pública. Pero como estamos usando los certificados autofirmados, escribiré 0 y presionaré Enter. Sí, queremos usar un CS existente, así que escribiré sí, al siguiente quiere la ruta a mi archivo CASB T12. Por lo que voy a copiar la ruta que es usuario share Elastic Search. Lo copiaré aquí es Elastic Search ca dot p12. Así que voy a copiar eso aquí también, y voy a golpear enter. Ahora no hay contraseña para este archivo SCF. Ahora a continuación me pregunta cuánto tiempo quiero que los certificados sean válidos. Ahora, quiero el defecto, así que lo guardaré como cinco años después se pregunta si, si quieres generar un certificado por carga en una configuración de producción, podrías. Por lo que irás sí aquí, pero por ahora haré click en No y pegaré Enter. Ahora quiere los nombres de host para todos los nodos, o podemos proporcionar comodines. Ahora, te mostraré algo por un minuto. Se irá a otra instancia. Ahora aquí vamos a hacer slash sudo V, ETC, slash hosts para abrir mi archivo host. Ahora, todas las instancias GCP tienen un DNS interno, que se ve así. Supongamos que el nombre de host que proporcionó durante la configuración, la región allí m punto c, y luego el proyecto en el que están y luego punto interno. Lo que haremos es generar un certificado usando star dot interno. Tercer tipo en estrella para cubrir todo, desde nombre de host, dot region dot dot project. Y luego escribiré interno y pulsaré Enter, y luego vuelvo a pulsar Enter, voy a ir sí, eso es correcto. Ahora quiere que proporcionemos las direcciones IP de todos mis nodos. Así que voy a hacer eso. 92 punto 168 dot un punto 6190 dot 168 dot un punto 7192 dot 168 dot un punto ocho. Tenga en cuenta, obviamente, esto será diferente para usted. Entonces lo que tendrás que hacer es que vayas a tu consola GCP y mirar las IPs internas y proporcionarlas en este lugar. Si estos no son correctos, sus nodos no se unirán al clúster. Por lo que escribiré Entrar a Entrar de nuevo para salir. Sí, estos son correctos. No quiero cambiar ninguna opción. Daré click en No, no quiero proporcionar ninguna contraseña. Da click en Entrar y aceptaré todos los valores predeterminados. Y esto debería crear un archivo zip en mi ubicación de búsqueda elástica de uso compartido de usuarios. Entonces vamos a ir un nivel por encima de un claro y hacer un ls. Ahora hemos generado un archivo, un certificado para los nodos de Elasticsearch, y un archivo zip. Ahora veamos qué hay dentro del archivo zip. Por lo que escribiré descomprimir Elastic Search dot zip. No puede encontrar el Descomprimir. Entonces esa es una solución fácil. Voy a escribir sudo apt-get install, descomprimir, saber qué está descomprimiendo instalado. Haremos el mismo comando y adjuntaremos pseudo agravio claro fuera de esto para analizar. Ahora, tenemos que ir dentro de esta carpeta. Entonces voy a hacer cd Búsqueda Elástica. Y a menos que tenga el archivo STDEV dot p12. Ahora vamos a ir un nivel arriba y hacer análisis de nuevo, también había una carpeta Kibana. Entonces vamos a entrar ahí. Y siempre que haya una búsqueda elástica archivo CA Him. Entonces hay un archivo http dot p12 y un archivo ca dot vm que fue creado en esto ahora es lo que haremos es mover todos estos archivos relevantes a mi directorio temporal de barra para poder descargar todos estos y luego los distribuyeron a través de los préstamos. Así que primero voy un nivel arriba claro, cuando Alice, voy a hacer una copia de certificados de guión elástico para copiar primero el archivo de certificado para cortar TMP, y tendré que agregar un pseudo. Ahora a continuación necesito copiar mi CFL Elastic Stack, ca dot p12 slash TMP slash. A continuación necesito hacer una sudo copy Elastic Search slash el archivo STDP dentro la carpeta Elastic Search, tmp también. Y por último, necesito hacer una copia sudo Kibana y el archivo Elastic Search ca dot PEM dentro de esa carpeta Kibana para cortar TMP. Ahora una vez que he hecho eso, necesito ir dentro de la carpeta TMP slash. Y lo que haré es hacer un mod CH y dar permisos completos a todos los que estén en estos archivos. Tan estrella elástica, y lo haré usando sudo y finalmente pseudo CH mod 777. Haré eso por mi archivo STDEV.P 12 cuando ls menos l para asegurarme de que se haya hecho, parece que lo es. Ahora, antes de descargar estos, trasladará directamente al conflicto los archivos de certificados correspondientes para este nodo en particular. Entrémonos en ETC. Barra Elástica Buscar tipo en sudo SU. Primero iremos al CD, ETC, Búsqueda Elástica. Aquí crearemos un directorio llamado search. Una vez hecho eso, copiaremos el certificado SSL para nuestra Búsqueda Elástica, que es este certificado en búsqueda elástica de uso compartido de usuarios en la carpeta de búsqueda, copiar slash usuarios slash slash Elastic Search. Y el certificado es certificado elástico almacenado B12. Y vamos a copiar el certificado dentro de la carpeta fuente, barra de búsqueda, pulsamos Enter, luego vamos a hacer un cd en esta carpeta de búsqueda, asegurarnos de que el certificado se haya copiado correctamente, eso está hecho. Ahora, lo que tenemos que hacer es dejarnos ir un nivel arriba aquí, volveremos a Editar nuestro archivo Elastic Search dot YAML. Entonces voy a hacer un VI elástico search.html. Y dentro de este archivo tendrá que bajar directamente a la seguridad y bajo seguridad copiará algunos ajustes de seguridad de mis notas. Por lo que espera seguridad habilitada true habilita los espera seguridad espera seguridad transporte SSL enable true habilita el SSL en el transporte, utilizamos el modo de verificación SSL I certificado y nos aseguramos de que es obligatorio que los clientes sean autenticados. Y por último, tendremos que proporcionar la KeyStore y confianza o parte para nuestro archivo de alumno punto certificado elástico, que acabamos de copiar en carpeta fuente dentro de Della dicho conflicto directamente. Pero antes de hacer eso, porque nos movemos a la tercera carpeta, tenemos que proporcionar el FQDN de esa parte. Entonces vamos a escribir en slash, ETC slash Elastic Search slash search slash elastic certificate store quit. Bueno, copiamos eso y lo pegamos aquí también. Y ahora podemos copiar todos estos ajustes, pegarlos aquí. Antes de seguir adelante, también tenemos que habilitar comunicación https u otro clúster para eso, tendremos que habilitarlo primero como GDB, otro clúster, y luego tenemos que proporcionar un pot al SGD P. archivo volve. Como hemos hecho antes. Te proporcionaré el FQDN porque has cambiado el pot ADC Elastic Search slash slash SRB dot py archivo, y copia estas dos configuraciones hacia la parte inferior de mi archivo YAML de punto de búsqueda elástica. Y ahora puedo guardar este archivo. Ahora, una vez que hayamos hecho eso, copiaré este archivo a mi carpeta Temp también. Y de nuevo, voy a hacer un CH más. Entonces y así y así sucesivamente. En mi Elastic Search dot YAML archivo dentro de ellos están éste y pulsa Enter y ahí está copia nuestro certificado introductor sedentario. Así copia slash, usr slash share slash Elasticsearch, elasticsearch slash STDP dot py habitan en búsqueda de búsqueda elástica ATC. Y pasemos a la carpeta fuente para asegurarnos de que este archivo esté ahí. Ahora, volvamos a nuestra ventana de consola GCP para descargar todos estos archivos. Ahora aquí en la consola para GCP, haré clic en SSH junto a mi ELK una instancia. Esto abrirá la SSH para esta instancia en una nueva pestaña del navegador. Ahora una vez terminadas las conexiones SSH, haga clic en el botón Configuración en parte superior derecha y haga clic en Descargar archivo, y desde aquí, dale el FQDN. Entonces slash temp slash elásticos certificados dot p12 y da clic en Descargar. Hemos descargado el primer certificado. Ahora a continuación tenemos que descargar nuestro archivo STDEV dot p12. Entonces slash términos slash std p.volve es descargar esa vez. Después haga clic en el archivo de descarga de nuevo. Esta vez estaremos descargando el archivo dot PEM. Entonces para obtener el nombre, entraré en mi directorio temporal para analizar y obtener el nombre de mi archivo PEM dot. Aquí. He descargado eso. Ahora. A continuación necesitamos descargar nuestro archivo corto YAML Elasticsearch. Por lo que haré clic en Descargar archivo y recortar términos slash Elastic Search dot YAML, y haré clic en Descargar. Una vez hecho eso, puedo cerrar esta pestaña SSH y abrir una nueva pestaña a mi ELL k2. Ahora una vez abierto el SH2 GLP-2, volveremos a hacer clic en el botón Configuración, hacemos clic en Subir Archivo, y iremos a la ubicación donde hemos descargado los certificados. Y el primer archivo, uno es el certificado de búsqueda elástica. Y voy a hacer clic en Abrir, y esto subirá este archivo a casa slash elaborada formación tres. Y el siguiente archivo que quiero aquí es el archivo HTTP. Por lo que volveré a hacer clic en subir y subir el SGD p.volve a la misma ubicación. Y por último, subiré mi search.html elástico, este archivo. Ahora, una vez que hemos hecho eso, tenemos que subir estos tres archivos a la tercera instancia de Elasticsearch también. Entonces voy a hacer eso ahora. Una vez que hayas subido los archivos a ELL K3, tenemos que ir a la instancia de Kibana, hacer lo mismo, pero esta vez solo tenemos que subir el archivo Elastic Search ca dot vm. Por lo que haré clic en el botón Configuración, haga clic en Subir archivo y el archivo PEM punto para ver Elastic Search y haré clic en Abrir. Ahora, una vez que hayas subido todos estos archivos, todos han sido subidos al directorio home del usuario en ejecución del laboratorio o a tu usuario individual en tus máquinas Linux. Tenemos que copiarlos en la parte correcta. Primero, vamos a ELL K2 aquí. Pasemos primero a casa slash lab capacitación de TI tres. Y puedes ver si tienes un archivo YAML de punto Elastic Search y dos archivos de certificados. Primero en cuanto a sudo SU para convertirse en raíz. Entonces iremos dentro nuestro directorio de búsqueda elástica aquí crearemos un nuevo directorio llamado search, copiaremos nuestros certificados en este nuevo directorio. Entonces STDEV punto p12 en tercios slash. Y a continuación está el certificado de Búsqueda Elástica. Tan elástico certificado dot py herramienta y para buscar, ahora vamos a entrar en el tercer selector para asegurarnos de que han sido copiados y hacer análisis aquí, eso está bien. Ahora, necesitamos reemplazar nuestro archivo YAML punto Elastic Search existente por el nuevo archivo que acabamos de copiar. Así copia slash casa slash laboratorio ejecutando tres slash elastic search.html en ETC slash Elastic Search. Y vayamos un nivel arriba y hagamos un ls menos l Y aquí tendremos que cambiar algunas configuraciones dentro de este archivo YAML Elastic Search dot. Entonces sudo nano elastic search.html tendrá que bajar a nuestro nombre de punto nodo, y tendremos que cambiar esto a ELL K2, ec2, y eso debería ser. Ahora parece que he hecho un typo y cargue el nombre de punto. Necesitamos que esto sea elk dash, el número de carga 12 o tres. Así que déjame simplemente revisar lo que he hecho en k1 real aquí en mi ELK uno. Entonces iré a ETC, Elastic Search y haré un nano sólo lo último, search.html. Y voy a cambiar esto para guiar a uno también. Y guardaré esto ahora que hemos recogido, guardemos este archivo también y pasemos a ELK a3. Entonces tenemos que hacer lo mismo. Así pseudo copia slash home slash biblioteca entrenamiento tres slash http dot slash elastic search.html to slash, ETC. Slash Elastic Search creó la carpeta y copió todos los certificados correctos en su ruta. Ahora lo que podemos hacer es que podamos hacer un archivo nano o no elástico search.html y podemos cambiar el nombre de carga. Podemos guardar este archivo. Ahora pasemos a nuestra instancia de Kibana. En Kibana, solo había un archivo, lo que a domicilio elaboró capacitación tres por parte de la lista de proveedores. Sólo hay una Búsqueda Elástica, punto PM. Entonces vamos a hacer un sudo SU, Es Co2, ETC. Slash Kibana, haz un nuevo directorio llamado buscar aquí y copia el archivo Elasticsearch ca dot vm de nuestro directorio de entrenamiento de nivel para buscar. Y ahora vamos a hacer un nano en el teclado AutoML aquí, lo primero que tenemos que hacer es que tenemos que descomentar el puerto punto del servidor. Entonces tenemos que cambiar los hosts de punto del servidor a 0. Y aquí donde dice servidor URL base pública, tenemos que proporcionar la URL, ese escritorio Kibana servicio Goneril, no, no vamos a hacer HTTPS para nuestra interfaz GUI de Kibana. Lo que haré es escribir en la slash de la slash http. Voy a instancias de VM, copio la IP interna de la instancia de microbiota, pego aquí y configuré Kibana para ejecutarse en 5601. Por lo que escribiré que los que han hecho que primero tenemos que especificar son varios nombrados para Kibana. Así que voy a descomentar ese tipo de rol en demo Kibana aquí y aquí necesitamos especificar todas las instancias de Elastic Search para nuestras consultas. Así que básicamente si solo quieres que tus consultas se ejecuten en una sola instancia de Elasticsearch, tendrás que especificar la dirección IP de esa incidencia. Pero debido a que queremos que se ejecuten en todas nuestras instancias, voy a suministrar aquí todas las instancias de Elasticsearch. Volveré a mis notas y copiaré esta cadena desde aquí, y voy a quitar esto y la pegaré, y corregiré la diádesis. El que he hecho eso. Lo siguiente que tenemos que hacer es que tengamos que proporcionar la ruta del archivo dot bm. Para ello, tenemos que acudir a Elastic Search dot SSL certificaciones autoridades, y lo descomento. Y aquí la izquierda para suministrar las partes a mi archivo ca dot vm. Así que eliminaré todo eso y teclearé ETC slash Kibana slash search slash el nombre de nuestra Elasticsearch Buscar dot vm archivo slash Elasticsearch ca dot pm. Y una vez que haya hecho eso, puedo seguir guarde este archivo. Ahora es el momento de iniciar nuestro clúster de Elasticsearch. Ahora voy a ir a mi máquina dada de rendimiento. Teclearé el sistema CTL, iniciaré Elastic Search, y luego iré a mi máquina. En fuera de aquí CTO del sistema, inicia Elastic Search y escribe sudo al frente. Y luego iré a mi tercera máquina, pero lo mismo. Entonces pseudo sistema CTL inicia Elastic Search y entró, vamos a ver si el primer juego de instancia de Elasticsearch de multa, parece que hubo un problema. Entonces para solucionar cualquier problema cuando pueda usar general CTL menos f menos u y luego el nombre del servicio. Entonces echemos un vistazo. Es justo iniciar el servicio. Otro lugar al que puedes ir buscando es el registro de ropa interior Elastic Search. Si hacemos un ls, habrá un archivo de registro de puntos. Así que vamos a hacer un gato en eso. Dice exceso de noche al expediente del certificado. Así que volvamos a nuestra carpeta Elastic Search. Déjame aclarar todo aquí. Vamos a hacer una carpeta de certificado ls menos l r es grosero puntuación de búsqueda elástica. Inserta ahí y haz una, déjame S menos L. Nuestro certificado Elasticsearch tiene permisos r, w, y luego nada para el grupo. Ahora podríamos necesitar cambiar esto, así que haremos el modo CH. Y por ahora solo voy a escribir 777 y Elastic Search certificado dot p12. Y haré lo mismo por mi HTTP. O para averiguarlo para una implementación de producción, es posible que deba mirar los permisos en el certificado, pero por ahora, solo intentemos iniciar el servicio con estos permisos. Parece que empezó a encontrar esta vez. Entonces vamos a hacer un sistema CTL, estado Elastic Search. Aviso que ya está hecho. Podemos ir a la otra instancia y esos CDC Elastic Search como para sudo SU aquí vamos a dibujar ETC, Elastic Search y luego ls menos l y mirar la carpeta fuente a menos que coincida eso. Y echemos un vistazo a los permisos en el certificado ahora, miremos el estado en esta máquina. Entonces éste está corriendo. Echemos un vistazo a los datos de la tercera máquina. Para que como puedes ver, si hay un problema de permisos, posible que tu servicio no surja. Si vuelvo a mi primera instancia, todo lo que tienes que hacer es si te encuentras algún problema para iniciar este servicio de Elastic Search, puedes ir a donde registra Elasticsearch para analizar y mirar este archivo . Y como he mostrado anteriormente, te dará un indicio de dónde se hace el error por ahora, también te he mostrado cómo cambiar permisos en varios archivos para resolver cualquier problema. Ahora, como se puede ver, con permiso de 755, este certificado cargó correctamente. Entonces probablemente lo que tenemos que hacer es ir a ATC Elastic Search y entrar en búsqueda, cambiar los permisos a 755 en este certificado de Búsqueda Elástica también. Y intentemos hacer lo mismo por nuestro certificado STDP Bidwell a menos que intentes reiniciar los dólares de servicio a un estado CTL del sistema, búsqueda plástica se está ejecutando. No aclaremos. A continuación, tenemos que generar las credenciales para nuestro clúster de Elasticsearch. Vamos user share Elastic Search y estado dentro del análisis de beneficios, hay un archivo de contraseñas de configuración, por lo que vamos a hacer barra de Elasticsearch conjunto de contraseñas. Y voy a hacer auto para auto-generar todas mis contraseñas. Ve, sí, y ha generado la contraseña para este clúster para mí, los copiaré en archivos. Tengo esto. Ahora antes de hacer algo, necesito ir a mi instancia de Kibera y luego cuarto mi teclado sin punto YAML archivo. Yo haré sudo archivo SU Kibana. Y aquí aprenderé sobre Kibana rodamina. Y en este archivo entregaré las credenciales para mi usuario del sistema Kibana. Por lo que de esta manera usaremos la autenticación de contraseña para que nuestro Kibana se comunique con Elastic Search. Copia esto, y guarda este archivo. Y empecemos a Kibana. Hagamos un estatus en este servicio es vector. Ahora lo que podemos hacer es volver a nuestra instancia de Elasticsearch, amarilla dada, y vamos a obtener el estado de este clúster para asegurarnos de que los tres nodos se hayan conectado. Ilustrador. Entonces iré a mis notas, copiaré el comando curl y agregaré el nombre de usuario y contraseña para Elastic user a este comando menos u elastic y luego proporcionaré la contraseña para este espacio de usuario. Y golpearé Enter y cambiaré el STDP a HTTPS. Y me imaginé este error cuando intentas conectarte a través curl que hay un certificado autofirmado y una cadena de certificados. Todo lo que tienes que hacer es que tengas que decirle a curl que ignore un certificado autofirmado irá justo en la parte superior derecha después de Carl y menos k y pulsa Enter. Y aquí se puede ver que nuestro clúster tiene tres nodos, se llama Demo ELK y el estado de este clúster es verde. Esta es una respuesta positiva. Entonces lo que haremos es copiar la dirección IP pública de nuestro Kibera en su lugar y ver si pueden llegar a la interfaz de usuario de Kibana usando esto sí ejerce uno y la interfaz de usuario de Kibana está cargada. Entonces lo que haremos a continuación es que intentaremos ver si podemos iniciar sesión usando el usuario elástico. Copia la contraseña. Banda elástica proporcionó la contraseña o lo que sea aquí. Ahora haga clic en Explorar por mi cuenta. Para que como se puede ver, yo no hice la solución fue exitosa. Así es como se puede crear un clúster ELK multimodo. Con esto, hemos llegado al final de esta conferencia. Gracias por mirar. Te veré en la siguiente. Adiós. 29. nodos de elasticsearch: Hey chicos, en esta conferencia, echemos un vistazo a un clúster de Elasticsearch un poco más de detalle. Y el clúster de Elasticsearch es un grupo de una o más instancias de nodo que están conectadas juntas. Ahora, ¿qué es la Búsqueda Elástica y carga? Un nodo de búsqueda elástica es un único servidor que forma parte de un clúster. Y lo que eso significa es que todos estos nodos dentro del archivo de configuración elástico o corto YAML tendrán la misma configuración de nombre de punto de clúster. Por lo tanto, todos los nodos que tienen la misma configuración de nombre de punto de clúster misma pueden formar un clúster. Un nodo almacena datos y participa en las capacidades de indexación y búsqueda de clústeres a medida que un nodo se une u sale de un clúster, el clúster se reorganiza automáticamente para distribuir uniformemente los datos a través de todos los nodos disponibles en ese clúster. Entonces en caso de pérdida de un nodo, no pierdes los datos y está disponible en todos los demás nodos. Ahora, si estás ejecutando una sola instancia de Elastic Search, este tipo de clúster es totalmente funcional, pero en caso de perder tu nodo, perderás todos tus datos. Entonces si tienes requisitos de alta disponibilidad o tolerancia a fallas, estás mejor con el clúster. Ahora, los nodos de un clúster de Elasticsearch pueden tener múltiples roles. Esto lo especifica Node.js goal-setting en tu archivo YAML de estrategia de búsqueda elástica. Ahora aquí en la pantalla, te he dado un breve resumen de todos los roles de nodo que están disponibles en Elastic Search. Y ahora echemos un vistazo a cada uno de ellos. En primer lugar, echemos un vistazo a los nodos elegibles dominados son nodo maestro en un clúster de Elasticsearch es responsable de acciones livianas en todo el clúster como crear o eliminar un índice, rastrear que los nodos forman parte del clúster y deciden qué gráficos asignar a qué nodos. Entonces, básicamente, qué datos se almacenan en qué nodo es importante que la salud del clúster tenga un nodo maestro estable porque el nodo muscular realiza todas las actividades de gestión del clúster. Y si tu nodo maestro es más estable, tu clúster no puede averiguar qué está pasando. Ahora, hay dos tipos de nodos maestros elegibles. Se puede tener un maestro dedicado o un maestro único de votación ahora son nodo maestro dedicado, como su nombre indica, es un nodo dedicado que actúa como un nodo maestro para ese clúster. Ahora este tipo de configuración es beneficioso si tienes un clúster muy grande y tus tareas de gestión de clústeres son tanto que necesitas proporcionar una norma muscular dedicada para clústeres más pequeños, probablemente no necesites un nodo maestro dedicado. Se especifica qué nodo es un maestro dedicado al proporcionar únicamente el valor maestro en el valor de roles de punto de nodo. Este nodo no actuará como ningún otro nodo. Ahora, un segundo tipo de carga principal elegible puede ser un nodo maestro de votación solamente. Ahora, este tipo de nodo puede participar en una elección maestra, pero nunca puede ser un nodo maestro. Por lo que puede proporcionar que vale la pena cuando se está eligiendo a un maestro, pero nunca arrojará su nombre para ser un nodo maestro. Ahora a continuación, echemos un vistazo a las normas de datos. Datanodes sostienen las camisas que contiene los documentos que has indexado. Por lo que contienen un pedazo de datos que has almacenado en tu clúster. Datanodes manejaron operaciones relacionadas con datos como operaciones de creación, lectura, actualización y eliminación, tales operaciones de agregación. Estas operaciones son de entrada-salida, CPU y memoria intensiva. Por lo que siempre es una buena idea monitorear estos recursos en estos nodos de datos. Y cuando se sobrecargan para agregar más nodos de datos a tu clúster para igualar la carga. Ahora, puedes tener un DataNode de contenido que acomode contenido creado por el usuario. Y pueden idempotentes operaciones como grad o crear, leer, actualizar, y eliminar tales agregaciones en su clúster. Ahora, los nodos de datos se pueden configurar en varios niveles. Entonces echemos un vistazo a cada uno de ellos. Ahora para darte un ejemplo, digamos que tus datos han llegado recientemente a tu clúster. Digamos que tienes algunos datos de CRM que se han metido en el clúster y que acaba de llegar. Obviamente todos tus asociados de ventas o cualquier otra persona que necesite esos datos de CRM. Estaremos viendo estos datos en cuanto llegue. Por lo que se espera una alta frecuencia de búsqueda de este tipo de datos. Lo guardarás en el nivel caliente. Entonces estos son datos que acaban entrar y se están buscando con frecuencia. Ahora a continuación, digamos que los datos se han convertido probablemente con tres meses de antigüedad, por lo que su lista de clientes se ha vuelto un poco rancio. posible que tengas que hacer algunas búsquedas en él como fue cuando los datos apenas llegan, almacenarás este tipo de datos en el nivel cálido. Después de eso, aquí tienes igualdad. Esto es cuando los datos se hacen más viejos y rara vez ha sido tal apoyo. Almacenarás este tipo de datos en el nivel frío. Y por último, cuando los datos, por lo que todos los días sólo ad hoc una vez en un tipo de búsquedas de luna azul, entonces es posible que desee almacenar este tipo de datos en el nivel congelado. Una cosa de la nota del nivel congelado es que solo se pueden almacenar índices parcialmente montados en el nivel congelado. Entonces básicamente lo que sucede es que los datos en este nivel no se almacenan en el caché local. Hay una geisha compartida entre el clúster, y este tipo de datos se almacena en ese caché compartido. Por lo que obviamente las búsquedas se vuelven más lentas. Ahora la razón principal para tener este tipo de arquitectura es para que por ejemplo, para nodos importantes, pueda proporcionar más recursos, más CPU, más memoria, etcétera Entonces, por ejemplo, un solo nodo, pero un nodo único tendrá más recursos que un nodo frío y menos recursos que un nodo cardíaco. Y de igual manera, según nodo seguirá teniendo un caché local, pero este es probablemente un sistema más lento que un conocido. Por lo que de esta manera, puedes especificar recursos más baratos a los niveles a medida que envejece tus datos. Ahora, para especificar cada uno de estos niveles de datos. Por ejemplo, para especificar un nodo como que está en el nivel caliente, especificará bajo roles de punto nada, el valor de los datos subrayado Volumen. Y para su voluntario y cortesano, especificará los datos subrayan los datos de la mujer subrayan frío. Ahora a continuación echemos un vistazo al nodo ingest. Y el nodo de ingest puede ejecutar tuberías de preprocesamiento, que se componen de uno o más procesadores de ingest. Después de eso, tenemos nodos coordinadores. Ahora los nodos coordinadores se comportan como balanceadores de carga inteligentes. Lo que hacen estos nodos es digamos que tienes un clúster grande y tienes una gran cantidad de datos entrando en tu clúster. Estos nodos pueden actuar como equilibrador de carga y beneficiar al clúster al descargar la parte de coordinación de la tarea a algunos nodos específicos para que sus nodos de datos no estén sobrecargados. Ahora, a continuación, tienes lóbulos elegibles remotos. Lo que estos nodos pueden hacer es por ejemplo, usted tiene clúster uno y luego nuestro clúster remoto llamado agrupado a. Ahora puedes habilitar búsqueda Cross cluster entre estos dos clústeres. Y se puede definir un nodo como una carga elegible remota. Por lo que las consultas que golpean este nodo pueden realizar una búsqueda en el clúster remoto. Por lo que de esta manera, se pueden combinar los datos en dos clústeres, pero las búsquedas en un clúster remoto serán más lentas. Ahora a continuación tienes nodos de aprendizaje automático. Ahora estos nodos ejecutan trabajos y manejan solicitudes de API de aprendizaje automático. Y puede especificar este nodo configurando regla de nodo como ML. Y por último, has transformado nodos que transforma y manejan solicitudes de API de transformación. Puedes configurar estos Bye configurando el rol de punto de carga como transformada. Entonces estos son los tipos de nodos que puedes configurar en tu clúster de Elasticsearch. Con esto, hemos llegado al final de esta conferencia. En esta conferencia, he tratado de darte una visión general de los diferentes tipos de nodos en un clúster de Elasticsearch. Dondequiera que vaya a hacer es adjuntaré algunos enlaces en la descripción de este video. Para que puedas estudiar un poco más sobre los diferentes tipos de nodos en un clúster de Elasticsearch. Gracias por mirarte y te veré en la siguiente. Adiós. 30. Elasticsearch 8x: Hey chicos, elastic.co, la empresa matriz de Elastic Search, ha anunciado recientemente disponibilidad general de Elasticsearch versión ocho puntos x Esta versión tiene algunos cambios de ruptura y la los pasos de instalación también son un poco diferentes. Echemos un vistazo a estos ahora. Aquí en la pantalla, tengo lo nuevo en la página abierto desde la documentación de Elasticsearch. En primer lugar, introduce varios cambios de ruptura en las API de resto de Elastic Search. Pero lo que han hecho es que permitió compatibilidad 7 X, lo que debería darle tiempo suficiente, prepárese para una actualización. A continuación, las características de seguridad están habilitadas y configuradas por defecto. Al instalar Elastic Search, ya debería crear algunos certificados autofirmados e incluir algunos ajustes para seguridad en su archivo YAML del trazo de Elasticsearch. Después de eso es la seguridad en los índices del sistema. En la versión ocho punto 0, incluso el superusuario elástico no tiene acceso nativo a los índices del sistema. Para proporcionar acceso a los índices de un sistema, es necesario configurar, permitir el subrayado, índices de subrayado restringido permiso a true para un usuario en particular. Ahora, después de eso, hay algunas mejoras en la búsqueda, almacenamiento, indexación y procesamiento del lenguaje natural. A continuación, echemos un vistazo a las notas de lanzamiento. Ahora en la página de notas de lanzamiento, verá algunos temas conocidos, lo cual es básicamente incierto. Las plataformas Linux, la contraseña de usuario Elastic y el token de inscripción de archivador no se generan automáticamente, pero te da una lista de comandos que puedes ejecutar para generarlos después de la instalación. Entonces enumera todos los cambios de ruptura en esta versión. Ahora si ya estás apoyando un clúster de producción, te recomendaré que vayas y mires cada uno de estos cambios para asegurarte no haya sorpresas después de que se actualicen. Con esto, podemos pasar a instalar Elasticsearch ocho puntos 0 en nuestras VM. Ahora estoy dentro de mi plataforma GCP e instancias de VM, tengo una máquina ELK donde instalaremos Elasticsearch np.zeros. Copiaré la dirección IP externa de esta máquina. Y luego en mi Visual Studio Code, tengo algunos pasos en el lado izquierdo y mi terminal en el lado derecho. Entonces teclearé el espacio SSH, lo laboratorio en, y luego la dirección IP externa. Y haré clic en Entrar aquí, escriba sí. Y una vez dentro de la máquina voy a escribir en sudo apt-get update para actualizar el sistema. Entonces voy a borrar de esto y teclear en sudo apt-get install W llegar a instalar duplicado en esta máquina. Una vez que hayamos cerrado y almacenado, podemos comenzar con la instalación de ELK Stack. Entonces primero, descargaré e instalaré la clave pública de firma. Por lo que copiaré el comando y lo pegaré dentro de mi terminal y presionaré Enter. Ahora lo que haré es incluir todos estos comandos con la descripción de este video. Para que ustedes también puedan tener acceso a estos comandos. A continuación, instalaremos el paquete HTTPS transporte sbt. Después de eso, borraré mi pantalla y a continuación guardaremos la definición del directorio. Una cosa importante a tener en cuenta es que cuando dice ocho puntos x por 7.6 paquetes en este lugar, dirá siete punto x No hay nada importante en la URL. Apenas un pequeño cambio de siete a ocho y pegarlo aquí. Y esto debería descargar las definiciones del repositorio Elastic Search Adx en esta máquina. Ahora a continuación, estoy listo para instalar mi ELK Stack en esta máquina. Entonces copiaré este comando y lo pegaré aquí, y presionaré Enter. Ahora, durante la instalación, verá alguna ventana emergente de información bajo información de configuración automática de seguridad. Bajo este rubro, verá la contraseña elástica de superusuario incorporada. Entonces bajo esta línea que generó la contraseña para el superusuario incorporado elástico es esta. Es necesario guardar esta contraseña porque lo usaremos más adelante. Bajaré en mis notas. Yo lo guardaré aquí. Ahora después de que todo esté instalado, me despejaré de mi pantalla. Ahora desde aquí primero configuraremos nuestra Búsqueda Elástica. Así pseudo vía slash ATC, slash Elasticsearch, elasticsearch start ML. Ahora en este archivo, primero cambiaremos el nombre del clúster. Lo llamaré demo ALK. Entonces cambiaré el nombre del nodo, que llamaré ELK one. A continuación bajaré a host de punto de red y cambiaré el valor del valor predeterminado a 0 punto 0000. Después de eso, descomento el puerto, pero lo dejaré como predeterminado de 90 a 100. Dado que se trata de un clúster de un solo nodo, no necesitamos hacer nada bajo descubrimiento hasta el puerto http dot. La configuración fue similar a lo que teníamos que hacer para 7 x desde un vértice en adelante, comenzarás a ver una sección llamada Pickin security auto configuration en el archivo corto YAML de Elasticsearch. Esto se debe a que como te dije antes, Elasticsearch ahora por defecto incluye algunas opciones de seguridad. Si puedes ver aquí, espera que seguridad esté habilitada por defecto. La inscripción de seguridad también está habilitada por defecto. Se ha creado una ruta KeyStore para comunicación HTTP y afirma y el archivo es http dot p12. También ha creado autenticación mutua, piedra angular y terrestre. Ahora dejamos todos los ajustes por defecto, y lo guardaremos. Ahora aquí, si entro. Mi directorio Elasticsearch. Entonces sudo SU, y si hago un LS aquí, verá que hay un directorio llamado certs. Y si entro en búsqueda y haciendo una lista, verá la C aseverar, que es STDP subrayado CA dot CRD, ese certificado de transporte bajo punto de transporte p12 y el certificado HTTPS bajo http dot py 12. Ahora podemos iniciar el sistema de servicio Elasticsearch, CTL, iniciar Elastic Search. Ahora una vez que el servicio ha comenzado, si trato de hacer un rizo, igual que solía hacer para el sistema 7 x. Así curl menos x GET http localhost o 9200 clúster de subrayado y se mantuvo bastante. Y si hago un enter aquí, obtendré un error porque un clúster está en realidad en HTTPS. Entonces necesitaré primero cambiar de HTTP a HTTPS. Pero incluso cuando ejecuto esto, debería recibir un error. Dice problema de certificado SSL, certificados autofirmados y certificado chin. Para superar esto, golpearé la flecha hacia arriba y justo antes de que x get, teclearé en menos k y golpearé Enter. Y esta vez tengo las credenciales de autenticación que faltan. Ahora, aún no hemos configurado las contraseñas de usuario de construcción en esta máquina, pero por defecto, Elastic ha configurado la contraseña del usuario elástico para nosotros. Por lo que copiaré esta contraseña y golpearé la flecha hacia arriba. Y después de la opción menos p, que era ignorar la celda enviar certificados cada tipo en menos u espacio elástico y luego dos puntos, y luego voy a proporcionar la contraseña poner Elastic user. Y ahora si pego Enter, debería conseguir el racimo de salud. Para que como se puede ver, el estado de cluster es verde. Con los certificados autofirmados, debe usar la opción menos K por defecto. Ahora tienes que usar Elastic user, obtener el estado del clúster por primera vez. Una vez que hayas hecho eso, despejemos de la pantalla. Ahora antes de configurar Kibana, tenemos que configurar la contraseña para usuario del sistema de subrayado Kibana. Entonces primero voy a entrar en usr, compartir Elastic Search sido, y hago un LS desde este bin, usaré la utilidad de contraseñas de configuración de Elastic Search. A partir de aquí, utilizaré la utilidad Elastic Search reset password. Por lo que escribiré en dot slash Elastic Search reset password. Y teclearé en grupo menos u le diré al sistema qué restablecimiento de contraseña. Y voy a teclear sistema de subrayado Kibana y golpear Enter y nunca teclear cerca aquí. Y tengo la contraseña para mi usuario de sistema de subrayado Kibana. Se va a copiar esto y yo pegaré esto aquí también. Ahora una vez que he hecho eso, ahora puedo configurar Kibana. Así pseudo VA ATC Kibana, Kibana dot YAML. Y de nuevo, voy a descomentar puerto de punto plata, descomentar varios host de puntos y cambiar de host local o ceros 000. Y siguiente uncomment sidebar dot base pública URL. Y aquí teclearé http, y ahora necesitamos la dirección IP interna de nuestra instancia de Kibana. Copiaré la IP interna pegada aquí y proporcionaré el puerto. Entonces podemos configurar el self.name. Y aquí escribiré demo, banner polvoriento. A continuación bajaremos al sistema Elastic Search. Y debajo de ahí voy a proporcionar el valor para Elastic Search nombre de usuario. Manténgase en él sistema de subrayado por defecto. Y luego tendremos que proporcionar la contraseña, que acabamos de generar. Copia esto aquí y pegarlo. Y ahora si baja bajo System elastic, tal opcional porque estamos usando certificados autofirmados para esta demo, descomento Elastic Search dot modo de verificación SSL y cambiaré el valor de lleno a ninguno. Esto ignorará cualquier advertencia de certificados autofirmados. Ahora otra cosa a tener en cuenta es que partir de la versión ocho punto X en adelante, Kibana por defecto registra Es registros en un archivo. En algunas versiones anteriores, los registros para Kibana por defecto, pero solo están disponibles en salida estándar. Por lo que este también es un buen cambio. Ahora guardemos este archivo y empecemos Kibana. Entonces sudo sistema CTL, arranca Kibana. Ahora consigamos este estatus. Es activo y en funcionamiento. Volvamos a nuestra instancia, copie la dirección IP pública, péguela en un navegador, y luego proporcionemos el puerto 5601. Ahora estoy recibiendo un servidor Kibana no está listo error. Entonces volveré a mi despliegue. Y aquí volveré a abrir mi archivo YAML, y buscaré errores. Ahora dentro de mi archivo gibbon o DML, olvidé poner en el valor de host para la búsqueda elástica para la versión punto ocho. Lo que tienes que hacer es que tengas que entrar aquí y cambiar de HTTP a HTTPS. Ahora volveré a guardar este archivo, y reiniciemos Kibana. Ahora una vez que el servicio se haya reiniciado, revisemos el estado activo y en ejecución. Tenemos el mensaje diciendo servidor HTTP ejecutando anuncios ceros, ceros 005601. Ahora volvamos al navegador. Déjame refrescarlo. Ahora. Tenemos la página de inicio de sesión de Kibana. Por lo que teclearé elástico aquí y copiaré la contraseña para mi superusuario elástico, regresaré y pondré la contraseña y pulsaré Login. Haga clic nunca, y estamos en. Así es como se puede instalar Elasticsearch versión ocho punto 0. Los pasos son un poco diferentes de Elasticsearch versión 7 x, pero no son tan diferentes. La mayoría de los ajustes están diciendo, si tienes cuidado, estoy bastante seguro de que serás capaz de confiar menos configurar tus propios clústeres en esto, hemos llegado al final de esta conferencia. Te veré en la siguiente. Adiós. 31. Instalación de agentes eléctricos y análisis de los registros de apache: Hey chicos, hay dos formas de enviar datos desde sus servidores a la búsqueda elástica. En primer lugar, puede usar beats, que son remitentes de datos ligeros que envían datos a un clúster de Elasticsearch para cada caso de uso, hay una puja específica. Por ejemplo, para los datos de matriz, se utiliza la puja métrica para datos de archivos como archivos de registro, se utiliza FileReader. Ahora esto hace que sea un poco engorroso de administrar porque dependiendo de tu caso de uso, es posible que necesites instalar varios bits en la misma VM. Ahora el segundo método es agente elástico. Elastic agent es un agente único para registros, métricas, datos de seguridad y prevención de amenazas. Debido a que se trata de un solo agente, es más fácil y rápido implementar monitoreo en todo su entorno. Elastic agent hace uso de integraciones y Kibana, que proporcionan una forma fácil de conectar Elastic Search a sistemas y servicios externos. Por ejemplo, si necesita recopilar registros del servidor web Apache, utiliza la integración de Apache para instruir al agente elástico que recopile esos datos de un servidor Apache. Estas integraciones se gestionan a través de Kibana UI. Ahora, toda comunicación entre los agentes elásticos y Elastic Search ocurre a través del servidor de flota. Ahora este servidor de flota es un componente que se utiliza para administrar de forma centralizada todos los agentes elásticos. Así es como funciona. Si crea una política en Kibana, cada vez que se crea esta política, se guarda en Elastic Search. Elastic agent generará una clave de autenticación o clave de inscripción, que utilizará para autenticarse contra el servidor de frutas. Una vez que haga eso, pedirá una política al servidor de inundaciones. Ahora este servidor volteado obtendrá esta política de Elastic Search y luego la proporcionará al agente elástico. Así es como funciona cuando un nuevo agente políticas creadas en Kibana, se guarda en Elasticsearch. Para inscribirse en la política, agentes elásticos envían una solicitud al servidor de flota utilizando la clave de inscripción generada para la autenticación. servidor fluido recibe entonces esta solicitud y obtiene la política de agente de la búsqueda elástica. Y luego cambia esta política a todos los agentes inscritos en esa política. Elastic Agent entonces utiliza la información de configuración almacenada dentro de esta política para recopilar y enviar datos a Elastic Search. Ahora, toma un ejemplo. Digamos que tienes Apache instalado en este agente y MySQL instalado en este agente aquí en Kibana, asignarás una política de Apache. Este agente se inscribirá en esa política con el servidor de destello solar de la flota enviará entonces esta política a este agente el cual le dirá que recopile los registros del servidor Apache. Una vez que tenga la política, puede enviar esos registros y otros datos a Elasticsearch. Ahora bien, este agente que tiene MySQL en él, no estará inscrito en política de deuda. Asignarás alguna otra política a este agente. De esta manera, puedes tener diferentes servidores enviando diferentes capas de datos Elasticsearch Cluster. A continuación, hay dos métodos para desplegar agentes elásticos. En primer lugar, puedes gestionarlos por una flota. Esto permite que las políticas de los agentes y los ciclos de vida se gestionen de manera centralizada. En Kibana, hay otra opción de edades elásticas autogestionadas, que es un caso de uso avanzado donde hay que administrar manualmente cada agente. Para esta conferencia, utilizaremos agentes de gestión de flotas. Ahora aquí están los pasos de configuración. Primero, configuras elasticsearch short YAML, luego instalas un servidor de frutas. Después de eso, se instala un agente elástico. Una vez que haya instalado el agente en los servidores, entonces configura una política de agente. Y por último, se valida que los datos se han enviado correctamente mirando paneles y otras métricas. Así que empecemos. Ahora aquí en la pantalla, tengo mi servidor elástico de nodo único. Entonces primero tendré que crear un servidor frito. Por lo que haré clic en Crear Instancia, luego haré clic en Nueva instancia y VM de plantilla elegir ELK, y luego continuar. Cambiaré el nombre a flip server cambiará la región a US West One, y luego bajaré bajo redes. Me aseguraré de que estoy dentro la subred de búsqueda elástica VPC y monitoreo, y luego haga clic en Crear. Ahora mientras estas frutas o se están creando, volveremos a hacer clic en Crear Instancia para crear nuestro servidor web. Por lo que haré clic en nueva instancia de VM de plantilla, elegiré los observadores y presionaré Continuar. Aquí, cambiaré la región a EU West One. Puedes mantener el nombre tal cual, y yo bajaré a networking. Y el networking, cambiaré la interfaz de red de monitoreo a subred del servidor web. Entonces hago click en crear. Ahora una vez que tengamos listas las tres máquinas virtuales, podemos empezar con la instalación. Ahora pasaré a mi Código de Visual Studio. Ahora dentro de mi Visual Studio Code, tengo mis notas para instalar el agente elástico en servidor flood y en el servidor web en el lado izquierdo. Y tengo mi terminal en las tres máquinas del lado derecho. Entonces la terminal uno se da EL, terminal dos es servidor web y terminal tres es mi servidor de frutas. Así que empecemos ahora primero, tenemos que ir al servidor ELK. Entonces pasaré a la terminal uno. Y en el servidor ELK, tenemos que añadir estos dos ajustes a nuestra Elasticsearch golpeó archivos de configuración YAML varios escribiendo sudo VI slash, ETC, slash Elastic Search slash Elastic Busca dot YAML y pulsa Enter. Ahora dentro de este archivo, verá que el primer ajuste de espera o punto de seguridad habilitado es verdadero. Entraré en modo de inserción. Y aquí, justo debajo del punto de seguridad esperado habilitado, pegaré la configuración de punto de seguridad esperada, clave API dot habilitada como true. Por lo que copiará esto y lo pegará aquí. Y una vez que haya hecho eso, puedo guardar este archivo. Entonces escapa y escribiré a este archivo, y ahora puedo iniciar mi Búsqueda Elástica. Así pseudo sistema CTL, reiniciar Elastic Search. Ahora una vez que el servicio se haya reiniciado, Empecemos como un servicio. Entonces pseudo sistema, CTL, status, Elastic Search, asegúrese de que el servicio esté activo y en ejecución. Y ahora pasemos a nuestro servidor de campo, que está en la terminal tres. Voy a pasar a un servidor fluido en esta máquina primero tenemos que descargar el agente elástico. Entonces copiaré el comando curl y lo pegaré en la terminal para descargar el agente elástico. Ahora una vez que la aplicación del agente elástico haya descargado, necesitamos extraer el archivo tar, copiar este comando star menos Z F, y pegarlo en el terminal y presionar Enter. Ahora a continuación, pasaremos a la página web de Kibana. Así que tengo la página web de Kibana aquí arriba desde el menú de navegación de la izquierda. Bajaré bajo gestión. Voy a hacer clic en flota, y luego iré a Ajustes. Ahora aquí haré click en Acciones y las salidas dejarán el nombre como predeterminado y el tipo sería búsqueda elástica porque queremos enviar salida de servidores fluidos a Elastic Search y al host, Cambiaré de HTTP a HTTPS. Y luego reemplazaré el valor del host local la dirección IP privada de mi instancia ELK. Entonces lo copiaré desde aquí y lo reemplazaré. Ahora a continuación, tenemos que volver a nuestro Visual Studio Code, y luego tenemos que ir a Elastic Search. Y en la instancia de Elasticsearch, necesito hacer sudo SU primero y luego CD EDC, Elastic Search y luego buscar. Ahora si hago un ls en este directorio, verá que tiene mi CSRP. Entonces vamos a conseguir este certificado. Así que consigue un subrayado DB CA dot CRT. Ahora una vez que tengas la salida del comando cat para certificado CA, lo que tenemos que hacer es que necesitamos actualizar el certificado de CA bajo la configuración avanzada de YAML. Por lo que de esta manera, le estamos diciendo al sistema que utilizamos este certificado de CA para establecer la confianza entre nuestro servidor fluido y ellos Elasticsearch servidor. Puedes hacerlo de dos maneras. Puedes usar la huella digital de confianza de CA o puedes pegar el certificado de CA para esta demo, pegaremos el certificado de CA. Ahora, la forma en que lo haces es usar una configuración llamada autoridades de certificados SSL, y luego pegas el ESC un certificado y me dejas simplemente expandirlo. Entonces este es un ejemplo de la pantalla. Por lo que bajo autoridades de certificado SSL, copia este certificado para su máquina, que sería diferente a lo que muestra en la mía. Así que vamos a copiar todo eso y voy a reemplazar éste y lo pegaré aquí. Ahora es posible que necesites actualizar un poco el formato. Ahora, simplemente copiemos todo este comando y pasemos a nuestra configuración avanzada de YAML en mi página de Kibana y peguemos esto aquí así. Ahora una vez que hayas hecho eso, podemos guardar esto, guardar y aplicar ajustes y siete, desplegar. Ahora después de eso, tenemos que ir a los agentes. Ahora en la página del agente, dirá que se requiere voltear antes de que podamos empezar a inscribir agentes. Entonces vamos a hacer eso ahora. Ahora bajo el servidor Adafruit dejará la política de agente como predeterminada. Ya hemos descargado el servidor fluido en nuestra flota Server VM, por lo que podemos omitir eso. Debajo de elegir un modo de implementación, usaremos QuickStart para esta demo. Lo que esto hace es que permite al servidor fluido generar certificados autofirmados para su sistema de producción, necesitará elegir producción y proporcionar su propio certificado en su fluido configuración del servidor. Ahora a continuación, bajo el paso cuatro, necesitaremos proporcionar la URL de nuestro host de servidor fluido. Entonces HTTPS, ahora tenemos que ir a instancias de VM y copiar la dirección IP interna de nuestro servidor de frutas y pegarlo aquí y aliviar el puerto como predeterminado Etudes 0 para esta demo y hacer clic en Agregar host. Ahora una vez que hayas agregado el host, necesitamos hacer click en Generar token de servicio. Ahora, después de eso, bajo el paso seis, nos da la orden de iniciar nuestros volteos de nuevo. Copiará este comando y moverá de nuevo a nuestro Código de Visual Studio. Y estoy en las flotas, nuestra terminal. Pero antes de que podamos pegar este comando, necesitamos hacer algunos cambios. Ahora aquí tengo el comando de muestra que funcionará. Entonces pegaré el comando que copiamos de la instancia de Kibana. A partir de este comando, tomaremos el servidor de inundación ES URL y cambiaré los volteos sobre el valor ES para esto. Ahora, para URL, necesitamos proporcionar la dirección IP privada de nuestro servidor de flota. Entonces iré a instancias de VM, copiaré esta dirección IP privada del servidor fluido, regresaré, y luego cambiaremos el valor del servidor de inundación IP privado a la dirección IP real del servidor de inundación. A continuación, necesitamos suministrar el token de servicio que acabamos de generar. Copiará todo esto y cambiará el token de servicio de valor con el nuevo valor de la flota Política de servidor, no para su sistema. Esto podría ser diferente, y después de eso, necesitamos sumar dos valores más. Servidor de flota ES inseguro este comando es necesario porque nuestro servidor Elasticsearch está utilizando certificados autofirmados. Y también lo último inseguro es porque nuestro servidor volteado también está usando certificados autofirmados. Ahora en su despliegue de producción, debido a que no estará utilizando certificados autofirmados, no necesita estos dos últimos comandos. Ahora en el otro lado, nuestra terminal, déjame simplemente expandirlo un poco. Si hago un ls, verá que hay un directorio para agente elástico. Voy a cd en este directorio. Ahora aquí escribiré sudo dot slash elastic Agent install y menos F, y luego usaré el carácter de escape. Ahora primero suministraremos la URL de nuestro servidor fluido. Entonces lo copiaré de las notas, lo pegaré aquí, y pulsaré Enter. A continuación, suministraré el servidor de flota ES URL. Entonces la URL para mi servidor Elasticsearch se conecte e ingresó. A continuación, suministraré el token de servicio, copiaré eso, pegarlo aquí, e ingresó. Después de eso, suministraremos la política bajo la cual vamos a inscribir este servidor fluido, que es la política predeterminada y entró. A continuación suministraremos el comando inseguro ES, que es certificados autofirmados en Elastic Search nuevamente. Y por último, suministraremos el comando inseguro, que es certificados autofirmados en servidor de flota. Ahora voy a golpear Enter y esto debería iniciar el despliegue de nuestro agente elástico en mi servidor fluido. El primer registro te dice que está generando certificados autofirmados para el servidor fluido. A continuación, intenta iniciar el servidor fluido. Entonces se puede ver que la verificación SSL, TLS fue desactivada porque estamos usando el modo inseguro. Y por último, tienes que el agente elástico está inscrito con éxito. Entonces ahora lo que podemos hacer es que podamos mover hacia atrás la página de Kibana, y deberías poder ver que el servidor de inundaciones estaba conectado y voy a golpear en Continuar. Ahora, si eres un servidor fluido se conectó con éxito y se configura correctamente, debes ver el estado como saludable. Y al hacer clic en él, podrás ver algunos detalles. Y a continuación tenemos que comprobar si es capaz enviar registros a Elastic Search, que puede. Ahora, si te encuentras algún problema cuando estás desplegando este servidor de flota, lo que puedes hacer es si vuelvo a mi Visual Studio Code y borro de todo, puedes teclear sudo system CTL, agente elástico de datos, mira los registros y deberías poder ver los registros aquí. Ahora, aparte de esto, si has desplegado el fluido Server Agent, pero por alguna razón no se está conectando y necesitas desinstalarlo. Si lo haces entrando en bin de usuario y luego agente elástico. Y aquí, si hago un menos h, necesito agregar pseudo. Deberías poder ver los diversos comandos disponibles con el script elastic agents. Hay un comando de Android si quieres inscribir agentes en esta flota que está instalado comando, que acabamos de utilizar para instalar el fluido Server Agent. Puedes reiniciar el demonio, puedes ejecutar el demonio, puedes dar estatus al demonio, y puedes desinstalar este agente elástico. Por lo que podría haber algunos escenarios en los que necesite desinstalar, volver a instalar el demonio. Así es como puedes hacerlo. Básicamente, solo tienes que ir al usuario bin elastic agent y escribe desinstalando salir de ella ahora y borrar fuera de la pantalla. Ahora por el agente clásico está instalado y saludable, lo que podemos hacer es que podamos ir a instalar el agente elástico en nuestro servidor web. Entonces para hacer eso, vamos a nuestra terminal a en el servidor web. Ahora en servidor web primero tenemos que descargar agente elástico. Entonces copiaré todo esto de nuestras notas y pegaré el comando en la terminal y pulsaré enter. Ahora una vez descargado el archivo, podemos extraer esta estrella de puntos menos agente plástico Z F y golpear enter. Ahora, una vez que hayas hecho eso, volvamos a nuestra página de Kibana y luego vayamos a la flota. Ahora aquí, hay un botón de agregar agente. Si hago clic en Agregar agente dejará la política de agente predeterminada. Ahora ya hemos descargado el agente elástico. A continuación, nos da un mando. Así que copiemos esto y volvamos a nuestra terminal. Voy a pegar este comando, pero no lo ejecutaré. Pero necesito hacer es que necesito anexar menos, menos inseguro para este comando porque estamos usando certificados autofirmados. Nuevamente, para su despliegue de producción, no necesitará agregar esto. Ahora si pego Enter, ahora olvidé entrar primero en el directorio de agentes elásticos y hacer un ls. Y a partir de aquí, necesitamos ejecutar este script. Golpearé la flecha hacia arriba hasta que consiga el comando y ahora lo ejecutaré y escribiré. Sí, y tengo agente elástico se ha instalado con éxito. Por lo que volveré a mi Kibana y cerraré en el agente se instaló correctamente. Debería poder verlo en esta página. Por lo que ahora se puede ver, puedo ver el servidor web. Por lo que de nuevo, haremos clic en este servidor web. Nos aseguraremos de que tengamos registros que fluyen desde el servidor web también, que tenemos. Ahora antes de dejarte ir, quiero mostrarte una cosa más. Ahora, agente elástico hace uso de integraciones. Ahora porque nuestro servidor web es un servidor web Apache, podemos mejorar el monitoreo para el servidor Apache. Lo que haremos es volver a la flota. Y entonces lo que vamos a hacer es que necesitamos agregar una política de agente. Por lo que iremos a crear política de agente, guardaremos esta política de nombre de directiva del servidor web. Ahora agregaremos alguna descripción. Esta política se utiliza para recopilar métricas y registros de Apache. Dejaremos todo como predeterminado y haré clic en la política de Crear agente. Ahora se crea esta política. Lo que tenemos que hacer es que necesitamos sumar algunas integraciones a esta política. Daré clic en el menú de navegación de la izquierda, y eso bajará a integraciones. Por lo que bajo integraciones de gestión, aquí podemos ver las diversas integraciones que están disponibles. Por ahora. Nos interesa Apache, servidor HTTP Apache, por lo que voy a hacer click en eso. Ahora esta página te da una visión general de la Integración de Servidor HTTP de Apache. Lo que haremos es hacer clic en Agregar servidor HTTP Apache. Ahora desde configurar el discurso de Integración, podemos darle un nombre, por lo que lo dejaremos como predeterminado Apache one. A continuación, mantendremos encendidos los registros de recolección de la instancia de Apache. No quiero encender la característica experimental y dejaremos encendidas las métricas de cobranza de Apache y sensores también. Ahora a continuación, necesitamos precisar una política donde aplicar esta integración. Por lo que haremos clic en el desplegable y luego elegiremos la política del servidor web que acabamos de crear. Después haremos clic en Guardar y Continuar. Y ahora el mensaje dice para completar esta integración, agregue agente elástico a su host para recopilar datos. Y acabaré de hacer clic en Agregar agente elástico más tarde. Ahora lo que tenemos que hacer es que tengamos que volver a nuestra flota, flota. Tenemos que ir al servidor web uno. Por lo que voy a hacer clic en eso. Y debajo de aquí, lo que voy a hacer es hacer clic en Acciones y haré clic en asignado a una nueva política. Entonces elegiré la política del servidor web, y luego haré clic en Asignar política. Ahora antes de hacer eso, dice la política de agente seleccionado, pero recopila datos de dos integraciones, sistema, que es por defecto y la Integración de Servidor HTTP Apache que acabamos configurado. Por lo que haré clic en Asignar política. Ahora una vez que hemos hecho eso, click en esto y dice los insumos para esta integración, nuestros logs y métricas de nuestra instancia de Apache. Y la integración del sistema recopilará registros cuando los registros y métricas de nuestro sistema operativo. Ahora a continuación vamos al menú de navegación de la izquierda, y luego vamos a los dashboards. Ahora aquí verás que hay algunos más dashboards disponibles para ti. Lo que haremos es que escribiremos ahora Apache para comprobar si estamos obteniendo registros de Apache, podemos hacer click en Registros de acceso y errores. Y desde el desplegable izquierdo bajo nombre de host, seleccionaremos nuestro servidor web. Ahora, si tu integración está configurada correctamente, deberías empezar a ver algunos datos como aquí. Estoy viendo todas las puntuaciones de respuesta. Ahora. A continuación, revisemos otro tablero. Por lo que voy a ir al tablero y haga clic en Apache, escriba de nuevo Apache. Y esta vez haré clic en métricas, resumen de Apache para ver si estás obteniendo datos de métricas de nuestro servidor Apache o no. Ahora aquí, bajo peticiones por segundo, se puede ver que hay algunos datos que fluyen a través. Así es como puedes instalar un servidor de flota y luego inscribir tus servidores web o cualquier otro servidor de aplicaciones en tu flota. Y luego puedes usar integraciones para recopilar algunos datos significativos de tus aplicaciones o servidores web. Con esto, hemos llegado al final de esta conferencia. Gracias por mirar. Te veré en la siguiente. Adiós.