Transcripciones
1. ¡Hola!: Bienvenido a mi curso la semana pasada. Tal uno-a-uno, una
guía para principiantes de Elastic Stack. Se trata de un
curso práctico con enfoque en el despliegue y administración
de Elastic Stack. Mi nombre es Ricardo y soy Arquitecto
Senior de Soluciones, más de 15 años de
experiencia en TI. Y actualmente estoy trabajando en una
multinacional que he diseñado e implementado
Elastic Stack en un entorno de producción. He impartido más de
3400 niños en Udemy y tengo una calificación promedio de
4.4 en todos mis cursos. Se trata de un curso práctico, se centrará en el aprendizaje
práctico. En este curso, implementarás Elastic Stack y luego agregarás
algunos datos a tu clúster. Dos métodos diferentes como log stretch e integraciones de
Kibana. Y también transformarás esos datos con el fin de extraer
algún significado de ellos. Por último,
desplegará agente elástico que extrae fácilmente
datos de
matriz y registros de sus servidores de
aplicaciones y almacenará y analice esos
datos en Elasticsearch. Así que por favor únete a mí en este
viaje para aprender Elastic Stack.
2. Introducción a elasticsearch 101: Hola chicos, bienvenidos a mis
puntuaciones para principiantes en Elastic Stack. Estoy encantado de que me hayas
dado la oportunidad guiarte en el camino hacia
convertirte en un profesional de
búsqueda elástica. Este curso adopta
un enfoque práctico hacia el aprendizaje y
está enfocado
hacia profesionales de
DevOps
que serán responsables desplegar y administrar clústeres de
Elasticsearch. Apoya al personal que se
encargará de apoyar las implementaciones de
Elastic Stack. Y podría beneficiar a
los desarrolladores de software si necesitan una comprensión de cómo clústeres de
Elasticsearch son diploides, por favor tenga en cuenta que
se trata de unas puntuaciones para principiantes, por lo que evitaré el buceo profundo en cualquiera de los temas
En este curso. Empezaremos con algunos conceptos básicos, como cuáles son los
diferentes tipos de datos que encontrarás en un entorno
empresarial. Y entonces vamos a echar un
vistazo a la diferencia entre las bases de datos relacionales y
no relacionales antes pasar a tener una
comprensión de JSON y las API de
descanso después de que tengas
el conocimiento prerrequisito, que es esencial si quieres
trabajar en Elastic Search, veremos
Elastic Search and Elastic Stack desde
una vista de pájaro, y luego es hora de
ensuciarte las manos. En primer lugar, vamos a configurar nuestro
entorno de laboratorio y
luego veremos cómo se puede aprovisionar búsqueda
elástica de
diferentes maneras. Y seguiremos esto
agregando algunos datos nuestro clúster a través de integraciones de
Kibana. Entonces te ayudaré a crear tu primera visualización de Kibana. Y luego
configuraremos algunos dashboards. Después de eso, te
ayudaré a organizar tus dashboards en diferentes categorías
como marketing,
operaciones, etc,
mediante el uso de espacios Kibana. A continuación,
te daré una visión general de la gestión de usuarios
en Elastic Search. Y veremos
Elastic Search, usuarios
incorporados, roles incorporados, y cómo puedes usar usuarios
y roles que crean controles de acceso
basados en roles para tu Clúster de Elasticsearch. A continuación, veremos Log Stash, que es un
componente esencial de Elastic Stack si
quieres transformar tus datos. Y luego vamos a ingerir algunos datos CSV mediante el uso de tuberías de corte de
registro. En la siguiente sección, te
ayudaré a entender los latidos agentes y diversos casos de uso que puedes resolver mediante el uso de diferentes latidos. Dice que necesita
usar la métrica Btu ingerir datos de métricas en
tu clúster de Elasticsearch. Y necesitas usar
5 bits para ingerir datos de registro
basados en archivos en
tu clúster de Elasticsearch. Después de esto, desplegaremos un clúster de
Elasticsearch multimodo. Y
te daré una visión general de varios nodos en el entorno
Elastic Search. En la sección final, veremos lo que cambió
en la versión ocho de Elasticsearch y luego desplegaremos un
clúster de la versión ocho en un solo nodo. Por último,
instalará el agente elástico, que es un único agente
necesario para enviar un nuevo tipo de registros desde sus
servidores de aplicaciones a la búsqueda elástica. Así que empecemos.
3. Descripción de datos: Hey chicos, si están
trabajando en Elastic Search, rendir predominantemente
nosotros trabajando en datos. Por lo que es importante tener una comprensión de los diferentes
tipos de datos disponibles. En primer lugar,
hablemos de datos estructurados. Los datos estructurados están altamente organizados y
debidamente formateados. Este es el tipo de datos que se pueden almacenar
en una hoja de cálculo. Base de datos relacional como SQL. Un ejemplo de datos estructurados
serán las cifras de ventas por trimestre para una empresa o información de empleado
como identificación de
empleado, nombre de empleado y salario. Este tipo de datos es más
fácil de almacenar y buscar, ya que como su nombre indica, tiene una estructura a la misma. A continuación, echemos un
vistazo a los datos no estructurados. Los datos no estructurados son
más difíciles de buscar. Se trata de datos que no están
organizados ni formateados. Un ejemplo de este tipo
de datos son los archivos de texto, archivos vídeo o audio, me gusta en
las redes sociales y comentarios. Estos datos constituyen casi el 80% de la
carpeta de datos en el mundo real. Y como su nombre indica,
no está estructurado. Por lo que es más complejo
almacenar este tipo de
datos y buscar en. Ahora, a continuación, echemos un
vistazo a los datos semiestructurados. Los datos semiestructurados son una mezcla entre datos estructurados y
no estructurados. Son datos que no se pueden organizar en una base de datos
relacional, pero aún tiene una
estructura suelta a la misma. Por ejemplo, datos que
se pueden organizar en torno a un tema. Y un buen ejemplo de este
tipo de datos son los datos de correo electrónico. Dado que los correos electrónicos se pueden
organizar a través de campos como de sujeto,
mensaje, cuerpo, etc. A continuación, los datos numéricos son básicamente datos expresados en
números en lugar de textos, por
ejemplo, sensores,
temperatura, edad, etc. Otro tipo de datos
que podrías encontrar son
los datos geoespaciales. Los datos geoespaciales son los datos que pertenecen a un
objeto en la Tierra. Contiene cosas
como la ubicación, que es longitud y latitud, tamaño y forma de un objeto. Con esto, hemos llegado
al final de esta conferencia, una visión general de los
diferentes tipos de datos que
verás en el campo
cuando trabajes en cualquier herramienta de transformación
o analítica de
procesamiento de datos . Espero que te haya gustado y
te veré en la siguiente.
4. Diferencia entre bases de datos relacionales y no relacionales: Hey chicos, hay diferentes tipos de bases de datos
que te
encontrarás en cada uno ofrece
sus propios beneficios únicos. Estos se pueden
categorizar principalmente en Sequel, relacionales y bases NoSQL o no relacionales
. En primer lugar, echemos un
vistazo a una base de datos relacional. La base de datos relacional es un tipo de
base de datos que almacena
datos en tablas. En una base de datos relacional, cada fila de la tabla es un registro con un
ID único llamado clave. Las columnas de la tabla
tienen atributos de los datos y cada registro suele tener
un valor para cada atributo, lo
que facilita establecimiento de relaciones
entre los puntos de datos, y de ahí el nombre relacional sistema de gestión de bases de datos o RDBMS. Este tipo de base de datos sólo
puede trabajar en datos
estructurados y lenguajes de programación
estructurados como SQL, puede ser
utilizado de manera efectiva para insertar, buscar, actualizar o
eliminar registros de bases de datos. Algunos ejemplos comunes
de RDBMS son Oracle, MySQL, Microsoft SQL
Server y Postgres SQL. Ahora, aquí hay un ejemplo de cómo se ve una
base de datos relacional. Digamos que tienes una tabla
que fuente usa detalles. Y digamos que esta
tabla se llama usuarios. Ahora la tabla de este usuario
tendrá detalles como ID de usuario, nombre del usuario, apellido del
usuario, y su edad. Ahora veamos también que hay otra tabla que almacena a
los usuarios licenciatura educativa. Y se puede relacionar con la tabla de usuarios mediante
el uso de la columna ID de usuario. Como se puede ver,
este tipo de datos está estructurado y se
almacena en tablas, y se pueden relacionar
entre sí mediante columnas, la columna ID de usuario
en este ejemplo. Ahora, hablemos de bases de datos
no relacionales. La base de datos no relacional es una base de datos que funciona en datos semiestructurados
o no estructurados. También se le llama una base de datos
NoSQL y tiene un esquema dinámico para el almacenamiento de datos
no estructurado. Estos datos se pueden
almacenar de muchas maneras, lo
que significa que pueden estar
orientados a documentos,
orientados a columnas, basados en gráficos
o una tienda de clave-valor. Esta flexibilidad significa
que la base de datos se puede crear sin tener primero una estructura
definida. Ahora bien, si comparas esto
con bases de datos relacionales, siempre es necesario
predefinir la estructura y adherirse a esa estructura a lo largo de la vida
de la base de datos. Las bases de datos Nosql almacenan datos en documentos que
consisten en pares clave-valor. La sintaxis varía de
base de datos a base de datos, y puede agregar
campos a medida que avanza. La mayoría de las bases de datos iguales proporcionan un modelo de datos
flexible con
la capacidad de
almacenar y combinar fácilmente datos de cualquier estructura sin la necesidad de
modificar el esquema. Y por lo tanto, es adecuado para big data y aplicaciones web en tiempo real. Elastic Search es un tipo de base de datos
NoSQL que almacena datos como documento JSON adjunta un enlace del blog de búsqueda
elástica. Si quieres leer
más sobre esto, ahora echemos un vistazo a un
ejemplo de una base de datos NoSQL. Aquí en la pantalla, tengo una base de datos NoSQL que
consta de dos documentos. Como se puede ver, la estructura
de ambos documentos difiere. Por ejemplo, el documento número dos tiene un
par clave-valor para la educación, que no está presente en
el documento número uno. Además, si miras los pasatiempos, hay un hobby extra de
nadar para nuestro usuario. Ahora esta flexibilidad permite utilizar bases de datos
NoSQL
para aplicaciones de big data. Ahora hay otra diferencia entre las bases de datos NoSQL y SQL, que es cómo escalan. Las bases de datos relacionales
escalan verticalmente y bases de datos
NoSQL o no relacionales escalan horizontalmente. Lo que eso significa es cuando se tiene que aumentar la capacidad
de su base de datos, la única forma de hacerlo en un modelo de base de datos relacional
es tener una máquina más grande. Ahora, lo que esto significa es tiempo de inactividad para aumentar
la capacidad y tarea de
mantenimiento de distancia
para evitar tener un tiempo de inactividad más tarde es
preaprovisionamiento de capacidad. No obstante, la
otra cara de eso es que toda esa capacidad
esencialmente se desperdiciaría hasta que sea necesaria. bases de datos no relacionales o
NoSQL resuelven este problema escalando
horizontalmente. Lo que eso significa es que
siempre que necesite capacidad, puede agregar más capacidad solo agregar más
máquinas a su clúster. De esta manera, no
tienes que
preabastecer ninguna capacidad y
tampoco necesitas tiempo de inactividad. Con esto, hemos llegado
al final de esta conferencia. Gracias por mirarte, y
te veré en la siguiente. Adiós.
5. Descripción de JSON: Hey chicos, Elasticsearch almacena
datos como documentos JSON. Por lo que sería una buena idea
obtener una visión general de JSON. Json o JavaScript
Object Notación es un formato de
intercambio de datos basado en texto. Y la palabra clave aquí
es el intercambio de datos. Dado que JSON se
usa principalmente para compartir datos, JSON está construido sobre dos estructuras. En primer lugar, un objeto, que es una colección desordenada de valor de nombre o un par clave-valor. En segundo lugar, una
lista ordenada de valores, también llamada matriz. Ahora echemos un vistazo a
un ejemplo de datos JSON. Aquí tenemos un objeto JSON. Un objeto, como dije anteriormente, es un conjunto desordenado de
valor de nombre o pares clave-valor. Comienza con un corsé rizado
izquierdo y termina con la llave rizada
derecha, cada nombre o clave, y su valor está separado por pares de dos puntos y nombre-valor. Por ejemplo, el nombre John y la edad 29 está separado por una coma. Nuestro ejemplo también contiene
una matriz que es matrices de
contacto comienzan con un corchete izquierdo y terminan con un corchete derecho. Ahora, los objetos JSON pueden tener siete
tipos diferentes de valores. Una cadena es una secuencia de 0 o más caracteres
envueltos en comillas doble. Por ejemplo, Mi nombre es John, aquí hay una cadena, un número, por ejemplo, 1234 o JSON clave también puede tener otro
objeto JSON como su valor. También puede ser una matriz, y también puede ser booleano, que es verdadero o falso. Y por último, el
valor adyacente también puede ser nulo. Si quieres
leer más sobre JSON, he incluido algunos enlaces
con la descripción de esta conferencia para que puedas
obtener una comprensión más profunda. Ya que con Elastic Search principalmente
estará trabajando con documentos JSON con esto para acompañar el
final de esta conferencia. Gracias por
mirar. Te veré en la siguiente. Adiós.
6. Descripción de la API de Rest: Hey chicos, en esta conferencia, echemos un
vistazo a las APIs RESTful, que es un método popular para comunicarse entre aplicaciones
informáticas. Api es un acrónimo de Application Programming
Interface Editor no es más que un conjunto de definiciones
y protocolos para construir e integrar software de
aplicaciones. Por ejemplo, es posible que
desee usar una API donde un usuario pueda suministrar
un ID de estudiante y su API responderá con los razonadores de examen de
ese estudiante beneficio de usar API es que su aplicación el software no
tiene necesidad de saber cómo se implementa el
software de aplicación cliente. El descanso es un acrónimo de transferencia estatal
representacional. Lo que eso significa es
que transfiere una representación del
estado del recurso. Y esa representación no
es nada un pedazo de datos que se solicitan
necesidades de su aplicación. El descanso funciona en el modelo
cliente-servidor. Lo que eso significa es que el recurso solar retiene
esa pieza de datos. Un cliente solicita ese pedazo
de datos mediante el uso de crud, crear, leer, actualizar
o eliminar operación. Y para hacer esa solicitud
utiliza métodos HTTP de una sola vez. Una vez que esa solicitud ha
sido hecha por el cliente, el servidor responde con ese
pedazo de datos que está sosteniendo en una representación de ese pedazo de datos
que tiene el servidor. Ahora, echemos un vistazo a
algunos de los métodos STDP. Post le permite crear un nuevo recurso en
el puerto del servidor, le permite actualizar un
recurso existente en el servidor, obtener le permite recuperar un recurso existente y eliminar, le permite eliminar
un recurso existente. Estos son algunos de los
ejemplos de los métodos que puedes implementar
usando API de rest. Otra cosa a tener en cuenta es que las solicitudes API de
resto son apátridas. Lo que eso significa es que todas las solicitudes de
clientes se tratan como nuevas solicitudes y no se
almacena ningún historial de sesión en el servidor. Ahora, antes de seguir adelante, echemos un vistazo a un
ejemplo aquí en la pantalla. Tengo un ejemplo de
una llamada a API que se usa para verificar el estado de
un clúster de Elasticsearch. Primero tenemos el método
que podría ser cualquiera de GET, PUT, post, o delete. En nuestro caso, estamos
utilizando GET y esta prueba el servidor que queremos
recuperar alguna información. Después de eso, hemos
especificado el punto final en el servidor que queremos
enviar una solicitud para agregar. Es http localhost
en el puerto 9000. Esto es importante porque podríamos tener
múltiples servidores y nuestro entorno y cada servidor podría estar ejecutando
múltiples servicios. Por ejemplo, el mismo servidor
también puede estar ejecutando un
servidor web en el puerto 80, pero queremos conectarnos a
un servicio que se está
ejecutando en el puerto 9200 en el host local. Después de que hayamos especificado endpoint, necesitamos especificar el recurso en ese
punto final al que queremos
conectarnos en nuestro ejemplo que
los recursos cluster health. Ahora, cada punto final
podría estar ejecutando múltiples recursos en nuestro caso porque queríamos obtener
la salud del clúster. Estamos utilizando los endpoints de
salud del clúster para conectarnos y
obtener el estado. Y por último, podemos
especificar un parámetro. Por ejemplo, en esta muestra, queremos que el servidor responda
con la información en un
formato legible por humanos o
bastante para nosotros después de que hayamos
enviado esta solicitud, el servidor luego responde
con un respuesta. En este ejemplo, el
verano ha respondido con la salud del
clúster en formato JSON. También puedes obtener esta respuesta
en varios otros formatos, por
ejemplo, HTML, XML, o textos sin formato, etc. Ahora, hay múltiples
herramientas disponibles para que te
ensucies las manos en llamadas API. Puedes usar herramientas especializadas como carteros, swagger, etc. O puedes usar el comando plane o curl desde tu terminal
Linux o Mac. Y por último,
también puedes hacer una API llamada programáticamente desde dentro de tu código basado en alguna lógica. Ahora antes de seguir adelante,
hagamos algo práctico. Tengo la
ventana terminal de mi macOS. Y a partir de aquí trataremos de
invocar una API pública para bromas. Primero, necesito escribir rizado. Después de eso, necesitaba
tener los puntos finales. Entonces HTTPS, hacemos punto broma API, profundidad de
punto y luego necesito
proporcionar el recurso
en el punto final. Por lo que voy a escribir en slash, broma slash cualquiera y golpear Enter. Como se puede ver, el
servidor de bromas respondió con una broma. Ahora, puedes usar
esta API para crear una sección de broma en tu
sitio web si lo deseas. O simplemente puedes leer estos chistes o a tu
despacho depende de ti. Ahora, antes de seguir adelante, quería mostrarte cómo hacer exactamente lo mismo usando
una herramienta llamada Cartero. Ahora aquí tengo la entrevista de esta herramienta para crear
una solicitud API, haré click en plus. Esto abrirá aquí
el formulario API, puedo elegir qué
método necesito. En este caso, necesito obtener, entonces necesito especificar
los puntos finales. Entonces HTTPS, hacemos punto
broma API dot dev. Y luego necesito escribir en el recurso que
es chiste slash cualquiera. Y para ejecutar esto, todo lo que tengo que hacer
es dar click en enviar. Y se puede ver que
tengo una respuesta
del servidor de nuevo. Ahora este es un ejemplo muy
básico, pero como este no es
un curso de API de
STI, te lo dejaré para que te
conozcas más sobre este tema
si no lo sabes ya. He añadido algunos recursos En la descripción
de esta conferencia, para que puedas usar eso como punto
de partida de
tus estudios posteriores. Ahora, antes de pasar
a cómo cubrir una última cosa, que son estos códigos de estado. Ahora si ves aquí, verás Status 200, de acuerdo, y si pasas el cursor sobre él, obtendrás un poco de una
explicación de las puntuaciones de estado. Ahora, cada vez que haces
una solicitud al servidor, devuelve un código
al cliente, lo que te da el
estado de la solicitud. Ahora aquí en la pantalla, tengo varios tipos de respuesta que puedes esperar del servidor. Respuesta que comienza
con unos 22 dígitos después de eso generalmente significa que la solicitud ha
sido exitosa. Por ejemplo, como
vimos en carteros, nos dieron un 200 OK, que significa que todo está bien. Y responde
con tres o cuatro, significa que el cliente puede utilizar la versión en caché
del recurso solicitado. Cualquier cosa. Para XXX, que significa cuatro y luego dos dígitos
después de eso, o cinco, XX significa cinco y
luego dos dígitos después eso significa un error para XX
significa un lado del cliente otro, lo que significa que hay algo
mal en el cliente. Phi de x. X significa que es un error del
lado del servidor, lo que significa que hay algunos
problemas con el servidor. Entonces esta fue una
introducción rápida a las llamadas API de descanso. Hay un poco más y quiero
que
seas un 100% seguro porque lo
usarás para tu gestión y
administración de Elastic Search. Por favor, ve a través de
los enlaces que he adjuntado con la
descripción de este video. Con esto, hemos llegado
al final de esta conferencia. Te veré en
la siguiente. Adiós.
7. Introducción a la búsqueda elasticsearch: Hey chicos, Elastic Search es un motor de búsqueda
y análisis distribuido, que es el corazón
de Elastic Stack o motor de búsqueda distribuido, es uno donde la
tarea de indexación y procesamiento de consultas
se distribuye entre múltiples computadoras en lugar de una sola supercomputadora
manejando todo. Se construye sobre Apache Lucene
y se desarrolla en Java. Permite almacenar, buscar y analizar enormes volúmenes de datos de forma rápida y en casi
tiempo real y
devolver respuestas en
consultas de milisegundos que normalmente
tardarían diez segundos o más que secuencia
devolverá resultados en menos diez milisegundos
en búsqueda elástica utilizando el mismo hardware, Elastic Search puede manejar
todo tipo de datos, por
ejemplo,
semicírculo estructurado, etcétera Hay una variedad de
casos de uso para Elastic Search. Por ejemplo, puede
agregar un cuadro de búsqueda a una aplicación o sitio web para una búsqueda rápida
de su catálogo. También puede almacenar
y analizar registros, métricas y datos de eventos de seguridad. O puede utilizar el aprendizaje
automático para modelar
automáticamente el comportamiento de sus datos en tiempo real. Elastic Search
proporciona una API de rest para administrar su clúster, indexar y buscar sus datos para ello capacidades de búsqueda, Elasticsearch admite
tres tipos de consultas. Las consultas estructuradas te
permiten buscar en datos
estructurados y son
igual que las consultas SQL para consultas de
texto
te permiten buscar en analizar campos de texto
como el cuerpo de un correo electrónico aquí que estarás haciendo
cosas como encontrar una palabra en particular en un
párrafo consultas complejas, combinación de consultas estructuradas
y de texto completo. Ahora pasemos a documentos e índices en búsqueda elástica, la unidad más pequeña de
datos se llama campo. Cada campo tiene un tipo de datos
definido y contiene una
pieza específica de datos. Por ejemplo, el nombre John, no, los documentos son la unidad base
de almacenamiento en Elastic Search. O documento se compone de
múltiples campos en el mundo de base de datos
relacional o documento será equivalente
a una fila en una tabla. Los datos en un documento se almacenan como un campo que son pares
nombre-valor, y hay algunos
alimentos reservados en nuestro documento. Ahora aquí en la pantalla,
tengo un ejemplo de datos que se
almacenan en un documento. En este ejemplo, ID es el identificador
único del documento. Tipo es el tipo de índice. Este documento
forma parte de un índice, es el nombre de este índice. Como ejemplo, el
análisis de documentos representa un artículo de enciclopedia o
entradas de registro de un servidor web. Ahora en este ejemplo, nos referimos a algo
llamado índice. Entonces echemos un
vistazo a lo que es. Un índice es una colección de documentos relacionados
lógicamente que tienen
características similares. Por ejemplo, puedes
tener un índice para usuarios, puedes tener un índice
para productos y uno para pedidos y así
sucesivamente y así sucesivamente. Es la entidad de más alto nivel que se puede consultar. Una búsqueda elástica es similar a la base de datos en una base de datos
relacional. En Elastic Search es en realidad lo que se llama un índice invertido. Y el índice invertido es un mecanismo por el cual funcionan todos los motores de
búsqueda. Básicamente, este índice
consiste en una lista de palabras únicas impares que
aparecen en cada documento. Y para cada palabra, se compone de una lista de todos los documentos en los
que aparece esa palabra. Ahora, echemos un vistazo a
las siguientes frases que cada código de contenedor de la serie de
televisión Game of Thrones, invierno viene
nuestro sistema furia, y la elección es tuya. Ahora hagamos nuestro
índice en orden. Entonces primero, escribiremos los términos en los tres documentos
en una columna, y luego
escribiremos la frecuencia tal y como aparece en
los tres centros, es en segunda columna. Y luego en la tercera columna se
escribirá el documento en el que ese término parece a
punto de tomar un ejemplo, invierno aparece sólo una vez en las tres frases y
no es fuente de documento, mientras que es la segunda
término en el documento uno realmente llega tres veces y
aparece en los tres documentos. Entonces tenemos 123 aquí. De igual forma, eso aparece dos veces en
el documento dos y árbol de documentos como este, podemos construir
nuestro índice invertido, una combinación de términos y una frecuencia se
llama diccionario. Si volvemos tontos, y la frecuencia se llama
diccionario y el número de documentos o término particular aparece en se llama postings. Por lo que este será
diccionario y esto serán publicaciones Utilizando de esta manera. Si quieres hacer una
búsqueda rápida de cualquier término, digamos furia Elasticsearch mirará su índice
invertido y encontrará esa furia un PS1 y aparece en el
documento para por tanto, un índice term es la unidad de
búsqueda más pequeña en Elastic Search, este es el truco
que Elasticsearch utiliza para realizar búsquedas rápidas. También he incluido un enlace a un
blog de búsqueda elástica que puede ayudarte a entender más cómo funciona la búsqueda
en Elastic Search. Con esto, hemos llegado
al final de esta conferencia. Te veré en la siguiente. Adiós.
8. Pilas elásticas: una vista de ojo de aves: Antes de iniciar el despliegue, me gustaría darles una
breve visión general de cada uno de
estos productos de búsqueda elástica que desplegaremos en este laboratorio, Elasticsearch es una lista de código
abierto para un distribuido un motor de
análisis de este tipo dependía Apache Lucene Log Stash es una canalización de
procesamiento de datos
del lado
del servidor de código abierto que ingiere datos de varias fuentes, transforma, y luego los
envía a Elasticsearch. Kibana es un panel de
visualización de datos de código abierto para Elasticsearch. En palabras simples,
digamos que tiene datos de registro de
aplicaciones de servidores de
aplicaciones. Ahora, en caso de que no necesites
hacer ningún procesamiento sobre esos datos, puedes enviarlos directamente a Elastic Search
para restaurarlos índice. No obstante, si necesita hacer algún procesamiento personalizado, por
ejemplo, es posible
que deba agregar
un ID de cliente que esté registrado evento para que
pueda atar un registro en particular, evento de
registro a un cliente
en particular. Primero tendrás
que enviar esos datos a Log Stash, procesamiento
o transformación de
Buda, y luego enviarlos a Elastic
Search para ser almacenados. Una vez almacenados e
indexados los datos en Elasticsearch, puedes usar Kibana quien crea algunas visualizaciones
encima de sus datos. Ahora hablemos de
beat bead side, esencialmente como agentes muy
especialmente construidos que adquirieron datos y luego alimentarlos a los latidos de
Elastic Search o golpear en un marco de bits
iluminado. Y facilita la creación bits
personalizados para
cualquier tipo de datos, si quieres enviar
a Elasticsearch, Beats tenía arrecifes estándar
que están disponibles, que he enumerado en pantalla. Si uno de estos beats
no hace el trabajo, puedes usar el marco lipídico para crear tu velocidad personalizada. Entonces hablemos
de algunos de los latidos estándar. Primero, hay
algo que pelearía, encontraríamos que beat es un peso ligero, más barato para reenviar y
centralizar los datos de registro. En inicio como agente en el blanco de verano
pelean grandes monitores. Los archivos de registro son
ubicaciones que has especificado, recopila, registra eventos, y los reenvía
ya sea a Elasticsearch son búsqueda de registro para
indexación o deadbeat. Es esa probabilidad
más barata que
puedes instalar en tus servidores para
auditar las actividades de los usuarios y procesos
en tu sistema. Por ejemplo,
puedes usar auditoría V8, la izquierda y centralizada
o eventos desde Linux, pero una puja métrica diferente es ligeramente más barata que
puedes instalarla en tus servidores para
recolectar métricas periódicamente del sistema operativo y de los servicios que se ejecutan
en la métrica plateada, grande X, las métricas y
estadísticas que recopila y cambia la salida a cualquiera de las búsquedas
elásticas de Log Stash. Heartbeat es un demonio ligero que instalas en
un servidor remoto. Verifica periódicamente el estado de tus servicios y determina
si están disponibles. La diferencia entre
líquidos y latidos del corazón es que la métrica solo
te indica si tus servidores
están arriba o abajo. Considerando que los latidos del corazón, como si sus
servicios están disponibles. Por ejemplo, dice que
tienes Apache instalado en un líquido de make Southern te
dirá si el
servidor está arriba o abajo. Heartbeat realmente
te dirá si tu sitio web está hecho. Packet beat es un analizador de paquetes
en tiempo real que puedes usar
con Elastic Search. Proporcionar un
sistema de
monitoreo de aplicaciones y análisis de
rendimiento que podría superar, proporciona visibilidad
de la comunicación que ocurre entre los
servidores de su red. Generalmente beat es un
remitente ligero para reenviar y centralizar los datos
de registro del sistema leer
los periodistas. También es instalar un
agente en tus servidores y monitorea las
ubicaciones generales que especifiques, recopila eventos de registro,
y luego reenvía estos eventos a cualquiera de las búsquedas
elásticas en Log Stash, no
son remolacha chips. Registros de eventos de Windows en
Elastic Search o Log Stash. Se instala como una función de servicio de Windows beat es un elástico que despliegas como una función en tu
entorno sin servidor para recopilar datos
de los servicios de Cloud y
enviarlo conjunto elástico. Con esto, hemos llegado
al final de esta conferencia. Gracias por mirar. Te
veré en la siguiente. Adiós.
9. 11: Hey chicos, En este video, vamos a instalar y
configurar Elasticsearch y Kibana en un sistema Linux basado en
DBN de un solo nodo. Los pasos para esta
conferencia son primero, instalaremos la clave pública de firma de Elastic
Search. Después instalaremos el paquete HTTPS de
transporte APT. Después de eso, guardaremos definiciones de
repositorio de búsqueda
elástica en nuestro sistema Linux. Después haremos una actualización
del sistema y luego instalaremos Elasticsearch
y Kibana. Una vez instaladas
las tres aplicaciones, configuraremos
Elasticsearch y Kibana. Dedicaré una
conferencia separada para Log Stash. Y por último, probaremos la
conectividad a nuestros servicios. Así que empecemos. Aquí en la pantalla, estoy dentro de mi cuenta GCP
y en la página de Instancias VM, usaremos esta página para crear nuestro sistema Linux de
nodo único. Daremos click en Crear Instancia. Entonces haré clic en nueva instancia de
VM de Template, y luego elegiré la
plantilla ELK y presionaré Continuar. Ahora desde esta pantalla, puedo mantener el nombre como ELK uno, pero cambiaré la
región a US West One. Y luego dejaré todo lo demás como predeterminado e
iré a networking. Y bajo networking, me
aseguraré de que tenga la etiqueta
correcta, Kibana. Y también me
aseguraré de que esté bajo Elasticsearch VPC y subred de
monitoreo. Una vez validado estas cosas, haré clic en Crear para
crear mi instancia de Linux. Ahora una vez que esta máquina esté arriba, iré a mi Código Visual
Studio aquí. En el lado izquierdo, tengo las notas para instalar ELK Stack en una máquina Linux. Y en el lado derecho, tengo mi terminal aquí. Primero iré a mi página de
Instancias de VM y desde aquí copiaré la
dirección IP externa para mi instancia de Linux. Y luego dentro del
VS Code Terminal, escribiré SSH, elaboraré en, y pegaré la dirección IP de mi
instancia de Linux y golpearé enter. Aquí escribiré
sí, como se puede ver, pude
conectarme con éxito a mi instancia de Linux. Ahora primero escribiré claro, y ahora podemos empezar a
instalar nuestras aplicaciones. En primer lugar, voy a hacer un
sudo apt-get update. Por lo que sudo APT consigue
actualización y pulsa Enter. Y ahora, una vez actualizado el
sistema, primero
limpiaré la pantalla. Entonces necesito instalar W gate si no está ya
instalado en el sistema. Entonces voy a hacer eso ahora. Ahora después de
que se hayan hecho estos prerrequisitos, puedo instalar la clave pública de
firma para Elastic Search, por lo que copiaré todo esto y pegaré en la
terminal y pulsaré enter. Una vez que tenga el mensaje bien, puedo instalar el paquete HTTPS de
transporte APT. Por lo que voy a copiar este comando sudo apt-get install transporte
epitelial, STDEV.S y el
sí y golpear enter. Una vez hecho esto, volveré a
borrar mi pantalla. Y ahora tenemos que guardar
las definiciones de directorio. Por lo que copiaré todo
esto de mis notas y lo pegaré en la terminal,
y presionaré Enter. Ahora una vez guardadas
las definiciones de directorio, ahora
podemos instalar la sesión de registro de
búsqueda elástica Kibana. Entonces el comando es
sudo apt-get update, actualizar primero el sistema. Después instalaremos
Elastic Search, Log Stash y Kibana. Entonces voy a copiar todo esto y lo
pegaré aquí, y voy a golpear Enter. Ahora, una vez instaladas las tres
aplicaciones, ya
es el momento de configurar
nuestras aplicaciones. Así que primero me despejaré de esto. Después haré sudo
SU y luego voy a cd en primer ATC Elastic Search para configurar mi Servicio
Elasticsearch. Ahora dentro del directorio de
configuración de Elastic Search, si hago un LS, hay un archivo llamado
Elastic Search dot YAML, que es el
archivo de configuración principal llamado Elastic Search. Por lo tanto tipo pivotal en sudo, el Elastic Search dot YAML
para configurar este archivo. En este archivo, lo
primero que
necesitamos cambiar es el nombre de punto
agrupado. Así que primero entraré en Insertar, luego descomentar el nombre del punto del clúster. Esta configuración se utiliza para establecer un nombre descriptivo
para su clúster. Así que voy a llamar a mi
cluster demo dash ELK. Ahora siguiente ajuste que quiero
cambiar es el nombre del punto del nodo. Esta configuración consiste en configurar un nombre descriptivo para
este nodo en el clúster. Entonces lo voy a
llamar nodo uno. Ahora una vez que haya hecho eso, puedo dejar los valores predeterminados
para los datos de punto de ruta
y los registros de puntos de ruta y
tendré que entrar en red. Bajo configuración de red,
quiero cambiar es host de punto de
red. De forma predeterminada, Elasticsearch
solo es accesible en el host local. Tenemos que cambiar eso, así que vamos a cambiar
este valor, va 0. Ahora a continuación vamos a descomentar
http dot port, pero lo dejaremos como está
en un entorno de producción. Si desea cambiar el puerto predeterminado en el que se puede acceder a
Elastic
Searchings, vendrá aquí y
cambiará este valor. Ahora vamos a dejar el descubrimiento tal cual,
porque es un clúster de un solo
nodo
irá hacia abajo y
hacia abajo, lo que vamos a hacer es que vamos a poner en un entorno llamado
discovery dot type. Por lo que escribiré en el tipo de punto de
descubrimiento. Y el valor para
esta configuración es nodo
único porque
se trata de un servidor de un solo nodo. Va a ir a revisar
esto en mis notas. Descubierto punto tipo
un solo nodo. Por lo que ahora podemos guardar este archivo. Haré WQ y pegaré Enter. Y para iniciar
Elasticsearch Service, escribiré en sistema CTL, iniciaré Elastic Search
y pulsaré enter. Ahora una vez
iniciado el servicio, primero
podemos comprobar el estado
del servicio por sistema de
mecanografía, CTL. Un estado Búsqueda Elástica y el estado muestra la ejecución
activa. Entonces voy a Control C, luego
menos probar conectividad a nuestro clúster ALK, tipo de
suelo en chica
menos x obtener como PIB y luego localhost y luego el puerto que la búsqueda elástica
corre en 90 a 100. Y luego para comprobar la
salud del clúster, necesitaré escribir en yeso de
subrayado luego sostuvo. Y quiero que la salida sea
en un formato legible por humanos. Por lo que escribiré
bonita y pegaré Enter. Ahora el estatus volvió como verde y hay un solo
nodo en este clúster, que es lo que queríamos. Por lo que el servicio elástico está
instalado y configurado. Voy a despejar de todo y continuación es hora de
configurar Kibana. Por lo que voy a entrar en CD, ATC, luego Kibana y golpear enter. Ahora aquí si hago un ls, verá que hay un archivo similar Kibana dot YAML
que necesitamos configurar. Por lo que escribiré sudo VI
Kibana dot YAML y pegaré Enter. Ahora dentro del archivo YAML de
Kubernetes entrará primero en Insertar, luego ir al puerto de punto de verano, y luego sin comentar, pero
dejar el ajuste tal como está. Este es el puerto que
Kibana y así sucesivamente. En un entorno de producción, posible que desee
cambiarlo de 5601. A continuación iremos a
varios host de puntos, descomentar eso y
cambiarlo de host
local a 0 o
0 hacia 0 a 0. Esto permitirá que Kibana sea accesible por el mundo exterior. He cambiado eso. Ahora siguiente ajuste que
queremos cambiar una URL de base pública punto de verano. Por lo que voy a descomentar esto. Y luego aquí lo que necesito
hacer es que necesito escribir http y luego la dirección
IP privada de mi instancia de
Kibana. Entonces vamos a nuestra página de Instancias de
VM, y desde aquí copiaré
la dirección IP interna. Ahora aquí escribiré http, luego pegaré la dirección IP
interna de mi instancia de Kibana, y luego
especificaré el puerto 5601. A continuación, necesito especificar un nombre descriptivo para
mi instancia de Kibana. Entonces voy a descomentar el nombre del punto del
servidor, y aquí escribiré
en demo dash Kibana. A continuación necesito especificar la URL
donde el host Elastic Search sea accesible. Por lo que aquí bajo Elasticsearch
enseñó hosts, dejaré el valor
como predeterminado porque se está ejecutando en el mismo servidor donde Elastic Búsquedas se ejecutan. Para que podamos dejarlo como está ahora, podemos guardar este archivo y ahora
es el momento de arrancar Kibana. Entonces sistema CTL, arranca
Kibana y le pegaré Enter. Parece que
hice un sistema tipográfico CTL arranque Kibana
y voy a golpear enter. Ahora, una vez que regrese el
servicio, haré un sistema
CTL status Kibana y la
actividad de servicios en ejecución. Así que volvamos a
nuestras instancias de VM. A partir de aquí, copiaré la dirección IP externa
de mi instancia. Abriré una nueva pestaña
del navegador, la pegaré aquí, y luego especificaré el puerto
donde se está ejecutando Kibana. Por lo que 5601 y voy a golpear Enter si Kibana está instalado y
configurado con éxito, comenzarás a ver
cargando elastico primero. Ahora una vez que Kibana
se haya cargado correctamente, verás bienvenido a elastic. Y si haces clic en
Explorar por mi cuenta, llegarás a la interfaz de usuario de Kibana. Ahora hay una última
cosa que quería mostrarte antes de dejarte ir, que es si quieres que tu
aplicación
Elasticsearch y Kibana se
inicie automáticamente cuando reinicies tu sistema, lo que tendrás que
hacer es que tengas que
escribir en sistema CTL habilitar búsqueda
elástica y el sistema CTL habilitar Kibana, un
altar mover el punto. Y con esto, hemos llegado
al final de esta conferencia. Gracias por mirar. Te veré en la siguiente. Adiós.
10. 12: Hey chicos, En esta conferencia
vamos a instalar y configurar elasticsearch log session Kibana en un sistema Linux basado en RPM. Para ello, primero
tendremos que instalar
Elastic Search GPG key, y luego
tendremos que configurar nuestra
sesión de registros de búsqueda elásticos repositorios Kibana en el sistema RPM. Después de eso,
instalaremos nuestras aplicaciones. Después configuraremos
Elasticsearch y Kibana. Y después de haber hecho
con la configuración, podemos iniciar el servicio de Elasticsearch y Kibana y
probar conectividad. Así que empecemos. Ahora aquí en pantalla, estoy dentro de mi cuenta GCP. Y bajo instancias de VMI, ya se
puede ver el sistema Linux
basado en Debian en el que
instalamos nuestro sistema de búsqueda
elástica de nodo único anteriormente en las conferencias
anteriores. Aquí haré clic
en Crear Instancia, y luego haré clic en nueva instancia de
VM de Template, y luego elegiré ELK. Entonces le pegaré a Continue. Dejaremos el nombre como ELK T2, pero cambiaremos la
región a US West One. Entonces bajaré
y bajo disco de arranque, haré clic en cambiar. Aquí. Bajo sistema operativo,
haremos click en el desplegable, y aquí elegiremos
Red Hat Enterprise Linux. Ahora, podemos cambiar
la versión de Linux que queremos
para esta máquina. Lo dejo como predeterminado
y le pegaré a Select. Una vez que haya hecho eso, bajaré al networking. Y bajo redes, me
aseguraré de que tenga la etiqueta de red
correcta, Kibana, y estoy dentro la VPC de búsqueda elástica y
bajo subred de monitoreo. Y luego haré clic en Crear. Una vez mis ELK dos instancias
en funcionamiento, copiaré la dirección IP
externa y luego iré a mi Código de
Visual Studio. Y en mi código de Visual Studio, en el lado izquierdo, tengo las notas para instalar Elastic Search en un sistema RPM. Y en el lado derecho, tengo una ventana terminal bajo tipo
terminal en SSH
y luego la laboratorio en. Y luego pegaré
la dirección IP externa y presionaré Enter. Haga clic en sí. Ahora una vez que me haya conectado
a esta instancia, haré clic en Borrar y ahora estamos listos para comenzar a
instalar nuestros servicios. En primer lugar tenemos que importar Elasticsearch
clave GPG en este sistema. Entonces copiaré todo esto y lo
pegaré en mi sistema
y presionaré Enter. Es. No se puede abrir
el índice usando el permiso V5 denota. Lo que haré es ejecutar el
mismo comando usando sudo,
sudo y presionaré Enter
y una vez que la clave se importe
correctamente
comenzará a instalar repositorios
RPM. Así que primero tendré que
crear tres archivos, Elastic Search dot repo, Kibera, repo, y log Slashdot repo dentro de mi joven
hija repost o D. Así copiaré primer
comando touch y pulsaré Enter. Tendré que escribir en sudo primero. Ahora me mudaré a sudo SU. A continuación copiaré el
segundo comando touch, y luego copiaré el
tercer comando touch. Así que ahora si voy a
mi pequeña hija, repost o D, nefrona haz un ls. Tengo mis tres
archivos, Elasticsearch, repo
corto, troncos, arteria
gesto Po, y reporte de puntos Kibana. A continuación tendremos que
configurar archivos. Así que primero vamos a hacer VI en
Elastic Search corto repo, y entraré en Insertar
y luego tendré que
configurar estos ajustes
dentro del perfil de Marie. Por lo que voy a hacer clic en pegar y
voy a hacer algún formateo. Ahora esta
definición de repositorio no es más primero tenemos el nombre de
esta configuración de configuración, luego tenemos la URL de
donde obtener el paquete. Gpt comprueba la clave GPG si está habilitada
o no y el tipo. Ahora, guardaré este archivo. Siguiente. Haremos un VI en
Kibana dot repo, y van a entrar en
insert y copiaré todos los ajustes de mi
teclado o tres perfiles. Yo las pego aquí. Y de nuevo tendré que
hacer algún formateo. Y ahora puedo guardar
este archivo también. Y por último, tendré que editar mi tronco perfil de arteria estirada. Voy a insertar una copia la configuración para el registro
estirado o triple, y guardaré este archivo. Ahora no tienes que
preocuparte por esta
configuración de configuración. Lo que voy a hacer es
adjuntaré mis notas y el enlace descriptivo
de este video que también puedas tener acceso
a estas. Entonces una vez que hayamos configurado
nuestros tres repos, ahora podemos instalar todo. Entonces primero tenemos que
instalar Elastic Search y el comando es sudo yum
install enabled repo. Y luego hace referencia al Elastic Search Report
que acabas de configurar. Y luego el
nombre del servicio es Elastic Search. Así que voy a copiar, lo pegaré
aquí y le pegaré enter. Si la aseguradora te pide que descargues un paquete de
búsqueda elástica, solo di que sí y sigue adelante. Ahora una vez Elastic
Búsquedas y almacenadas, podemos instalar Kibana y Log
Stash In type in sudo yum install Kibana para instalar Kibana y pulsa Enter,
voy a golpear sí aquí. Ahora una vez instalado Kibana, puedes escribir en sudo yum instalar Log Stash para instalar Log
Stash NAL head, sí. Ahora una vez que las búsquedas de registro
también están instaladas, es el momento de configurar
nuestros servicios. Esto sería similar
a lo que hemos hecho por nuestro sistema basado en DBN. Si ya lo has hecho, probablemente
puedas
configurarlos por tu cuenta
si no lo
has hecho, por favor sigue esta conferencia. En primer lugar, configuraremos
Elasticsearch. Así CD, ETC slash búsqueda elástica. Aquí, si hago un ls, veré que hay un archivo llamado Elastic Search si lo soy, y este es el
archivo de configuración para Elastic Search. Así que vamos a editar eso. Por lo que teclearé VI Elastic
Search dot YAML y pegaré enter. Ahora aquí en este archivo, primero
entraré en Insertar. Y el primer ajuste
que necesito
cambiar es el nombre de punto agrupado. Voy a cambiar
eso a demo dash ELK. A continuación quise cambiar
la configuración del nombre de punto del nodo, así que vamos a cambiar esto
a ELK dash one. Después de esto, puedo
dejar el camino hacia datos y path dot
log configuración como está, tendré que ir por debajo de la
red y dentro red lo que voy a hacer es
ir a la red dot host, descomentar eso y este valor a $0 o 0 hacia 0. Ahora lo que sucede es por defecto, búsqueda
elástica
solo es accesible desde localhost cambiando
a 0 o 0 o 000. Estamos exponiendo esto a
cualquiera en el mundo. A continuación, vamos a descomentar el puerto punto
STDP, pero dejaremos el
puerto como predeterminado 9200. Si está ejecutando un clúster de
producción, es posible que desee cambiar
esto a algún otro puerto, pero lo dejaremos como está. Ahora, por fin, iré justo
al final de este expediente. Y aquí voy a escribir en un
entorno para el descubrimiento doctype. Ahora este valor de configuración sería de
carga única porque estamos configurando un solo nodo Elasticsearch cluster
o discovery dot type. Y el valor es nodo de guión
único. Y ahora puedo guardar mi
Elasticsearch golpeó YAML, así que voy a golpear Entrar ahora puedo iniciar mi Servicio Elasticsearch. Por lo que el sistema CTL inicia Búsqueda
Elástica. Ahora una vez que el servicio está
activo, puede hacer estado para comprobar
el estado del servicio. Es activo y en funcionamiento. Ahora para comprobar la conectividad
a nuestro clúster, escribiremos menos x, obtenemos STDP y luego localhost, y luego el puerto
que Elastic Seeds se ejecuta en 90 a 100. Y luego nos conectaremos a la API de clúster y al servicio de
salud en esa API. Y lo que queremos es que queremos la salida en formato
legible por humanos. Por lo que vamos a teclear
bonita y pegaremos Enter. Y como se puede
ver, el estado de nuestro clúster es verde y
el número de nodos es divertido. Ahora, podemos empezar a
configurar nuestro Kibana. Entonces voy a entrar en slash,
ETC, slash Kibana, y voy a borrar
de todo y hacer un ls dentro de este
dado o carpeta, hay un archivo llamado
teclado AutoML, que es el
archivo de configuración para Kibana. Por lo que voy a hacer VI Kibana dot YAML. Ahora entraré primero en Insertar. El primer ajuste que quiero
cambiar es nuestra trama de puntos, pero dejaré este valor tal cual, porque este es un sistema demo. Si estuvieras en un sistema de
producción, tal vez
quieras cambiar este
valor a otra cosa. Entonces descomento
servidor dot host, y luego lo cambiaré
de localhost a $0 punto 0. Así que de nuevo, esto lo hace
accesible al mundo exterior. Ahora varios puntos URL base
pública es la URL en la que
Kibana es accesible. Para obtener el valor esta configuración tendrá que
ir a nuestras instancias de VM. Entonces bajo IHL k2, copiaré la
dirección IP interna y escribiré http, y pegaré la dirección IP
interna, y le proporcionaré el
puerto que tiene 5601. A continuación cambiaremos
el nombre del servidor, pero entraré en self.name, descomentar y darle
el nombre demo dash Kibana. Entonces iré a los anfitriones cortos de Elastic
Search. Y puedo dejar el
valor predeterminado porque estas
instancias de Kibana se ejecutan
en el
mismo servidor que los
servicios de Elasticsearch que se ejecutan en. Y una vez que haya hecho eso, puedo guardar mi archivo
de configuración. Y ahora puedo empezar Kibana. Una vez gibbon
empecé, puedo hacer el sistema
CTL status Kibana y el servicio está
activo y en ejecución. Entonces iré a
mis instancias de VM, copiaré la dirección IP pública
de mi instancia de Kibana, basándola en la pestaña del navegador
y escribiré 5601 para conectarme al servicio de Kibana
en el servidor
podrá llegar a la interfaz de usuario de Kibana. Ahora una vez que llegas a esta pantalla, haces clic en explorado por mi cuenta y deberían
llevarte a la interfaz de usuario de Kibana. Ahora, antes de dejarte ir, quiero mostrarte
una última cosa. Ahora, si quieres que tus servicios de
Elasticsearch y Kibana vuelvan
a subir automáticamente
después de que el sistema se reinicie, tienes que escribir en el sistema
CTL habilitar la búsqueda elástica, habilitar el
servicio Elasticsearch y sistema CTL habilitar Kibana, habilitar el servicio Kibana. Con esto, hemos llegado
al final de esta conferencia. Gracias por mirar. Te
veré en la siguiente. Adiós.
11. Instala ELK en el servidor de Windows: Hey chicos, En esta
conferencia
instalaremos la búsqueda elástica
en un servidor Windows. Para empezar,
descargaremos algún software. Por lo que primero descargaremos
Elasticsearch y Kibana. Después de eso, lo
instalaremos llamados NSSS son gestor de
servicio no chupando. Esta herramienta le ayuda a instalar
una aplicación como Servicio. Ahora la razón por la
que necesitamos esta herramienta es porque Kibana
no viene con la utilidad de paquetes gratuitos que nos
puede ayudar a instalar
Kibana como servicio. Por lo que usaremos NSSA
para Elastic Search. Tenemos una utilidad
llamada Elastic Search En esta oscuridad atrás dentro del archivo zip de búsqueda
elástica, que se utilizará
para instalar un activo como un Servicio
en Windows Server. Ahora, después de haber
descargado NSSS, descargaremos
e instalaremos 7-Zip. Una vez
terminadas las Descargas, configuraremos Elasticsearch y dadas nuestras aplicaciones, entonces las
ejecutaremos como Servicio. Y una vez que hayan comenzado
con éxito, probaremos la conectividad a nuestro Clúster Elasticsearch y otra instancia de Kibana en
tu boceto iniciado aquí. Tengo mi ventana en alguna parte, dondequiera que esté haciendo instalando Elasticsearch y
Kibana en este servidor, primero
abriré una pestaña del navegador. Y en el navegador
escribiré en búsqueda
clásica Windows
descarga y pulsa Enter. Y desde aquí voy a ir a
la URL que dice elástico. Descarga una búsqueda elástica. Por lo que voy a hacer clic en este enlace. Y una vez que esté en este enlace, me aseguraré de estar
en la pestaña de lanzamiento de GA. Y desde el primer paso
descargaremos clásico como
si Windows, voy a hacer click en este botón
Descargar. Y mientras esto
se ha descargado, abriré otra
pestaña y escribiré en Kibana windows download. Y aquí también, voy a ir a la URL de descargas para Kibana. Y desde esta URL también, voy a ir al paso uno, descargar y descomprimir Kibana. Me aseguraré de que la
espuma negra sea elegida como Windows, y haré clic en el botón de
descarga para Windows. Y esto debería
iniciar la descarga para mi proceso de Kibana también. Ahora mientras esto se está
descargando, abriré otra
pestaña y escribiré descarga y SSM y pulsaré Enter. Y de los resultados, elige el enlace para un
SSM dot cc y descargas. Y desde esta página web, voy a ir bajo Sección
última versión. No han hecho click en la
utilidad y SSM 2.24. Por lo que voy a hacer click en esto
y ahora voy a abrir otra pestaña y escribiré descarga 7-Zip y entra. Y desde la página de descarga 7-Zip DOT
ORG, haré clic en el
enlace para descargar la utilidad para Windows de 64 bits. Por lo que voy a hacer clic en este enlace de
descarga aquí. Ahora una vez que se
hayan descargado todos los archivos, primero
haré clic
en 7-Zip instalado, 7-Zip en el sistema. Desde el cuadro de diálogo del instalador, haré clic en ejecutar, y desde aquí elegiré la
carpeta de destino predeterminada y haga clic en Instalar. Y una vez que la IP de alguien haya
instalado, puedo dar click en. Y ahora abriré
mi carpeta de descargas. Ahora una vez dentro de la carpeta de
descarga, puedes hacer
clic derecho en Elasticsearch zip, y puedes usar 7-Zip
para extraer los archivos. Por lo que haré clic en Extraer archivos. Y a partir de aquí, se puede elegir el camino donde
desea extraer estos archivos. Ahora lo que he hecho para esta
conferencia es que ya he aceptado estos archivos dentro de
mi carpeta de documentos. Voy a ir a la
carpeta Mis documentos y como pueden ver, aquí
tengo una carpeta de
búsqueda elástica, y también tengo
una carpeta Kibana. Entonces empecemos a
configurar estos. Abriré la carpeta
Elastic Search, y desde aquí elegiré
Elastic Search. Nuevamente. Iré al conflicto. Dentro de la carpeta conflictiva, necesitamos editar el archivo corto YAML
Elasticsearch. Por lo que voy a hacer clic derecho en este archivo y usaré VS Code
para editar este archivo. Puedes utilizar el editor
de tu elección. Así que siéntase libre de abrir
y editar este archivo. Ahora una vez que tengo abierto el archivo
corto YAML de Elasticsearch, lo que haré es que la
primera configuración
que necesito cambiar es
agrupada o nombre. Y cambiaré esto
a demo dash ELK. Entonces necesito cambiar
el nombre del nodo. Por lo que voy a cambiar esto
a ELK dash one. Después de eso, no necesito
especificar una ruta a mi directorio de datos o directorio de registros porque esta
es una instancia demo. Por lo que voy a mantener, dice default. Ahora voy a ir a
la sección Red y descomentar el host de punto de red. Y cambiaré
este valor a 0. Después de eso, voy a
descomentar http dot pork, pero mantendré el
puerto como predeterminado. Y por último, voy a ir hacia
el fondo de este expediente. Y aquí escribiré
en el tipo de punto de descubrimiento, y le daré al
valor dashboard único porque esta es una
sola solución Norton. Ahora puedo guardar este archivo
y una vez que lo haya hecho, puedo iniciar mi Servicio
Elasticsearch. Entonces para hacer eso, entraré a mi cuadro de búsqueda y
escribiré en PowerShell, y aquí elegiré la aplicación de
escritorio de Windows PowerShell. Ahora entré dentro de mi consola
PowerShell. Escribiré cd si
necesito ir a Documentos, y luego necesito ir a carpeta
Elasticsearch y
luego Elasticsearch otra vez, y luego estado dentro de
bin si hago un ls. Ahora aquí verás que
hay un archivo llamado Elastic Search service dot Ph.D. Ahora necesitamos
ejecutar este archivo. En primer lugar lo
saldré de mi pantalla. Y desde aquí escribiré dot slash Elastic Search,
dash, service dot. Y aquí necesito
teclear instaladores. Así dot slash Elasticsearch
service dot VAT space install, y voy a hacer clic Enter. Ahora bien, esto debería iniciar la instalación de un
activo como un Servicio. Una vez finalizado esto, lo que puedes hacer es que
puedas acudir a servicios dot MSC desde tu cuadro de búsqueda. Aquí, puedes encontrar el servicio
Elasticsearch, y ahora puedes
iniciar el servicio. Pero primero, cambiaremos
el tipo de inicio en el servicio de
manual a automático para
que el servicio
se ponga en marcha después los arranques celulares
entren automáticamente en propiedades. Iremos al
tipo de inicio y cambiaremos eso a automático
y pulsamos en Aplicar. Una vez que hayas hecho eso,
puedes hacer clic en Empezar para comenzar. El servicio
va a hacer clic en OK. Y se puede ver que
los servicios funcionando. Ahora, déjame maximizar
mi publicación. Ahora aquí, también puedes usar la misma utilidad para administrar
este servicio también. Déjame mostrarte el uso. Si pondría en dot slash servicio de búsqueda
clásico
almacenado IVA y pulsa Enter. Ahora se puede ver el uso. Puede instalar un
servicio de eliminación de servicio, iniciar parada, y
puede administrar un servicio. Ahora, intentemos
detener este servicio usando estas utilidades para que pueda escribir en stock y presionar Enter. Ahora recibió el mensaje de que este
Servicio Elasticsearch ha sido detenido. Y puedo validar eso
al entrar en mis servicios dot MSC y dar click en Ejecutar
este botón Refrescar, se
puede ver que el
servicio fue detenido. Ahora vamos a empezar el
servicio y golpear enter, y tenemos el mensaje de
que los servicios comenzaron. Así que vamos a validar eso otra vez. Por lo que haré clic en refrescar y se puede ver que
el servicio se estaba ejecutando para probar conectividad a nuestra instancia de Elasticsearch, lo que tenemos que
hacer es que tengas que abrir la ventana de Chrome. Y desde Chrome, vamos a
abrir otra pestaña. Y aquí vamos a escribir http
slash slash host local y luego compramos
90 a 100 y golpeamos Enter nervosa services up. Verás alguna información regresando de tu clúster. Ahora, lo que también puedes hacer es que puedas mirar
la salud del clúster. Para ello, escribirás barra tras la
URL y subrayar yeso otra
barra y cabeza y luego signo de interrogación y luego bastante líquido la cabeza del racimo. Ahora se puede ver el
estado del clúster es verde y el número
de nodos es uno. Entonces así es como puedes instalar la búsqueda elástica
en una máquina Windows. A continuación, configuraremos
nuestra instancia de Kibana. Ahora para configurar nuestro Kibana, abriré el explorador de archivos. Y desde aquí
iré a Documentos. Y abriré
mi carpeta Kibana. Y luego Kibana carpeta
otra vez, y luego config. Y dentro de Config, necesitaré editar las finanzas de Kibera TML, así que haré clic derecho
sobre él y haga clic en abrir para abrir este
archivo en un editor. Ahora dentro de este archivo, descomento solver.py,
pero lo dejo como predeterminado. Entonces descomento
servidor dot host
y cambiaré el valor del host
local a 0 punto 000. A continuación, cambiaré la URL de base pública de
varios puntos, así que descomento eso. Y para obtener su valor, debes ir a la siguiente configuración de
netflix. Y a partir de aquí,
volveré a
hacer clic en Red para obtener la
dirección IP de esta máquina, que es estándar
0 punto a punto 15. Por lo que la URL base pública
será STDP diez punto 0 punto punto 15. Y luego el libro se llevó el 601. Por lo que esta es la URL en que
se podrá acceder dar honor. Bajaré un poco. Después siguiente, cambiaré varios nombres de puntos
y cambiaré el nombre descriptivo de
mi instancia de Kibana de tu anfitrión mejorado
demo dash Kibana. A continuación, voy a descomentar los anfitriones de puntos de
Elastic Search. Pero puedo dejar esto como predeterminado porque esta instancia de Kibana se instala localmente en el mismo servidor con búsquedas
elásticas. Ahora a continuación, por defecto, registros de
Kibana, Es
registros en STD out. Queremos cambiar eso
y queremos configurar nuestro Kibana o iniciar sesión sus registros en el registro de
sangre mientras se encuentra en algún lugar. Para ello, necesitamos
bajar y encontrar la línea que
dice login dot t ESD. Está en línea 97,
voy a descomentar esto. Y antes de cambiar su valor, abriré mi explorador de archivos
y voy a subir un nivel. Y aquí voy a crear una
nueva carpeta llamada logs. Y voy a abrir eso. Y luego voy a hacer clic derecho
en los registros en la barra superior. Y copiaré direcciones textos, y ahora voy a sustituir
estradiol por este texto. Aquí, voy a hacer otra barra y fui a llamar a mi archivo de registro
Kibana oscuro bajo. Entonces con esto, Kibana lo
escribirá registros en este archivo. Ahora, también podemos
descomentar el registro dot silent y
logging dot quiet, pero vamos a mantener estos
valores como falsos. Ahora si quieres un registro detallado, puedes descomentar
esto y cambiar su valor de false a true. Esto te dará
detalles de nivel
granular de Kibana está bloqueado. Ahora, podemos guardar este archivo. Ahora antes de usar un SSM para
iniciar Kibana como servicio, quiero mostrarles cómo
iniciar Kibana manualmente. Entonces iré a mi
PowerShell y desde
aquí y escribiré cd
y desde documentos, iré a Kibana
y luego Kibana de nuevo. Y luego desde el interior Kibana
se van a doblar esta vez. Y aquí si hago un ls, verás que hay un
archivo llamado Kibana dot dot dot. Tenemos que ejecutar este expediente. Primero. Voy a despejar de esto, y luego escribiré en dot slash Kibana, y
voy a golpear Enter. Ahora después de esto,
pasemos a nuestra ventana del navegador y tecleemos http
slash slash dot, dot to dot 15 y se les da un puerto 5601 y
voy a golpear Enter. Y esto debería
llevarme mi página de Kibana, no dependiendo de lo poderoso que sea
tu servidor Windows. Podría tomar algún tiempo
para que Kibana se cargue, así que solo dale algo de tiempo. Ahora después de esto, veamos
cómo instalar Kibana como servicio. Primero, abriré PowerShell y detendré esta instancia. Presiona Control C y entra y gestiona sistema minutero
telón de fondo puedo teclear, sí, voy a dominar esto. Y una vez que esté fuera de esto, saldré de Kibana, abriré mi explorador de
archivos que
descargue , extraiga un SSM. Por lo que 7-Zip. Si los archivos, y elegiré documentos y haga clic en Aceptar y luego OK de nuevo. Y una vez que un FSM está
dentro de mis documentos, puedo volver a PowerShell y CD y SSM y hacer un LS aquí. Ahora, aquí hay otra
carpeta llamada SSM, así que vamos a cd en eso
y haremos un LS desde aquí. Necesito entrar
cuando 64 porque mi máquina se
sabe alguna vez 64 máquina. Si estás en una máquina Windows de
32 bits, debes ingresar a
este directorio. Entraré cuando 60 cuartos, por lo que CD en 64. Si hago un LS aquí, habrá un archivo EXE
llamado EXE punto SSM. Entonces voy a hacer dot slash
y SSM dot EXE. Y para mostrarte el uso, lo
haré terminó aquí. Ahora el uso es innecesario, una de las opciones y
luego algunos argumentos. Instalar un servicio, necesitamos
utilizar una instalación de SSM. Por lo que aquí
escribiremos barra de puntos y espacio SSM EXE en tienda. Y ahora tenemos que
dar el nombre del servicio. Por lo que Kibana y pegó entrar. Una vez que hayas pulsado Enter, abre un cuadro de diálogo. Y dentro de ese cuadro de diálogo
en la pestaña de aplicación, necesitamos especificar la ruta para el archivo por lotes para Kibana. Voy a hacer clic en este botón aquí. Después iremos a Documentos, Kibana, Kibana, y luego bin. Y a partir de aquí voy a
especificar mantener en nuestro archivo por lotes y dar click en abrir ahora y abrir
el paso detallado. Puedo escribir algunos detalles, así que escribiré en Kibana y la descripción también
será Kibana. Puede especificar el
tipo de inicio puede ser automático, automático, retrasado,
manual o deshabilitado. Dejaremos esto como automático. Puede especificar el inicio de sesión
como información aquí, dependencias de este servicio, el comportamiento de
cierre de prioridad de proceso. Pero dejamos todo como
predeterminado y pulsamos en el
servicio de instalación después de que me haya dado una confirmación de que
los servicios de Kibana instalaron, puedo hacer click en Okay. Y eso va a
despegar el cuadro de diálogo, proteger el estado
del servicio de Kibana. Puedo teclear NASM, cmd.exe espacio status Kibana, y golpear Entrar ahí, dice Stock de servicio. En primer lugar, tenemos que iniciar el servicio nsf dot EXE espacio stark space key
button y presiono Enter. Ahora tengo confirmación de que esta operación de servicio se
completó con éxito. Entonces voy a ir a mis
servicios dot ventana MSC, refrescar esto, y voy a
ir a mi servicio de Kibana. Y puedo ver que los servicios de
Kibana se ejecutan. Por lo que abriré
otra pestaña del navegador y golpearé Refrescar y
seguridad cargas virales. Podría tomar algún tiempo de nuevo. Voy a publicar el video aquí. Ahora me tomó unos minutos para mi incienso Kibana vuelva
a subir, pero ya está arriba puedo
hacer clic en Explorar por
mi cuenta y empezar a trabajar
en mi interfaz de usuario de Kibana. Ahora antes de dejarte ir a continuación, valida que nuestra instancia de
Kibana esté iniciando sesión en el
archivo de registro que especifican. Entonces voy a
los documentos Kibana, Kibana, y luego
entraré en registros. Puedo ver que mi archivo de registro de puntos
Kibana está ahí y tiene algunos centros de
datos. Ábrela. Y aquí se puede
ver que Kibana está escribiendo x datos de log
dentro de este archivo de registro. Entonces con esto, hemos llegado
al final de esta conferencia. Te he mostrado cómo instalar Elasticsearch y Kibana
en un Windows Server. Gracias por mirar. Te
veré en la siguiente. Adiós.
12. 14: Hey chicos, En esta conferencia
configuraremos espera seguridad en nuestro Clúster
Elasticsearch. En primer lugar, detendremos a Kibana
en el servicio de Elasticsearch. Entonces vamos a habilitar
espera ir a día dentro de ese archivo de
configuración de Elastic Search. Entonces iniciaremos el servicio
Elasticsearch. Después de eso, configuraremos las credenciales
predeterminadas para los usuarios incorporados de
Elastic Search. Después configuraremos
Kibana para que utilice la autenticación por
contraseña
para conectarnos
a nuestro Clúster de Elasticsearch. Y por último, iniciaremos nuestro servicio de Kibana y
probaremos la conectividad. Empecemos. Aquí en la pantalla, tengo
mis notas para configurar la
seguridad de espera en nuestro Clúster
Elasticsearch y en el lado derecho, mi conexión SSH dentro de
mi máquina dada ELL. Se trata de un clúster ELK de un solo
nodo que implementamos
en un paquete DBN. Entonces aquí, primero, tengo que detener a
Kibana, una búsqueda elástica. Por lo que voy a teclear en sistema CTL, detener Kibana y sistemas
CTO detener búsqueda elástica. Una vez que tenga fuertes
servicios de junta primero tendré que
habilitar expect inside Elastic
Search golpeó Yammer. Entonces iremos a Elasticsearch. Y luego aquí escribiremos
VI Elastic Search dot YAML. Y en este archivo
bajará a la parte inferior, y entraré en modo de inserción. Y hacia abajo, agregaré el ajuste espera
seguridad habilitada como verdadera. Entonces lo copiaré y lo
pegaré aquí. Y ahora puedo guardar este archivo. Ahora a continuación tendré que iniciar
mi clúster de Elasticsearch. Por lo que escribiré en el sistema
CTL, iniciaré Elastic Search. Ahora una vez
iniciados los servicios de Elasticsearch, echemos un vistazo
al estado escribiendo en sistema CTL status Elasticsearch, está activo y en ejecución. Ahora en nuestro video anterior, utilizamos el comando curl para
probar la conectividad
a este clúster. Ahora, si hago un Control
R y escribo en Curl, y si
volvemos a ejecutar este comando, veamos qué pasa. Obtenemos una excepción de seguridad de que nos faltan las credenciales de
autenticación. Lo que tendremos que hacer ahora
es que tendremos que generar
las credenciales de autenticación
para nuestros usuarios incorporados. Así que limpiaré la pantalla. Y para ello,
tendremos que ir a usr, compartir Elastic Search
y luego bin. Y si hago un LS aquí, verás que hay muchas
utilidades dentro de esta carpeta. El que buscamos es la utilidad de
contraseñas de configuración de Elastic Search. Así que voy a escribir en dot slash Elasticsearch dash
setup password. Y aquí tengo dos modos. O bien puedo entrar en modo
interactivo y configurar
cada contraseña yo mismo. Así que déjame mostrarte
que primero
escribiré interactiva
y voy a golpear, y dice iniciando la configuración de contraseña
para usuarios reservados. Y da un nombre de usuarios
y dice que se
le pedirá que ingrese contraseñas a
medida que avanza el proceso, por favor confirme que le
gustaría continuar. Yo escribiré aquí primero. Lo que me gustaría es que Elastic Search
genere automáticamente contraseñas para mí. Entonces vamos a hacer eso.
Escribiré auto y golpearé enter. Y ahora vuelve a decir, pero esta vez dice que las
contraseñas se
generarán e imprimirán al azar a
la consola usando auto, las contraseñas se
generan de forma automática, mientras que usando
interactivas, son ingresado manualmente por el usuario. Entonces escribiremos sí, para
generar automáticamente mis contraseñas. Tengo la contraseña está aquí, así que copiaré todos estos y
pagaré dentro de mis notas. Ahora, una vez que haya hecho eso, déjame salir de esto. Hagamos cd para salir
de todo y claro. Ahora, volvamos a ejecutar nuestro comando
curl. Pero esta vez lo que quiero
hacer es usar
la opción menos u para especificar
el nombre de usuario y contraseña
justo después de Carl, escribiré
menos u y
escribiré en elastic como nombre de usuario. Elastic es un superusuario en
el clúster de Elasticsearch. Y luego especificaré la contraseña para mi superusuario
elástico. Entonces haré control C. Lo
pegaré aquí y luego
pondré un espacio. Y ahora si pego Enter, verás que soy capaz de
obtener información de un clúster. Nuevamente, eso significa que nuestro
clúster está
configurado correctamente con seguridad esperada y autenticación de
contraseña. Ahora a continuación, la instancia de Ikebana, si intentamos iniciarla ahora, nos
dará un error porque no puede conectarse a Elasticsearch. Por lo que tenemos que suministrar las credenciales de
Elastic Search para que mi instancia de Kibana se
conecte al clúster de
Elasticsearch. Para ello,
haremos cd ADC, Kibana,
y luego bajo Kibana editará el archivo YAML de punto Kibana. Y dentro de este archivo, entraré en insert y
entraré en la sección
donde dice Elasticsearch enseñó nombre de usuario
y el nombre de usuario incorporado utilizado para esta integración es el sistema de subrayado
Kibana. Entonces este es nombre de usuario. Entonces todo lo que tenemos que hacer es descomentar
la contraseña y eliminar el valor predeterminado y
copiar la contraseña
para el usuario del sistema Kibana
y pegarla aquí. Y una vez que hayas hecho eso, puedes guardar este archivo. Y empecemos el servicio de Kibana. Soy la estrella del CTO Kibana. Ahora hagamos un estatus y el servicio está
activo y funcionando. Ahora cuando cargamos la página web de
Kibana, debe
pedirnos autentiquemos. Entonces cerraré esta pestaña. Volveré a copiar la
dirección IP pública de mi máquina, y la
pegaré y escribiré 5601. Y veamos qué pasa
ahora en este momento nos
está pidiendo el
nombre de usuario y contraseña. Y aquí bajo nombre de usuario, escribiré elastico y
bajo contraseña pegaré en la contraseña para
superusuario elástico un login. Y ahora puedes ver que
estoy dentro de Kibana usando mi
elástico de usuario incorporado para mirar todos los perfiles de usuario en
esta instancia de Kibana. Puedes entrar en la administración
y luego puedes entrar en la gestión de la pila
y entender la gestión. Puedes entrar en usuarios. Y desde aquí
podrás ver todos los usuarios incorporados
que se crearon cuando lo configuramos espera
seguridad en este sistema. Con esto, hemos
llegado al final de este video.
Gracias por mirar. Te veré en la siguiente. Adiós.
13. Añadir datos a nuestro clúster de elk con Kibana: Hey chicos, En las
últimas conferencias, hemos instalado nuestro clúster de
Elasticsearch. Ahora es el momento de conseguir algunos
datos en nuestro clúster. En primer lugar, cargaremos datos que
no sean de series temporales, y luego cargaremos datos de series
temporales. Y entonces te mostraré la
diferencia entre ambos. Así que vamos a
ensuciarnos las manos aquí en mi pantalla. Tengo mi instancia de
Elasticsearch. Por lo que copiaré su dirección IP
externa, abriré otra pestaña del navegador, pegaré, y ha habido 5601 y me
conectaré a mi instancia de Kibana. Ahora una vez que estoy en la página
de inicio de mi instancia de Kibana, hay un patrón
llamado subir un archivo, así que voy a hacer clic en él,
subir algunos datos. Ahora, usando este patrón, puedes subir archivos de
hasta un
tamaño de 100 MB y pueden estar en
el siguiente formato. Podría ser un archivo de
texto delimitado como CSV o TSV, o un archivo JSON delimitado, o un archivo de registro con un
formato común para la marca de tiempo. Para esta conferencia, cargaremos archivos de texto
delimitados que
podrían ser CSV o TSV. Ahora para conseguir algún conjunto de datos
para este tutorial, abriré otra pestaña
del navegador y
iré a un sitio web
llamado kaggle.com. Y en Kaggle.com
iré a conjuntos de datos. Entonces le pegaré a enter. Ahora
bajo este sitio web, tendrá que
registrarse o
inscribirse en este sitio web para
descargar los conjuntos de datos. Y una vez que lo hagas desde el menú de navegación de la
izquierda, si estás en conjuntos de datos
en busca los conjuntos de datos usando este estado de
búsqueda Botón Salir. Ahora, también puedes filtrar por
los conjuntos de datos que quieras. Por ejemplo, porque
solo puedo subir hasta 100 MB archivos, escribiré aquí 100 MB
y escribiré, en tipo CSV. Y el
tamaño inicial del archivo podría ser de 0 y b y aplicar militar. Ahora desde los resultados, haré clic en el conjunto de datos
llamado espectáculos de Netflix. Y aquí puedo ver el tamaño de este conjunto de datos que
está alrededor de 90 KB. Si hago clic en compacto, puedo ver algunos
datos de muestra dentro del conjunto de datos. Y ahora voy a hacer clic en descargar
para descargar este archivo. Este archivo
se descarga como archivo zip. Así que voy a mostrar en Finder
y desde una ventana Finder, está en mis descargas. Por lo que voy a hacer doble clic en
él para extraer este archivo. Y ahora ya puedes ver tengo el archivo netflix dot csv en mi máquina ahora
volverá a Kibana. O bien puedo arrastrar
y soltar este archivo, pero puedo subir este archivo. Por lo que voy a ir a mis Descargas aquí. Buscaré este expediente. Entonces netflix dot CSV, y voy a hacer clic en Abrir. Ahora lo que
hace Kibana es analiza las primeras mil
líneas de este archivo y recogió algunos
datos sobre este archivo. Por ejemplo, ha
descubierto que se trata un archivo delimitado y el
delimitador es una coma, y también tiene una fila de encabezado. Ahora podemos hacer clic en la configuración de sobrescribir para anular algunos
ajustes en este archivo. O puedo mirar explicación de
análisis para averiguar cómo llegó Kibana
a esta conclusión. Por lo que voy a hacer clic en
eso y se puede ver alguna explicación de este
análisis que voy más cerca ahora, también se pueden
ver
algunos arranques de archivo. Por ejemplo, hay 13
valores de calificación distintos en 999 documentos. Una vez que haya pasado por todo esto, haré clic en importar
para importar estos datos en la siguiente página me pide
que cree un índice. Puedo hacerlo usando método
simple o
método avanzado para esta demo, solo
usaremos el
método simple y el nombre del índice. Tendré que especificar el nombre del nuevo índice que se
creará. Entonces lo llamaré índice de Netflix. Ahora, de nuevo, index es la
forma en que almacenas datos
en Elasticsearch. La siguiente opción es
crear un espectro de índice. Ahora en comparación con un índice, un patrón de índice es cómo se puede buscar y analizar
esos datos en Kibana, index es para almacenar
datos en Elasticsearch, un patrón de índice es
analizar esos datos. Y Kibana, quiero que se cree un
patrón de índice porque sí quiero visualizar
estos datos y Kibana. Por lo que haré clic en importar. Entonces puedes decir que primero
procesa el archivo, luego crea el índice, crea canalización de ingestión
y carga los datos, y luego crea un
patrón de índice para estos datos. Una vez hecho todo esto, recibirás un mensaje
completo de importación. O bien puedes hacer estos datos en descubiertos a algún manejo de
índices. Por ejemplo,
puede especificar cuándo se eliminarán nuevamente
estos datos
del índice etcétera, etcétera manager, botón de índice. Y hablaremos de
File bit más adelante. Pero por ahora, sí queremos
descubrir este índice en nuestra pestaña histórica para
llegar a la página Descubrir, otra forma es haciendo clic en estas tres líneas
desde arriba a la izquierda y luego bajo analítica y luego discutir bajo página descubierta
en el lado izquierdo, la primera pieza de información
es la orina índice. Si tuvieras múltiples índices, puedes hacer click en
este desplegable y seleccionar el índice en el
que quieres estar, entonces tienes los campos
disponibles. Y si tienes más de
unos pocos campos, por ejemplo, algunos índices podrían tener
100 metros o más, también
puedes buscar nombres de un
campo en este cuadro. Si quisiera dejar decir
buscar calificación y obtendré todos los campos que tienen
la palabra rating oil. Quita eso. Ahora en el lado derecho, la primera pieza de
información es el número de hits o el número de
documentos en este índice. Por lo que tenemos 1000 documentos y luego cada documento individual, si amplio eso, se pueden ver todos los campos y sus valores que están
en este documento. Ahora, contra cada campo
verá cuatro botones. El primer botón se
filtra por valor. Entonces si quisiera, en
mi filtro de índice para todos los documentos que tienen
una descripción de calificación de 80, puedo hacer click en este
botón y se
mostrará mi filtro en
la parte superior izquierda aquí. Y filtrará los resultados
en mi pestaña descubierta, todos los resultados que
coinciden con mi filtro. Para que puedas ver fuera de 1000, tengo 15 hits donde la descripción de la calificación
fue 82 filtro de eliminación. Sólo voy a hacer clic en esto. La deuda Xnor fue cuando se
quiere filtrar por un valor
particular, también se
puede filtrar un valor. Por ejemplo, en esto, quiero todas las películas que no
fueron lanzadas en 2004. Filtrar para el año
de lanzamiento 2004. Por lo que voy a hacer clic en este menos, y esto
me dará todas las películas donde el año de lanzamiento no es 2004. Y de nuevo, voy a quitar esto y experimento
de los documentos. Ahora a continuación se toggled
columnas en una tabla. Entonces en esta mesa no
hay columnas a partir de ahora, si quieres introducir
columnas para que tu mesa se vea más ordenada
para que lo busques. Por ejemplo, si quiero que la
primera columna sea título, me peinaré contra el título. Voy a hacer clic en Toggle
columna en tabla. Y ahora puedes ver todos mis
documentos están ordenados por título. A continuación, quiero que mi
columna sea Elisa. Daré clic en Toggle columna
en la tabla al lado del año de lanzamiento. Y a continuación quiero que mi siguiente columna
sea puntuación de calificación de usuario. Y haré clic en
Toggle columna en la tabla para incluir la puntuación de
calificación de usuario también. Para no quitar ninguna de
las columnas conmutadas, simplemente
iré a ese campo
y eliminaré esa columna. Ahora puedo ordenar por
esta columna también. Por ejemplo, si hago
clic en esta flecha, dice ordenar puntuación de
calificación de usuario ascendente. Así que permítanme minimizar esto. Y si hago clic en eso, ordenará el puntaje
de calificación de
usuario manera ascendente. Y si quiero
moverlo a descendente, volveré a hacer clic en esto y ahora
lo ordenará
descendiendo. Ahora a continuación puedes usar
esta barra de
búsqueda o buscar tu conjunto de datos usando el lenguaje de consulta
Kibana. Así que primero veamos
todas las películas que se
lanzaron en el año 2
mil de mis campos. Voy a ver qué campo me
da liberación aquí. Por lo que el campo en realidad se
llama año de lanzamiento. Entonces escribiré esa Elisa y ahora puedo aplicar algunos operadores. Por ejemplo, colon
significa que esta liberación aquí es igual a algún
valor menor que, igual a es básicamente la
Louisiana menor o igual a algún valor mayor o igual a lo que
sugiere, menos que, mayor que dos puntos y una estrella para especificar si mi conjunto de datos
contiene un año de lanzamiento en cualquier forma que filtrará todos los documentos que tengan valores
nulos o vacíos para
este campo en particular. Digamos que en 2004. Y ahora voy a hacer clic en actualización. Y esto me mostrará todos los títulos que
se estrenaron en 2004. Para volver a comprobar que
agregaré liberado aquí
haciendo clic en este
signo más en mi mesa también. Así que además, y ahora lo puedes
ver un poco más fácil. Ahora digamos que quiero agregar un criterio más a mi búsqueda. Lo que puedo hacer es que
puedo poner un espacio después mi búsqueda inicial y
puedo o bien hacer un AND
o, O ADD es básicamente ambos
argumentos tienen que ser ciertos. Entonces escribiré N Y en
mi conjunto de resultados esta vez, solo
quiero aquellas películas que tengan una
puntuación de calificación de usuarios de 80 y superiores. Por lo que escribiré usuario y seleccionaré la puntuación de calificación de
usuario de relleno. Y quiero que el valor
sea 80 y por encima, tan mayor que
un igual a firmar. Y esta vez escribiré
80 y haga clic en Actualizar. Ahora, de esos intentos
iniciales, sólo
tenemos estos cuatro hits. Entonces así es como puedes usar el lenguaje de consulta
Kibana para
buscar en tu conjunto de datos. Ahora si quieres guardar
esta consulta, por ejemplo, si esta consulta se
repite varias veces, puedes guardarla haciendo clic
en este icono de disquete. Voy a hacer clic en eso y haré clic en Guardar consulta actual. Y diré mi consulta demo
como nombre de esta consulta. Ahora porque nuestro conjunto de datos no
tiene un campo de marca de tiempo, no
voy a especificar
incluir filtro de tiempo, pero si había algún
filtro en mi conjunto de datos, si quería incluirlos, puedo escoger eso como sí, eso no puse en ningún filtro, así que voy a quitar eso
y voy a hacer clic en Guardar y mi consulta fue guardada. Ahora la próxima vez si quiero
hacer una reutilización mi consulta guardada. Entonces digamos si
elimino todo esto, haga clic en Actualizar para llegar
a mi conjunto original, y haga clic en este
desplegable junto al icono
del disquete y
haga clic en mi consulta. Se puede ver que puedo volver a ejecutar rápidamente la misma consulta
contra mi conjunto de datos. Ahora
a continuación, a continuación, descarga algunos datos de series temporales volviendo a Kaggle, voy a ir a los conjuntos de datos
están bajo conjuntos de datos. Volveré a hacer clic en Filtros. El tamaño del archivo sería de 0 a 100 MB. Y en las etiquetas
escribiré en series temporales, y luego voy a hacer clic en, Ahora
está fuera de las reservas. Daré clic en el primer resultado, omicron casos diarios por país. Y aquí si bajo
puedo ver el estado que es aproximadamente cuatro MB y hay un solo archivo COVID
varianza dot CSV. Y puedo hacer clic en un
vistazo compacto a algunos datos de muestra. Así que descarguemos estos datos. Ahora una vez descargado este
archivo de datos, volveré a abrir buscador,
extraer este archivo. Ahora tengo el archivo de varianza
COVID. Por lo que volveré a
mi página de Descubrir, vaya a la página principal de Kibana. Puedo hacer clic en subir un archivo. Aquí. Te mostraré otro método
para hacer lo mismo. Entonces iré aquí y
luego bajo administración, iré a integraciones. Aquí puedo ver que
hay muchas integraciones predeterminadas
integradas en Kibana. Entonces primero
escribiré una integración para si hago clic en subir un archivo para llegar a mi subir
una integración de archivos. Hablaremos de integraciones
en una próxima conferencia. Nuevamente, seleccionaré el
archivo, por lo que varianza COVID, haré clic en Abrir, y esto analizará mis datos. Ahora, después de analizar
las primeras 11000 líneas, se descubre que los datos
están delimitados por una coma. Tiene fila de cabecera y
también tiene una marca de tiempo. Y el formato para el campo de
tiempo es ISO 8601. Ahora haré clic en
Importar y volveré usar el método
simple para especificar un índice y
le daré un nombre a este índice de índice de
subrayado COVID. Ahora puedo hacer click en Importar. Ahora una vez que tengas el mensaje
diciendo importar completo, veamos esta
indexación descubrir. Ahora aquí, si hago click
en este desplegable, se
puede ver que
puedo cambiar entre índice está usando mi desplegable de
índice. Volveré al índice COVID. Puedo ver todos los
campos disponibles en el lado izquierdo. Y lo nuevo esta vez
es este filtro de tiempo. Entonces básicamente mis datos contienen valores de campo de
tiempo entre el 11 de
mayo de 20252022. Puedo usar eso para básicamente reducido
en una fecha específica. Entonces digamos que solo quiero
buscar datos entre primero
del 20 de diciembre, 21 de enero de 2021. Entonces lo que puedo hacer es hacer clic en este botón contra iniciado, y aquí tengo que
especificar una fecha de inicio. Por lo que voy a hacer clic en
absoluto por ahora, y voy a hacer click en diciembre. Y quiero que esto sea
primero de diciembre de 2020, y pueda comenzar a las 0. Si hago clic en eso, a continuación, voy a hacer clic en terminado. Y aquí especificaré 2021. Puedo dejar esto como
enero y voy a hacer clic en uno, que
fue un viernes. Ahora puedo especificar
algún otro tiempo, pero los datos sólo
hasta 2330 o 1130. Haga clic con el botón derecho en eso y
haré clic en Actualizar. Sólo me mostrará el subconjunto de datos que coincide esta
vez para su referencia, esta es la diferencia entre los series
temporales y los datos
no de series temporales. Si vuelves a mirar tu índice de
Netflix, no
había filtro de tiempo
para que filtraras sus datos porque nuestros datos no
tenían una marca de tiempo. Ahora volviendo
al índice COVID, también se pueden
especificar plazos
relativos. Por ejemplo, puedes
especificar datos de, digamos, hace un mes, si tengo uno y puedes especificar uno de los campos
laterales, por
ejemplo, 1 segundo,
1 son de un minuto, etcétera, etcétera. Por lo que haga clic en eso. ¿ Y qué terminó? Vuelvo a ir Relativo. Es decir de hace un mes,
hace diez días,
de hace un mes
hasta hace diez días, y da clic en actualización. Y esto me dará todos los datos de hace un mes
hasta hace diez días. Ahora, en lugar de hace diez días, también
puedo especificar ahora y establecer la fecha
y hora de finalización para ahora, y me dará nuestros
datos para el último mes. Entonces esta es la
diferencia entre los datos de series
temporales y no series temporales. No tiene un valor de filtro de
tiempo en datos que no sean de series temporales. Con esto, hemos llegado
al final de esta conferencia. Gracias por mirar. Te veré en
la siguiente. Adiós.
14. Crear visualizaciones con Kibana: Hey chicos, Ahora que
tenemos algunos datos en nuestro clúster y podemos explorar esos datos usando
la pestaña Descubrir. Es hora de que
visualicemos estos datos. Las visualizaciones de datos permiten a los usuarios de
su negocio dar sentido a grandes cantidades
de datos muy fácilmente. Y aquí es donde
realmente se puede ver el poder de Kibana. Hay dos formas de crear
visualizaciones en Kibana. En primer lugar, puede crear visualizaciones
específicas del tablero, o puede utilizar la biblioteca de visualización donde puede agregar visualizaciones que necesita en
más de un elemento como paneles
o almohadillas de trabajo de lona. Ahora, hay
algunas opciones
para que elijas cuando creas
tus visualizaciones. Primero, tienes lente, que es un sencillo editor de
arrastrar y soltar. Entonces tenemos TSV, que se utiliza para el
análisis avanzado de datos de series temporales. Después de eso, también puede
usar basado en agregación, que se utiliza para los datos de gráficos
basados en agregación. También puedes elegir mapas si tus datos tienen coordenadas de
geolocalización, también
puedes crear visualizaciones
personalizadas
usando la sintaxis vaguer. Esto está fuera de alcance
para este curso. No
hablaremos de esta opción. Ahora empecemos. En esta demo,
crearemos una visualización que muestre el puntaje promedio de
calificación de la película por año de lanzamiento. Primero al menú de
navegación de la izquierda y bajo analytics irá
a visualizar biblioteca. A partir de aquí, haremos
click en crear nueva visualización para crear
nuestra primera visualización. Y luego elegiremos lente. Ahora en el editor de lentes, primero desde el menú de la izquierda, puedes elegir el índice en el
que quieras trabajar. Por ejemplo, si quisiera
trabajar en el índice COVID, elegiré
índice COVID y me mostrará todos los campos disponibles
dentro del índice COVID. Pero para esta demo,
elegiré el índice de Netflix en el medio es donde se mostrará
tu gráfico. A partir de aquí, puedes elegir
el tipo de gráfico que quieras. Entonces por ejemplo, si quieres
una visualización de tipo métrico, una
línea de visualización de barras, donut por etc. para esta demo,
elegiremos una barra vertical. Ahora el
lado derecho es donde
especificará qué campos
van a qué acceso. Primero tendremos que definir un eje horizontal
para nuestros borradores, haré click en Agregar o
arrastrar y soltar un campo. Y a partir de aquí
elegiré el desplegable para el campo selector y
elegiré liberar aquí. Ahora aquí puedo aumentar o disminuir la granularidad
de este campo, pero lo dejaremos como predeterminado. Podemos cambiar el nombre para mostrar, por lo que voy a capitalizar el
primer alfabeto de cada palabra. También puede especificar
el formato de valor. Lo dejaré como predeterminado
y haré click en Cerrar. Ahora a continuación podemos elegir
el eje vertical. Volveré a hacer clic en Agregar o
arrastrar y soltar un campo de nuevo. Y luego desde el campo selector, elegiré puntuación de calificación de usuario. Y luego de la función selector, elegiré en promedio
para mostrar el puntaje promedio. Ahora a continuación, puedes volver a
cambiar el nombre
para mostrar así que volveré a capitalizar el
primer alfabeto, promedio de puntuación de calificación de usuario. A continuación, puede cambiar
el formato de valor. Entonces, por ejemplo, si
quieres que el formato sea porcentajes en lugar de
números, puedes hacerlo. Y esto entonces te mostrará el porcentaje de calificación de usuarios. Lo dejaré como
predeterminado por ahora. Ahora, también puedes cambiar
el color de la serie. Por ejemplo, si hago clic en el color
Ceres y elijo azul, el gráfico cambiará a azul. También puedo cambiar qué lado
del eje
mostrarán mis datos si hago clic a la
izquierda, que es por defecto. Si quisiera cambiarlo, puedo cambiarlo a derecha. Y esto comenzará a mostrar
los datos sobre el eje derecho. Lo dejaremos su defecto, y haré clic en Cerrar. Ahora aquí, debajo de tu gráfico, puedes ver algunas
sugerencias de Kibana. Por ejemplo, si hubiera
seleccionado el gráfico de líneas, así es como se mostrará su
gráfico. Si hubieras seleccionado métrica, así es como aparecerá tu
visualización. dejaremos como lo que
estamos diseñados ahora en la parte superior, puedes filtrar aún más estos datos mediante el uso del lenguaje de consulta
Kibana. Por ejemplo,
digamos que solo queremos mostrar datos para películas que fueron
lanzadas después de 1984. Lo que entonces puedo
hacer es que puedo hacer click aquí y luego puedo escribir
en el año de lanzamiento, y luego puedo elegir es
mayor que o igual a. Y luego puedo escribir en
1984 y dar click en Actualizar. Y ahora nuestro gráfico solo
mostrará datos para películas que fueron
lanzadas después de 1984. Ahora a continuación, vamos a quitar
el pastel se filtrará, y luego se puede guardar
esta visualización. En primer lugar, tenemos que
proporcionarle un título, así que lo llamaré calificación promedio de
películas por lanzamiento aquí. Ahora podemos proporcionar
alguna descripción. Entonces esta visualización muestra calificación
promedio de películas por
Lavoisier en Netflix. Ahora a continuación podemos
agregarlo a nuestro dashboard, crear un nuevo dashboard
para esta visualización. Pero para esta demo
simplemente elegiremos ninguno. Y se puede ver que la casilla de verificación Agregar a la
biblioteca ha sido
seleccionada por defecto. Ahora después de eso, también puedes usar etiquetas para agrupar
visualizaciones juntas. Ahora, haremos clic en las etiquetas
y pulsaremos en Crear etiqueta. Y voy a crear una
etiqueta llamada Netflix. Puedes cambiar el
color de la etiqueta, para que pueda cambiarla a azul
y haré clic en ataque. Ahora ya puedes ver que la etiqueta
Netflix ha surgido aquí y luego podemos hacer click
en Guardar y Agregar a Biblioteca. Ahora una vez que lo hayas hecho, si vuelves a
visualizar la biblioteca, puedes ver que tu visualización se
ha agregado a la biblioteca. Ahora antes de dejarte ir, solo
quiero
mostrarte dónde se
almacenan las etiquetas desde el menú de
navegación izquierda, si vas a anotar
bajo gestión y luego apilar gestión
aquí bajo Kibana, es necesario seleccionar las etiquetas. Y aquí es donde puedes ver todas las etiquetas que has
creado dentro de Kibana. Con esto, hemos llegado
al final de esta conferencia. Gracias por mirar. Te
veré en la siguiente. Adiós.
15. Panel: Hey chicos, son dashboard
está formado por múltiples visualizaciones
que cuentan una historia común a los usuarios de
tu negocio. Antes de que puedas crear un
dashboard, necesitas dos cosas. En primer lugar, necesitas una comprensión
clara de tus datos, y segundo, necesitas requisitos claros de lo que quieres lograr
desde tu tablero. Como primer paso,
he enumerado en pantalla todos los campos
que están disponibles en el índice de subrayado COVID, que es el índice que
usaremos para esta demo y lo que se almacena
en cada campo. Por ejemplo, el
campo de ubicación contiene el nombre del país para el que
se proporciona
la información de variante. Fecha proporciona la fecha
de entrada de datos. Variant es el nombre de variante correspondiente a esa entrada de datos
en particular. Las secuencias de subrayado Num contenían el número de
secuencias de proceso y las secuencias
porcentuales
contiene un porcentaje de secuencias a partir del número
total de secuencias. Y finalmente num secuencias. Total es el número total de secuencias para esa fecha de finalización de la variante de
país. Ahora, como parte de esta demo, crearemos tres
visualizaciones en nuestro dashboard. En primer lugar, crearemos número de casos
únicos de COVID visualización a
nivel mundial. Segundo, crearemos una
visualización que represente el número total de secuencias
para los diez países principales. Y por último, vamos a
crear una visualización que te diga la varianza que
se extiende por el país superior. Así que empecemos. Ahora aquí en la página
Kibana para crear un dashboard irá primero al menú de navegación de
la izquierda. Después iremos al tablero
bajo efectos analíticos. Y para crear un dashboard
primero hará clic en crear
nuevo dashboard. Ahora desde esta página, al hacer clic en crear visualización para crear
nuestra primera visualización, que formará parte
de este dashboard. Ahora primero, cambiaremos
el conjunto de datos de hace
15 minutos a hace 15 semanas. Hey chicos, En esta conferencia, crearemos un tablero de
Kubernetes. Un tablero está formado por múltiples visualizaciones
que cuentan una historia común a los usuarios de
su negocio. Antes de comenzar, necesitamos dos cosas para crear
nuestro dashboard. En primer lugar, necesitamos tener una
comprensión clara de nuestros datos. Y segundo, necesitamos tener una comprensión clara
de los requisitos, que es básicamente lo que
queremos lograr desde
este tablero. Ahora como parte del
primer requisito, he enumerado todos los campos
que están disponibles en el índice de
subrayado COVID y qué datos contenía cada uno de esos
campos. Por ejemplo, el
campo de ubicación contiene el nombre del país para el que se proporciona la
información de variante. El campo de
secuencia de subrayado num contiene el número de secuencias
procesadas para ese país, variante y fecha, etcétera Ahora, lo
que haremos en este dashboard es que tendremos tres visualizaciones. En primer lugar, tendremos la
visualización que representa el número de varianza
COVID única a nivel mundial. Segundo, tendremos una
visualización que represente el número
total de secuencias
para los diez países principales. Y por último, tendremos
una visualización que proporcione variantes
repartidas por países. Así que empecemos a crear un dashboard desde mi página de inicio de
Kibana. Voy a hacer clic en el menú de
navegación de la izquierda y luego haga clic en dashboard desde
la página del tablero, haré clic en crear
nuevo dashboard desde aquí, primero
voy a cadenas los datos
serán en lugar de hace tres meses, a ser hace tres años, que estamos buscando
en todos los datos en este índice y voy a
hacer clic en actualización. Una vez que haya hecho eso, haré clic en crear visualización. Ahora la primera visualización
que necesitamos crear es número de
varianza COVID única a nivel mundial. Entonces primero elegiremos métrica. Entonces bajo métrica, haré clic en Agregar o
arrastrar y soltar un campo. Desde campo selector,
elegiré variante y luego
haré clic en flujos. A partir de esta visualización,
podemos obtener el valor del
número de varianza única
a través de nuestra base de datos. Ahora, haré clic
en guardar y volver. Después de eso, volveré a hacer clic en
crear visualización. Y para mi segunda visualización, necesito representar el número total de secuencias para los diez países principales. Por lo que volveré a mi página web de lentes
Kibana. Ahora aquí voy a cambiar el
gráfico tipo dos barra vertical, y luego para eje horizontal, elegiré la ubicación del
campo, y elegiré los diez valores
principales. Y luego haré clic en Cerrar. Ahora para eje vertical, voy a hacer publicidad o arrastrar
y soltar otra vez. Y luego elegiré el campo de
secuencias de subrayado num. Y luego voy a hacer clic en algunos desde debajo de la función de
selector. Entonces puedo dar click en cerrar. Ahora esto me da el número total de secuencias
para los diez primeros países. Se trata de todas las variantes
de COVID para este país
en particular en este intervalo de fechas. Por lo que volveré a hacer clic en
siete volver después de eso para nuestra
tercera visualización, haré click en
crear visualización. Y esta vez necesito
crear una variante
propagada por el país superior. Por lo que volveré a cambiar el gráfico
tipo dos barra vertical. Y para eje horizontal, elegiré ubicación y cambiaré a los diez primeros países. Ahora a continuación,
elegiré eje vertical, las secuencias de
subrayado número de campo. Y esta vez
elegiré la función máxima y haga clic en cerrar. Después de eso,
desglosaré estos datos por
número de variantes. Por lo que haré clic en añadir o soltar
un campo y un desglose, y luego elegiré variante. Y a partir de aquí puedo especificar el recuento de valores
que quería mostrar. Por defecto son tres, lo que solo
representará los tres primeros. Pero debido a que tenemos mucho
para la varianza total, también
puedo escribir en 20 voltios aquí. Y luego para cada país, se desglosan los datos
por todas las variantes afectan click en Cerrar aquí y me
desplomo sobre los datos para
Estados Unidos, se pueden
ver los detalles de cuántos casos para cada variante
particular de COVID, Se acerca dentro de un intervalo de fechas
especificado, que es de los últimos tres años. Ahora, haré clic
en guardar y volver. Y en este dashboard podemos ver las tres
visualizaciones diferentes. Ahora lo que puedo hacer es guardar este dashboard.
Puedo darle un nombre. Entonces COVID dashboard
y bajo tags, haré click en crear una etiqueta, y luego le daré
el nombre de la etiqueta de COVID y haga clic en crear etiquetas. Puedo hacer click en Guardar. Ahora si quieres almacenar
tiempo con el tablero de mandos, puedes hacerlo, pero lo
dejaré como predeterminado y haga clic en Guardar. Ahora una vez guardado el tablero, puedes volver al tablero. Este dashboard de nuevo,
solo da click en él y para mirar
diferentes fechas, todo lo que tienes que hacer
es, por ejemplo, si cambio de hace tres años
a hace tres semanas
y dar click en actualizar, verá que los resultados
cambian por sí solos. O no teníamos ningún dato en
las últimas tres semanas. Entonces por eso
está mostrando aviso. Pero si iba a decir, digamos hace
tres meses y
haga clic en Actualizar, volveré a ver
los datos. Ahora así es como se puede crear un tablero de Kibana con esta bienvenida al
final de esta conferencia. Gracias por mirar. Te veré en
el siguiente byte.
16. Lienzo: Hey chicos, Gabbana Canvas es una herramienta de visualización
y presentación de datos que te permite
poner datos en vivo de Elasticsearch y luego
enriquecerlos con colores,
imágenes, y libro de texto crear poderosos presentaciones
para los usuarios de su negocio. Ahora Canvas utiliza pads de trabajo
para agregar visualizaciones, mazos de
imágenes, etc, para
crear tu presentación. Así que nos ensuciemos las manos, no de la página de inicio de Kibana. Para llegar a Canvas, debes hacer click en el menú de navegación de la
izquierda. Y luego bajo analítica, es necesario hacer click en Canvas para
no crear nuestro primer trabajo, pero necesito hacer click
en Crear libro de trabajo. Y desde este verde, puedes agregar tu primer elemento haciendo clic en el botón
Agregar elemento. El primer elemento
utilizará textos. Ahora aquí, puedes usar
este elemento para agregar algo de texto a tu presentación usando el lenguaje de markdown. Por lo que voy a cambiar ese
texto por decir bienvenido a la presentación del
índice de Netflix. Eliminaré este
texto y diré, aquí está la visión general de los datos
en el índice de subrayado de Netflix. Entonces debajo de esto,
verás que se está refiriendo a alguna información
en los datos demo. Por ejemplo,
te está dando la longitud de fila
y luego te está
dando todos los nombres de columna
mediante el uso de cada atributo de columnas. Por lo que tiene todos los nombres de columna, pero esto está reflejando los datos
demo para este elemento. Por lo que primero voy a hacer clic en aplicar. Y después de haber hecho eso, haré clic en Datos y cambiaré la fuente de datos de
datos de demostración a Elastic Search. Y luego me
aseguraré de que estoy en el índice de
Netflix y
haré clic en Guardar. Y tan pronto como golpee Guardar, se
puede ver que
ahora este cuadro de texto refleja los datos de
mi índice de Netflix. Ahora para el segundo elemento, vamos a agregar la visualización que agregamos a nuestra biblioteca de
visualización. Da click en Agregar Elemento y luego haré click en Agregar desde Kibana. Y luego seleccionaré
la visualización que guardamos dentro de
la biblioteca de visualización. Y a continuación
lo moveremos por un costado. Ahora puedes cambiar
el filtro
de tiempo haciendo clic en la hora. Por ejemplo, si quisiera
cambiar de los últimos 15 minutos para dejar que digamos los últimos 30
minutos, puede hacer eso. Y este panel reflejará
el cambio en el tiempo. Ahora como tercer elemento, voy a crear un gráfico. Por lo que haré clic en Agregar elemento, haré clic en Gráfico, y luego haré clic en métrica, y luego moveré esta métrica debajo de mi elemento de
visualización. Ahora para esta métrica, cambiemos
nuevamente la fuente de datos para que sea índice de Netflix. Y haré clic en
Guardar por un minuto. Esto nos dará un error, pero pasemos a mostrar. Ahora, para la medida, necesitamos
un valor único de título. Ahora, el
formato métrico está numerado, pero necesitamos cambiar la etiqueta. Entonces reemplazaré a los países
por títulos de películas únicos. Ahora bien, este es el número de títulos de películas
únicos
en nuestro índice de Netflix. A continuación, también podemos cambiar
los textos métricos. Entonces digamos que queremos que la
matriz sea en rosa. ¿ Por qué no dejarnos hacer eso? Y también podemos cambiar el tamaño y la fuente y el
color de nuestra etiqueta. Digamos que quiero que mi
fuente sea Helvetica. Así que voy a hacer clic en eso y
cambiaré un poco el tamaño, así que lo cambiaré a 24. Y digamos que quiero que
el color sea verde, así que seleccionaré eso. En realidad éste parece mejor. Ahora puedo ajustar el tamaño
de mi visualización. Sepa a continuación, agreguemos una imagen. Por lo que haré clic en Editar límite. Voy a hacer clic en Imagen, y luego volveré a hacer clic
en la imagen. Ahora esto nos da
una imagen predeterminada. Así que voy a minimizar esto un poco. Y puedo importar una imagen
usando el botón Importar. Puede proporcionar un enlace
a una URL de imagen. Por ahora, haré
clic en importar y luego haré clic en Seleccionar
o arrastrar y soltar una imagen. Ahora, elegiré una imagen
de mi carpeta de descargas. Y digamos que quiero mostrar mi rostro en esta
presentación aquí. Ahora para ver este
pad de trabajo en pantalla completa, solo
tienes que hacer click en
este botón de pantalla completa y verás toda la
información en pantalla completa. Saldré de
pantalla completa por ahora. Ahora este paseo de regreso se guarda
automáticamente. Si voy a Canvas y
puedo ver aquí mi cama de libros, puedo dar click sobre la
obra, pero de nuevo, voy a conseguir todos los
elementos de datos que compartan este trabajo. Pero puedo hacer clic en Compartir
y ya sea puedo crear un informe PDF para que pueda seleccionar diseño de
página completa y
hacer clic en Generar PDF. Y ahora dice que
tu licencia básica no soporta informes PDF. Entonces si tuvieras una licencia de
producción, serías capaz de
descargar el informe PDF. Ahora volvamos a hacer click en Compartir. Ahora, si haces clic en
Compartir en un sitio web, te dará
instrucciones de cómo
puedes compartir este lienzo
en la página web. A continuación, también podemos
descargar esto como JSON. Por lo que voy a hacer clic en
Descargar como JSON y se descargará el
JSON para este trabajo, difícil de cambiar el
nombre de este libro, pero puedo ir a
trabajar por configuraciones de Ed como y cambiar el
nombre para ser Netflix. Caminar hacia atrás. Ahora puedo cambiar
algunos detalles como muy resolución si tengo alguna variable en este trabajo
llevan configuraciones CSS globales, etcétera Pero por ahora, así es como se puede crear un lienzo Kibana
trabajar mejor con esto. Ven al final de esta conferencia. Gracias por mirar. Te veré en
la siguiente. Adiós.
17. Reinos de la boda: Hey chicos, En esta conferencia, les
daré una visión
rápida de los reinos de autenticación disponibles
para nosotros en Elastic Search, reinos de
autenticación se
utilizan para autenticar usuarios y aplicaciones
contra elasticos buscar, existen dos tipos principales
de reinos de autenticación. El primero son las costillas de
autenticación internas. Estos son de búsqueda interna a
elástica y no
hay integración a
un sistema exterior. Este tipo de habitación está totalmente
administrado por Elastic Search. Sólo puede ser un máximo
de un reino configurado, pero de tipo DLM interno. Ahora, echemos un vistazo a un ejemplo de cada tipo de franco
interno. El primero es el reino
de autenticación nativa. Y
domo de autenticación nativa es donde los usuarios se
almacenan en un índice de
Elasticsearch dedicado. Este reino admite
y
token de autenticación en forma de nombre
de usuario y contraseña y está
disponible por defecto cuando se configuran
explícitamente reinos bajos. Entonces recuerda cuando estábamos
instalando Elasticsearch, el usó un script para
restablecer contraseñas para nuestros usuarios de sistemas de
subrayado elástico y Kibana. Esos usuarios se configuran
bajo autenticación nativa. Esto por sí solo está disponible
en la licencia gratuita. Expediente. Autenticación
reino es también un reino de autenticación interna disponible en la licencia gratuita. Este reino es muy
usuarios se definen en archivos almacenados en cada nodo en
el clúster de Elasticsearch. Este reino admite
y
token de autenticación en forma de
nombre de usuario y contraseña, y siempre está disponible. Ahora después de esto, echemos un vistazo rápido a los reinos
externos. La autenticación externa
no requiere interacción con partes y componentes externos
a la búsqueda elástica, como Microsoft
Active Directory o cualquier otra
aplicación de nivel empresarial. Si estás ejecutando un clúster de cuadrícula de
producción, sería muy
probable que
tengas que configurar
un reino externo. En el
clúster de Elasticsearch, puede tener tantos externos, si lo desea, cada uno con su propio
nombre y configuración únicos, la característica de
seguridad Elastic Stack proporciona la siguiente referencia
externa tipo. Así LDAP, Active Directory, PKI
símbolo de autenticación Kerberos o IDC. No, el reino de autenticación es, utiliza un servidor web externo
para autenticar a sus usuarios. Por lo que los usuarios se almacenan en un servidor de
autenticación externo, e integramos con ese
servidor para autenticar a los usuarios. Este reino admite
un
token de autenticación en forma de nombre
de usuario y
contraseña y requiere una configuración
explícita para poder ser utilizado. A continuación, tenemos dominio de
autenticación de Active Directory. Esta ronda utiliza un servidor de
Active Directory externamente, indique los usuarios en los que se almacenan
los usuarios. Por ejemplo, los usuarios de Microsoft AD se autentican
utilizando nombres de usuario y contraseñas se convirtieron en reino
autentica a los usuarios usando infraestructura de clave
pública, clave pública y clave privada. Este reino trabaja en
conjunto con SSL y TLS e
identifica al usuario a través de su
nombre distinguido o ADN de los clientes extraer el certificado
509. Entonces si usamos esta fila, necesitarás certificados
instalados en los usuarios. Sam Hill es que facilita la autenticación mediante el protocolo
SAML 2 Web SSO. Este reino está diseñado para
soportar la autenticación a través Kibana y no está
destinado a ser utilizado en el resto API. Ahora Kerberos es que reino autentica al usuario usando autenticación
Kerberos, los usuarios se autentican
sobre la base de tickets
Kerberos o IDC
es que facilita la autenticación usando
OpenID Connect permite la búsqueda elástica como una parte de confiado de OpenID Connect
y proporciona soporte de SSO. Ahora a lo largo de estas conferencias, usaremos la
autenticación nativa para conectarnos a nuestro clúster de
Elasticsearch. Para tus clústeres de producción, sería muy probable
que necesites configurar uno de
estos reinos externos. Lo que haré es que proporcionaré algunos enlaces a diversas URL sobre cómo puedes configurar cada uno de estos reinos en tus clústeres de
producción. Con esto, hemos llegado al
final de esta breve conferencia. Gracias por mirar. Te
veré en la siguiente. Adiós.
18. Usuarios y roles: Hey chicos, hasta ahora en esta demo, hemos estado usando
el superusuario elástico para autenticarse
contra nuestro clúster. Esto está bien para nuestro laboratorio de demostración, pero en un entorno de producción, posible que tengas
cientos de
personas que necesiten autenticarse
y no
querrás compartir la contraseña para tu superusuario a cada uno usuario. Ahora, ingresa roles. Los roles son una colección de
privilegios que te permiten realizar acciones y
Kibana y Elastic Search. Ahora estos roles te dan el
privilegio de realizar alguna acción contra tu índice de elasticsearch
Kibana. Por ejemplo, es posible que algunos usuarios solo quieran
poder crear dashboards. los otros
que podrías querer manejen tus índices más lejos, podría
haber un grupo
que necesite actuar como administrador de
tu instancia de Kibana, lo que necesitarás
hacer es que necesites crear roles para cada uno de
estos diferentes tipos de usuarios. cada rol que tenga diferentes
niveles de acceso, entonces le asignará ese rol, cada uno de esos usuarios, los usuarios no se
les otorgan privilegios directamente, sino que se les asigna
una o más regla que describe el nivel de acceso
deseado. Entonces como dije,
maravilloso podría dar los usuarios sólo acceso para
ver los dashboards. Ahora cuando asigna a
los usuarios múltiples roles, el usuario recibe una unión
de los privilegios de roles. Ahora, digamos que
tienes dos índices, índice e índice b. Y tienes rol que
otorga acceso a índice
a inscribirse sea que otorga
exceso al índice B. Ahora digamos que
tienes un usuario y a este usuario se le asigna
tablero estos roles. Ahora, debido a que
tiene estos dos roles, la unión de estos dos
roles le permitirá
acceder a datos tanto del
índice como del índice b Ahora, elasticsearch entra
con algunos roles incorporados. Por ejemplo, que todos los
beats sistema de subrayado podría bailar el acceso necesario
para los sistemas de playa, métrica, cebo, latido del corazón,
basado en archivos, etcétera Para enviar
datos a nivel de sistema a Elastic Search. Kibana subraya la regla del sistema que no es necesario exceso para usuario del sistema
Kibana lea y escriba a
los índices Kibana. Y si recuerdas,
cuando estábamos configurando el sistema Elasticsearch
y Kibana, configuramos la contraseña para este usuario dentro de nuestro archivo
Kibana dot YAML. Ahora Elastic Search también
viene con un
elástico de superusuario que otorga acceso a
todas las áreas de tu clúster. Por lo que es acceso completo al sistema. Ahora como medida de seguridad, no
querrías iniciar sesión con este usuario después de
aprovisionar el sistema. Y como parte de
tu aprovisionamiento, aprovisitarás ya sea
administrador y superusuarios que puedan vincularse a una persona que va
a desempeñar ese rol. Y una vez que hayas hecho eso, querrías almacenar estas contraseñas de súper usuarios en un lugar seguro y
nunca más usarlas. Volvamos a nuestra
instancia de Kibana para ver cómo
podemos crear roles y usuarios para
no crear un rol personalizado. Primero haremos click
en Crear rol, luego necesitaremos especificar
un nombre de rol para Roma nombre, voy a escribir en
administrativo porque este es un
rol de administrador que estamos configurando bajo
privilegios de clúster, haré click en Todo. Y luego bajo privilegios de Índice, puedo
darles acceso a uno de estos índices o porque este
es mi usuario administrador, escribiré en Empezar aquí para darles acceso a
todos los índices. Y luego bajo privilegios, haré click en Todo. Siguiente. Bajo Kibana, voy a hacer click en
Add Kibana privilegio primero, tenemos que darles acceso a todos los espacios y luego pueden o bien proporcionar este rol acceso
personalizado
a cada característica. Por ejemplo, bajo Analytics, puedo darle acceso
a este rol para descubrir dashboard, etc. O como hay un rol de administrador, podemos darle todos los
privilegios y hacer clic en crear
privilegio global sobre piedra. Demos clic en Crear rol. Ahora a continuación vamos
a crear un rol que
solo tiene acceso a ciertos índices. Por lo que haré clic en Crear regla, y la llamaré COVID admin. Y vamos a mantener el
resto de los ajustes mismos que lo que
anteriormente teníamos bajo índices. Escogeré
índice COVID y
le daré a este rol acceso
a todos los privilegios. Y luego lo mismo para Kibana. Le daré acceso a todos los
espacios y todas las características. Por lo que haré clic en Crear privilegio
global y haga clic en Crear rol. Ahora a continuación, vamos a
crear tres usuarios. El primero será
un administrador usuarios. Por lo que haré clic en Crear usuario. Daré este nombre de usuario admin. El nombre completo sería admin uno y direcciones de correo electrónico
admin en test.com. Y luego vamos a especificar
algunas contraseñas. Y después de eso, necesitamos
asignar algunas reglas a este usuario. Por lo que por ahora, asignaremos rol de
administrador y también
asignaremos el
rol de usuario de monitoreo porque
se necesita este rol para acceder a la función de monitoreo de
pila. Y luego haré clic
en Crear usuario. Ahora vamos a cerrar la sesión de esta cuenta de superusuario
y luego
crearemos nuestro administrador recién
creado para hacer más
aprovisionamiento primero, y escribiremos nombre de usuario y luego contraseña para este usuario. Déjame silenciar esta advertencia a continuación, primero
vayamos a descubrir
y comprobar si tienes acceso a ambos índices,
Netflix y cubierto. Por lo que puedo ver algunos datos
en el índice de Netflix. Ahora pasemos
a cubrir índice. Ahora aquí necesito
ampliar mi búsqueda de tiempo. Por lo que hace 1415 semanas, y voy a hacer clic en actualización, y puedo ver que tengo
acceso a este índice también. Ahora a continuación,
vamos a los dashboards. Puedo ver el
tablero de COVID que creamos. Ahora a continuación, volvamos a ir a la gerencia y a
la dirección del personal. Y aquí, usuarios. Ahora crearemos un segundo usuario. Haga clic en Crear usuario. Y se trata de un usuario que
tiene acceso administrativo. Sólo al índice COVID. Por lo que lo llamaremos COVID
guión bajo admin, y el nombre
sería COVID-19 y dirección de
correo electrónico COVID test.com. Entonces
le daré alguna contraseña ahora para el privilegio, le
daré el
privilegio de COVID admin, y haga clic en Crear
usuario aprendido. Déjame cerrar sesión de este usuario. Y aquí escribiré en
COVID guión bajo admin, y luego escribiré la
contraseña para este usuario. Ahora una vez que hayas iniciado sesión, vamos a nuestra pestaña Descubrir, así que a casa y luego descubrir. Y aquí, si
eliges el índice de Netflix, no
verás índices
coincidentes y ningún resultado coincide con tus criterios de
búsqueda. Pero si elijo el índice
COVID y cambio esa fecha
de hace 15 minutos, lo
cambiamos a
hace 15 semanas y hacemos clic en actualización. Ver que puedo ver algunos datos. Ahora este usuario
también puede crear usuarios. Entonces si vas a Stack
Management y usuarios, puedo crear un usuario, pero te mostraré otra
cosa, porque no
proporcionamos el privilegio de monitorear
usuario de subrayado a esta cuenta de usuario. No tenemos
monitoreo de pila bajo gestión se
muestran para este usuario. Por lo que esto es
algo importante a tener en cuenta, pesar de que puedes proporcionar
todos los privilegios bajo Kibana, tienes que asignar específicamente rol de
usuario de subrayado de
monitoreo para los usuarios que quieres dar la sección de
monitoreo de exceso de pila privilegiada bajo administración. Ahora a continuación crearemos un
tercer usuario que solo tenga acceso a dashboards y
descubrimos que para hacerlo, primero, vamos a Roles
y creemos un rol, y llamemos a este rol
COVID subrayar reporting. Ahora no queremos darle a este usuario ningún privilegio de clúster, por lo que lo dejaremos como en blanco. Sólo queremos que este usuario tenga
acceso en índice de
subrayado COVID. Y el único
privilegio que queremos para este usuario es
poder leer desde este índice. Ahora a continuación, necesitamos sumar
algunos privilegios de Kibana, así que le daremos
acceso a todos los espacios. Y a continuación lo mantendremos como personalizar y luego
ir a la analítica. Y luego
les daremos acceso de solo lectura en Discover y de
solo lectura en Dashboard. Y también
les daríamos acceso a Canvas y visualizaríamos biblioteca. Y luego haremos clic en
Crear privilegio global. Y luego haremos clic en Crear
rol para crear este rol. Ahora vamos a los usuarios y
haremos click en Crear Usuario. Y en esta ocasión llamaremos a este usuario informes de subrayado COVID. El nombre estaría
informando de usuario, un correo electrónico estaría
reportando un test.com. Le daremos una contraseña. Entonces contraseña y luego
bajo privilegios, le
daremos el privilegio de reportar
puntaje COVID-19, y luego haremos clic
en Crear usuario. Después de eso, logout y
veamos el exceso de
este nombre de usuario de usuario. Escribiré en
informes de subrayado COVID y nuestro
especificar una contraseña. Ahora una vez que estés dentro, solo
verás analíticas
en tu pantalla de inicio. Eso se debe a que tu usuario solo tiene acceso a funciones de
análisis. Ahora si hace clic en nuestro menú de navegación de la
izquierda, y bajo analítica, vamos a descubrir, tenemos algunos datos para el índice de
subrayado COVID. No obstante, si cambiamos al índice de
Netflix obtendrá un error diciendo que ningún índice
coincide con mejor índice de netflix. Eso se debe a que nuestro
usuario no tiene acceso al
índice de Netflix bajo tablero. Si acabo de hacer clic en el tablero de
COVID, podré ver todos los
datos de mi tablero de COVID. Ahora a continuación, a continuación,
pasa a Canvas y abre el trabajo de
Netflix por ahora, ya que este usuario
no tiene acceso a ningún dato en el
índice de Netflix, obtendré errores. Ahora vamos a cerrar la sesión de este usuario y volvamos a iniciar sesión
como el usuario admin, admin y la contraseña. Ahora vamos a hacer clic en el menú de navegación de la
izquierda y bajar a la derecha a la gestión de la
pila. Y luego vamos a ir a los usuarios
ahora desde esta pantalla, si quieres eliminar
al usuario, por ejemplo, si quisiera eliminar mi usuario de informes de
subrayado COVID, solo
puedo seleccionar
ese usuario y hacer click en eliminar un usuario
y haga clic en Eliminar. Pero no voy
a hacer eso ahora, si quiero cambiar la
contraseña para este usuario,
voy a hacer clic en ella, bajar y
hacer clic en Cambiar contraseña. Y aquí puedo actualizar la
contraseña para este usuario. Soul cancela de esto también
si quería
desactivar a este usuario,
así si quería
desactivar a este usuario, que mantén a este usuario en el sistema, pero evita que los usuarios
accedan a él. Puedo hacer click en desactivar usuario. Y si quiero cambiar
privilegios para este usuario, puedo entrar aquí y
asignarle un rol diferente. Así es como puedes usar
usuarios y roles para proporcionar controles de acceso
basados en roles
tu clúster de Elasticsearch. Con esto, hemos llegado
al final de esta conferencia. Gracias por mirar. Te veré en la siguiente. Adiós.
19. Espacios: Hola chicos, y luego empresa. Habrá múltiples equipos que necesitarán acceso a Kibana. Por ejemplo, el equipo de marketing podría necesitar acceso a tableros de
marketing. El equipo de operaciones necesitará acceso a tableros de operaciones. Ahora esto puede hacer
que las cosas se desordenen muy rápidamente para
ayudarte con esta situación, Kibana tiene una característica
llamada espacios. Te permite organizar
tus objetos guardados, como tableros, en categorías
significativas. A partir de nuestro ejemplo,
crearás un espacio para el marketing y ellos crearán
todos sus dashboards dentro de ese espacio. De igual manera,
crearás un espacio para operaciones y
ellos limpiarán sus dashboards dentro del espacio de
TI el
marketing no podrá ver lo que hay
dentro de las operaciones o incluso notar que un existe espacio de operaciones. De igual manera, las operaciones no
sabrán sobre el espacio de comercialización. Ahora para que un usuario
pueda ver un espacio, es
necesario asignar específicamente el exceso con ese
espacio para ese usuario. Por ejemplo, todos en equipo de
marketing tendrán
acceso al espacio de marketing. Todos en el equipo de operaciones
tendrán acceso al espacio de operaciones. Y si alguien necesita acceso tanto a marketing
como a operaciones, le asignará
acceso a ambos espacios. Ahora Kibana crea
un espacio predeterminado para ti y todos nuestros objetos que hemos creado
hasta ahora en este curso se
han creado dentro del espacio predeterminado de la
cubierta. Y por último, para administrar espacios, necesitas el rol de
administrador de subrayado de Kibana son equivalentes. Ahora vamos a romper
en mi página web de Kibana. He iniciado sesión usando
mi cuenta de administrador, admin one para configurar espacios, necesito hacer click en el menú de
navegación de la izquierda y luego bajar a la
derecha a la
administración de pila bajo administración. Por lo que voy a hacer clic en él. Y la configuración de
espacios se
puede encontrar bajo
Kibana y espacios. Ahora aquí puedes ver que
acabo de conseguir mi
espacio predeterminado por ahora. Vamos a crear un nuevo espacio aquí. Por lo que haré clic en crear espacio, y nombraré este espacio de subrayado
COVID. Ahora a continuación, puedo
crear un avatar. Por defecto se
establece en iniciales, pero también puedes subir
una imagen para tu avatar, dejará como iniciados
por defecto, pero cambiaré el color de
fondo a verde. Ahora bajo características,
podemos especificar qué características están
disponibles bajo el espacio. Así que eliminaré todo
excepto analítica porque solo
quiero acceder a las
funciones de analítica usando este espacio. Y luego haré clic
en crear espacio. Ahora, una vez que he calificado el espacio, necesitamos algunos objetos
en este espacio. Ahora, todos nuestros objetos por defecto están dentro
del espacio predeterminado. Por ahora, lo que
haremos es copiar el índice COVID y el tablero
COVID al espacio de subrayado
COVID. Entonces para hacer eso, necesito ir a salvo, y luego necesito encontrar COVID
y el tablero de puntuación. Y desde estos tres botones hasta el extremo izquierdo de esa línea, necesito hacer click sobre ella y
necesito hacer click en Copiar al espacio. Una vez ahí, puedo
elegir Copiar acciones. Por ejemplo, crear
nuevos objetos con identificadores
aleatorios se verifican en
busca de objetos existentes. Lo dejo como predeterminado
porque sé que
no hay objetos en mi espacio de
subrayado COVID. Y luego necesito hacer click
en el espacio de subrayado COVID, debajo de espacios seleccionados, y luego haré clic en Copiar a un espacio. Una vez realizada la copia, se mostrará
cuántos objetos para copiados y podrá
hacer clic en Finalizar. De igual forma, necesito copiar el índice de subrayado
COVID deberá hacer click en eso y luego haga clic en Copiar al espacio también. Entonces voy a hacer clic en COVID, subrayar el espacio, y luego haré clic en
corporativo o en un espacio. Ahora, si hay algún error, los
verá aquí. Por ahora, haré clic en Finalizar. Una vez que los objetos se han
trasladado a este espacio, comenzaron a asignar este
espacio a un rol. Así que vamos a anotar a
seguridad y luego rollos y averiguar el
subrayado COVID reportado todo. Una vez dentro tenemos que bajar
a la derecha a Kibana y luego dar click
en este ícono de lápiz. Y desde espacios donde
dice todos los espacios, tenemos que quitar eso y luego elegir el espacio de
subrayado COVID. Una vez que hayas hecho
eso, puedes hacer clic en Actualizar privilegios de espacio. Por lo que esta regla sólo puede dar
acceso al espacio COVID ahora. Y luego puedes
hacer clic en la regla de actualización. Una vez que hayas hecho eso, salgamos de sesión de este usuario admin y volvamos a iniciar sesión usando
el usuario que informa. Desde esta pantalla,
escribiré el nombre de usuario COVID y el reporte de puntuación y
facilitaré mi contraseña y pulsaré en Iniciar sesión. Ahora aquí, justo al lado del bate, puedes notar que
ya no estoy en el espacio predeterminado. Y ahora voy a hacer clic en el menú de navegación de la
izquierda. Y primero iremos
a nuestra pestaña Descubrir. Ahora puedes ver por defecto
estoy dentro del índice COVID, pero afecto click
en el desplegable. Ni siquiera veo
el índice de Netflix. Eso es porque no está
asignado a este espacio. Ahora para ver datos, necesito cambiar la búsqueda de
tiempo a través hace
15 semanas y haré
click en Actualizar. Y se puede ver que
tengo acceso a los datos. Ahora a continuación, veamos si nuestro
tablero sigue funcionando. Por lo que haré clic en Dashboard
y haga clic en el tablero de COVID. Y se puede ver que tengo datos dentro de mi
tablero también. Si alguien acerca de este error, ahora a continuación, si voy a
Canvas, ya puedes ver que ni siquiera
veo el Wordpad de Netflix. Así Espacios es una buena manera de mantener tus objetos organizados
para diversas categorías. Por ejemplo, el marketing puede tener acceso solo a sus
dashboards, etcétera. Ahora obviamente, si creas un nuevo objeto dentro de este espacio, automáticamente
se le asignará a este espacio y no
al espacio predeterminado. Entonces si hago clic en el menú de navegación de la
izquierda y hago clic en Visualizar biblioteca. Y si hago clic en crear
nueva visualización, y elegiré lente. Y digamos que quiero el número total de
países en mi base de datos. Por lo que voy a hacer clic en métrica,
Analítica en la ubicación. Ahora tengo un tipo único
de ubicación que es 64. Ahora no puedo guardar
esto porque mi usuario informa de usuario no tiene ningún permiso correcto
en esta base de datos. Pero si cierro sesión y
vuelvo a iniciar sesión como usuario admin, y aquí seleccionaré espacio de subrayado
COVID. Y se puede ver que a pesar mi usuario tiene muchos
más privilegios, sólo
puedo ver lo que
se asigna a mi espacio. Así que no obtengo todas las funciones de búsqueda y disponibilidad, etcétera Solo
estoy obteniendo analítica
y administración de pila. Ahora desde aquí, haré clic
en Visualizar biblioteca. Voy a hacer clic en crear nueva
visualización y lente. Y luego cambiaré el tipo de
visualización de métrica y cambiaré
la fecha a hace 15 semanas. Y desde aquí volveré a
arrastrar ubicación, ver una cuenta única
de ubicación es 64. Y ahora tengo el botón
guardar de nuevo. Por lo que haré clic en Guardar y lo
llamaré países únicos. Y lo muevo al tablero
existente, que es tablero de
puntuación COVID-19. Y haré clic en Guardar
y Ir al tablero. Y aquí he agregado el cuarto
elemento a mi panel de control para países
únicos o hago clic en Guardar para guardar los cambios
en este panel. Y ahora si vuelvo a mi usuario de informes cubierto
bajo informes de puntaje, y hago clic en el tablero de
COVID y cambio la fecha a hace semanas, también
puedo ver la nueva
visualización. Así es como
puedes usar espacios para categorizar tus
objetos dentro de Kibana. Con esto, hemos
llegado al final de esta conferencia.
Gracias por mirar. Te veré en
la próxima pelea.
20. Introducción a Logstash: Hola chicos,
hablemos de sesión de registro. Esta sección, Log
Stash le permite agregar sus datos
de diferentes fuentes, transformarlos y
luego enviarlos a búsqueda
elástica o a cualquier otra
aplicación de su elección. Por ejemplo, si
desea analizar los datos, puede enviarlos a Elastic
Search o MongoDB. No obstante, si solo
quieres almacenar los datos, puedes enviarlos
a algo como Amazon S3 se almacenan en un archivo
en tu sistema de archivos local. Hay muchos destinos
dependiendo de su caso de uso. Y he adjuntado un enlace a
un artículo donde podrás encontrar más información sobre los
destinos y Log Stash. Ahora, antes de que sepamos más
sobre búsquedas de registros , detalles de
nivel inferior, siempre
es buena idea entender
algunos casos de uso. Por lo que el primer caso de uso de Log
Stash es registros y métricas. En ocasiones
no hay una forma estándar entender sus datos de registro. En estos escenarios, Log
Stash puede ayudarte a definir lógica para que puedas transformar y dar
sentido a tus datos de registro. A continuación, también puedes consumir
datos del servicio web HTTP, o puedes generar eventos mediante la
acumulación y el endpoint HTTP, ejemplo, puedes
sacar Twitter y obtener algunos datos de
Twitter usando Log Stash. También puede utilizar estatuas de registro
transformar y entender los datos relacionales o
no relacionales que se almacenan en
sus bases de datos. Y por último, Log Stash es una columna vertebral común de
recolección de eventos para ingestión de barcos
de datos desde dispositivos móviles, hogares
inteligentes, vehículos
conectados, sensores de
atención médica, y muchos otros industrias, aplicaciones
específicas de IoT. Ahora, la tubería Log Stash
tiene tres etapas. Tiene una entrada de
filtro y luego salida. Por ejemplo, tienes algunos
datos en tu data store. Podría ser un almacén de datos de IoT o podría ser una
aplicación o una base de datos, cualquier cosa, usted envía esos
datos a Log Stash. Ahora, dentro de esa canalización
inglesa, primero tendrías que
definir una entrada. Y esto es que le dices Log Stash cómo
vas a obtener estos datos. Por ejemplo, podría
obtenerlo de un archivo. También podría obtenerlo
en un puerto TCP o UDP. También podrían ser datos de log sys. Por lo que definirás toda la
deuda en la entrada Siguiente. Una vez que tengas esos datos, tienes que procesarlos. Y esa lógica de procesamiento se configura dentro de los filtros de
filtro, o cómo puedes
transformar tus datos. También puedes usar
condicionales dentro del filtro para hacer algunas transformaciones solo cuando coincida
con cierto criterio. Ahora algunos filtros de uso común
son cultivo grok tiene alrededor un 120 patrones le permiten
pasar datos no estructurados. Miraremos a grok un poco más de detalle en
una próxima conferencia. Mutate realiza
transformaciones generales en un campo de eventos. Puedes hacer cosas como
Cambiar nombre del campo de eliminación de tus datos y reemplazar un campo y modificar campos en sus eventos. te
permite soltar un evento por completo y clon
te permite duplicar un evento. Ahora, la salida es, una vez que tienes los datos
a través de tu entrada, has hecho alguna transformación. Es necesario definir dónde es necesario que estos
datos vayan más allá. Entonces la salida es cómo se pasa en un evento a uno o
más destinos. Ahora bien, esto es más
comúnmente la búsqueda elástica. Si estás utilizando la búsqueda de registros, quieres integrarte
con Elastic Search. Pero también pueden ser cosas como una salida de archivo o puedes enviarlo a algo
así como una cola Kafka. Depende de ti, básicamente el
próximo destino de los datos, una vez que sale de la canalización
Log Search se configura bajo salida. Ahora antes de que en realidad
comenzemos a configurar canalizaciones de
Elasticsearch, hay una
cosa más que necesitas
entender que son los códecs. códecs son
filtros de corriente que pueden funcionar como parte de
entrada o salida. Un códec le
permite separar fácilmente el transporte de su mensaje del proceso de serialización. Básicamente toma un ejemplo
de un códec multilínea. Ahora, piense en un registro de
aplicaciones, que se extiende por
múltiples líneas por defecto, lo que la búsqueda de Locks
intentará y hacer. Tratará de hacer que cada línea
en y Log Stash evento. Ahora es posible que no
puedas entender ese archivo de registro si se
extiende por múltiples eventos. Por lo que quieres que
todo eso entre en un solo evento. En ese caso,
usará el códec multilínea. De igual forma, si quieres codificar o decodificar tus datos en JSON, utilizarás el códec decente. Entonces los códecs son filtros
que te ayudan a separar el transporte de
tu mensaje
del proceso de esterilización de Log Stash. Con esto, hemos llegado
al final de esta conferencia. Gracias por mirar. Te
veré en la siguiente. Adiós.
21. Ingesting y transformación de datos CSV con Logstash: Hey chicos, En esta conferencia, vamos a transformar
los datos CSV usando Log Stash. Crearemos un archivo de
configuración de canalización con tres fases. Una fase de entrada con una entrada de archivo
nos ayudará a ingerir un archivo CSV. Entonces usaremos una fase de filtro, y usaremos el filtro CSV
para transformar nuestros datos CSV. Y por último, en
la fase de salida, utilizaremos dos salidas. Se utilizará la salida estándar
durante la fase de prueba. utilizará una
salida de búsqueda elástica para finalmente almacenar los datos en
nuestro clúster de Elasticsearch. Ahora una vez que estemos listos con el archivo de configuración de pipeline, lo
probaremos ejecutando Log
Stash. Empecemos. Aquí en la pantalla. Mi único nodo clúster de
Elasticsearch. Entonces lo que haré primero es crear dos conexiones SSH, y luego copiaré
la dirección IP externa e intentaré ver si puedo
conectarme a mi instancia de Kibana. Puedo conectarme a mi instancia de
Kibana en el puerto 5601. Ahora volveremos a
nuestra instancia SSH, y luego haré clic en la
parte superior en el ícono de Configuración, y luego haré clic
en Subir archivo. Y a partir de aquí, desde mis Descargas subir los rankings de
competencia, el ESV, y haré clic en Abrir. Una vez que el archivo haya
terminado de subir, puedo escribir ls en mi directorio de inicio para
asegurarme de que el archivo esté ahí. Ahora, antes de que podamos iniciar la
transformación de estos datos, primero
tendremos que
entender estos datos. Por lo que voy a teclear cat, rankings de
competencia,
iniciar CSV y golpear Enter. Por lo que hay alrededor de 5 mil
registros en este expediente. Ahora, voy a despejar y vamos a hacer una competencia cabeza ranking punto CSV para mirar los
primeros registros. Entonces la primera línea es el encabezado, y esta línea
explica cada columna. Por ejemplo, la primera
columna está clasificada, la segunda columna es de nivel, la tercera columna es nombre de usuario, y cada columna está
separada por un punto y coma, Cinco mil registros, y cada columna es separados
por un punto y coma. Por lo que ahora podemos empezar a escribir nuestro archivo de
configuración de canalización. Para hacer eso,
voy a cd in slash, ETC slash Log Stash. Y entonces aquí voy a hacer un ls. Ahora dentro de Log Stash, hay un directorio
llamado dot t Lo que sucede es cuando ejecutas barra de
registro como servicio, lo que hace es que recoge todos los
archivos de configuración desde dentro de constructo d. Entonces escribiremos nuestros archivos de configuración
dentro de este directorio. Hay otro archivo
de configuración llamado Locke's —sample.com. Y este archivo es un archivo de configuración de muestra
que el plástico te proporciona. Entonces hay tendencia en este archivo. Vamos a echar un vistazo rápido. Ahora este archivo tiene una
entrada que acepta algunos datos en un puerto y luego
sin transformación, datos del censo o
punto a búsqueda elástica. Así que vamos adentro frío para D y vamos a escribir nuestro archivo de
configuración de tubería. Así que voy a despejar de todo. Haré un ls. Este directorio está vacío. Haré sudo touch y
llamaremos a nuestro
fichero de configuración CSV data.com. Y luego escribiré
sudo vía CSV data.com. Y voy a cerrar esto
y aquí, hacer un inserto. Ahora en nuestro ducto, primero tenemos que
definir una fase de entrada. Entonces escribiré entrada
y luego corchetes rizados, y luego moveré el soporte
rizado hacia abajo. Y aquí necesitamos especificar una entrada de archivo porque estamos
ingiriendo datos de un archivo. Entonces volveré a hacer corchetes
rizados y hacer algún formateo. Ahora bajo entrada de archivo, necesitamos especificar
algunos ajustes. Lo que haré es que
abriré otra pestaña y escribiré entrada de
archivo Log Stash, y iremos a la documentación del plug-in de
entrada de archivo. Ahora, en esta documentación, puedes leer sobre cómo funciona
este plug-in. Por ejemplo, ¿cuáles son
los diferentes modos? Hay un modo cuento
que no se archiva, y hay un modo de lectura. Se puede entender cómo esta entrada rastrea
la posición actual en el archivo que está viendo. Pero lo que nos
interesa es las opciones de
configuración de entrada. En las opciones de
configuración de entrada, verá todos los ajustes que se
pueden configurar en esta entrada. Y además, se puede ver qué ajustes se
requieren para esta entrada. Ahora, por el momento, el único ajuste que se
requiere es el ajuste de ruta. Y esta
configuración de parte es una matriz. Por lo que esta configuración de parte
es necesaria para especificar la ruta del archivo
que vas a leer. Para nosotros. Permítanme abrir la instancia SSH. Y aquí voy a hacer un ls
y luego haré un PWD. Entonces este es mi camino y este es el nombre de archivo que necesitamos especificar
para esta entrada. Volveré a la configuración de mi
tubería. Voy a escribir, pero luego es
igual a y luego flecha. Y aquí voy a
especificar el camino. Entonces escribiré
comillas dobles y luego
copiaré la trama y
pegaré aquí esta parte, y luego pondré una barra, y luego copiaré
el nombre de mi archivo, y luego pegaré
eso aquí también. Ahora, después de esto, echemos
un vistazo a algunas configuraciones más. El siguiente ajuste
es la posición de inicio, y es una cadena, y puede ser un
principio único o n ¿Lo que necesitamos
saber es cuál es el valor predeterminado
de esta configuración? Por lo que voy a hacer clic en esta URL y dice que el valor
predeterminado es. Y así básicamente
empezará a leer el archivo desde abajo si quieres
configurarlo para empezar a leer
el archivo desde arriba, que es lo que queremos hacer. Tendremos que
configurarlo como principio. Volvamos. Aquí. Escribiré en Posición de
subrayado de inicio, y el valor
estaría comenzando. Después de eso, quiero
mostrarte otro valor. Entonces volveré a subir. Ahora hay un valor
llamado sendero sensible. Básicamente lo que desde db es, es un archivo de base de datos
que hace un seguimiento de cuánto del archivo está
siendo leído por Log Stash. Básicamente, si tu archivo
tiene 100 registros y la
slash log ha leído 50 de ellos, este valor se almacenará
en archivo de sensibilidad. Ahora, dado que db path le da la parte del archivo sinc TB, la ruta predeterminada es path dot data slash plug-ins
slash inputs. Un archivo en nuestro caso porque acabamos de conseguir un solo
archivo y queremos seguir releyendo ese mismo archivo porque estaremos probando
diversas opciones. Lo que tendré que hacer es
que tendré que configurar la parte de sensibilidad como
slash dev slash null. Eso significa es que ya que db
estará escribiendo a ninguno, y esto nos permitirá
seguir releyendo ese expediente. Entonces escribiré desde
db underscore path y configuraré el
valor de ruta como slash dev slash null. Ahora una vez que he hecho eso, he terminado con mi entrada de archivo. A continuación, tendré que especificar el filtro, transformar nuestros datos. Por lo que escribiremos filtros
y corchetes rizados. Ahora bajo filtro, lo que necesito
especificar es un filtro CSV. Entonces CSV y corchetes rizados de nuevo, ahora bajo CSV tendrán
que especificar algunos ajustes. Entonces echemos un
vistazo a la documentación. Csv, fruta y Log Stash. Y abriré el
enlace para la documentación. Y aquí entraré en opciones
de configuración. Entonces primero, podemos
detectar automáticamente nombres de
columna o podemos
especificar nombres de columna. Entonces lo que voy a hacer es que quiero especificar los
nombres de columna manualmente aquí. Entonces necesito especificar una configuración llamada columnas, y
es una matriz. Entonces volveré a mi filtro, y aquí especificaré columnas. Y luego escribiré entre
corchetes porque
esta es una matriz. Ahora para obtener nombres de columna, volveré a la
segunda instancia de SSH. Y aquí escribiré en cabeza competencia
ranking ordenar csv, y copiaré los nombres de las
columnas desde aquí. Después me volví
y los pego. Ahora necesito hacer
algún formateo. Básicamente lo que tengo que
hacer es que necesitamos primero todas estas columnas
dentro de comillas dobles como esta. Y entonces necesito
cambiar el punto y coma en coma. Haré eso ahora. Una vez que haya terminado con eso, lo siguiente que quería
hacer es especificar cuál es el personaje que
separa mis columnas. Entonces volvamos a
la documentación. Y lo que necesitamos especificar es un ajuste llamado separador,
y es una cadena. Entonces volveré, pegaré Enter. Y aquí escribiré en
separador es igual a flecha. Dentro de los tribunales
especificarán punto y coma porque nuestros datos
están separados por punto y coma. Ahora una vez que he hecho eso, quiero mostrarte
dos configuraciones más. En primer lugar, podemos omitir
columnas vacías y saltar filas vacías. Para la demostración,
especificaré omitir columnas vacías. También podemos omitir
el campo de cabecera. Entonces si nos fijamos en nuestros datos, la primera fila es un encabezado. Usando esta configuración de encabezado omitir, pueden decirle a Log Stash
que salte la primera fila. Ahora hay una salvedad a eso. Tienes que asegurarte de
que tus nombres de columna coincidan
exactamente con la primera
fila de tus datos. Si no lo hacen, Log, Stash no saltará los encabezados. Entonces, cualquiera que sea lo que esté en esta línea, los nombres de las columnas tienen que
coincidir exactamente con lo que especifique como nombre de
columna para que funcione la configuración de
encabezado omitir. Entonces vamos a configurar eso. Omita columnas vacías como verdaderas. Y también skip header es cierto. Ahora puedes agregar comentarios en tu archivo de configuración de canalización usando el símbolo hash. Entonces escribiré hash. Hash le permite omitir la primera línea
del archivo fuente. Los nombres de las columnas tienen
que coincidir exactamente. Por lo que ahora estamos listos para
especificar la salida. Para empezar, usaremos una salida
estándar como salida. Otro tipo en
salida, llaves rizadas. Y voy a mover esto hacia abajo. Y aquí escribiré en
STD fuera como mi salida. Y dentro de esto, escribiré en Kodak y Kodak
sería debug rubí. Y ahora estamos listos
para ejecutar este gasoducto. Guardaré este archivo. Y para ejecutar una canalización, lo que tienes que hacer es que
tengas que escribir en sudo slash, usr slash share slash Log Stash. Y luego ha sido una
visión cuando hay una utilidad llamada Log Stash
que vamos a usar. Esta utilidad es
la ruta completa a su archivo de
configuración de canalización. Pero debido a que estamos en
el mismo directorio donde está el archivo de
configuración de canalización, solo
podemos especificar
una ruta relativa. Por lo que CSV data.com y golpeó enter. Ahora, si tu tubería
se configuró correctamente, obtendrás un resultado como este. Entonces tus datos se
dividen en varios campos. Por ejemplo, unido a él
entra en un campo llamado fecha de unión, el número de
problemas, metales, etcétera Hay algunos campos
generados por el sistema. Hay un campo de mensaje, que es un
campo generado por el sistema que contiene cada marca de tiempo de
versión de fila individual. Ahora, este campo de marca de tiempo es el momento en que Log Stash
ingirió este archivo de datos. Y usaremos este campo para buscar y explorar nuestros
datos dentro de Kibana. Con esto, ahora podemos especificar la salida Elastic Search
fuera de esto usando el control C, esto detendrá la canalización. Ahora, volveré a editar mi
archivo de configuración de canalización o hecho. Puedo quitar el STD arriba o simplemente puedo
agregar otra salida. Entonces entraré en modo de inserción y quiero simplemente
agregar otra salida. Por lo que escribiremos en Elastic
Search y corchetes rizados. Mueve esta piedra. Ahora bajo salida de Elasticsearch, la primera configuración
que necesito proporcionar es una lista de hosts
a los que quería enviar estos datos. Escribir en hosts es
igual a una flecha, y esta configuración toma una matriz. Así que puse comillas dobles y
http localhost y luego 90 a 100 porque estoy
ejecutando la búsqueda de registros localmente en la misma máquina donde está mi
clúster de Elasticsearch. A continuación, también puedo especificar un índice en Elastic Search donde se
escribirán estos datos. Entonces vamos a escribir en índice
y luego le daré el nombre del índice, índice de subrayado
CSV. Ahora una cosa a tener en cuenta con esto, si no creo primero un índice
en Elastic Search, esto creará automáticamente el índice en mi
clúster de Elasticsearch para mí. Así que probemos eso primero, guardaré este archivo y luego volveré a ejecutar mi
pipeline. Y mientras esto se está ejecutando, si miras a mi
Kibana y si
entro en gestión de índices
y administración de personal, y luego en la gestión de índices, no
hay ningún índice aquí. Para que esto termine,
no hay votos que el gasoducto
haya escrito allí. Parece que hay algunas
dificultades para conectarse a búsqueda
elástica porque
tengo un mensaje diciendo elástico, tan inalcanzable hará un control C para
cerrar este ducto. Por lo que parece que se ejecutan los servicios de
búsqueda elástica. Así que echemos un vistazo a nuestro archivo
de configuración de nuevo. Ahora, la razón por la que falló
fue porque hay un typo, por lo que Altcoin para insertar
y arreglaré mi typo localhost 9200, y luego guardaré este archivo y vamos a ejecutar
la canalización de nuevo. Ahora, una vez que el ducto ha
terminado de procesar nuestros datos, su puntuación a la
gestión de índices no están ocupados en una página y
volvamos a cargar índices. Aquí. Se puede ver el índice CSV. Se ha creado
automáticamente, por lo que voy a despedir y
cuenta con 5 mil documentos. Ahora, intentemos explorar
estos datos en nuestra pestaña Descubrir. Por lo que voy a hacer clic en
estas tres líneas desde arriba a la izquierda y luego
iré a descubrir. Pero aquí no se puede ver ningún dato porque dice para visualizar
y explorar datos y Kibana, se debe crear un botón de índice. Entonces echemos un vistazo a
lo que es un patrón de índice. Si recuerdas de conferencias
anteriores, un índice es la entidad de nivel
más alto que puedes consultar en contra de
una búsqueda elástica. Usando nuestro
Pipeline de Búsqueda de Registro
almacenará nuestros datos dentro de un índice. Utilizando las API de resto de Elastic Search, podemos consultar los datos en
contra de ese índice. No obstante, un
patrón de índice identifica uno o más índices de
búsqueda elásticos que deseas
explorar con Kibana. Para explorar estos datos y Kibana, necesitamos crear
un patrón de índice. Ahora, lo que hace Kibana, busca nombres de índice que
coincidan con un botón especificado. Por ejemplo, un astérix será un comodín que coincida con
0 o más caracteres. Entonces, por ejemplo, si nuestra
apuesta por una estrella de tablero CSV, coincidirá con todos los nombres de índice
que son CSV dash one, CSV dash T2 o CSV data, etc. Vamos a crear un
patrón de índice en nuestro Kibana. Aquí en el Kibana, tendré que entrar en la gestión de la
pila. Por lo que voy a hacer clic aquí
bajo administración y dentro de la
gestión de la pila y necesito
ir debajo de Kibana
en botones de índice. Ahora necesitaré
crear un botón de índice. Ahora nuestro índice fue si entro en
mi pipeline y Control C y abro mi archivo de
configuración o índices índice de subrayado CSV. Entonces lo que haré es crear un
patrón de índice con CSV. Y en el lado derecho se
puede ver que este botón de índice ha
coincidido con un índice fuente, que es CSV y
discordia en días. Ahora, si queremos usar
el filtro de tiempo global, tenemos que especificar una marca como te he mostrado anteriormente. Siempre que me dejes
salir de esto. Cada vez que se ejecuta la
canalización Log Stash, crea automáticamente un campo de marca de tiempo
llamado Agregar marca de tiempo, que contiene el tiempo en el
que se ingirió el archivo. Entonces, dado que nuestros datos no tienen ningún campo de marca de tiempo nativo, usaremos este campo como
nuestro campo de filtro de tiempo. Entonces iré a
Patrones de Índice y seleccionaré, Agregar marca de tiempo, y luego
crearé mi espectro de índice. Ahora una vez creado el
botón de índice, se pueden
ver todos los campos
dentro de ese patrón de índice. Ahora ese reloj representa que este campo de marca de tiempo es el campo de tiempo que
se utilizará para filtrar. Ahora, volvamos a nuestra pestaña Descubrir y ver si
podemos explorar estos datos. Ahora, como se puede ver, después de que hayamos creado un
patrón de índice para este índice, ahora
podemos
buscar estos datos. Así que recuerda, un índice te
permite consultar esos datos
contra Elastic Search, mientras que un
botón de índice te permite explorar esos datos usando Kibana. Ahora, una vez que terminemos con esto, déjame mostrarte cómo
eliminar un
botón de índice y un índice. Por lo que vamos a entrar en gestión
y gestión de personal. En primer lugar, voy a ir a Gestión de
Index. Selecciona mi índice, haz clic en Administrar índice y
luego eliminar índice. Entonces iré a los botones de índice, haga clic en CSV y eliminaré esto. Ahora quería mostrarte cómo
crear un índice y
Elastic Search. Para eso, volveremos a hacer
clic en estos iconos y luego ir a la administración
y luego a DevTools. Ahora podemos usar DevTools para ejecutar
algunas llamadas a API contra nuestro clúster de
Elasticsearch. Y esta vez voy
a usar el método PUT para crear un índice llamado índice de subrayado
CSV. Y el número de gráficos en
este índice sería uno. Para que pueda configurar
algunos ajustes. Y aquí escribiré todos los campos que
quiero dentro de este índice. Haga clic en esta flecha, y esto
borrará este índice. Ahora, podemos volver
a nuestro pipeline y primero tenemos
que asegurarnos de que este nombre de índice, el ajuste del índice,
sea exactamente el mismo que el índice que
acabamos de crear. De lo contrario, si este
tiene un registro diferente, Sasha va a
crear otro índice y no obtendrá los
datos almacenados en su índice. Por lo que se aseguraron de que
este nombre sea el mismo este escapará de este archivo y vamos a
ejecutar nuestro ducto. Ahora una vez que el ducto
haya terminado el procesamiento, volvamos a nuestro Kibana. Y aquí voy a entrar primero en la gestión de la
pila y la gestión de
índices, se
puede ver que tengo un índice. Hay algún tamaño de almacenamiento, pero la columna del documento dice 0. Entonces tendremos que entrar en patentes de
índice y crear
un patrón de índice. Y de nuevo, será CSV y
esto coincidirá con nuestro índice. Y usaré el campo de
marca y crearé
el patrón de índice. Y una vez que se crea este
botón Es. Si voy y compruebo bajo Gestión de
Índice, ahora, puedo ver el
documento yendo más 5 mil. Y de nuevo, podemos explorar nuestros datos usando
la pestaña Descubrir. Voy a minimizar este mensaje y
hay 5 mil hits. Ahora, vamos a ver si nuestro rover de
cabecera se saltó. Entonces entraré en mi segunda conexión
necesaria y
buscaré un nombre de usuario de valor
dentro del campo de nombre de usuario. Lo que haré es ir a descubrir y
escribiré nombre de usuario. Descartaré este
mensaje, nombre de usuario. Y yo quería que esto
fuera igual nombre de usuario. Y actualizaré qué resultados de nodo
coinciden con tus criterios. Ahora, escojamos un nombre de usuario
válido. Por ejemplo, BSI, descubre,
voy a quitar eso. Están escribiendo PSI y
voy a golpear Update. Y se puede ver que
los valores válidos o todos los datos correctos
se han almacenado en mi clúster de
Elasticsearch. Y se saltan
las filas de cabecera más antiguas. La clave para eso fue
asegurarse de que las columnas que definas
coincidan exactamente con las columnas
de su archivo CSV. Ahora antes de dejarte ir, quería
mostrarte una última cosa, que es cómo enviar
datos desde Log Stash a una instancia de Elasticsearch con configuración de autenticación de
contraseña en ella. Para esta demo, he
creado un ELK separado. Una máquina esperaría la configuración
de seguridad para la autenticación de
contraseña. Si copio la dirección
IP externa de esta instancia y voy
a mi página web de Kibana. Me pedirá que proporcione
mi nombre de usuario y contraseña. Ahora tengo un nombre de usuario
y contraseña incorporados llamados elastic, que es la cuenta de superusuario. Voy a usar ese
login a mi Kibana. Ahora, una vez dentro de Kibana, haré click en estas
tres líneas desde arriba a la izquierda y luego
iré a Stack Management. Y luego bajo
seguridad y usuarios, puedo encontrar todos los nombres de usuario que se han configurado
en este sistema. Todos estos son nombres de usuario
incorporados. Entonces lo que haremos es que
usaremos elastic para integrar nuestro Log Stash con la
instancia de Elasticsearch en ELK. Por lo que haré clic en SSH en ELK T2 para abrir una conexión
SSH. Ahora una vez tengo abierta la conexión
SSH en
cada tipo en sudo,
V slash, ETC, slash Log Stash slash d. Y luego editaremos nuestro
archivo de configuración llamado datos CSV. Y dentro de este
archivo para configurar la salida para ir a la búsqueda
elástica en ELK 1. En primer lugar, cambiaré
el valor del host del host
local Buddha
dirección IP interna de ELK uno, lo siento, editaré todo esto, va
a insertar y escribir en 192 punto 168 punto un punto F5. Y ahora necesito
proporcionar el nombre de usuario y contraseña que voy
a utilizar para autenticar. Entonces escribiré usuario, y aquí pondré en
comillas dobles y escribiré en elastico, y luego
escribiré contraseña. Y lo que haré es pondré en comillas
dobles y copiaré
la contraseña de mis notas. Ahora una vez que haya copiado
la contraseña, podemos guardar este archivo y ahora estamos listos para
ejecutar nuestro pipeline. Así que escribiré sudo slash, usr slash slash, log slash bin
y Log Stash y menos F. Y copiaré todo esto. Lo pegaré
aquí y pegaré Enter. Y una vez que el ducto
haya terminado el procesamiento, Begin vaya a nuestra instancia de Kibana y comprenda la gestión. Podemos ir a la gestión de índices y se puede ver un índice llamado índice subrayado
CSV con 5 mil documentos
fue creado. Y de nuevo, tendré que
crear un patrón de índice. Haga clic en Crear patrón de índice. Escribiré CSV
y ha coincidido con mi índice y usaré el campo de marca de tiempo y haga clic
en Crear espectro de índice. Ahora para explorar mis datos, voy a ir a la analítica
y descubrir. Y aquí tendré que cambiar el índice de logs
start a estrella CSV. Y al hacer eso, deberías poder
explorar tus datos. Pero esto, hemos llegado
al final de esta conferencia. Gracias por mirar. Adiós.
22. Instalación de servidores web de Apache: Hey chicos, En este video, mostraré cómo instalar servidor web
Apache
en la instancia de GCP VM. Primero,
instalaremos el software, luego desplegaremos el
nuevo archivo index.html. Después de eso,
iniciaremos el servidor web Apache, y por último, probaremos acceso a nuestra página web ensamblada. Así que empecemos. Aquí en la pantalla. la consola de instancias de VM
activada para mi plataforma GCP. Entonces elegiré nuevo sentido
vitamínico de Plantilla. Y después de eso, elegiré la plantilla de servidor web
que creamos anteriormente. A continuación voy a dar click en continuar. Después de eso, voy a
cambiar la región a US West One siguiente video, bajar y dar clic en networking. Bajo networking,
nos aseguraremos de que la etiqueta de red sea
servidores web y luego
necesitaremos cambiar
la interfaz de red estará en la red de
servicios web. Por lo que voy a cambiar eso de
monitoreo a servidores web. Y después de eso,
bajaré y haga clic en Crear. Esto creará
nuestra instancia de VM, que usaremos
para un servidor web. Ahora una vez que la VM está
en funcionamiento, podemos pasar a
Visual Studio Code. Ahora aquí en la consola de código de Visual
Studio, tengo las notas para instalar un servidor web en el
lado izquierdo, y en el
lado derecho, tengo mi conexión SSH
en este servidor web. Entonces primero,
actualizaremos nuestro sistema. Entonces sudo APT obtener actualización menos y. ahora vamos a borrar a continuación, voy a escribir en sudo apt-get install Apache dos menos y
y pulsa Enter. Siguiente. Voy a borrar de
esto y luego
copiaré este comando
para crear un nuevo archivo
index.html y poner algún código de ejemplo dentro de
él para crear nuestro sitio web. Pega aquí, y pulsa enter. Ahora una vez hecho esto, puedo iniciar mi servicio Apache. Así pseudo sistema CTL inicia
Apache dos y golpeó enter. Ahora vamos a comprobar el estado. Así pseudo sistema CTL, status Apache a su
activo y en ejecución. Y ahora volvamos
a nuestra Consola GCP. Y aquí copiaré la IP
externa de esta máquina, y la pegaré aquí
y golpearé enter. Ahora como se puede ver,
tenemos nuestra página web de muestra arriba. Así es como se puede instalar un servidor web en la instancia de VM de GCP. Gracias por mirar. Te veré en la siguiente. Adiós.
23. Instalar y configurar Metricbeat: Hey chicos, tenemos nuestro Clúster
Elasticsearch lo
anexó a trabajar. Ahora es el momento de empezar a
usar el clúster. En esta demo, recopilamos datos de auditoría
del sistema como la
CPU y la utilización de memoria, datos de
registro como registros del sistema, borramos algunos
dashboards geniales como este, nuevamente, insights sobre
nuestros sistemas IP. Ahora, Elastic Search utiliza remitentes
ligeros
llamados beats que se
instalan en las máquinas de
destino y envían datos operativos al clúster de
Elasticsearch. Y podemos utilizar estos datos
operativos para crear informes
y tableros. Ahora uno de los casos de uso más
comunes es alimentar datos
métricos del sistema a Elastic Search y
utilizarlos para monitorear cosas como la CPU o la
utilización de memoria, disco, etc. ahora los datos de métricas del sistema son factor de búsqueda elástica usando
un beat llamado metric, que es un peso ligero, más barato que puedes instalar
en tu servidor. Recopilar periódicamente
métricas
del sistema operativo y de los servicios que
se ejecutan en eso. Por lo que toma estas métricas
y estadísticas y
las cambia a la salida de tu elección ejemplo podría ser Log Stash o Elastic Search. Para darte un ejemplo, digamos que
les quieres un intervalo de tu máquina Linux para nuestros datos de métricas del sistema como CPU y utilización de memoria, etc. Lo que necesitas hacer
es que necesites peso
métrico en el
servidor y habilitando sistema de
módulos que recopila toda esta información y
Chip-seq a Elastic Search. Este módulo
te permite monitorear muchas cosas que he
enumerado en la pantalla. Cada uno de estos ítems individualmente
se llama matriz. O bien puede optar por habilitar. Todos estos son sólo los
que te interesan. Las que
no te interesan, necesitamos que nos comenten
desde tu archivo de configuración. Por lo tanto, en teoría, un módulo de cuentas
magnéticas, encuentra la lógica básica
para recopilar datos de un servicio específico como el servidor web
Apache HTTP. El módulo especifica
detalles sobre el servicio, incluyendo cómo conectarse
a ese servicio, con
qué frecuencia recopilar métricas y qué
métricas recopilar. Cada módulo tiene una
o más matriz. Es una matriz que
es la parte de la molécula que toca
y estructura los datos. Hay muchos
modelos que puedes habilitar en cebo métrico
en la descripción de este video hacia arriba en una URL de la
documentación de Elasticsearch. Y puedes navegar para
echar un
vistazo a todos los módulos disponibles. Y puedes escoger
y elegir los que necesites en función de los requisitos de
tu sistema. A continuación, veamos cómo
métrica, ¿qué servicio funciona? Cuenta métrica funciona en cuatro pasos. En primer lugar, los servicios instalados y configurados en
la máquina de destino, enfermos y recopila
información de monitoreo basada en los módulos que están habilitados y se
configuran las métricas. Estos datos se almacenan e indexan dentro de la Búsqueda
Elástica. Y por último, podemos
crear reportes y
tableros geniales sobre estos
datos usando Kibana UI. También puede utilizar los dashboards
predeterminados proporcionados por esa sucesión. Aquí tienes la esperanza de
configurar la puja métrica para esta demo en el servidor web Apache
habilitará el módulo Apache, que proporciona el estado
para el servidor web Apache. También habilitaremos el módulo
del sistema, que proporciona métricas del sistema. Por último, también habíamos habilitado
beats esperan módulo. Esta buret Mohr nos
ayudará a monitorear el servicio Apache en el servidor ELK permitirá el módulo de espera de búsqueda
elástica, lo que nos ayudará a monitorear el propio
Elasticsearch, también
habilitará el módulo de espera de
Kibana que nos ayudará a
monitorear a Kibana. Habilitará el módulo bit expert, que nos ayudará a habilitar otros bits que se
instalen en su servicio. Ahora una cosa a tener en cuenta es
que usaremos la misma métrica con incienso
para monitorearse a sí mismo. Esto no es lo que verá en un entorno de producción. Tu clúster de producción
podría verse más así, donde tienes un clúster de
producción separado
y un clúster de
monitoreo separado. Porque en caso de una interrupción
en el clúster de monitoreo, es posible que aún tenga
los servicios de producción siendo monitoreados a través
del clúster de producción. Y también en caso de que el clúster de
producción muera, puedes solucionar por qué
falló usando el clúster de
monitoreo. Ahora pasemos
a nuestro sistema de laboratorio. Puja métrica instalada. Ahora una vez métrica donde
se instala, lo primero que tenemos
que hacer es que necesitamos habilitar el monitoreo en
el clúster de Elasticsearch. Entonces lo que vamos a hacer es
ir a Elasticsearch, golpear archivos EML para que pueda sudo nano slash, ETC,
slash Elasticsearch. Elasticsearch empieza a Yemen. Golpeó ir justo abajo
al fondo de este expediente. Sin embargo, cómo hacer un comentario
para una nueva sección. Y lo nombraré
esperar monitoreo. Y terminó esperando monitoreo. Copiaré estos dos ajustes. Esperar
cobro de monitoreo habilitado como verdadero y esperar Monitoreo. colección de búsqueda elástica
habilitada es verdadera. Estos dos ajustes permiten el
monitoreo de nuestro clúster. Copia esto, y pégalo aquí. Ahora digamos mi final. Después de eso, reinicio mi servicio
Elasticsearch, el sistema CTL, reinicio la búsqueda
elástica. Una vez activos de TI como AP, podemos instalar y
configurar una métrica, ser prototipado sudo
nano slash ETC, barra diagonal, métricas de barra diagonal. Aquí, el primer ajuste
configure es la carga de la biblioteca. O la configuración sí
es que busca el
archivo de configuración del módulo bajo esta parte. Y si hay algún cambio
en este archivo de configuración, los recargará automáticamente sin la necesidad de reiniciar el servicio de latidos
métricos. Cambiaré esto a verdad. Bienvenido y recargar periodo de puntos. Ahora, una agenda y nombre, podemos especificar un
nombre personalizado para el remitente. De forma predeterminada, el bit métrico toma el nombre de host de la máquina en la que se está ejecutando el
remitente. Puedo escribir en ELK dash
uno y los huevos. Voy a especificar que esta
es la máquina ELK, así que me deshago de toda esta etiqueta
especifica llamada ELK. Debajo de tableros. O bien podemos configurar dashboards Kibana
predeterminados para la puja
métrica para el remitente, pero sin comentar esto y
establecer esto true, true. O podemos usar el
tablero es Kumar. Lo que voy a hacer es que esto
se haga realidad aquí. Pero cuando hacemos el servidor web y te mostramos cómo
hacerlo a través del comando. Ahora bajo Kibana necesita
descomentar anfitrión, pero podemos dejarlo
como hospitales locales, el remitente está funcionando en
la misma máquina que Kibana. Lo mismo para Elastic Search, por lo que podemos
dejarlo como anfitrión local. Y el protocolo,
vamos a descomentar esto y cambiarlo de
STDEV.S a Azure DB. Bajo nombre de usuario, necesitamos
especificar Elastic user
y la contraseña. Es necesario especificar la
contraseña para el usuario de Elastic. Ahora a continuación necesitamos
especificar el registro. Iremos a la sección
que se llama logging. Y aquí necesitaremos
descomentar el nivel de registro, pero
lo dejaremos como predeterminado y descomentar
los selectores de registro también. Entonces lo dejaremos como electores de pulso
por defecto. Después de eso, necesitamos
copiar estos ajustes. El primer ajuste configura
el registro para ir a Archivo. Y después de eso especificamos un
bot para el archivo de registro. Y especificamos el nombre
del archivo de registro. Después de eso, especificamos
cuántos archivos necesitamos para seguir los cuales
necesitaremos especificar los
permisos para el registro. Simplemente copiaré todo
esto y pegaré aquí. Ahora, por último, necesitamos
configurar el monitoreo para nuestra instancia de latido
métrico. Por lo que recomendaré el
monitoreo habilitado. Y ahora vamos a añadir esto a true. Eso irá a la parte inferior donde
dice monitoreo punto Elastic
Search y descomentar. Esta configuración de nadie hace es
que recoge lo que hayamos especificado en salidas para
Elastic Search como salida, recogerá la
salida desde aquí. Podemos guardar este archivo e
iniciar el servicio grande métrico. Entonces pseudo sistema CTL, inicio. Y podemos teclear en sudo
sistema CTL habilitar métricas, habilitado cebo métrico también. Ahora después de esto, necesitamos configurar un
enable algunos módulos. Entonces si voy a ETC barra métricas. Aquí, si hago un ls, verás que hay un
directorio llamado módulos. Voy a entrar en módulos
o D, hacer un ls. Verás que todos los módulos están presentes en este directorio, pero todos ellos están deshabilitados
excepto módulo del sistema. Ahora para el servidor ELK, déjame borrar
el Salvo de nuevo. Ahora para ELK Solver, lo que tenemos que hacer es que necesitamos
habilitar la búsqueda elástica, esperar módulo, Kibana espera módulo y
sistema deshabilitado o hacer. Entonces hagamos eso primero. Así que la puja pseudo métrica habilitada
Elastic Search dash expect. Después de eso podemos
permitir que Kibana espere. Ahora, tenemos que habilitar también lo espera
Beta. Este módulo se utilizará para monitorear a otros remitentes que instalamos en el servidor. Sería de esperar. Ahora, si así lo
elegimos, podemos desactivar el
sistema o deshabilitado. Ahora vamos a configurar
elasticsearch expect primero. Sudo nano Elastic
Search dash esperan. Aquí necesitamos especificar
el nombre de usuario y contraseña para nuestro usuario de
monitoreo remoto para
Elastic Search. Vengo ambos
y voy a mis archivos, vaya a Ansible y bajo
credencial tienda TM. Bueno, claro, todas
las credenciales. Copiarán primero el nombre de usuario y la contraseña pondrán en
qué orden usarlo. Sólo vamos a guardarlo. Y ahora vamos a modificar Kibana esperar y hacer lo mismo. Ahora podemos darle propina a esto. Acabo de notar que he deshabilitado beta esperan en lugar
de deshabilitar el sistema. Entonces lo que voy a hacer es que me
permitiré esperar primero deshabilitado el modelo de sistema. Ahora déjame configurar
lo esperaríamos. Ahora aquí, necesitamos
especificar el usuario del
sistema beat, nombre de usuario. Por lo que voy a copiar el uso una
información para los usuarios del sistema B. Así sistema de subrayado beta. Ahora déjame encomiar esto
y pegaré esto, y guardaré este archivo. Ahora, la puja métrica debe
configurarse en mi servidor ELK. que pueda ir a la consola GCP, copiar la
dirección IP pública de mi servidor ELK. Instruyendo al
navegador con 45601. De la página de inicio de Kibana. Puedo hacer clic en el menú
de arriba a la izquierda. Déjame llamar a mi doctor. Puedo entrar en el monitoreo de pila y si he configurado la
métrica beat correctamente, debería empezar a ver
algunas otras cosas. Pilas en mi pila. Aquí necesito hacer
click en demo ELK. Y como pueden ver, tengo información de
monitoreo para mi Elasticsearch,
Kibana y beats. Entonces vamos a hacer click en beat
y dar click en ELK uno. Se puede ver que
tengo mis tarifas de eventos. Ahora, puedo ir a
demo ELK y hacer click en Overview debajo de
mi Elastic Search para ver la salud de
mi índice de Elastic Search, puedo mirar saturados, tal latencia,
latencia de indexación y tasas. Puedo hacer clic en nodos, mirar mis notas, acordar lanzamientos de OneNote
en estado verde, puedo mirar la carga de la CPU y el espacio discreto
para este nodo. También puedo mirar mis índices. Acabo de obtener un índice
llamado oferta métrica. Ahora puedo ir a Kibana
y dar click en Visión General. Mira a Kibana. Entonces como aquí puedo mirar las solicitudes de la planta y el tiempo de
respuesta. El recuerdo. ¿ Cuántas instancias de tiempo
máximo de respuesta? Si hago clic en instancias, puedo ver las instancias de Kibana que también tengo. Ahora, esta es la configuración
de nuestro servidor ELK. A continuación, tendremos que
configurar un servidor web. Lo que haré es
desde la consola GCP, copiaré la
dirección IP pública de mi servidor web uno. Abriré nueva terminal
basada en dirección IP pública. Ahora, en el lado izquierdo
se llaman las instrucciones de instalación y configuración
para un servidor web. En el lado derecho, tengo mi conexión SSH
en el servidor web. Por lo que el primer paso es instalar la clave pública de firma para Elasticsearch. Entonces hagamos eso. Después de eso, vamos a controlar el transporte
como paquete UDP. Después de eso, necesitamos guardar
las definiciones de directorio. Ahora podemos hacer una actualización, una métrica instaladora beats. Así sudo apt-get update, sudo apt-get install metric, betas
no métricas y almacenado. Así que primero limpiemos la pantalla. Ahora podemos detenerlos
figurando cuenta métrica. Ahora esta configuración
sería similar a lo que hicimos para el verano ELK. Vamos a configurar la carga de la biblioteca. El nombre sería servidor web. Me han golpeado configurando los dashboards Kibana
predeterminados porque quiero mostrarte cómo hacer esto a través de
la línea de comandos. El host para Kibana, necesitaré poner en la dirección IP interna
de la instancia. Por lo que irá a la consola GCP, copiará esto, y péguelo aquí. Lo mismo para Elastic Search. Ahora podemos habilitar el
registro. Después de esto. Hagamos el monitoreo. Por último, podemos
descomentar monitoreo dot Elastic Search
y guardar nuestro archivo. Ahora comencemos el servicio de latidos
métricos. Por lo que pseudo sistema CTL
habilita el servicio. Ahora echemos un
vistazo al estado
del servicio en ejecución. Entonces lo siguiente que vamos a hacer es
que comenzaremos a habilitar módulos. El primer módulo habilitará en esto es el módulo Apache. Después de eso habilitamos el beat. Esperar más hacer. Ahora echemos un vistazo a la lista de habilitar más módulos
en esta máquina. Puedes hacerlo
escribiendo pseudo. Bit. Más do lista unidad que graban tres módulos
habilitados en esta máquina. Apache Beta espera
que acabamos habilitar y sistema o
retrasos habilitados por defecto. Echemos un vistazo a las configuraciones del
módulo. Está claro, esta primera barra
sudo nano, ETC barra métrica bit, más distorsionada d slash apache. Aquí, vamos a descomentar
Matrix establece status. No necesitamos poner
el nombre de usuario y contraseña porque nuestro servidor web predeterminado no tiene ninguna
autenticación. Lo que recomendaría
es que cambiamos el valor bajo host de 127001 a la
dirección IP o nombre
de dominio de nuestro servidor web. Esto nos ayudaría a identificar este servidor web
en nuestro dashboard. Entonces lo que haré es
que eliminaré todo esto. Copiaré la
dirección IP interna de mi servidor web. Vuelve a la terminal,
y yo la pegaré aquí. Ahora, puedo guardar este archivo. Ahora echemos un vistazo a la configuración de
beat expert. Aquí. Necesitamos proporcionar el
nombre de usuario y contraseña para que podamos autenticarnos
contra los beats. Este sería el usuario del sistema de
playa. Esta sería la contraseña
para el usuario del sistema V8. Ahora este bit se usa para monitorear otros buttes
en el sistema. Pero como aún no tenemos nada
instalado en el sistema, esto no hará nada. Así que
salgamos de este archivo. Lo he prometido antes. Ahora te mostraré cómo
configurar dashboards a través de la línea de comandos. Para ello, es necesario escribir sudo metric bid set-up,
dash, dash, dashboard. Ahora una vez que se carguen los
dashboards, verá un mensaje que
dice tableros cargados. Ahora volvamos a
nuestra instancia de Kibana. Aquí. Primero vamos a los clústeres y demo ELK
entender el monitoreo. Bajemos a la remolacha. Ahora, se puede ver que
tenemos dos bits, ELK uno y el otro
debe ser observador. Por lo que este dato proviene del monitoreo interno
por encima de la propia playa. Ahora, para obtener la información
sobre el suburbio, hay
que ir a la matriz. Aquí. Verás que hemos
empezado a obtener métricas, detalles sobre nuestros servidores web. Por lo que vamos a hacer clic en él y
hacer clic en matriz de host. Se puede ver que hemos
empezado juntos todos los detalles sobre
nuestros servidores web. Pero después de esto, pasemos
a los dashboards bajo Kibana. Mire un
panel de muestra producido por cebo métrico para
un servidor Apache. Aquí bajo cuadro de búsqueda del tablero, voy a escribir en Apache. Entonces abriré
el panel denominado metric con descripción general de Apache ECS. Ahora este es un tablero de muestra. Podemos conseguir cosas como los
nombres de host en nuestro entorno, tiempo de actividad de nuestros servidores, bytes de acceso
total, trabajadores
ocupados e inactivos, diferentes tipos de conexiones, lóbulo de
CPU, nodo de red, etc. Ahora os dejaré configurar un
servidor web para que con esto, hemos llegado al
final de este video. Gracias por mirar. Te veré en la siguiente.
24. Filebeat: Hey chicos, vamos a instalar y configurar archivo
dentro de esta conferencia. El latido de archivos es un peso ligero, más barato para reenviar y
tentadores datos registrados. Se instala como agente
en sus servidores y monitorea los archivos de registro son
ubicaciones que especifica, recoge eventos de registro de
esos archivos son ubicaciones y reenvía a
Elastic Search o Log Stash. Cuenta con dos componentes. El primero se
llama la cosechadora, y la segunda es una entrada. Una cosechadora es
responsable de leer el contenido
de un solo archivo. Línea por línea. Input
es responsable gestionar las
cosechadoras y encontrar todas las fuentes de donde leer los datos de
registro de. Ahora, echemos un
vistazo a cómo funciona el beat de archivos. Ahora una vez que inicie el archivo, qué servicio inicia
una o más entradas que miran en la ubicación que especifique para los datos de registro. Por ejemplo, entrada uno, veremos la mala suerte y
cualquier archivo de registro dentro de Verilog. Ahora por cada archivo de registro que descubrió dentro de
esta ubicación, se inicia un nuevo éster de contratación. Esta cosechadora es responsable leer el archivo log línea por línea y envía esos
datos a un líquido. Ahora este lípido agrega
los eventos y ya que los datos agregados a
la salida que especifique, por
ejemplo, puede
enviar los datos a Log Stash Elastic Search. En esta demo,
primero configuraremos el beat de
archivos en nuestro servidor ELK. Son seis pasos. Entonces primero
validaremos que los registros estén configurados correctamente
en el servidor ELK. Después de eso, instalaremos y configuraremos el servicio de arranque de
archivos. Después de eso, configuraremos métricas para monitorear nuestro
archivo, qué servicio. Por lo que tenemos algún tipo de
monitoreo en su lugar también. Entonces iniciaremos un servicio habilitado
el beat de archivos. Y por último,
habilitaremos y configuraremos los módulos ELK en nuestro
clúster para el beat de archivos. Por lo que Elasticsearch, Kibana
y sistema lo harán ahora. En segundo lugar, configuraremos el
beat de archivos para nuestros servidores web. Los pasos son similares. La única diferencia es que
los módulos configurarán en el servicio de 5 bits para servidores
web serán Apache y el sistema nos
permitirá empezar. Ahora aquí en mi laboratorio. Y ya que tengo los
pasos para instalar y configurar el archivo Britton Hill case sobre el lado izquierdo, y la conexión SSH en mi IELTS sobre el
lado derecho. Lo que haré es adjuntaré estos pasos a la descripción de este video para que
ustedes también puedan tener acceso a este documento. Ahora en el EMACS terminado, el primer paso es
validar que el registro esté configurado para una instancia de
búsqueda elástica. Entonces escribiré sudo
nano slash ETC, slash slash Elastic Search slash
Elastic Search dot YAML. Ahora en este documento, lo que voy a hacer es ir
a paths y verificar que los logs de puntos
comprados esté configurado en
var log Elastic Search. Y no está comentado. Si esto
se comenta para ti, tendrás que descomentar
y asegurarte que los logs de puntos de ruta estén configurados. Después de que
verificamos que podemos salir de esto. A continuación, vamos a
nuestra instancia de Kibana. Por lo que sudo nano slash TTC recorta Kibana slash
mantener en su saber Tiamat. Ahora aquí tendremos que
bajar al registro. Ahora por defecto, verás que Kibana registra a salida
estándar. Entonces lo que tendremos que hacer es
que tendríamos que cambiar esto. Haré espacio aquí. Copia todo esto, péguelo
en el lado derecho. Ahora lo que hacen estos ajustes
es primero configuran destino del punto de
registro
para que esté bajo mal registro, y luego archivo Kibana. Después habilitamos la rotación de registros y tratamos el sistema que queremos mantener a
alguien los archivos de registro. Después de que hayamos hecho eso, podemos
guardar este archivo e ingresar. Ahora, un problema con Kibana
es la configuración es que no puede crear el
archivo Kibana bajo Verilog. Entonces lo que vamos a hacer es que
tendremos que hacer slash slash log slash Kibana, creando un nuevo archivo llamado
Kibana underbar law. Déjame simplemente hacer esto
con el sudo. Ahora después de eso nos
han cambiado titularidad de este archivo de registro Kibana ser propiedad del usuario de Kibana y grupo
sudo C-H en Kibana. Kibana slash slash lóbulo. Especialmente. Ahora este archivo es propiedad es para el usuario
Kibana y grupo Kibana. Ahora, después de que hayamos hecho eso, podemos reiniciar el servicio de Kibana. Así pseudo sistema
CTL, reiniciar cupón. Echemos un vistazo
al estatus de Kibana. Ahora, veamos si el archivo Kibana
que acabas de crear en el log var ha comenzado a obtener datos registrados de la instancia
de Kibana. Hagamos una cola
menos f cama de corte. Derecho inglés, sobre todo
como se puede ver, que hemos empezado a obtener datos
registrados en nuestro archivo de
registro para Kibana. Salgamos de esto. Déjame despejar desde aquí. Ahora, el siguiente bit de ELK Stack instalando el
servidor es métricas beats. Así que vamos a verificar
que el cebo métrico está configurado con el registro sudo nano slash abc slash
metric main.xml. Este archivo, vamos a
la sección de registro. Ahora vamos a configurar el inicio de
sesión en este archivo. Copia todo esto basado aquí. Ahora después de esto, a continuación, guarde este archivo también. Vamos a reiniciar la métrica.
¿ Qué servicio? Así pseudo sistema
CTL, stack metric. Pero echemos un vistazo al
estado de la puja métrica en ejecución. Ahora, tenemos el registro
configurado en nuestro clúster ELK. Después de esto, lo que
podemos hacer es
ahora podemos instalar archivo ¿qué servicio? Así sudo apt-get install. Ahora una vez que se instala, podemos ir al archivo dot YAML y configurar el servicio
Hybrid. Entonces para hacer eso,
vamos a teclear sudo, ETC slash slash fobic dot YAML. Ahora aquí en este archivo, lo que vamos a hacer es primero
bajaremos y configuraremos la carga de la
biblioteca. Entonces bajo Módulos de bits de archivo, iremos a recargar dot habilitado y cambiaremos el
valor de false a true. Vamos a descomentar,
recargar periodo de puntos y lo dejaremos como
predeterminado diez segundos. Ahora bajamos en
sección de género y le damos una etiqueta. Entonces como se trata de un clúster de ELK, solo dale una etiqueta ELK. Ahora vamos a bajar a los dashboards y al archivo habilitado, ¿
qué dashboards? Descomento este panel de
punto de configuración iniciado Habilitar y cambiar
el valor a true. Después de eso bajo la sección Kibana, estoy mando Kibana host URL, y lo dejaré como local
o excedente es 01 porque este incienso de fibra
se inicia localmente. Muy Kibana instancia
es todo para instalarlo. Después de esa salida
como Elastic Search. Y dejaré la
sección anfitriona como localhost 9200. Cambio el
protocolo para usar GDB. Cambie la contraseña a Contraseña de usuarios de
Elastic, y descomento tanto el nombre de
usuario como la contraseña. Ahora después de esto, iré a la sección de inicio de sesión y configuraré el
registro para lectura de archivos, nivel de punto de registro
no comprometido. Y lo dejaré
como debug predeterminado. Y voy a descomentar los selectores de puntos de
registro y lo
dejaré como estrella predeterminada. Copia todo esto, pegarlo aquí. Ahora por fin, puedo configurar el monitoreo
a través de my-attribute, bajar en este archivo. Y copiaré como gdb dot
habilitado un puerto ester db dot. Ahora lo que esto hace es que permite a
las métricas monitorear el latido de
archivos sobre STDP. Base esto aquí. Ahora
puedo guardar este archivo. Ahora ya que hemos habilitado el monitoreo de cebo
métrico sobre el puerto 5067 x más comprobar si el módulo beat expect en la puja métrica está habilitado o no. Entonces para hacer eso, primero
revisemos la lista de pujas sudo Electric, enumeremos todos los módulos y
los que han habilitado. Ahora si se puede ver que no
tenemos módulo de espera Beta habilitado. Así que primero habilitemos este módulo porque
este módulo se utiliza para monitorear otros bits instalados en el servidor para matricular. Módulos de puja pseudo métrica habilitados. Esperaríamos que este
módulo esté habilitado. Tendremos que configurar este
módulo para ver el puerto 5067. Para hacer eso, permítanme primero
aclarar todo. Entonces escribo en sudo nano slash, dc slash slash slash
slash bead esperan. En este archivo, lo que
tendrá que hacer es que
primero tendríamos que cambiar la URL bajo hosts del
superávit local 6625067, porque este es el puerto al que el
archivo está exportando datos. Ahora bajo nombre de usuario y contraseña, tenemos que utilizar el nombre de usuario y contraseña
del sistema de playa. Yo no moví eso.
Cambiar el nombre de usuario. Sistema de subrayado. Y cambiar la contraseña para ser tendido subrayado contraseña de usuario del
sistema. Y permítanme guardar este expediente. Por último, verifica esa métrica
qué servicios ejecutan sudo system CTL
status retórica bit. Ahora podemos iniciar el servicio de arranque de
archivos. Así pseudo sistema CTL. Ahora echemos un vistazo al estado
del expediente, ¿
qué servicio? Ahora el servicio está funcionando. A continuación, lo que haremos es que
tendremos que habilitar los
módulos en esta superficie. Déjame primero despejar de
todo. Déjame sumergirme. Pseudo. Los módulos pueden
habilitar la búsqueda elástica, para habilitar el módulo Elastic
Search. Después de eso, déjame haber sido pseudo
módulos de 5 bits habilitados, Kibana, habilitan los módulos
Kibana. Y por último, vamos a hacer
sudo vibrar módulos habilitados sistema para permitir que
el sistema lo haga. Ahora, tendremos que configurar
todos estos tres módulos. Vamos a sudo, nano dash abc slash, slash star d
slash barra
Elasticsearch otomana. En este módulo, se puede ver
que tiene algunas partes. Por defecto es x los bots
basados en tu distribución. Entonces, debido
a que no hemos cambiado estas partes por rutas personalizadas, no
necesitamos
editar nada aquí. Pero si has
cambiado el pase para que sean piezas personalizadas en
tu instalación, tendrás que entrar aquí y hacer esos cambios de
configuración. Saldré de este expediente. De igual manera para el sistema de
rodamina Gibbon, basado en la distribución
toma todas las partes predeterminadas. Si has cambiado las
piezas, tendrás que
entrar aquí y hacer los cambios. Ahora, vamos a nuestra instancia de
Kibana. Copiaré la dirección
IP pública 5601, escriba el nombre de
Elastic user y password. Ahora, primero, si la puja
se está monitoreando correctamente, deberíamos poder ver
este archivo raza
subir bajo
monitoreo de pila, menú de CO2. Ir a Monitoreo de pasos. Aquí vamos a hacer click en demo
irrigar, y vamos a bajar. Se puede ver que
tenemos dos bits. Tienes FIB bajo el nombre de EL que se le da.
Demos clic en esto. Este es nuestro archivo
antes de ser monitoreado correctamente y empezar a ver que tienes algunas tarifas de
eventos que poner, etcétera Ahora después de esto, si
tienes dos clusters, demo y nunca mires
la sección bajo logs, se
puede ver que
empezamos a recolectar registros. Por lo que tenemos mucha
información y los registros
y la aplicación están calentando
lóbulos en nuestra Búsqueda Elástica. Entonces esto significa que nuestro
servicio es capaz capturar registros del clúster ELK. Ahora pasemos
a la
salida nominal de aquí K. Y
pasemos al servidor web. Hola, copie la dirección IP
del servidor web uno, cohere, SSH, pegue
la dirección IP. A continuación, lo cerraré en secciones para ***** por encima de la instalación de
Albert. Y abriré los
para el servidor web. Y los miro en modo de vista previa. Ahora en nuestra página web. Pero primero tendremos que validar que el registro esté
configurado para la matriz. Así que hagamos sudo, nano slash, ETC slash predicen bit slash
podría punto líquido YAML. Ahora aquí tenemos que bajar
a la sección de registro. Vamos a descomentar el nivel de registro
tiene debug y select star. dejamos a ambos como default. Copia esta sección. Entonces Control C, control V. Ahora después de esto,
guardemos este archivo. Vamos a reiniciar MATLAB bit. Ahora una vez
que surja la métrica que servicio surge, podemos instalar primero un objeto de archivo para el estado en la métrica
big service, hagamos un claro Así que
tenemos una pantalla clara. Y aquí puedo teclear
sudo apt-get install. Ahora, después de esto, podemos
configurar nuestro servicio vibrar. Así que permítanme primero claro. Tipo en sudo nano DC
slash, slash cinco. Ahora los pasos son los mismos, por lo que iremos a la derecha abajo
configurada carga de Biblioteca primero. A continuación, solo agreguemos una etiqueta. Mantenga la etiqueta como nivel web, porque se trata de un servidor web. Configurar tablero. Setup
dot Dashboard start habilitado como true. Ahora después de esto,
socavemos al anfitrión Kibana. Ahora para el OVNI, lo que haremos es que usaremos la dirección IP interna
de nuestro servidor Kibana. Por lo que copiaré esto y cambiaré el host local a la
dirección IP interna de nuestro Q1. Bajaré a la sección de salida de Elastic
Search. Haz lo mismo para la URL del
host aquí también. Cambia profundamente
la información del protocolo. Ingrese la contraseña para superusuario
elástico. Ahora bajaré a la sección de
registro, aseguraré de que el registro esté configurado. Ahora por fin, voy a
ir a la derecha hacia abajo y habilitada métrica ser para
monitorear este servicio. Guarde este archivo, y agregue un chequeo Vx módulo
cuadrado habilitado
para la puja métrica o no. Así bit pseudo métrico. Más cuotas habilitadas. Fedex vuelve. Puedo
configurar este módulo. Entonces sudo, nano, especialmente ETC, slash slash slash que esperaríamos. En este expediente. He cambiado la placa host a 5067 porque este es el quinto
archivo que Peter está configurado. Pierdo el nombre de
usuario y contraseña del sistema beat. Puedo decir este expediente. Ahora sólo hagamos
un estado en métrica. Métrica que servicios trabajando. Ahora empecemos basado en archivos. Así pseudo sistema de archivo CTL. Después de eso, primero podemos dar estatus al servicio de fibras para verificar
que en realidad se inicie. Ahora, una vez que verificamos que
el servicio ha comenzado, podemos borrar todo
y habilitamos el módulo. Pseudo. Batir. Los modelos habilitan, habilitan el módulo Apache. Entonces habilitaremos
esto como dos modelos. Ahora, una vez hecho esto, podemos volver a
nuestra instancia de Kibana. Aquí. Vamos a refrescar el paso sobre cualquier cosa en una instancia de Kibana. Si
bajamos, veremos que ya
tienes cuatro latidos, así que haremos click en bits. Y como se puede
ver, tenemos el venir de
5 bits para nuestro servidor
web también. Podemos comprobar el estado de este feed haciendo clic
en el servidor web. Y debe
darnos tasa de eventos, tasas de falla de
rendimiento, etcétera Ahora lo que podemos hacer es que
podamos echar un vistazo a uno de los paneles de muestra que
archivan para un servidor web Apache. Para ello, vamos a
Menu y luego dashboard. Aquí bajo tablero,
busquemos Apache. Y hagamos click en archivo con exceso de
Apache y ECS analógico. Ahora este es un
panel de ejemplo que FileReader crea usando el exceso y edita registros desde
un servicio Apache. Puedes usar esto para mirar direcciones IP
únicas
que acceden a ti mismo
con que los códigos de respuesta son un desglose del navegador de una sola vez, etc. Así es como puedes
instalar y configurar el
archivo en un
servidor E y K y un servidor web. Lo que quiero que hagas
es que vayas a instalar
y configurar
archivo en la web en algún lugar. Lo que debes esperar es
que una vez que hagas eso, no deberías poder
obtener información como
esta para lo absoluto. Y además, si vas
a la cosa del paso 100, tendrás seis latidos. Una métrica sea un archivo para
su segundo servidor web. Con esto, ven al
final de este video. Gracias por
mirar. Te veré en la siguiente. Adiós.
25. Heartbeat 7: Hey chicos, lección instalar
y configurar latido del corazón. En este video, el latido del corazón
te permite comprobar periódicamente el estado de tus servicios y determinar si están
disponibles o no. Ahora, por ejemplo, piensa que
tienes un servidor web. Y si inicia sesión en
la consola de su servidor web y realiza una comprobación de servicio en
el servicio HTTP. El servicio vuelve como corriendo o intentas
cargar la página web, el basado en
la web no se carga, obtienes un editor
en la página web, lo que significa que tus usuarios
en nuestra mesa para usar tu sitio web para lo que sea para lo que
trataran de utilizarlo. Ahora puedes usar el latido del corazón para monitorear ese
tipo de escenarios. Donde la cabina va a hacer
es comprobará si hay un código de estado
de vuelta de su servidor web. Y si no está recuperando
su código de estado, realmente mostró que
los Servicios Web no responden o bajan. Ahora, existen tres tipos
diferentes de monitores que puedes
configurar dentro del latido del corazón. En primer lugar, puede configurar
un monitor de ping ICMP. Básicamente piensa que
en particular el nombre de host del
puerto de la dirección IP. Y si consigue un ping
exitoso, lo muestra como arriba. Y si no tiene éxito, muestra esa piedra monitor. A continuación, se puede calcular TCP. Este monitor
le permite conectarse a un punto final en particular
a través de PCP. Y también puede
modificar este monitor para comprobar que el punto final está arriba por la carga útil personalizada similar
desde ese punto final. Ahora, tercero, también
puedes configurar un HTTP monitoreado para conectarte
vía HTTP a tus endpoints. Este monitor, también
se puede configurar opcionalmente para comprobar si hay respuestas específicas o puntajes
de estado de sus puntos finales. A continuación, hay cinco pasos
para instalar latidos del corazón. En primer lugar, tendrías que instalar el paquete elástico del dash
heartbeat. Después de eso, configuraremos
el servicio híbrido. Configurará el cebo métrico para
monitorear nuestra instancia de latidos del corazón. Cuarto, vamos a
configurar monitores, que es SERDP,
ICMP, monitor TCP. Por último, empezamos
habilitando el servicio híbrido. Así que pasemos a la izquierda. Ahora, aquí en el sistema de laboratorio, acuerdo con las instrucciones
para instalar y configurar un latido en ALEKS
sobre el lado izquierdo. Y tengo mi conexión
SSH y hago mi servidor ELK en
el lado derecho. Ahora una cosa a
tener en cuenta es que
estaremos instalando heartbeat solo en ALEKS over en esta
demo. Instalar latido del corazón. Eso es tipo en sudo
apt-get update. Sudo apt-get install latido del corazón. En realidad se elásticos
y golpean enter. Una vez instalado el latido del corazón, comencemos a configurar
el servicio de latidos del corazón. Necesitamos teclear
sudo nano slash, ETC slash latido del corazón
barra latido del corazón o PMA. En este archivo YAML. Primero configuremos
en vivo abajo. Cambia el Lord dot
integral para hacer y
dejaremos el
periodo de recarga predeterminado como cinco segundos. Después de esto. comentemos todos los monitores en
línea. Porque estarás
utilizando el punto del monitor para configurar estos monitores. El path es slash, ETC slash heartbeat
slash monitores hacia D y NAM y archivo
dentro del spot. Una vez que hayas comentado todos los monitores en línea de este archivo YAML
dot heartbeat. Vamos a las bolsas
y a la bolsa de teatro. Tenía especificará
el objetivo como ELK. Después de eso,
pasemos a Kibana. Y bajo la sección Kibana, vamos a descomentar
la porción de host, pero dejaremos el localhost 5601
predeterminado. Ahora pasemos a la salida de
Elastic Search y dejamos la URLS
default localhost 90 a 100, cambiamos el protocolo a STDP y le brindaremos los detalles de
autenticación. Ahora después de la acción siguiente
pasar a la sección de registro. Implementaremos el nivel de registro. También descomentar los selectores de
registro, pero mantener los
valores predeterminados para ambos. Saber, voy a copiar esta configuración
de mis instrucciones, especificar login para ir a un archivo. Esto está configurado, ahora
podemos configurar como monitoreo GDB para
nuestro incienso latido del corazón. Copiaré estos dos valores. Si nota que estamos usando el puerto 5069 para el monitoreo de
nuestra instancia de latido del corazón, agregará esta placa a nuestro
archivo de configuración de espera Beta después de esto. Entonces vamos este expediente por ahora. Ahora vamos primero
a nuestro ritmo. Batir. ¿ O ordenas D?
Y esperaríamos que ventilador
Automl configure
monitoreo en el puerto 5069. Tenía una coma de escalera. Ahora aprendí la URL
http localhost 5069. Puedo guardar este archivo. Ahora primero check
matrix, se está ejecutando. Así pseudo sistema CTL, status. Se repite. Impresionante. No, también verifiquemos dos veces
que esperaríamos esté habilitado. Así pseudo lista y se puede
ver Beta espera está habilitada. Entonces eso está todo bien.
Ahora, vamos a despejar de todo y podemos empezar
con latidos del corazón insensibles. Así pseudo sistema CTL,
iniciar latido del corazón elástico. Primero comprobemos el
estado del servicio. Asegúrate de que esté funcionando. Y ahora es el momento de
configurar monitores. Para hacer eso. Primero vamos a ATC, monitor
híbrido almacenado. Aquí. Verás que
hay algunos archivos de
monitor de muestra disponibles. Utilizará esto y
personalizarlos. ¿ Quién crea nuestros propios archivos de
monitor? Primero escribiré
sudo copy, sample, ICMP dot yammer dot disabled, copia dos Pi seno PWM. Ahora voy a hacer un nano en ICMP dot YAML para configurar
ICMP monitoreado. Ahora para nuestro monitor ICMP
primero tendrá que cambiar
el ID y el nombre. Para ID. Usaré el
estado del guión ICMP para el nombre. Utilizaré la comprobación de estado ICMP. Vamos a descomentar esto
para habilitar el monitor. Ahora dejaremos el
horario como predeterminado cada cinco segundos
para que nuestros hosts,
que especifiquemos bajo
la matriz de hosts. Cada cinco segundos. Tendríamos que especificar aquí
una lista de anfitriones. Ahora lo que voy a hacer es primero especificar la
dirección IP interna de nuestro servidor web uno. Entonces solo para demostrar en
la dirección IP externa de nuestro servidor web a
193.68 punto a punto nueve, que es la dirección
IP interna de mis caderas sobre un espacio de coma. Y copiaré la dirección IP
de mi servidor web a aquí. Ahora lo que también voy a
hacer es que solo agregaré una dirección
IP externa accesible públicamente, también. Y este hibridar un golpe
punto-punto-punto siempre está arriba no siguiente aliviado
el modo como predeterminado, puedes deshabilitado
por IPV6 en este momento, pero vamos a dejarlo como predeterminado. También puede especificar un
diamante o una tarifa irá a la sección Tag siguiente y
agregado DAG llamado web. Y ahora podemos guardar este archivo. Una vez hecho esto, sigamos adelante y
configuremos nuestro PCP. Querer hacer mazo, vamos a copiar el archivo de monitor TCP de
muestra. Pseudo copia muestreada tcp dot gmail dot desactivado
a tcp dot YAML. Y ahora vamos a modificar
este PC arranque RPM. Ahora aquí. En primer lugar, tendríamos que volver a
especificar la idea. Entonces empecemos porque
usaremos este monitor para comprobar el estado
de la conexión SSH y bajo nombre y tipo
en comprobación de estado SSS. Después de que esto habilita, el monitor
dejará su horario como predeterminado cinco segundos. Y los hosts,
especificé la
dirección IP interna de mi servidor web. Uno, especifique el puerto, por lo que el puerto SSH es 22. Ahora bien puedo
especificar el puerto aquí, puerto especificar una lista de tableros. Si el host no contiene un número de puerto bajo
la opción ports. Por lo que estos son los dos lugares
que puedes especificar puertos. Dejamos todos los demás
valores como predeterminados. Una cosa a tener en cuenta es
que se puede utilizar cheque enviado, y recibido acto pintores
personalizados. Pasaremos a la sección de etiquetas y agregaremos la etiqueta para European. Y guardaré este archivo ahora. A continuación vamos a seguir adelante y copiar
la pseudo muestra del monitor de TV. Http dot YAML están
deshabilitados para Esther db.json modificar SGD goo.gl, sudo nano dot archivo YAML aquí, ID Especifico
estado web y nombre podría ser verificación de servicio web
habilitado el monitor. Y bajo anfitriones, agregaré mi
elástico y mi URL Kibana. Después de eso, tendré que especificar
indicación debido a que has configurado espera en nuestro sistema. He sido el nombre de usuario
y contraseña, elástico y la contraseña
para el usuario Elastic. Ahora, podemos utilizar los otros
ajustes para especificar una comprobación de estado personalizada o una personalizada pintada en
esta solicitud también. Pero los dejaremos como predeterminados y pasaremos
a la porción de etiquetas, especificamos que el DAG se ha adaptado
y descomentar esto. Y ahora podemos guardar
este archivo también. Ahora antes de seguir adelante, comprobemos el estado
de nuestro servicio de latidos del corazón. Una vez más, se está ejecutando. Así que ahora pasemos a
nuestro Kibana, esa página. Ahora lo primero que hay que
comprobar sería
que el latido del corazón aparece
un monitoreo de pila. Así que vamos a casa. Entonces apilan el monitoreo. Aquí, vamos a hacer click en demo, y vamos a bajar a beats. Y como pueden ver,
tenemos latidos del corazón y un poco. Podemos hacer clic en el latido y luego latido del corazón
para comprobar el estado de nuestra instancia de
madera dura. Ahora, para los monitores reales, tenemos que ir a nuestra página de inicio y luego aplicar bajo
observabilidad. Aquí, puedes buscar todos
los monitores que hacia arriba o hacia abajo. Ahora, por las miradas de ella, todos nuestros monitores
están en posición vertical ahora. Puedes usar el
filtro hacia arriba y
hacia abajo para filtrar contra un
estado específico que quieras. En la parte superior, derecha,
puede especificar la hora. Entonces, por ejemplo, puede
especificar si desea sus datos de
hace 15 minutos o hace 15 días u horas, también
puede especificar
la cantidad de tiempo. ¿ Cómo se puede especificar
un absolutamente. Ahora, también puedes
comprobar si hay barcos. Tenemos tres puertos
configurados 90 a 22560001. Para nuestros cheques. Puede
especificar el esquema, ICMP o UDP o TCP para
filtrar los puntos finales. O puedes buscar etiquetas. Tenemos ELK y etiqueta de nivel web. Por lo que hay click en el nivel web. Si haces eso, solo
verás los monitores específicos
de esa etiqueta en particular. Con esto, llegas
al final de este video. Gracias por mirar. Te
veré en la siguiente.
26. Auditoría: Hey chicos, En este video, vamos a instalar y
configurar auditoría V8. El bit de auditoría le permite monitorear actividad y los procesos del
usuario
en su sistema Linux, se comunica directamente con
el marco de auditoría Linux. Y desde los datos que ha recopilado a la
búsqueda elástica en tiempo real. Son cuatro pasos para instalar y configurar nuestro servicio de
débitos. En primer lugar, instalaremos bit de auditoría. Segunda semana
configurada un poco y configurar los tres modelos disponibles
dentro del servicio de auditoría V8. Actualmente, estos
módulos son auditoría D, integridad de
archivos,
y sistema o hacer. Después de eso, configuraremos metric be para monitorear la
auditoría, ¿qué servicio? Por último, iniciaremos y
habilitaremos el servicio de playa de auditoría. Ahora una cosa a tener en cuenta
es que
no hay opción de carga
de biblioteca para cumplir. Antes de pasar
al sistema de laboratorio, echemos un vistazo a cada uno de
estos módulos individualmente. Y primero, veamos el módulo
de rareza. El módulo recibe eventos
de auditoría del marco de auditoría Linux, que forma parte
del kernel de Linux. Lo que hace es
establecer una suscripción a la esquina para recibir
eventos de auditoría a medida que se producen. Ahora una cosa a tener en cuenta es
que es posible que deba detener otros servicios que
se están ejecutando en su sistema como la rareza. Y en general, para que
este modelo funcione, existen dos
tipos diferentes de reglas que se pueden
configurar dentro
ordenó el módulo. La primera regla es un sistema de archivos. Lo que hace esta regla
es que permite la auditoría del acceso a un
archivo en particular o a un directorio. Piense en ello como poner un reloj
en ese expediente en particular. Por lo que se le notifica
cuando se
está accediendo o modificando el archivo . La sintaxis de esta regla
es menos W ruta al archivo en
el que se necesita
para poner el reloj menos p. Qué permisos
como leer, escribir, ejecutar,
menos kx, ky name. El siguiente tipo de regla que puede configurar es un
sistema llamado regla. Lo que hace esta regla,
permite el registro del costo
del sistema que realice cualquier programa
especificado. La sintaxis de esta regla es menos una acción que podría
ser siempre o nunca. Eso, que sería tarea
excepto usuario o excluir, seguido de llamada al sistema, que se especifica por su nombre. Y por último, puedes usar campo y valor para modificar aún más la regla para que coincida con
eventos basados en cosas
específicas
como la arquitectura, grupo son el ID de proceso, etcétera Ahora a continuación, echemos un vistazo en el módulo de integridad de
archivos y módulo de
integridad detecta eventos cuando se cambia un archivo, lo que significa cuando un archivo se crea o actualiza
o elimina en el disco. Lo hace al crear una suscripción con
el sistema operativo para recibir notificación de cambios a archivos o directorios
específicos. Ahora, lo que hace es cuando inicias este módulo por
primera
vez, realiza un escaneo inicial de todas las rutas que
has configurado. Y luego monitorea
esas rutas para detectar cualquier cambio desde
que has perdido ejecutar este módulo. Utiliza
datos persistentes localmente con el fin de enviar solo eventos para archivos nuevos
o modificados. Después de esto, echemos un vistazo
al sistema o sistema dual o sí recopila diversa información
relacionada con la seguridad sobre un sistema. Los conjuntos de datos envían tanto información
periódica, por
ejemplo, un estado de los procesos en ejecución
actuales
y los cambios en tiempo real. Por ejemplo, cuando un proceso
inicia o detiene cada conjunto de datos, ya que dos tipos diferentes de estado de inflamación y eventos, información
del estado se envía periódicamente y
en el sistema se inicia y puede ser controlado mediante el uso una configuración llamada periodo
estatal DOT. La información del evento se envía a
medida que ocurre el evento. Por ejemplo, cuando se
inicia o detiene un proceso. Para información de eventos o conjuntos de datos, use el modelo de hueso
para recuperar esos datos. La frecuencia de las encuestas puede ser controlada por el parámetro de
configuración de periodo. Ahora pasemos
al sistema de laboratorio. Aquí en mi sistema de laboratorio, tengo las instrucciones
para instalar y configurar auditoría grande en EHS
sobre el lado izquierdo. Y por el
lado derecho tengo mi conexión SSH en el EHS, nuestro primero tendríamos que instalar gente de
auditoría para hacer eso. Vamos a teclear sudo apt-get,
instalarlo mejor. Ahora una cosa a recordar es que somos capaces de
hacer esto porque hemos hecho todos los
requisitos previos para agregar repositorio de búsqueda elástica, la clave de firma y transporte
Apigee como GTPase paquete en este sistema ya cuando hicimos la
instalación de búsqueda elástica. Si no lo has hecho, no podrás
hacer este paso. Por lo que tendría que volver
al paso que hemos instalado Elastic Search y aguantar esos requisitos previos
en esta máquina. Ahora, después de que
se instale la auditabilidad, pueden escribir en
sudo nano slash ETC. Slash auditoría V8 slash
auditoría con dot yammer. Abra el archivo de
configuración de pujas de auditoría. Ahora en este archivo, lo
primero
que haremos es configurar
los módulos. Por lo que primero vamos a
configurar el módulo. Bajemos y verás que hay una sección
llamada cambios de identidad. Y esta sección le permite
poner en reglas de firewall que
miran archivos como el grupo
pasado WD y el archivo de sombra G. O puedes, estoy viniendo esto para habilitar estas reglas son, agreguemos una
regla personalizada para poner un reloj en nuestros archivos de configuración de Elasticsearch y
Kibana. Tengo la regla aquí. Menos w archivo FASTA es Gráficas al Elasticsearch diámetro
corto cinco menos b para los permisos
y luego los permisos son WA, y luego la clave es cambios. Así que vamos a copiar estos
dos y pegarlos aquí. Para clave. A menos que también se
habiliten estas reglas. Ahora, también podemos observar los
intentos de acceso no autorizados a nuestro sistema. Así que utilicemos
unas reglas predeterminadas para hacer eso. Ahora a continuación, configuremos
el motivo de integridad del archivo. Ahora bajo Integridad de archivos, verás que
hay algunas rutas que ya están configuradas, como se han usado, han sido sbin o cetera. Ahora vamos a añadir nuestras piezas personalizadas para Elasticsearch y Kibana. Así copiar pegar. Ahora después de esto, lo que quiero mostrarte a continuación es que podrían ser rápidos
que no quieras monitorear la ruta que especificas bajo módulo
Integridad de archivos. Puede excluir esos archivos
utilizando el archivo de
subrayado excluido. Segundo, solo copiaré esta configuración y la
pegaré dentro de este archivo. Ahora lo que hace esta configuración
es que busca un nombre de archivo o un back-end para ese nombre de archivo y excluye esos archivos
de ser lavados. He usado un experimento que excluye los archivos de
referencia. Entonces Elasticsearch archivo de
referencia corta o punto de oferta métrica de referencia de
punto
de ser monitoreado. A continuación, echemos un
vistazo a este módulo del sistema. Existen dos tipos
de información para que puedas obtener datos
del sistema o hacerlo. En primer lugar es la información del evento. Esto podría ser algo como qué paquete
ya está instalado en su sistema o
eliminado o actualizado. La frecuencia del monitor, esta inflamación se puede modificar utilizando el ajuste de
periodos. Actualmente el valor predeterminado se
establece en dos minutos, así que dejémoslo en eso. En segundo lugar, la
información de la etapa de información del estado puede ser monitoreada para
cosas como inicio de sesión de host, proceso, socket y
usuario por defecto. Y esta inflamación puede ser recolectada por una frecuencia
de 12 horas por defecto, pero esto se
puede modificar modificando el valor de estado
periodo oscuro donde lo haría, pero lo dejaremos
como predeterminado en grande. Ahora, vivimos el resto
de la configuración como predeterminada y pasaremos
a la configuración general. Primero. Configurado, un DAG. Entonces huevos, lo descomento
y agregaré una etiqueta
llamada ELK. Siguiente. Bajo dashboards, habilitaré
los dashboards predeterminados. Después de esto. Pasemos a
la sección Kibana. Había dejado sin compromiso
la URL del anfitrión. Después de esto, pasemos a
la salida de Elasticsearch. Y vengo protocolo y cambio el
valor del protocolo para que sea como UDP. A continuación, agreguemos los detalles
de
autenticación de usuarios Elastic. Ahora después de esto, vamos a
configurar el registro. Entonces voy a descomentar el nivel de puntos de
registro, pero lo dejaré como comando de
debug predeterminado registrando selectores de
puntos, y nuevamente lo dejaré como
predeterminado como selectores enteros. Ahora vamos a configurar el
registro para que sea archivo. Copia esta sección,
pegarla aquí. Ahora, después de esta prueba anotar hacia abajo y configurar el monitoreo
HTTP. Así que vamos a copiar estos ajustes. Stdev dot habilitó un puerto de punto de grado
extra. Ahora para el beat de auditoría, configuraremos el puerto de
monitoreo para que sea 5068 porque si recuerdas, 5067 está siendo utilizado por
file beat en esta demo. Ahora podemos guardar este
expediente no después de esto. Primero comprobemos que
esperaríamos que el modelo esté habilitado
en mi atributo. Entonces sudo pip lista. Se puede ver que BTEX
back está habilitado. La ópera esto me dejó
simplemente despejar todo. Ahora. Ahí se editó el archivo de configuración
modular redex back. Así sudo nano slash
ETC barra de barra, slash módulo sort D slash
ser esperado o TML. Ahora en este archivo, vamos a agregar el marketing
para el anfitrión. Después de la cantidad de
inflamación para archivo, escribo http, localhost 68. Ahora vamos a guardar esto. Ahora después de esto, podemos empezar a ordenar bit pseudo sistema
CTL, start o deadbeat. Ahora comprobemos el estado de lo que teníamos estado
de servicio. Ahora esto ha fracasado
por alguna razón. Así que investiguemos primero
una buena idea de lo que
veríamos en la información que hemos ingresado y
asegurarnos de que la sintaxis sea correcta. Entonces sudo, nano, ETC recorta auditoría bit slash
auditoria beat o GMO. Ahora parece que excluye archivos
configurados incorrectamente. Así que vamos a poner
aquí algunos espacios que sigue
el índice de Shamatha. Sólo hay guardar este archivo. Y solo
intentemos reiniciar nuestra auditoría. ¿ Qué servicio? Entonces pseudo
sistema CTL, empieza a latir. Ahora vamos a hacer
un estatus de nuevo, a ver si ha surgido. Ahora parece que ese fue el tema y desordenado ¿qué
servicio no se está ejecutando? Pasemos a nuestra instancia de Kibana para ver algunos dashboards que ha
creado por defecto para nosotros. Ahora aquí,
pasemos primero a apilar monitoreo, demo ELK. Bajemos a los latidos. Y se puede ver que
tenemos auditoría con servicio aquí. Ahora. Podemos dar click en trigo y luego dar click en el servicio de habitaciones
ordenado. Busca alguna información
sobre auditoría V8. Podemos ir a Inicio
y luego tablero. Ahora aquí podemos abrir uno de
estos tableros de bits de auditoría. Así que vamos a abrir el tablero de integridad del
archivo. Ahora este es un panel de muestra que podemos sacar de la auditoría V8. Se puede ver que el recuento inicial de
escaneo fue de 1043. Se puede ver esa vez que se realizó el escaneo
inicial. Propietarios y grupos para nuestros archivos, el archivo que más
cambió por conteo de archivos, algunos eventos de archivo de alguien. Ahora después de esto, sigamos adelante y
configuremos rápidamente auditoría. Espere a nuestro servidor web. Ahora aquí en el sistema de laboratorio, tengo la conexión SSH
en mi servidor web. Entonces teclearé sudo
apt-get install. Ahora después de esto, vamos a
configurar rápidamente. Así sudo nano slash slash auditoría slash auditoría
slash con dot YAML. Ahora agreguemos los relojes de archivos, no en el servidor web. Lo que haremos es que no tenemos Elasticsearch y Kibana
Europea modifica. Entonces acabo de copiar esta regla. Entonces. Lo modificaré para
mis
archivos de beat métrico y archivo beta KML, guárdelo aquí. Y cambié el pasado a archivo de Elastic Search a ETC. Slash. Cambió la clave para ser cambios. Puedo copiar esto
y pegar aquí y cambios para archivar una y
archivar cámaras de video. Así slash slash slash
archivo mejor cámara. Ahora ya que es un
archivo importante que tal vez quieras ver en esta plata
sería tu web Apache. Varios archivos podemos
copiar lo mismo y cambiar la ruta slash slash www dot slash HTML
slash index.html. Y cambiaremos
la llave Bu epsilon. Después de esto. Pasemos al módulo de integridad de
archivos. Aquí. Yo quería que WWW slash HTML. Ahora no necesitamos
hacer ningún cambio en el sistema ni hacer. Ahora pasemos
a los huevos y a la agenda. Aquí, descomentar el ajuste x. Y vamos a agregar la etiqueta para nivel
web habilita los dashboards
predeterminados. Ahora vamos abajo por
los hosts y agregando la dirección IP de mi AKS, nuestro 192 punto 0.68 dot one dot 34. Y probemos hacer lo
mismo para los plásticos. Dicha salida ha cambiado el
protocolo o judío o DB. Y añadamos la contraseña, vayamos más abajo y agreguemos el registro. Por último, vamos a configurar,
esperar cosa maravillosa. No necesariamente guardar
este archivo y no continuación añadir la
inflamación monitorizada en el interior que esperaríamos. Así sudo nano slash slash slash, más distorsionado d
slash b a esperar. Este archivo de nuevo,
espacio de comas http localhost 5068. Ahora podemos guardar
este archivo también. Ahora empecemos. Así
pseudo sistema CTL. Inicio pedigrí. Busquemos el estado
de un reinicio de servidores. Entonces pseudo sistema CTL status
o se habían estado ejecutando. Volvamos a
nuestra instancia de Kibana. Ahora aquí, su puntuación para
apilar uno o conseguir primero, y vamos a hacer click sobre ellos. Y aquí se puede ver que
tenemos que auditar pesos. También puedes ahora ir al tablero y vamos a elegir un
tablero diferente esta vez. Vamos a elegir el panel de visión general del
sistema. Este dashboard,
te da una visión general de tus entornos como número de hosts en
tu entorno, recuento de inicios de
sesión, acciones de inicio de sesión, cambios de
usuario distribución post, inicio de
procesos y
paradas, enchufes, abiertos y cerrados, cambios de
paquetes, etc. También
puedes ir a enumerar los eventos de
tu sistema
en la parte inferior derecha. Ahora, lo que quiero que
hagas después de esto es ir e instalar auditoría
superarte en servidor web
para intentar también explorar otros dashboards disponibles
y dashboards para auditar beat para ver qué tipo de información que puedes
salir de este servicio. Con esto, llegamos
al final de este video. Gracias por mirar. Te
veré en la siguiente.
27. Packetbeat 7: En este video, vamos a discutir
cómo puede instalar y configurar bit de paquete para monitorear tráfico de
red entre
sus aplicaciones. Packet es un analizador de
paquetes de red en tiempo real que
puede utilizar con Elastic Search para proporcionar un sistema de monitoreo de aplicaciones y análisis de
rendimiento. Funciona capturando el tráfico de red entre servidores de
aplicaciones. Y decodifica los protocolos de capa de
aplicación como HTTP, MySQL, etcétera Puedes desplegarlo de nuevo en el mismo servidor que tus
aplicaciones residen o alguien
inexplicable en
un entorno Cloud porque subrayaron que los dispositivos de
red no
están expuestos a usted. Es difícil desplegar cientos de
roturas de paquetes en alguien. Por lo que en esta demo,
implementaremos la tarifa de paquetes en nuestro servidor web y monitorearemos nuestro tráfico HTTP
usando la tarifa de paquetes. Hay cuatro pasos para
desplegar de nuevo y nosotros, primero, vamos a instalar
Packet week. Segunda semana configure la tarifa de
paquetes y los sniffer de tráfico y
escritorio
configurados flujos desniffer de tráfico y
escritorio
configuradospara nuestro repositorio de
bucket. Vamos a configurar metric. Hemos estado monitoreando
paquete. Y por último, vamos a empezar y habilitar paquete. Pasemos a nuestro sistema de laboratorio. Aquí en el lado izquierdo, tengo las instrucciones
para instalar y configurar bit de
paquete en el
epsilon, en el lado derecho, tengo mi conexión SSH
y mañana 1 de octubre, próximo paquete de instalación tarifa. Por lo que podemos teclear sudo apt-get install
package y golpear Enter. Ahora una vez que el paquete instalado, puede comenzar a configurarlo a ese próximo primer
CD e imprimir slash, ETC slash package bit. Aquí, si hago un ls, verás que
tengo mi paquete,
lee el archivo de referencia, al que puedo referirme
cuando estoy configurando mi archivo de
configuración de instalación de paquetes, que es paquete con punto YAML. Hagamos sudo. Número. Podría estar sucio Emma. En este archivo, lo
primero que tengo que
configurar es la interfaz de
red desde que quiero oler datos
. Máquinas Linux. Tener un valor de
cualquiera que significa oler ese tráfico desde
toda la interfaz conectada. O puede especificar una
interfaz de red particular para apuntar
solamente a la red
perfecta en esa interfaz. Ahora lo dejaremos como
predeterminado y lo siguiente en flujos de
paquetes están
habilitados por defecto. Para flujos deshabilitados,
puedes configurar habilitada como false y
configuración de flujo para desactivarla, pero lo dejaremos como habilitada. Y ahora es el momento de configurar los protocolos para los que
queremos monitorear los flujos de red. Ahora esto está bajo paquete protocolos
Bedard. Ahora aquí monitorearemos las herramientas de
red para ICMP, IPv4, DNS, un HTTP deshabilitado. El resto de los
flujos tendrán que comentarlos.
Haré eso ahora. Ahora una cosa a tener en cuenta es que el campo deportivo se utiliza para configurar los
puertos para los que
desea monitorear la
información de flujo para su servidor web podría estar ejecutándose en una prueba de puerto diferente de uno de
estos puertos predeterminados. Por ejemplo, su servidor web podría estar ejecutándose en el puerto 8,001. Flow para tu escenario de índice de
servidor web, lo que tendrás que
hacer es o bien venir aquí y agregar tu tablero
específico como este, y también eliminar
el resto de ellos. Ya que estamos corriendo en el puerto 80, mueven todos los demás puertos. Y ahora pasaré a la
siguiente sección que es género. Aquí. Etiquetas poco comunes. Y mantendré que aparezcan las etiquetas. Después de esto, vamos
a configurar algunos dashboards. Configurado, configuración dot dashboard
sort habilitado como true. Así que permítanme primero descomentar
esto y poner esto en verdad. Habilitará dashboards predeterminados para paquete con instancia de Kibana. Después de eso, tendremos descomentar post-sesión para
Kibana y corregir la URL. Esta será la dirección IP
interna de nuestra instancia predeterminada. Cuando haces 168 dot dot mp4. Después de eso,
pasemos a la salida. Y la salida,
lo primero que tenemos que hacer es corregir la URL para mi salida elástica, sección 921681 punto 34, que es IP interna
de mi instancia ELK. A continuación, bajo protocolo, vamos a configurar el
protocolo para que sea STDP. Ahora, después de esto, tenemos que
configurar la autenticación, usuario
Elastic, y la contraseña. A continuación, vamos a configurar el registro, descomentar el nivel de registro,
pero dejarlo como antes, depurar selectores de registro, pero
dejarlo como estrella predeterminada, que significa que todo Hay
cierto sabe el archivo de Google. Necesito copiar esta
configuración y pegarla aquí. Lo que
hace esta configuración es que permite el registro, ser enviado a un archivo. Después especificamos los parámetros para el archivo que
necesita ir, por
ejemplo, la
ruta del archivo, número de archivos a conservar y
los permisos en ese archivo. Después de esta conferencia la configuración debe ser el monitoreo
a través de la cuenta métrica. Copiar estos dos cirujanos,
y pegarlo aquí. Ahora el primer ajuste
permite HTTP quiere beber, y el segundo ajuste. Ese podría ser el puerto que necesita para centralizar los datos
de monitoreo. Lo que haremos es configurar este puerto en nuestro archivo beat
expect son limitados. Así que guardemos este archivo. Después de esto. Editemos
nuestros fondos expertos. Entonces sudo, nano slash, ETC recortar
modelos retributivos sin duda esperan. En este archivo y
la sección host, tenemos que agregar la URL para nuestro
paquete leer comas militares comas espacio cotizaciones http localhost. En la corteza parte
070. Puedo salvar esto. Después de esto, primero
verifiquemos que el
peso métrico está funcionando. Así pseudo sistema CTL status. Ahora esto se está ejecutando. Ahora empecemos nuestro
paquete con instancia. Así inicio de pseudo sistema CTL. Hagamos un estado
en los bits de paquete. Entonces pseudo quiste a
estado CTL se está ejecutando sin problemas. Kibana UI, para mirar a algunas de las personas son dashboards
que son creados por paquete. De la página de inicio de mi Kibana UI. Primero iré al menú. Iré a estampar en
él. Tenía impuro. Ir a la sección cuatro latidos. Y puedo ver que hay
un paquete de beat board con, por lo que puedo hacer click en beats. Demos clic en el óptimo. Podía leer. Se puede ver que comenzó a
recibir algunos datos. A nuestra instancia de backend. En realidad mira algunos
dashboards que han sido creados por paquete para nosotros en nuestro panel
experto en Kibana UI. Aquí. Vamos a escribir en paquete. Entonces vamos a hacer clic en el Panel de Control que
dice que podría leer
como es el PIB, sí. Ahora aquí, este dashboard
le da las transacciones STDP, por
ejemplo,
número de transacciones, estratos,
puntuaciones, e informes,
historial de doctrinas, solicitudes de DB, etcétera Del mismo modo, también puede
mirar netos doctores. Y aquí se pueden ver
conexiones a lo largo del
tiempo de publicaciones creando tráfico, mensajes, recibiendo tráfico, tráfico de
red entre hosts. Dns llenos de vista, puedes
obtener algunos datos relacionados con DNS. Por ejemplo, DNS consulta alguien en sus
solicitudes a lo largo del tiempo, los tipos de pregunta en sus IPs de
cliente y servidor, a menudo preguntas para DNS. Ahora a continuación, también puedes ver si
las transacciones de CPS. Puedes ver
conteos de cuello y declinación, conteo de transacciones, columnas
en blanco, transferencia de datos, raya, solo escribe a lo largo del tiempo. Ahora este es el polo
de tu salpicadero. Puede mirar a los clientes
que están tratando de
acceder a sus sitios web
en sus transacciones. Transacciones,
tipos de transacciones, respuesta a lo largo del tiempo, percentiles de tiempo de
respuesta ,
error versus
transacciones exitosas ,
términos que no buscaron, etc. Lo que quiero que hagas
después de esto es que te quiero para desplegar en servidor web. Esto llegará al final de este video y tú estás viendo, te
veré en el siguiente.
28. Cómo implementar un cluster de varios nodos: Hey chicos, En esta
conferencia crearemos un
clúster de Elasticsearch de 3 nodos con dos nodos siendo elegible
maestro
también separará nuestra aplicación Kibana
en su propia instancia. La comunicación entre los nodos de búsqueda
elástica será sobre SSL y la comunicación
entre Kibana y nuestro clúster de Elasticsearch
será sobre HTTPS. Ahora, aquí hay algunos pasos. En primer lugar, crearemos
tres nodos de Elasticsearch en nuestra cuenta de prueba de GCP. Entonces también
crearemos una VM Kibana en nuestra cuenta de prueba de GCP. Después de eso,
instalaremos la búsqueda elástica, los tres nodos de
Elasticsearch e instalaremos Kibana en su propia carga. Entonces generaremos
una CA de búsqueda elástica, y crearemos todos los certificados. Esto se debe a que estaremos usando certificados
autofirmados. Si no quieres hacer eso, puedes generar solicitudes de
firma de certificados y obtener de
tu empresa o una
CA pública para que te den los
certificados para tu clúster. Una vez que tengas
los certificados, distribuirá estos
certificados a todos los nodos. Después configuraremos
Elasticsearch y Kibana. Y por último, nos aseguraremos de que los nodos de
Elasticsearch se unan al clúster de Elasticsearch
y el nodo Kibana pueda comunicarse con Elastic
Search a través de HTTPS. Así que empecemos. Como pueden ver, estoy dentro de mi página de instancias de
VM de Compute Engine. Aquí. Daré click en Crear Instancia. Voy a hacer clic en Las nuevas mujeres
sienten desde plantilla, y elegiré plantilla ELK
y haga clic en Continuar. Cambiaré la región
a US West One. Mantendré el nombre como ELK uno. Y bajaré a la sección de
redes, ampliaré esto y luego lo
ampliaré trabajando. Me aseguraré de que esta VM sea una VPC de búsqueda elástica y
en subred de monitoreo. Y después de eso, haré
clic en crear. Ahora una vez creada esta VM, puedo crear dos más. Una vez que haya creado las tres instancias de
búsqueda elástica, volveré a hacer clic en el botón
Crear Instancia para finalmente crear
mi instancia de cámara, haré clic en la instancia de VM
de Template y volveré a usar mi Plantilla ELK
y haga clic en Continuar aquí, voy a cambiar el nombre a Kibana, cambiar la región de nuevo
núcleo hacia abajo a networking. Asegúrate de que esté bajo
subred de monitoreo y haz clic en Crear. Por último, tengo mis tres instancias de
Elasticsearch y mi incienso Kibana listos continuación probaremos la conectividad
a todas ellas. Lo que voy a hacer es
primero hacer clic en estas tres líneas para
cambiar la visualización de la columna. No quiero zonas porque
conozco todas las zonas teorema. No quiero
recomendaciones en uso por, y voy a hacer clic en Aceptar, ahora cambiaré el tamaño de la ventana de mi navegador para
abrir mi terminal. Así que ahora tengo mi cuenta de prueba
GCP, el lado izquierdo, y mi terminal para Mac en
mi lado derecho. Y revisaré la
conectividad desde mi Mac a la dirección IP externa
de mis instancias GCP. Por lo que escribiré en
espacio SSH, lo laboratorio en, y luego copiaré
la IP externa y pegaré y presionaré Enter it. Sí, podré iniciar sesión en
la primera instancia. Entonces abriré una nueva
pestaña con perfil básico. Aquí escribiré en el
laboratorio SSH en entonces la
luz extra tenemos la
segunda instancia y entra, sí, lo mismo. Agregaré otra pestaña, SSH, lo
laboratorio en, y luego
copiaré la dirección IP
de la siguiente instancia. Sí. Por último, voy a copiar la IP externa de la instancia de
microbiología, abrir una nueva pestaña y hacer bit de laboratorio
SSH en y
pegarlo aquí. Tomó años y ahora soy
capaz de conectarme con todos ellos. Por lo que minimizaré esto y comenzaremos a configurar
nuestras instancias. Entonces primero tendremos que instalar la búsqueda
elástica en todas las R3,
tres instancias de Elasticsearch. Así que por favor adelante
y puedes seguir los mismos pasos que
te he mostrado en una implementación de un solo nodo. Simplemente no configures el punto
Elastic Search YAML Sin embargo, solo instálalo y
vuelve y haré lo
mismo en estas instancias. Después de haber instalado la búsqueda
elástica en las tres notas de
Elasticsearch, es hora de instalar
Kibana en el nodo Kibana. Ya instalé
la clave pública de firma y guardo esa definición de
directorio. Entonces todo lo que tenemos que hacer
en esta instancia es sudo APT get Update and end. Sudo APT consigue instalar
Kibana y pulsa Enter. Ahora como se puede ver,
Kibana se
instaló con éxito en esta máquina
después de que Gibbon no almacené. Lo que haré es pasar a
la Terminal de Visual Studio para
poder referirme a mis notas mientras estoy configurando
los servicios. Aquí en pantalla, tengo mi
ventana de Visual Studio Code abierta con mis notas en el lado izquierdo
y el terminal en el
lado derecho y arriba arriba, he usado este ícono plus
para crear cuatro pestañas cada uno en mi
carga individual en la cuenta GCP. Por lo que primero comenzaremos a configurar
la máquina ELK one. Aquí. Voy a hacer sudo VI slash, ETC, slash Elastic Search slash
elastic search.html. Aniquilar entrar.
Iré a Insertar. Y lo primero que
tengo que hacer es
que necesito configurar un
nombre para mi clúster. Esto tendrá que ser lo mismo en todos mis últimos nodos de esfuerzo o
limite el subrayado demo ELK. A continuación le daré un
nombre a este nodo. Llamaré a este nodo ELK uno. Podemos mantener la ruta a los datos y el directorio de
registro igual, eso está bien. A continuación entraré a la
red y
cambiaré el valor del host de
punto de red a 0. punto 0 es 0. A continuación voy a descomentar el puerto de punto STDP. A continuación, tendremos que especificar los hosts semilla para nuestro clúster. Estos son los anfitriones iniciales. El cual formará
nuestro clúster aquí, pondré en la dirección IP
privada de todos mis nodos de Elastic Search. Si entro a mi consola GCP, las IPs privadas son 192.6781681. Entonces eso es lo que vamos a entrar aquí. Después de que
proporcionamos hosts semilla, necesitamos proporcionar qué nodos se
pueden dominar elegibles. Queremos que ELK maravilla Neil
K2 sea master elegible. Entonces eso es lo que vamos a entrar aquí. Escribiré EL k1 y k2. Ahora, eso es todo por este expediente. Por ahora, puedo guardarlo un signo de exclamación q
azul. Ahora una vez que haya hecho eso, lo que tendré que hacer
es que necesito ir a user share Elastic Search y
estado ahora una vez dentro de bin, podemos hacer un ls y
verás que hay una utilidad llamada Elastic
Search dash 30 hotel. usaremos para crear
primero una CA y luego generar algunos certificados
para una replicación, estos certificados serán certificados
autofirmados. Entonces empecemos primero, tenemos que generar un vidente. Haz eso, escribiremos sudo dot slash Elastic Search
dash sagital. Y para generar un vidente, el comando es C,
y vamos a golpear Enter. Podemos mantener los valores predeterminados y
sin contraseña para el CEO. Este archivo dot p12 es en parte cuota de
usuario Búsqueda Elástica. Entonces voy a hacer un LS aquí para
asegurarme de que este archivo esté
ahí, ahí está. Ahora CFI IS, se genera. Tenemos que generar ahora los certificados SSL para ser
utilizados por las cargas de Elasticsearch. Lo que haremos es volver a entrar en estado otra vez y voy a golpear
flecha hacia arriba para ir a mi Elastic Search Utility
comando elimina CA, y esta vez escribiré insert porque
quería generar certificados. Y para generar
los certificados, tengo que proporcionar una CA, escribiré en dash, dash C, y vamos a copiar el nombre
de nuestro archivo CAP 12 y ponerlo aquí porque el archivo
está bajo estancia por ubicación. No tenemos que proporcionar un camino
totalmente calificado hacia
y voy a golpear Enter cuando
pida una contraseña para ca, no
proporcionamos una cuando
estábamos generando el CS, por lo que está bien, podemos golpear Enter. Ahora vamos a
aceptar los valores predeterminados para el archivo de certificado
también, o contraseña. Ahora este archivo también debe estar en la acción de usuario Elastic Search. Entonces voy a entrar en ese
directorio y hacer una ls. Y este es nuestro archivo de certificado
de búsqueda elástica. Ahora, esto es para el SSL. Entonces si volvemos
a nuestro PowerPoint, esto es para la comunicación entre los nodos de Elasticsearch. Para la comunicación de Kibana,
necesitamos crear un certificado
STDP. Ahora para hacer eso, podemos cd en been. Esta vez escribiré sudo dot slash elastico
search sergio tabla. Y aquí escribiré en STDP, regenerar el SGD
serán certificados. No quiero generar una CSR, así que escribiré ahora, esta es la opción que usas cuando estás usando
una CA de terceros, por
ejemplo, la CA de tu
empresa, CA pública. Pero como estamos usando los certificados
autofirmados, escribiré 0 y presionaré Enter. Sí, queremos usar
un CS existente, así que escribiré sí, al siguiente quiere la
ruta a mi archivo CASB T12. Por lo que voy a copiar la ruta que
es usuario share Elastic Search. Lo copiaré aquí es
Elastic Search ca dot p12. Así que voy a copiar eso aquí
también, y voy a golpear enter. Ahora no hay contraseña
para este archivo SCF. Ahora a continuación me pregunta
cuánto tiempo quiero que los
certificados sean válidos. Ahora, quiero el defecto, así que lo guardaré como cinco
años después se pregunta si, si quieres generar
un certificado por carga en una
configuración de producción, podrías. Por lo que irás sí aquí, pero por ahora haré click
en No y pegaré Enter. Ahora quiere los
nombres de host para todos los nodos, o podemos proporcionar comodines. Ahora, te mostraré
algo por un minuto. Se irá a otra instancia. Ahora aquí vamos a hacer slash sudo V, ETC, slash hosts para
abrir mi archivo host. Ahora, todas las instancias GCP
tienen un DNS interno, que se ve así. Supongamos que el nombre de host que
proporcionó durante
la configuración, la región allí m punto c, y luego el proyecto
en el que están y luego punto interno. Lo que haremos es generar un certificado usando
star dot interno. Tercer tipo en estrella para cubrir
todo, desde nombre de host, dot region dot dot project. Y luego escribiré
interno y pulsaré Enter, y luego vuelvo a pulsar Enter, voy a ir sí, eso es correcto. Ahora quiere que proporcionemos las direcciones IP
de todos mis nodos. Así que voy a hacer eso. 92
punto 168 dot un punto 6190 dot 168 dot un punto 7192
dot 168 dot un punto ocho. Tenga en cuenta, obviamente, esto
será diferente para usted. Entonces lo que tendrás que hacer
es que vayas a tu consola GCP y mirar
las IPs internas y
proporcionarlas en este lugar. Si estos no son correctos, sus nodos no se
unirán al clúster. Por lo que escribiré Entrar a
Entrar de nuevo para salir. Sí, estos son correctos. No quiero
cambiar ninguna opción. Daré click en No, no
quiero proporcionar ninguna contraseña. Da click en Entrar y
aceptaré todos los valores predeterminados. Y esto debería crear un archivo zip en mi ubicación de búsqueda
elástica de uso compartido de usuarios. Entonces vamos a ir un nivel por encima de
un claro y hacer un ls. Ahora hemos generado un archivo, un certificado para
los nodos de Elasticsearch, y un archivo zip. Ahora veamos qué hay
dentro del archivo zip. Por lo que escribiré descomprimir
Elastic Search dot zip. No puede encontrar el Descomprimir. Entonces esa es una solución fácil. Voy a escribir sudo
apt-get install, descomprimir, saber qué está
descomprimiendo instalado. Haremos el mismo
comando y adjuntaremos pseudo agravio claro fuera
de esto para analizar. Ahora, tenemos que ir
dentro de esta carpeta. Entonces voy a hacer cd Búsqueda Elástica. Y a menos que tenga el archivo
STDEV dot p12. Ahora vamos a ir un nivel arriba
y hacer análisis de nuevo, también
había una carpeta Kibana. Entonces vamos a entrar ahí. Y siempre que haya
una búsqueda elástica archivo CA Him. Entonces hay un archivo http
dot p12 y un archivo ca dot vm que fue creado en esto ahora
es lo que
haremos es mover todos
estos archivos relevantes a mi directorio temporal de barra
para poder descargar todos estos y luego los distribuyeron
a través de los préstamos. Así que primero voy un nivel
arriba claro, cuando Alice, voy a hacer una copia de certificados de
guión elástico para copiar primero el
archivo de certificado para cortar TMP, y tendré que agregar un pseudo. Ahora a continuación necesito copiar
mi CFL Elastic Stack, ca dot p12 slash TMP slash. A continuación necesito hacer una sudo
copy Elastic Search slash el archivo STDP dentro la
carpeta Elastic Search, tmp también. Y por último, necesito hacer
una copia sudo Kibana y el archivo Elastic Search
ca dot PEM dentro de esa
carpeta Kibana para cortar TMP. Ahora una vez que he hecho eso, necesito ir dentro de
la carpeta TMP slash. Y lo que
haré es hacer un mod CH y dar permisos completos
a todos los que estén en estos archivos. Tan estrella elástica, y lo
haré usando sudo y finalmente
pseudo CH mod 777. Haré eso por
mi archivo STDEV.P 12 cuando ls menos l para
asegurarme de que se haya hecho, parece que lo es. Ahora, antes de descargar estos, trasladará directamente al conflicto los archivos de
certificados correspondientes para este nodo
en particular. Entrémonos en ETC. Barra Elástica Buscar
tipo en sudo SU. Primero iremos al CD,
ETC, Búsqueda Elástica. Aquí crearemos un
directorio llamado search. Una vez hecho eso, copiaremos el certificado SSL para
nuestra Búsqueda Elástica, que es este certificado en búsqueda elástica de
uso compartido de usuarios
en la carpeta de búsqueda, copiar slash usuarios slash
slash Elastic Search. Y el certificado es
certificado elástico almacenado B12. Y vamos a copiar el certificado
dentro de la carpeta fuente, barra de
búsqueda, pulsamos Enter, luego vamos a hacer un cd en
esta carpeta de búsqueda, asegurarnos de que el
certificado se haya copiado correctamente, eso está hecho. Ahora, lo que tenemos que hacer es dejarnos ir un
nivel arriba aquí, volveremos a Editar nuestro archivo Elastic
Search dot YAML. Entonces voy a hacer un VI
elástico search.html. Y dentro de este
archivo tendrá que bajar directamente a la seguridad y bajo seguridad copiará algunos ajustes
de seguridad de mis notas. Por lo que espera seguridad habilitada
true habilita los espera
seguridad espera seguridad transporte SSL enable true habilita el SSL
en el transporte, utilizamos el
modo de verificación SSL I certificado y nos aseguramos de que es obligatorio que los clientes
sean autenticados. Y por último, tendremos que
proporcionar la KeyStore y confianza o parte para nuestro archivo de alumno punto
certificado elástico, que acabamos de copiar en carpeta
fuente dentro de Della
dicho conflicto directamente. Pero antes de hacer eso, porque nos movemos a
la tercera carpeta, tenemos que proporcionar el
FQDN de esa parte. Entonces vamos a escribir en slash, ETC slash Elastic
Search slash search slash elastic
certificate store quit. Bueno, copiamos eso y lo
pegamos aquí también. Y ahora podemos copiar todos estos
ajustes, pegarlos aquí. Antes de seguir adelante,
también tenemos que habilitar comunicación
https u
otro clúster para eso, tendremos que habilitarlo primero
como GDB, otro clúster, y luego tenemos que
proporcionar un pot al SGD P. archivo volve. Como hemos hecho antes. Te proporcionaré el FQDN porque
has cambiado el pot ADC Elastic Search slash
slash SRB dot py archivo, y copia estas dos
configuraciones hacia la parte inferior de mi archivo YAML de punto de
búsqueda elástica. Y ahora puedo guardar este archivo. Ahora, una vez que hayamos hecho eso, copiaré este archivo a
mi carpeta Temp también. Y de nuevo, voy a hacer un CH más. Entonces y así y así sucesivamente. En mi Elastic Search
dot YAML archivo dentro de ellos están éste y pulsa Enter y ahí está copia nuestro certificado
introductor sedentario. Así copia slash, usr slash
share slash Elasticsearch, elasticsearch slash STDP dot py habitan en búsqueda de
búsqueda elástica ATC. Y pasemos a
la carpeta fuente para asegurarnos de que este archivo esté ahí. Ahora, volvamos a nuestra ventana de consola GCP para
descargar todos estos archivos. Ahora aquí en la consola para GCP, haré clic en SSH junto
a mi ELK una instancia. Esto abrirá la SSH para esta instancia en
una nueva pestaña del navegador. Ahora una vez
terminadas las conexiones SSH, haga clic en el botón Configuración en parte superior derecha y haga
clic en Descargar archivo, y desde aquí, dale el FQDN. Entonces slash temp slash elásticos certificados dot
p12 y da clic en Descargar. Hemos descargado el
primer certificado. Ahora a continuación tenemos que descargar
nuestro archivo STDEV dot p12. Entonces slash términos slash std
p.volve es descargar esa vez. Después haga clic en el archivo de
descarga de nuevo. Esta vez estaremos
descargando el archivo dot PEM. Entonces para obtener el nombre, entraré en mi directorio
temporal para analizar y obtener el nombre
de mi archivo PEM dot. Aquí. He descargado eso. Ahora. A continuación necesitamos descargar nuestro archivo
corto YAML Elasticsearch. Por lo que haré clic en Descargar
archivo y recortar términos slash Elastic Search dot YAML, y haré clic en Descargar. Una vez hecho eso, puedo cerrar esta pestaña SSH y abrir
una nueva pestaña a mi ELL k2. Ahora una vez abierto el SH2 GLP-2, volveremos a hacer clic en el botón
Configuración, hacemos clic en Subir Archivo, y iremos a
la ubicación donde hemos descargado
los certificados. Y el primer archivo, uno es el certificado de
búsqueda elástica. Y voy a hacer clic en Abrir, y esto subirá este archivo a casa slash elaborada
formación tres. Y el siguiente archivo que quiero
aquí es el archivo HTTP. Por lo que volveré a hacer clic en
subir y subir el SGD p.volve
a la misma ubicación. Y por último, subiré mi search.html
elástico, este archivo. Ahora, una vez que hemos hecho eso, tenemos que subir
estos tres archivos a la tercera
instancia de Elasticsearch también. Entonces voy a hacer eso ahora. Una vez que hayas subido
los archivos a ELL K3, tenemos que ir a la instancia de
Kibana, hacer lo mismo, pero
esta vez solo tenemos que
subir el archivo Elastic
Search ca dot vm. Por lo que haré clic en el botón
Configuración, haga clic en Subir archivo y el archivo PEM punto para ver
Elastic Search y
haré clic en Abrir. Ahora, una vez que hayas subido
todos estos archivos, todos han sido subidos
al directorio home
del usuario en
ejecución del laboratorio o a tu
usuario individual en tus máquinas Linux. Tenemos que copiarlos
en la parte correcta. Primero, vamos a ELL K2 aquí. Pasemos primero a casa
slash lab capacitación de TI tres. Y puedes ver si tienes un archivo YAML de punto Elastic Search y dos archivos de certificados. Primero en cuanto a sudo
SU para convertirse en raíz. Entonces iremos dentro nuestro
directorio de búsqueda elástica aquí
crearemos un nuevo directorio
llamado search, copiaremos nuestros certificados
en este nuevo directorio. Entonces STDEV punto p12
en tercios slash. Y a continuación está el certificado de
Búsqueda Elástica. Tan elástico certificado dot
py herramienta y para buscar, ahora vamos a entrar en el tercer
selector para asegurarnos de que han sido copiados y hacer análisis
aquí, eso está bien. Ahora, necesitamos reemplazar nuestro
archivo YAML punto Elastic
Search existente por el nuevo archivo que
acabamos de copiar. Así copia slash casa slash
laboratorio ejecutando tres slash elastic search.html en
ETC slash Elastic Search. Y vayamos un nivel
arriba y hagamos un ls menos l Y aquí tendremos que cambiar algunas configuraciones dentro de este archivo YAML
Elastic Search dot. Entonces sudo nano elastic search.html tendrá que bajar
a nuestro nombre de punto nodo, y tendremos que
cambiar esto a ELL K2, ec2, y eso debería ser. Ahora parece que he hecho
un typo y cargue el nombre de punto. Necesitamos que esto sea elk dash, el número de carga 12 o tres. Así que déjame simplemente revisar
lo que he hecho en k1
real aquí en mi ELK uno. Entonces iré a ETC, Elastic Search y haré un nano sólo
lo último, search.html. Y voy a cambiar esto
para guiar a uno también. Y guardaré esto ahora
que hemos recogido, guardemos este archivo
también y pasemos a ELK a3. Entonces tenemos que hacer lo mismo. Así pseudo copia slash home
slash biblioteca entrenamiento tres slash http dot slash elastic search.html
to slash, ETC. Slash Elastic Search creó la carpeta y copió todos los certificados correctos
en su ruta. Ahora lo que podemos hacer es
que podamos hacer un archivo nano o no elástico search.html y
podemos cambiar el nombre de carga. Podemos guardar este archivo. Ahora pasemos a
nuestra instancia de Kibana. En Kibana, solo
había un archivo, lo que a domicilio elaboró capacitación
tres por parte de la lista de proveedores. Sólo hay una Búsqueda
Elástica, punto PM. Entonces vamos a hacer un sudo
SU, Es Co2, ETC. Slash Kibana, haz
un nuevo directorio llamado buscar aquí y copia el archivo Elasticsearch ca dot vm de nuestro
directorio de entrenamiento de nivel para buscar. Y ahora vamos a hacer un nano
en el teclado AutoML aquí, lo primero que
tenemos que hacer es que
tenemos que descomentar el puerto punto
del servidor. Entonces tenemos que cambiar los hosts de punto
del servidor a 0. Y aquí donde dice
servidor URL base pública, tenemos que proporcionar la URL, ese escritorio Kibana
servicio Goneril, no, no vamos a hacer HTTPS para
nuestra interfaz GUI de Kibana. Lo que haré es escribir
en la slash de la slash http. Voy a instancias de VM, copio la IP interna de la instancia de
microbiota, pego aquí y configuré
Kibana para ejecutarse en 5601. Por lo que escribiré que los
que han hecho que
primero tenemos que especificar son
varios nombrados para Kibana. Así que voy a descomentar
ese tipo de rol en demo Kibana aquí y aquí
necesitamos especificar todas las
instancias de Elastic Search para nuestras consultas. Así que básicamente si
solo quieres que tus consultas se ejecuten en una sola instancia de
Elasticsearch, tendrás que especificar la
dirección IP de esa incidencia. Pero debido a que queremos que
se ejecuten en todas nuestras instancias, voy a suministrar aquí todas las instancias de
Elasticsearch. Volveré a mis notas y copiaré esta cadena desde aquí, y voy a quitar esto
y la pegaré, y corregiré la diádesis. El que he hecho eso. Lo siguiente que tenemos que
hacer es que tengamos que
proporcionar la ruta del archivo dot bm. Para ello, tenemos que acudir a Elastic Search dot SSL
certificaciones autoridades, y lo descomento. Y aquí la izquierda para suministrar las partes a mi archivo ca dot vm. Así que eliminaré todo
eso y teclearé ETC slash Kibana slash search slash el nombre de nuestra
Elasticsearch Buscar dot vm archivo slash Elasticsearch ca dot pm. Y una vez que haya hecho eso, puedo seguir guarde este archivo. Ahora es el momento de iniciar nuestro clúster de
Elasticsearch. Ahora voy a ir a mi máquina dada de
rendimiento. Teclearé el sistema CTL, iniciaré Elastic Search, y
luego iré a mi máquina. En fuera de aquí CTO del sistema, inicia Elastic Search
y escribe sudo al frente. Y luego iré a mi tercera
máquina, pero lo mismo. Entonces pseudo sistema CTL inicia
Elastic Search y entró, vamos a ver si el primer juego de instancia de
Elasticsearch de multa, parece que hubo un problema. Entonces para solucionar cualquier problema cuando pueda usar general CTL menos f menos u y luego el nombre del servicio.
Entonces echemos un vistazo. Es justo iniciar el servicio. Otro lugar al que puedes ir buscando es el registro de ropa interior Elastic Search. Si hacemos un ls,
habrá un archivo de registro de puntos. Así que vamos a hacer un gato en eso. Dice exceso de noche al expediente
del certificado. Así que volvamos a nuestra carpeta
Elastic Search. Déjame aclarar todo aquí. Vamos a hacer una carpeta de certificado ls menos l
r es grosero puntuación de búsqueda elástica. Inserta ahí y haz una, déjame S menos L. Nuestro certificado
Elasticsearch tiene permisos r, w, y luego nada
para el grupo. Ahora podríamos necesitar
cambiar esto, así que haremos el modo CH. Y por ahora
solo voy a escribir 777 y Elastic Search
certificado dot p12. Y haré lo
mismo por mi HTTP. O para averiguarlo para
una implementación de producción, es posible que deba mirar los permisos en
el certificado, pero por ahora, solo intentemos iniciar el servicio con
estos permisos. Parece que
empezó a encontrar esta vez. Entonces vamos a hacer un sistema CTL,
estado Elastic Search. Aviso que ya está hecho. Podemos ir a la
otra instancia y esos CDC Elastic Search como para sudo SU aquí
vamos a dibujar ETC, Elastic Search y
luego ls menos l y mirar la carpeta fuente a
menos que coincida eso. Y echemos un vistazo a los permisos
en el certificado ahora, miremos el estado
en esta máquina. Entonces éste está corriendo. Echemos un vistazo a los
datos de la tercera máquina. Para que como puedes ver, si hay un problema de permisos, posible que
tu servicio no surja. Si vuelvo a mi
primera instancia, todo lo que tienes que hacer
es si te encuentras algún problema para iniciar este servicio de
Elastic Search, puedes ir a donde registra Elasticsearch para analizar
y mirar este archivo . Y como he mostrado anteriormente, te
dará un indicio de dónde se hace el error por ahora, también te
he mostrado cómo
cambiar permisos en varios archivos para
resolver cualquier problema. Ahora, como se puede ver, con permiso de 755, este certificado
cargó correctamente. Entonces probablemente lo que
tenemos que hacer es ir a ATC Elastic Search
y entrar en búsqueda, cambiar los permisos a 755 en este
certificado de Búsqueda Elástica también. Y intentemos hacer
lo mismo por nuestro certificado STDP Bidwell a
menos que intentes reiniciar los dólares de servicio a
un estado CTL del sistema, búsqueda
plástica se está ejecutando. No aclaremos. A continuación, tenemos que generar las credenciales para nuestro clúster de
Elasticsearch. Vamos user share Elastic Search y estado dentro del análisis de
beneficios, hay un archivo de contraseñas de configuración, por lo que vamos a hacer barra de Elasticsearch
conjunto de contraseñas. Y voy a hacer auto para
auto-generar todas mis contraseñas. Ve, sí, y ha generado la contraseña
para este clúster para mí, los
copiaré en archivos. Tengo esto. Ahora antes de hacer algo, necesito ir a mi instancia de
Kibera y luego cuarto mi
teclado sin punto YAML archivo. Yo haré sudo archivo SU Kibana. Y aquí aprenderé
sobre Kibana rodamina. Y en este archivo entregaré las credenciales para mi usuario del sistema
Kibana. Por lo que de esta manera usaremos
la autenticación de contraseña para que nuestro Kibana se comunique
con Elastic Search. Copia esto, y guarda este archivo. Y empecemos a Kibana. Hagamos un estatus en
este servicio es vector. Ahora lo que podemos hacer es
volver a nuestra instancia de
Elasticsearch,
amarilla dada, y vamos a
obtener el estado de este clúster para asegurarnos de que los
tres nodos se hayan conectado. Ilustrador. Entonces
iré a mis notas, copiaré el comando curl y agregaré el nombre de usuario y contraseña
para Elastic user a este comando menos
u elastic y luego proporcionaré la contraseña
para este espacio de usuario. Y golpearé Enter y
cambiaré el STDP a HTTPS. Y me imaginé este error cuando
intentas conectarte a través curl que hay un certificado autofirmado
y una cadena de certificados. Todo lo que tienes que hacer es que
tengas que decirle a curl que ignore un certificado autofirmado
irá justo en la parte superior derecha después de Carl y
menos k y pulsa Enter. Y aquí se puede ver que
nuestro clúster tiene tres nodos, se llama Demo ELK y el estado de este
clúster es verde. Esta es una respuesta positiva. Entonces lo que haremos es
copiar la dirección IP pública de nuestro Kibera en su lugar
y ver si pueden llegar a la
interfaz de usuario de Kibana usando esto sí ejerce uno y la interfaz de usuario de
Kibana está cargada. Entonces lo que haremos a continuación
es que intentaremos ver si podemos iniciar sesión
usando el usuario elástico. Copia la contraseña. Banda elástica proporcionó la contraseña
o lo que sea aquí. Ahora haga clic en Explorar por mi cuenta. Para que como se puede ver, yo no hice
la solución fue exitosa. Así es como se puede crear
un clúster ELK multimodo. Con esto, hemos llegado
al final de esta conferencia. Gracias por mirar. Te veré en la siguiente. Adiós.
29. nodos de elasticsearch: Hey chicos, en esta conferencia, echemos un vistazo a un clúster
de
Elasticsearch un poco más de detalle. Y el
clúster de Elasticsearch es un grupo de una o más instancias de nodo
que están conectadas juntas. Ahora, ¿qué es la
Búsqueda Elástica y carga? Un nodo de búsqueda elástica es un único servidor que
forma parte de un clúster. Y lo que eso significa es que todos estos nodos
dentro del archivo de configuración elástico o corto YAML
tendrán la misma
configuración de nombre de
punto de clúster. Por lo tanto, todos los nodos que tienen la misma configuración de nombre de
punto de clúster misma pueden formar un clúster. Un nodo almacena datos
y participa en las capacidades de indexación y
búsqueda de clústeres a medida que un nodo se
une u sale de un clúster, el clúster se
reorganiza automáticamente para distribuir
uniformemente los datos a través de todos los
nodos disponibles en ese clúster. Entonces en caso de pérdida de un nodo, no
pierdes
los datos y está disponible en todos
los demás nodos. Ahora, si estás ejecutando una sola instancia de
Elastic Search, este tipo de clúster
es totalmente funcional, pero en caso de perder tu nodo, perderás todos tus datos. Entonces si tienes requisitos de alta disponibilidad o tolerancia a fallas, estás mejor
con el clúster. Ahora, los nodos de un clúster de
Elasticsearch pueden tener múltiples roles. Esto lo especifica Node.js goal-setting en tu archivo YAML de
estrategia de búsqueda elástica. Ahora aquí en la pantalla, te
he dado un
breve resumen de todos los roles de nodo que están
disponibles en Elastic Search. Y ahora echemos un
vistazo a cada uno de ellos. En primer lugar, echemos un
vistazo a los nodos elegibles dominados son nodo maestro en un clúster de
Elasticsearch es responsable de acciones livianas en
todo el clúster como crear o
eliminar un índice, rastrear que los nodos forman
parte del clúster y deciden qué gráficos
asignar a qué nodos. Entonces, básicamente, qué
datos se almacenan en qué nodo es importante
que la salud
del clúster tenga un nodo
maestro estable porque el nodo muscular realiza todas las actividades de
gestión del clúster. Y si tu
nodo maestro es más estable, tu clúster no puede
averiguar qué está pasando. Ahora, hay dos tipos
de nodos maestros elegibles. Se puede tener un maestro
dedicado o un maestro único de votación ahora
son nodo maestro dedicado, como su nombre indica, es un nodo dedicado que actúa como un nodo maestro
para ese clúster. Ahora este tipo de configuración es beneficioso si tienes un clúster
muy grande y tus
tareas de gestión de clústeres son tanto que
necesitas proporcionar una norma muscular
dedicada para clústeres más pequeños, probablemente no necesites
un nodo maestro dedicado. Se especifica qué nodo es
un maestro dedicado al
proporcionar únicamente el valor maestro
en el valor de roles de punto de nodo. Este nodo no actuará
como ningún otro nodo. Ahora, un segundo tipo de carga principal elegible puede ser un nodo maestro de
votación solamente. Ahora, este tipo de nodo puede participar en una elección
maestra, pero nunca puede
ser un nodo maestro. Por lo que puede proporcionar que vale la pena cuando se está eligiendo a un maestro, pero nunca arrojará su
nombre para ser un nodo maestro. Ahora a continuación, echemos
un vistazo a las normas de datos. Datanodes sostienen las camisas que contiene los documentos
que has indexado. Por lo que contienen un pedazo de datos que has
almacenado en tu clúster. Datanodes manejaron
operaciones relacionadas con datos como operaciones de creación, lectura, actualización y
eliminación, tales operaciones de agregación. Estas operaciones
son de entrada-salida, CPU y memoria intensiva. Por lo que siempre es una buena idea
monitorear estos recursos
en estos nodos de datos. Y cuando se
sobrecargan para agregar más nodos de datos a tu
clúster para igualar la carga. Ahora, puedes tener
un DataNode de contenido que acomode contenido
creado por el usuario. Y pueden idempotentes
operaciones como grad o crear, leer, actualizar, y eliminar tales agregaciones
en su clúster. Ahora, los nodos de datos se pueden
configurar en varios niveles. Entonces echemos un
vistazo a cada uno de ellos. Ahora para darte un ejemplo, digamos que tus datos han
llegado recientemente a tu clúster. Digamos que tienes
algunos datos de CRM que se han metido en el clúster
y que acaba de llegar. Obviamente todos tus asociados de
ventas o cualquier otra persona que
necesite esos datos de CRM. Estaremos viendo estos
datos en cuanto llegue. Por lo que se espera una alta frecuencia de búsqueda de este tipo de datos. Lo guardarás
en el nivel caliente. Entonces estos son datos que acaban entrar y se están buscando
con frecuencia. Ahora a continuación, digamos que los datos se han
convertido probablemente con
tres meses de antigüedad, por lo que su lista de clientes
se ha vuelto un poco rancio. posible que tengas
que hacer algunas búsquedas en él como fue cuando los
datos apenas llegan, almacenarás este tipo
de datos en el nivel cálido. Después de eso, aquí
tienes igualdad. Esto es cuando los datos se hacen más viejos y
rara vez ha sido tal apoyo. Almacenarás este tipo
de datos en el nivel frío. Y por último, cuando los datos, por lo que todos los días sólo ad hoc una vez en un tipo de búsquedas de
luna azul, entonces es posible que desee almacenar este tipo de datos
en el nivel congelado. Una cosa de la nota del nivel
congelado es que
solo se pueden almacenar
índices parcialmente montados en el nivel congelado. Entonces básicamente lo que
sucede es que los datos en este nivel no se almacenan
en el caché local. Hay una geisha compartida
entre el clúster, y este tipo de datos se
almacena en ese caché compartido. Por lo que obviamente las
búsquedas se vuelven más lentas. Ahora la razón principal para
tener este tipo de arquitectura es para
que por ejemplo, para nodos importantes,
pueda proporcionar más recursos, más CPU, más memoria, etcétera Entonces, por ejemplo, un solo nodo, pero un nodo único tendrá
más recursos que un nodo frío y menos
recursos que un nodo cardíaco. Y de igual manera, según nodo seguirá teniendo un caché local, pero este es probablemente un
sistema más lento que un conocido. Por lo que de esta manera, puedes especificar recursos
más baratos a los
niveles a medida que envejece tus datos. Ahora, para especificar cada uno
de estos niveles de datos. Por ejemplo, para especificar un nodo
como que está en el nivel caliente, especificará bajo roles de punto
nada, el valor de los datos
subrayado Volumen. Y para su voluntario
y cortesano, especificará los datos subrayan los datos de la
mujer subrayan frío. Ahora a continuación echemos un
vistazo al nodo ingest. Y el nodo de ingest puede ejecutar tuberías de
preprocesamiento, que se componen de uno
o más procesadores de ingest. Después de eso, tenemos nodos
coordinadores. Ahora los nodos coordinadores se
comportan como balanceadores de carga inteligentes. Lo que hacen estos nodos
es digamos que tienes un clúster grande y tienes una gran cantidad de datos
entrando en tu clúster. Estos nodos pueden actuar como equilibrador de
carga y beneficiar
al clúster al descargar la
parte de coordinación de la tarea a algunos nodos específicos para que sus nodos de datos
no estén sobrecargados. Ahora, a continuación, tienes lóbulos elegibles
remotos. Lo que estos nodos pueden
hacer es por ejemplo, usted tiene clúster
uno y luego nuestro clúster
remoto
llamado agrupado a. Ahora puedes habilitar búsqueda
Cross cluster
entre estos dos clústeres. Y se puede definir un nodo
como una carga elegible remota. Por lo que las consultas
que golpean este nodo pueden realizar una búsqueda
en el clúster remoto. Por lo que de esta manera, se pueden combinar
los datos en dos clústeres, pero las búsquedas en un
clúster remoto serán más lentas. Ahora a continuación tienes nodos
de aprendizaje automático. Ahora estos nodos ejecutan trabajos y manejan solicitudes de
API de aprendizaje automático. Y puede especificar este nodo configurando regla de nodo como ML. Y por último, has
transformado nodos que transforma y manejan solicitudes de API de
transformación. Puedes configurar estos Bye configurando el
rol de punto de carga como transformada. Entonces estos son los tipos
de nodos que puedes configurar en tu clúster de
Elasticsearch. Con esto, hemos llegado
al final de esta conferencia. En esta conferencia, he tratado de
darte una visión general de los diferentes tipos de nodos en
un clúster de Elasticsearch. Dondequiera que vaya a hacer
es adjuntaré algunos enlaces en la
descripción de este video. Para que puedas estudiar un poco más sobre los diferentes tipos de nodos
en un clúster de Elasticsearch. Gracias por mirarte y
te veré en la siguiente. Adiós.
30. Elasticsearch 8x: Hey chicos, elastic.co, la empresa matriz
de Elastic Search, ha anunciado recientemente disponibilidad
general de Elasticsearch
versión ocho puntos x Esta versión tiene algunos cambios de
ruptura y la los pasos de instalación también
son un poco diferentes. Echemos un vistazo a estos ahora. Aquí en la pantalla,
tengo lo nuevo
en la página abierto desde la documentación de
Elasticsearch. En primer lugar, introduce varios cambios de ruptura en las API de resto de
Elastic Search. Pero lo que han
hecho es que permitió compatibilidad 7 X, lo que debería
darle tiempo suficiente, prepárese para una actualización. A continuación, las características de seguridad están habilitadas y configuradas
por defecto. Al instalar Elastic Search, ya debería crear algunos
certificados autofirmados e incluir algunos ajustes para seguridad en su archivo YAML del
trazo de Elasticsearch. Después de eso es la seguridad
en los índices del sistema. En la versión ocho punto 0, incluso el
superusuario elástico no tiene acceso nativo
a los índices del sistema. Para proporcionar acceso a los índices de
un sistema, es necesario
configurar,
permitir el subrayado, índices de subrayado
restringido permiso a true para un usuario en particular. Ahora, después de eso, hay
algunas mejoras en la búsqueda, almacenamiento, indexación y procesamiento del lenguaje
natural. A continuación, echemos un
vistazo a las notas de lanzamiento. Ahora en la página de notas de lanzamiento, verá algunos temas conocidos, lo cual es básicamente incierto. Las plataformas Linux, la contraseña de usuario
Elastic y el token de inscripción de archivador no
se generan automáticamente, pero te da una lista de comandos que puedes ejecutar para generarlos después de
la instalación. Entonces enumera todos los
cambios de ruptura en esta versión. Ahora si ya estás
apoyando un clúster de producción, te
recomendaré que
vayas y mires cada uno de estos cambios para asegurarte no
haya sorpresas
después de que se actualicen. Con esto, podemos
pasar a instalar Elasticsearch ocho
puntos 0 en nuestras VM. Ahora estoy dentro de mi
plataforma GCP e instancias de VM, tengo una máquina ELK donde
instalaremos Elasticsearch np.zeros. Copiaré la
dirección IP externa de esta máquina. Y luego en mi
Visual Studio Code, tengo algunos pasos
en el lado izquierdo y mi terminal en
el lado derecho. Entonces teclearé el espacio SSH, lo
laboratorio en, y luego la dirección IP
externa. Y haré clic en Entrar
aquí, escriba sí. Y una vez dentro
de la máquina voy a escribir en sudo apt-get update
para actualizar el sistema. Entonces voy a borrar de esto
y teclear en sudo apt-get install W llegar a instalar
duplicado en esta máquina. Una vez que hayamos cerrado y almacenado, podemos comenzar con la
instalación de ELK Stack. Entonces primero,
descargaré e instalaré
la clave pública de firma. Por lo que copiaré el
comando y
lo pegaré dentro de mi terminal
y presionaré Enter. Ahora lo que haré
es incluir todos estos comandos con la
descripción de este video. Para que ustedes también puedan tener acceso
a estos comandos. A continuación, instalaremos el paquete HTTPS
transporte sbt. Después de eso, borraré mi pantalla y a continuación guardaremos la definición del
directorio. Una cosa importante a
tener en cuenta es que cuando dice ocho puntos x por 7.6
paquetes en este lugar, dirá siete punto x No
hay nada
importante en la URL. Apenas un pequeño cambio
de siete a ocho y pegarlo aquí. Y esto debería descargar
las definiciones del
repositorio Elastic Search Adx en esta máquina. Ahora a continuación, estoy listo para instalar mi ELK Stack
en esta máquina. Entonces copiaré este comando y lo
pegaré aquí,
y presionaré Enter. Ahora, durante la instalación, verá alguna ventana emergente de
información bajo información de
configuración automática de seguridad. Bajo este rubro, verá la contraseña
elástica de superusuario incorporada. Entonces bajo esta línea que
generó la contraseña para el superusuario incorporado
elástico es esta. Es necesario guardar esta contraseña porque lo
usaremos más adelante. Bajaré en mis notas. Yo lo guardaré aquí. Ahora después de que todo
esté instalado, me despejaré de mi pantalla. Ahora desde aquí primero
configuraremos nuestra Búsqueda Elástica. Así pseudo vía slash ATC, slash Elasticsearch,
elasticsearch start ML. Ahora en este archivo, primero
cambiaremos el nombre del clúster. Lo llamaré demo ALK. Entonces cambiaré
el nombre del nodo, que llamaré ELK one. A continuación bajaré a host de punto de
red y cambiaré el valor del
valor predeterminado a 0 punto 0000. Después de eso,
descomento el puerto, pero lo dejaré como
predeterminado de 90 a 100. Dado que se trata de un clúster de un
solo nodo, no necesitamos
hacer nada bajo descubrimiento hasta el puerto
http dot. La configuración fue
similar a lo que teníamos que hacer para 7 x desde un
vértice en adelante, comenzarás a ver una
sección llamada Pickin security auto configuration en el archivo corto YAML de
Elasticsearch. Esto se debe a
que como te dije antes, Elasticsearch ahora por defecto incluye algunas opciones de seguridad. Si puedes ver aquí, espera que seguridad esté habilitada por defecto. La inscripción de seguridad
también está habilitada por defecto. Se ha creado una ruta
KeyStore para comunicación
HTTP y afirma y el archivo es http dot p12. También ha creado autenticación
mutua,
piedra angular y terrestre. Ahora dejamos todos los
ajustes por defecto, y lo guardaremos. Ahora aquí, si entro. Mi directorio Elasticsearch. Entonces sudo SU, y si
hago un LS aquí, verá que hay un
directorio llamado certs. Y si entro en búsqueda
y haciendo una lista, verá la C aseverar, que es STDP
subrayado CA dot CRD, ese certificado de transporte bajo punto de
transporte p12 y el certificado HTTPS
bajo http dot py 12. Ahora podemos iniciar el sistema de servicio
Elasticsearch, CTL, iniciar Elastic Search. Ahora una vez que el servicio
ha comenzado, si trato de hacer un rizo, igual que solía
hacer para el sistema 7 x. Así curl menos x
GET http localhost o 9200 clúster de
subrayado
y se mantuvo bastante. Y si hago un enter aquí, obtendré un error porque un
clúster está en realidad en HTTPS. Entonces necesitaré primero
cambiar de HTTP a HTTPS. Pero incluso cuando ejecuto esto,
debería recibir un error. Dice problema de certificado SSL, certificados
autofirmados
y certificado chin. Para superar esto, golpearé la flecha hacia arriba y
justo antes de que x get, teclearé en menos
k y golpearé Enter. Y esta vez tengo las
credenciales de autenticación que faltan. Ahora, aún no hemos configurado las
contraseñas de usuario de construcción en esta máquina, pero por defecto, Elastic ha configurado la contraseña del
usuario elástico para nosotros. Por lo que copiaré esta contraseña
y golpearé la flecha hacia arriba. Y después de la opción menos p, que era ignorar la celda enviar certificados
cada tipo en menos u espacio elástico
y luego dos puntos, y luego voy a proporcionar la
contraseña poner Elastic user. Y ahora si pego Enter, debería conseguir el
racimo de salud. Para que como se puede ver, el
estado de cluster es verde. Con los
certificados autofirmados, debe usar la opción menos
K por defecto. Ahora tienes que
usar Elastic user, obtener el estado del clúster
por primera vez. Una vez que hayas hecho eso,
despejemos de la pantalla. Ahora antes de configurar Kibana, tenemos que configurar
la contraseña para usuario del sistema de subrayado
Kibana. Entonces primero voy a entrar en usr, compartir Elastic Search sido, y hago un LS desde este bin, usaré la utilidad de contraseñas de
configuración de Elastic Search. A partir de aquí, utilizaré la utilidad Elastic Search
reset password. Por lo que escribiré en dot slash Elastic Search reset password. Y teclearé en grupo
menos u le diré al sistema qué restablecimiento de contraseña. Y voy a teclear sistema de subrayado
Kibana y golpear Enter y nunca
teclear cerca aquí. Y tengo la contraseña para mi usuario de
sistema de subrayado Kibana. Se va a copiar esto y yo
pegaré esto aquí también. Ahora una vez que he hecho eso, ahora
puedo configurar Kibana. Así pseudo VA ATC Kibana,
Kibana dot YAML. Y de nuevo, voy a
descomentar puerto de punto plata, descomentar varios host de puntos y cambiar de
host local o ceros 000. Y siguiente uncomment sidebar
dot base pública URL. Y aquí teclearé http, y ahora necesitamos la dirección IP interna
de nuestra instancia de Kibana. Copiaré la IP interna pegada aquí y
proporcionaré el puerto. Entonces podemos configurar
el self.name. Y aquí escribiré
demo, banner polvoriento. A continuación bajaremos al
sistema Elastic Search. Y debajo de ahí voy a proporcionar el valor para Elastic
Search nombre de usuario. Manténgase en él
sistema de subrayado por defecto. Y luego tendremos que
proporcionar la contraseña, que acabamos de generar. Copia esto aquí y pegarlo. Y ahora si baja
bajo System elastic, tal opcional porque estamos usando
certificados autofirmados para esta demo, descomento Elastic Search
dot modo de verificación SSL
y cambiaré el valor
de lleno a ninguno. Esto ignorará cualquier advertencia de certificados autofirmados. Ahora otra cosa
a tener en cuenta es que partir de la versión ocho
punto X en adelante, Kibana por defecto registra
Es registros en un archivo. En algunas versiones anteriores, los registros para Kibana por defecto, pero solo están disponibles
en salida estándar. Por lo que este también es un buen cambio. Ahora guardemos este archivo
y empecemos Kibana. Entonces sudo sistema
CTL, arranca Kibana. Ahora consigamos este estatus. Es activo y en funcionamiento. Volvamos a nuestra instancia, copie la dirección IP pública, péguela en un navegador, y luego proporcionemos el puerto 5601. Ahora estoy recibiendo un
servidor Kibana no está listo error. Entonces volveré
a mi despliegue. Y aquí volveré a abrir
mi archivo YAML, y buscaré errores. Ahora dentro de mi archivo
gibbon o DML, olvidé poner
en el valor de host para la búsqueda elástica para la
versión punto ocho. Lo que tienes que hacer es
que tengas que entrar aquí y cambiar
de HTTP a HTTPS. Ahora volveré a guardar este archivo, y reiniciemos Kibana. Ahora una vez que el servicio se
haya reiniciado, revisemos el estado
activo y en ejecución. Tenemos el mensaje diciendo servidor
HTTP ejecutando anuncios
ceros, ceros 005601. Ahora volvamos al
navegador. Déjame refrescarlo. Ahora. Tenemos la página de inicio de
sesión de Kibana. Por lo que teclearé
elástico aquí y
copiaré la contraseña
para mi superusuario elástico, regresaré y pondré la
contraseña y pulsaré Login. Haga clic nunca, y estamos en. Así es como se puede instalar Elasticsearch
versión ocho punto 0. Los pasos son un
poco diferentes de Elasticsearch versión 7 x, pero no son tan diferentes. La mayoría de los ajustes están
diciendo, si tienes cuidado, estoy bastante seguro de que
serás capaz de confiar menos configurar tus propios
clústeres en esto, hemos llegado al
final de esta conferencia. Te veré en
la siguiente. Adiós.
31. Instalación de agentes eléctricos y análisis de los registros de apache: Hey chicos, hay
dos formas de enviar datos desde sus servidores
a la búsqueda elástica. En primer lugar, puede usar beats, que son
remitentes de datos ligeros que envían datos a un
clúster de Elasticsearch para cada caso de uso, hay una puja específica. Por ejemplo, para los datos de matriz, se utiliza la puja métrica para datos de archivos como archivos de registro,
se utiliza FileReader. Ahora esto hace que sea un
poco engorroso de
administrar porque
dependiendo de tu caso de uso, es posible que
necesites instalar
varios bits en la misma VM. Ahora el segundo método
es agente elástico. Elastic agent es un agente
único para registros, métricas, datos de seguridad y prevención de
amenazas. Debido a que se trata de un solo agente, es más fácil y rápido
implementar monitoreo en todo
su entorno. Elastic agent hace uso de
integraciones y Kibana, que proporcionan una forma
fácil de conectar Elastic Search a
sistemas y servicios externos. Por ejemplo, si necesita
recopilar registros del servidor web
Apache, utiliza la
integración de Apache para instruir
al agente elástico que
recopile esos datos de
un servidor Apache. Estas integraciones se
gestionan a través de Kibana UI. Ahora, toda comunicación entre los agentes elásticos y Elastic Search ocurre
a través del servidor de flota. Ahora este servidor de flota
es un componente que se utiliza para
administrar de forma centralizada todos los agentes elásticos. Así es como funciona. Si crea una
política en Kibana, cada vez que se crea esta política, se guarda en Elastic Search. Elastic agent generará una clave de
autenticación
o clave de inscripción, que utilizará para autenticarse contra
el servidor de frutas. Una vez que haga
eso, pedirá una política al
servidor de inundaciones. Ahora este servidor volteado
obtendrá esta política de Elastic Search y luego la proporcionará
al agente elástico. Así es como funciona cuando un nuevo agente políticas
creadas en Kibana, se guarda en Elasticsearch. Para inscribirse en la política, agentes
elásticos envían una
solicitud al servidor de flota utilizando la clave de inscripción
generada para la autenticación. servidor fluido
recibe entonces esta solicitud y obtiene la política
de agente de la búsqueda elástica. Y luego cambia esta política a todos los agentes inscritos
en esa política. Elastic Agent entonces utiliza
la información de configuración almacenada dentro de esta política para recopilar y enviar datos a Elastic Search. Ahora, toma un ejemplo. Digamos que tienes Apache
instalado en este agente y MySQL instalado en
este agente aquí en Kibana, asignarás una
política de Apache. Este agente se inscribirá en esa política con el servidor de destello solar de la
flota enviará entonces esta política
a este agente el cual
le dirá que recopile los registros del servidor
Apache. Una vez que tenga la política, puede enviar esos registros y
otros datos a Elasticsearch. Ahora bien, este agente que
tiene MySQL en él, no
estará inscrito
en política de deuda. Asignarás alguna otra
política a este agente. De esta manera, puedes tener
diferentes servidores enviando diferentes capas de datos
Elasticsearch Cluster. A continuación, hay dos métodos
para desplegar agentes elásticos. En primer lugar, puedes
gestionarlos por una flota. Esto permite que las políticas de los agentes y los ciclos de vida se gestionen de
manera centralizada. En Kibana, hay
otra opción de edades elásticas autogestionadas, que es un caso de
uso avanzado donde hay
que administrar manualmente cada agente. Para esta conferencia,
utilizaremos agentes de gestión de flotas. Ahora aquí están los pasos
de configuración. Primero, configuras
elasticsearch short YAML, luego instalas un servidor de frutas. Después de eso, se instala
un agente elástico. Una vez que haya instalado el
agente en los servidores, entonces configura
una política de agente. Y por último, se valida
que los datos se han enviado correctamente mirando
paneles y otras métricas. Así que empecemos. Ahora aquí en la pantalla, tengo mi servidor elástico de
nodo único. Entonces primero tendré que
crear un servidor frito. Por lo que haré clic en
Crear Instancia, luego haré clic en Nueva instancia
y VM de plantilla elegir ELK,
y luego continuar. Cambiaré el
nombre a flip server cambiará la región
a US West One, y luego bajaré
bajo redes. Me aseguraré de que estoy dentro la subred de búsqueda elástica VPC
y monitoreo, y luego haga clic en Crear. Ahora mientras estas frutas
o se están creando, volveremos a hacer clic en Crear Instancia para crear nuestro servidor web. Por lo que haré clic en nueva
instancia de VM de plantilla, elegiré los observadores
y presionaré Continuar. Aquí, cambiaré la
región a EU West One. Puedes mantener el nombre tal cual, y yo bajaré a networking. Y el networking,
cambiaré la interfaz de red de monitoreo a subred del servidor web. Entonces hago click en crear. Ahora una vez que tengamos listas las tres máquinas
virtuales, podemos empezar con
la instalación. Ahora pasaré a mi Código de
Visual Studio. Ahora dentro de mi
Visual Studio Code, tengo mis notas para
instalar el agente elástico en servidor
flood y en el
servidor web en el lado izquierdo. Y tengo mi terminal en las tres máquinas
del lado derecho. Entonces la terminal uno se da EL, terminal dos es servidor web y terminal tres es
mi servidor de frutas. Así que empecemos ahora primero, tenemos que ir al servidor ELK. Entonces pasaré a la terminal uno. Y en el servidor ELK, tenemos que añadir
estos dos ajustes a nuestra Elasticsearch golpeó archivos de configuración
YAML
varios escribiendo sudo VI slash,
ETC, slash Elastic Search slash Elastic Busca dot
YAML y pulsa Enter. Ahora dentro de este archivo, verá que el
primer ajuste de espera o punto de seguridad habilitado es verdadero. Entraré en modo de inserción. Y aquí, justo debajo del punto de
seguridad esperado habilitado, pegaré la configuración de punto de seguridad
esperada, clave API
dot habilitada como true. Por lo que copiará esto
y lo pegará aquí. Y una vez que haya hecho eso,
puedo guardar este archivo. Entonces escapa y
escribiré a este archivo, y ahora puedo iniciar
mi Búsqueda Elástica. Así pseudo sistema CTL,
reiniciar Elastic Search. Ahora una vez que el servicio se
haya reiniciado, Empecemos como un servicio. Entonces pseudo sistema, CTL,
status, Elastic Search, asegúrese de que el servicio
esté activo y en ejecución. Y ahora pasemos
a nuestro servidor de campo, que está en la terminal tres. Voy a pasar a un
servidor fluido en esta máquina primero tenemos que descargar
el agente elástico. Entonces copiaré el comando
curl y lo
pegaré en la terminal
para descargar el agente elástico. Ahora una vez que la
aplicación del agente elástico haya descargado, necesitamos extraer el archivo tar, copiar este comando star
menos Z F, y pegarlo en el
terminal y presionar Enter. Ahora a continuación, pasaremos
a la página web de Kibana. Así que tengo la página web de
Kibana
aquí arriba desde el menú de
navegación de la izquierda. Bajaré bajo gestión. Voy a hacer clic en flota, y luego iré a Ajustes. Ahora aquí haré click en Acciones y las salidas
dejarán el nombre como predeterminado y el tipo sería búsqueda
elástica porque
queremos enviar salida de servidores fluidos a
Elastic Search y al host, Cambiaré de HTTP a HTTPS. Y luego reemplazaré
el valor
del host local la dirección IP privada
de mi instancia ELK. Entonces lo copiaré desde aquí
y lo reemplazaré. Ahora a continuación, tenemos que volver
a nuestro Visual Studio Code, y luego tenemos que
ir a Elastic Search. Y en la instancia de
Elasticsearch, necesito hacer sudo SU
primero y luego CD EDC, Elastic Search y luego buscar. Ahora si hago un ls
en este directorio, verá
que tiene mi CSRP. Entonces vamos a conseguir este certificado. Así que consigue un subrayado DB
CA dot CRT. Ahora una vez que tengas la salida del comando cat
para certificado CA, lo que tenemos que hacer
es que necesitamos actualizar el certificado de CA bajo la configuración
avanzada de YAML. Por lo que de esta manera, le estamos diciendo
al sistema que utilizamos este certificado de CA
para establecer la confianza entre nuestro servidor fluido y
ellos Elasticsearch servidor. Puedes hacerlo de dos maneras. Puedes usar la huella digital de confianza de
CA o puedes pegar el
certificado de CA para esta demo, pegaremos el certificado de
CA. Ahora, la forma en que lo
haces es usar una configuración llamada autoridades de
certificados SSL, y luego pegas el ESC un certificado y
me dejas simplemente expandirlo. Entonces este es un ejemplo
de la pantalla. Por lo que bajo
autoridades de certificado SSL, copia este certificado
para su máquina, que sería diferente
a lo que muestra en la mía. Así que vamos a copiar
todo eso y voy a reemplazar éste y lo
pegaré aquí. Ahora es posible que necesites actualizar un poco
el formato. Ahora, simplemente copiemos
todo este comando y pasemos a nuestra
configuración avanzada de YAML en mi página de Kibana y peguemos
esto aquí así. Ahora una vez que hayas hecho eso, podemos guardar esto, guardar y aplicar ajustes
y siete, desplegar. Ahora después de eso,
tenemos que ir a los agentes. Ahora en la página del agente, dirá
que se
requiere voltear antes de que podamos
empezar a inscribir agentes. Entonces vamos a hacer eso ahora. Ahora bajo el servidor Adafruit
dejará la
política de agente como predeterminada. Ya hemos descargado
el servidor fluido en nuestra flota Server VM, por lo que podemos omitir eso. Debajo de elegir un modo de implementación, usaremos QuickStart
para esta demo. Lo que esto hace es que
permite al servidor fluido generar
certificados autofirmados para su sistema de producción, necesitará elegir
producción y proporcionar su propio certificado en su
fluido configuración del servidor. Ahora a continuación, bajo el paso cuatro, necesitaremos proporcionar la
URL de nuestro host de servidor fluido. Entonces HTTPS, ahora tenemos que ir a instancias de
VM y copiar la dirección IP
interna de nuestro servidor de frutas y pegarlo aquí y aliviar el puerto como predeterminado Etudes 0 para esta
demo y hacer clic en Agregar host. Ahora una vez que hayas agregado el host, necesitamos hacer click en
Generar token de servicio. Ahora, después de eso, bajo el paso seis, nos da la orden de
iniciar nuestros volteos de nuevo. Copiará este comando y moverá de nuevo a nuestro Código de
Visual Studio. Y estoy en las
flotas, nuestra terminal. Pero antes de que podamos
pegar este comando, necesitamos hacer algunos cambios. Ahora aquí tengo el
comando de muestra que funcionará. Entonces pegaré el
comando que
copiamos de la instancia de Kibana. A partir de este comando,
tomaremos el servidor de inundación ES URL y cambiaré los volteos sobre el
valor ES para esto. Ahora, para URL, necesitamos
proporcionar la
dirección IP privada de nuestro servidor de flota. Entonces iré a instancias de VM, copiaré esta dirección IP privada
del servidor fluido, regresaré, y luego cambiaremos el valor del servidor de
inundación IP privado a la dirección IP real
del servidor de inundación. A continuación, necesitamos suministrar el token de servicio que
acabamos de generar. Copiará todo esto y
cambiará el
token de servicio de valor con el nuevo valor
de la flota Política de servidor, no para su sistema. Esto podría ser diferente, y después de eso, necesitamos
sumar dos valores más. Servidor de flota ES inseguro
este comando es necesario porque nuestro servidor Elasticsearch está utilizando
certificados autofirmados. Y también lo último
inseguro es porque nuestro servidor volteado
también está usando
certificados autofirmados. Ahora en su
despliegue de producción, debido a que no estará utilizando certificados
autofirmados, no
necesita estos dos
últimos comandos. Ahora en el otro lado, nuestra terminal, déjame
simplemente expandirlo un poco. Si hago un ls,
verá que
hay un directorio para agente
elástico. Voy a cd en este directorio. Ahora aquí escribiré sudo dot slash elastic Agent
install y menos F, y luego usaré
el carácter de escape. Ahora primero suministraremos la
URL de nuestro servidor fluido. Entonces lo copiaré de las notas, lo pegaré aquí, y pulsaré Enter. A continuación, suministraré el servidor de
flota ES URL. Entonces la URL para mi servidor Elasticsearch se
conecte e ingresó. A continuación, suministraré
el token de servicio, copiaré eso, pegarlo
aquí, e ingresó. Después de eso, suministraremos la política bajo la cual vamos a
inscribir este servidor fluido, que es la
política predeterminada y entró. A continuación suministraremos el comando inseguro
ES, que es
certificados autofirmados en Elastic Search nuevamente. Y por último, suministraremos
el comando inseguro, que es
certificados autofirmados en servidor de flota. Ahora voy a golpear Enter
y esto debería iniciar el despliegue de nuestro
agente elástico en mi servidor fluido. El primer registro te dice que está generando
certificados autofirmados para el servidor fluido. A continuación, intenta iniciar
el servidor fluido. Entonces se puede ver que la verificación SSL, TLS fue desactivada porque estamos usando el modo
inseguro. Y por último, tienes que el agente elástico está inscrito
con éxito. Entonces ahora lo que podemos hacer es que podamos mover
hacia atrás la página de Kibana, y deberías poder
ver que el servidor de inundaciones estaba conectado y
voy a golpear en Continuar. Ahora, si eres
un servidor fluido se
conectó con éxito y se
configura correctamente, debes ver el
estado como saludable. Y al hacer clic en él, podrás
ver algunos detalles. Y a continuación tenemos que
comprobar si es capaz enviar registros a Elastic
Search, que puede. Ahora, si te encuentras algún problema cuando estás
desplegando este servidor de flota, lo que puedes hacer es
si vuelvo a mi Visual Studio Code y
borro de todo, puedes teclear sudo system CTL, agente elástico de datos, mira los registros y
deberías poder
ver los registros aquí. Ahora, aparte de esto, si has desplegado el
fluido Server Agent, pero por alguna razón
no se está conectando y
necesitas desinstalarlo. Si lo haces entrando en bin de
usuario y luego agente elástico. Y aquí, si hago un menos h, necesito agregar pseudo. Deberías poder ver los diversos comandos disponibles con el script elastic agents. Hay un comando de Android
si quieres inscribir agentes en esta flota
que está instalado comando, que acabamos de utilizar para
instalar el fluido Server Agent. Puedes reiniciar el demonio, puedes ejecutar el demonio, puedes dar estatus al demonio, y puedes desinstalar
este agente elástico. Por lo que podría haber algunos
escenarios en los que necesite desinstalar,
volver a instalar el demonio. Así es como puedes hacerlo. Básicamente, solo tienes que ir al usuario
bin elastic agent y escribe desinstalando
salir de ella ahora y borrar
fuera de la pantalla. Ahora por el agente clásico está instalado y saludable, lo que podemos hacer es que podamos ir a instalar el
agente elástico en nuestro servidor web. Entonces para hacer eso, vamos a nuestra terminal a en
el servidor web. Ahora en servidor web primero
tenemos que descargar agente elástico. Entonces copiaré todo esto
de nuestras notas y pegaré el comando en la
terminal y pulsaré enter. Ahora una vez
descargado el archivo, podemos extraer esta estrella de
puntos menos agente plástico
Z F y golpear enter. Ahora, una vez que hayas hecho eso, volvamos a nuestra
página de Kibana y luego vayamos a la flota. Ahora aquí, hay
un botón de agregar agente. Si hago clic en Agregar agente
dejará la política de agente predeterminada. Ahora ya hemos descargado
el agente elástico. A continuación, nos da un mando. Así que copiemos esto y
volvamos a nuestra terminal. Voy a pegar este comando, pero no lo ejecutaré. Pero necesito hacer es que
necesito anexar menos,
menos inseguro para este comando porque estamos usando certificados
autofirmados. Nuevamente, para su despliegue de
producción, no
necesitará agregar esto. Ahora si pego Enter,
ahora olvidé entrar primero en el directorio de agentes
elásticos y hacer un ls. Y a partir de aquí, necesitamos
ejecutar este script. Golpearé la
flecha hacia arriba hasta que consiga el comando y ahora lo
ejecutaré y escribiré. Sí, y tengo agente
elástico se ha instalado
con éxito. Por lo que volveré a mi Kibana y cerraré en el agente se
instaló correctamente. Debería poder
verlo en esta página. Por lo que ahora se puede ver, puedo ver el servidor web. Por lo que de nuevo, haremos
clic en este servidor web. Nos aseguraremos de que
tengamos registros que fluyen desde el servidor web
también, que tenemos. Ahora antes de dejarte ir, quiero mostrarte
una cosa más. Ahora, agente elástico hace
uso de integraciones. Ahora porque nuestro servidor web
es un servidor web Apache, podemos mejorar el monitoreo
para el servidor Apache. Lo que haremos es
volver a la flota. Y entonces lo que vamos a hacer es
que necesitamos agregar una política de agente. Por lo que iremos a crear política de agente, guardaremos esta política de
nombre de directiva del servidor web. Ahora agregaremos alguna descripción. Esta política se utiliza para recopilar métricas y registros de
Apache. Dejaremos todo
como predeterminado y haré clic en la política de Crear agente. Ahora se crea esta política. Lo que tenemos que hacer
es que necesitamos sumar algunas integraciones
a esta política. Daré clic en el menú de navegación de la
izquierda, y eso bajará
a integraciones. Por lo que bajo
integraciones de gestión, aquí podemos ver las diversas integraciones
que están disponibles. Por ahora. Nos
interesa Apache, servidor HTTP
Apache, por lo que
voy a hacer click en eso. Ahora esta página
te da una visión general de la Integración de
Servidor HTTP de Apache. Lo que haremos es hacer clic
en Agregar servidor HTTP Apache. Ahora desde configurar el discurso de
Integración, podemos darle un nombre, por lo que lo dejaremos como
predeterminado Apache one. A continuación, mantendremos
encendidos los registros
de recolección de la instancia de Apache. No quiero encender la característica
experimental y dejaremos encendidas las métricas de
cobranza de Apache y sensores también. Ahora a continuación, necesitamos precisar una política donde aplicar
esta integración. Por lo que haremos clic en el
desplegable y luego elegiremos la política del servidor web
que acabamos de crear. Después haremos clic en
Guardar y Continuar. Y ahora el mensaje dice para
completar esta integración, agregue agente elástico a su
host para recopilar datos. Y acabaré de hacer clic en
Agregar agente elástico más tarde. Ahora lo que tenemos que
hacer es que tengamos que
volver a nuestra flota, flota. Tenemos que ir
al servidor web uno. Por lo que voy a hacer clic en eso. Y debajo de aquí, lo que
voy a hacer es hacer clic en Acciones y haré clic en
asignado a una nueva política. Entonces elegiré la política del servidor
web, y luego haré clic
en Asignar política. Ahora antes de hacer
eso, dice la política de
agente seleccionado, pero recopila datos de
dos integraciones, sistema, que es por defecto y la Integración de
Servidor HTTP Apache que acabamos configurado. Por lo que haré clic en Asignar política. Ahora una vez que hemos hecho eso, click en esto y dice los insumos para esta integración, nuestros logs y métricas de
nuestra instancia de Apache. Y la
integración del sistema recopilará registros cuando los registros y
métricas de nuestro sistema operativo. Ahora a continuación vamos al menú de navegación de la
izquierda, y luego vamos a los dashboards. Ahora aquí
verás que hay algunos más dashboards
disponibles para ti. Lo que haremos es
que escribiremos
ahora Apache para comprobar si estamos
obteniendo registros de Apache, podemos hacer click en Registros de acceso
y errores. Y desde el
desplegable izquierdo bajo nombre de host, seleccionaremos nuestro servidor web. Ahora, si tu integración
está configurada correctamente, deberías empezar a ver
algunos datos como aquí. Estoy viendo todas las puntuaciones de
respuesta. Ahora. A continuación, revisemos
otro tablero. Por lo que voy a ir al tablero
y haga clic en Apache, escriba de nuevo Apache. Y esta vez haré
clic en métricas, resumen de
Apache para
ver si estás obteniendo datos de
métricas de nuestro servidor
Apache o no. Ahora aquí, bajo
peticiones por segundo, se
puede ver que hay
algunos datos que fluyen a través. Así es como puedes instalar
un servidor de flota y luego inscribir tus servidores web o cualquier otro servidor de aplicaciones
en tu flota. Y luego puedes usar
integraciones para recopilar algunos datos significativos de tus aplicaciones
o servidores web. Con esto, hemos llegado
al final de esta conferencia. Gracias por mirar. Te veré en
la siguiente. Adiós.