Transcripciones
1. Promoción de CMC: Hola. Bienvenido a este contenedor masterclass. ¿ Buscas un nuevo o mejor trabajo en desarrolla? ¿ Te interesa hacer una carrera a largo plazo como Dobbs en Jinya? ¿ Crees que los contenedores, docker y comunidades son las mejores habilidades para recoger? Bueno, debemos decir que tu elección es genial. Los contenedores son uno de los avances más cambiantes de juego en tecnología. Industrias en todo el mundo están haciendo que su proceso de desarrollo y despliegue de aplicaciones sea más rápido , barato y más confiable. Al mismo tiempo, incluso las pequeñas startups no dudan en habilidad, ya que el riesgo financiero y los recursos han bajado significativamente. Con una aceptación tan a gran escala en todo el mundo, contenedores se han convertido genuinamente en un movimiento. Como podría haber adivinado. Esto también ha dado como resultado un aumento significativo de las demandas y oportunidades para profesionales y expertos certificados con habilidades de contenerización como docker y kubernetes. Es por eso que si miras las tendencias de Google, puedes decir fácilmente que estas tecnologías no están mostrando signos de detenerse. Entonces si quieres aprender contenedores desde lo básico y llevar tus habilidades a un
nivel profesional , estás en el lugar correcto en las manos correctas. Somos un grupo off experiencia ingeniosos educadores y expertos certificados en docker y comunidades, y ayudamos a elaborarlo discurso para asegurarnos de que con apenas conocimientos básicos fuera de los límites, puedas aprender con orgullo y tranquilidad todo el contenido. Hablando de contenido fuera del curso, Docker es la plataforma de contención más popular y Kubernetes es el
orquestador más popular , por lo que sólo tiene sentido que una masterclass cubra ambos. Totalmente partiendo de configuraciones y archivos Dr, este curso cubre todo, incluyendo imágenes docker, contenedores, redes, almacenamiento, docker compose y docker enjambre. Una vez que has solidificado tus conceptos de contenedores, aprendes sobre la orquestación de power off con kubernetes sin apresurarte en absoluto. Aprendes comunidades, arquitectura, cargas de trabajo, servicios, volúmenes en mucho fuera de tareas de orquestación con ejemplos interesantes. Sentirás el sentido de logro cuando traerás a tus servidores Web un
bloque de WordPress . Tu juego favorito es incluso un apache zookeeper cluster contenedores diminutos. Te sentirás conectado a la industria con realmente casos prácticos fuera de empresas populares y productos que usaban contenedores en los últimos tiempos cuando todo se va a la nube, cómo realmente puede contenernos detrás de ti aprenderás a tomar tus conocimientos en hospedado comunidades en plataformas de nube pública como Google Cloud y Microsoft Azure. Eso no son todos los bienes y los cuestionarios se asegurarán de que no hagas prado,
sintaxis y semántica. Trucos harán que una división de mando sea divertida y más rápida. Los lineamientos de certificación te ayudarán a elegir los exámenes adecuados y disuadir las
direcciones de práctica minada . También reconocimos que los contenedores son una tecnología en crecimiento, por lo que tanto más oscuros como las comunidades seguramente ayudarán a las actualizaciones de características y nuevos temas que aprender. Mantendremos este curso actualizado para asegurarnos de que también crezcas con contenedores. Entonces, ¿a qué esperas? Empecemos o viaje maravilloso con contener una masterclass.
2. Esquema de el curso: Hablemos del contorno fuera del curso. Empezaremos con una sección introductoria donde cubriremos conceptos básicos fuera de aplicaciones, contenedores y docker. Después echaremos un vistazo más profundo a la arquitectura fuera de Dhaka y aprenderemos a escribir
archivos DACA . Al finalizar la sesión, recibirás tu primer trampas T fuera de este curso. Entonces entenderemos y trabajaremos con imágenes Docker y contenedores usando la
línea de comandos docker después de entender el modelo de redes de contenedores y cómo se comunican los contenedores en diferentes situaciones, quien implementará diferente médico redes y jugar a su alrededor. Después echaremos un vistazo a diferentes objetos de almacenamiento fuera de Docker y crearemos algo
utilizándolos , que será a la vez informativo y divertido. Una vez que estemos familiarizados con la mayoría de los objetos del doctor, los
llevaremos al siguiente paso donde podremos crear múltiples recursos a partir de un solo archivo usando docker componer. Entonces entenderemos qué significa orquestación y haremos alguna orquestación básica. Con los médicos cálidos, haremos una comparación cercana entre los médicos cálidos y los kubernetes, y cuando seas lo suficientemente capaz de hacer tu elección entre ambos, los orquestadores se trasladarán a la arquitectura de las comunidades y entenderán cómo funciona. Después echaremos un vistazo a las partes y otras cargas de trabajo fuera de las comunidades y realizaremos mucho fuera la orquestación para diferentes aplicaciones. También echaremos un vistazo a uno de los estudios de casos más significativos de Kubernetes. Veremos cómo configurar una noticia, comunidades
alojadas en la nube con demos y caso práctico realmente único, y finalmente concluiremos el curso con perspicacia sobre los exámenes de certificación. Qué significan estos aprendizajes para ti y qué tipo de prospectos profesionales estarían potencialmente abiertos para ti. Pero ese no será el final. Habrá muchas actualizaciones y bonificaciones que subirán regularmente. Ah, y por cierto, puedes encontrar todos los cables como archivo Yamil y Dr Files en la sección Resource Is de esta conferencia. Con eso en mente, empecemos a aprender.
3. ¿Cómo hacer una aplicación web?: antes de empezar a entender y trabajar con contenedores en general, es útil echar un vistazo rápido a cómo hacemos que las aplicaciones Web se desaprovechen algo? Podrías incluso preguntar qué hay sobre mi aplicación, ya que el término es bastante utilizado, pero está bastante explorado superficialmente. Basta con echar un vistazo a algunos de estos ejemplos. Herramientas de productividad como G suit, gigantes de redes
sociales como Facebook, aplicaciones de
video chat como plataformas de entretenimiento de Skype como
servicios de pago de Netflix como PayPal o incluso la plataforma de aprendizaje Como tú. Demi en sí son todas las aplicaciones Web de una forma u otra, lo que significa que estás usando la interfaz de aplicaciones Web en este mismo momento si tenemos que
definirlo . Ah, Aplicación
Web o basada en Web es cualquier programa al que se accede o una conexión de red usando Http en lugar de existir dentro de una memoria de dispositivos. Fuera de curso. La definición es flexible, y puede optar por utilizar un protocolo u otro. Pero en una perspectiva más amplia, todo se
trata de no usar tu dispositivo como PC tablet o móvil con fines informáticos. En cambio, dejamos que esos poderoso servicio costoso y confiable hagan el levantamiento pesado, y sólo accedemos al resultado fuera se solicitan datos de alguna interfaz Web Al igual que http, esto tiene tantas ventajas con solo gon ser pasado por alto. En primer lugar, todo el rendimiento de las aplicaciones no será determinado ni limitado por el hardware en el
que se ejecutan. También significa que casi podemos despedirnos de esas largas listas de requisitos de hardware que solíamos comprobar antes de probar cualquier nuevo software. Los requisitos siguen ahí, pero son bastante estándar, tal vez también mejoran la velocidad. Ahora se podría pensar que la velocidad es sólo otro perímetro de rendimiento. Pero aquí la velocidad puede referirse al rendimiento no Laghi, actualizaciones
más rápidas y crecimiento general más rápido fuera de la organización. En general, la velocidad también es representativa fuera del ciclo de desarrollo del producto más corto. Ya que la implementación de las actualizaciones será más rápida y las retroalimentaciones de los usuarios se pueden tomar y abordar rápidamente, como acabamos de mencionar. Dado que el requisito de hardware acceso del dedo del pie, tales abs son bastante generar. Al igual que los juguetes básicos de consumo y la capacidad de navegación Web, consumidores pueden acceder a
estas aplicaciones mediante una gama más amplia de dispositivos. De hecho, muchos de los populares medios sociales y utilidad APS también dispositivos tan variables la política off no poseer sino acceder a los datos también mejora la seguridad general tanto de los consumidores como de los hosts. Y todo fuera lleva a una mejor idea. Economía. No se trata solo de que APS se vuelva más barato tras levantarse de sus mapas. Muchos modelos de ingresos, como Freemium ser como avanzas y agregar generación de ingresos basada han crecido significativamente. No sólo papá. Las transacciones se han vuelto más transparentes en todos los fines como los negocios, los consumidores y hasta los del gobierno. Por último, la pesadilla de los empresarios, que solía perseguirlos durante décadas, se
ha convertido en todo un Disneylandia. Sí, estamos hablando de escalar empresas no cómo invertir en remolque. Hardware subutilizado tomado habilidad a medida que crecen desde ahora, ¿
tenemos una idea justa fuera? ¿ Cuáles somos los mapas y por qué los usamos? Vayamos directamente al negocio. Hay tres pasos para el proceso off haciendo Web abs primero, hazlo o construirlo en el ambiente adecuado. Asombroso. Envuelva nuestro paquete con el apoyo necesario e instrucciones para enviarlo o entregarlo a la línea
intendente para el consumidor y finalmente rentó toda su máquina o alojada en su servidor para que otros lo accedan. En próxima conferencia. Quién comenzará con la creación de aplicaciones Web
4. Demo: aplicación web simple: Instalemos el servidor Web Engine X en nuestra máquina local, y el siguiente servidor Web es el ejemplo más vainilla de una aplicación Web. Para su información, estamos corriendo abierto a 16.4 en esta máquina. Y ahora empecemos con cambiar a los privilegios de usuario raíz. Como pueden ver, hemos pasado a privilegios de root. Ahora podemos iniciar nuestra instalación descargando primero la PGP o bastante buena
clave de Privacidad para el Motor X. El propósito fuera hacerlo es asegurarnos de que cuando instalemos en genética, se verifiquen
los binarios. Se ha descargado la clave. Ahora vamos a cambiar al directorio E T. C slash AP con un menos común vamos a enumerar los contenidos. Tenemos un montón de archivos aquí, pero lo que necesitamos son fuentes Inicio archivo de lista. Entonces vamos a abrir lista de puntos de fuentes con editor de texto Nano. Puedes usar cualquier editor de texto que te guste, pero en este curso nos apegaremos mayormente a Nano. Como puedes ver, este archivo contiene muchos enlaces fuera. Thes vincula nuestras fuentes para abrir el dedo del pie para encontrar actualizaciones al final fuera del archivo basado en
estas dos líneas. Estas líneas indican la parte de actualización para la aplicación del motor X cuando se instala, y actualizamos más en el futuro. Se guardó el archivo y salir de Nano solo para asegurarnos de que no tenemos ningún colgado en la próxima instalación. Entonces app se quita y la siguiente común. Este comando se asegurará de que cualquier apagado de la instancia previamente instalada fuera de la
instalación del Motor X se elimine por completo. Ahora vamos a una app ponernos al día para reflejar los cambios que hemos realizado en las fuentes. Inicio archivo de lista. Eso es lo que ves D comando dos veces para volver donde empezamos. Ahora vamos a instalar Engine X usando apt get install en el siguiente comando. Una vez completada la instalación, podemos verificarla yendo dedo del pie navegador Web. Un host local de apertura en el Puerto 80 Bueno, la instalación fue exitosa. El Motor X está ganando adecuadamente. Este fue un ejemplo de instalar y ejecutar el
motor de aplicaciones web más Simple y vainilla X servidor web
5. ¡Un bosque de VMs!: Hemos visto las ventajas fuera de donde mapas y qué genial aquí. Pero no quiere decir que esta moneda no tenga un lado de volteo. Simplemente hay tantos robots disponibles en los lugares del mercado. Hay tantos clones de algunas de las ideas realmente buenas, y también muchas aplicaciones de Clickbait, que resultan ser nada más que un sinfín de tablones de agregar. Y desafortunadamente, incluso el mercado de tat no está mostrando señales apagadas, parando en absoluto. Y mientras la libertad de elegir la APP sigue en la mano del consumidor, todos fuera estos abs están siendo alojados, y están generando tráfico, ocupando memoria física y almacenamiento en algunos fuera de los centros de datos Mientras se trabaja con médiums. Es bastante común dedo del pie tener problemas donde la aplicación estaba trabajando sin problemas en el
entorno de desarrolladores , pero fue un naufragio de tren en la máquina de oficina. En peor aún, se bloquea en la máquina cliente. Ya que ayudamos a la transición de la cascada del dedo del pie ágil y una suave desarrolla modelos, las actualizaciones se están desarrollando más rápido que nunca. Tú. Y si no estás desconociendo estos modelos, solo pregúntate esto. Con qué frecuencia recibiste actualizaciones para el descanso suave hace 10 años, y con qué frecuencia un año abrades la aplicación de Facebook en tu móvil. Si bien las actualizaciones más rápidas son buenas para las empresas y los consumidores, trae enormes responsabilidades en el sistema Edmunds para asegurarse de que ninguna de las actualizaciones comprometa la estabilidad fuera de la aplicación y para reducir el tiempo de inactividad tanto como sea posible. Terminamos usando aún más V EMS, toda la aplicación habilitada para Internet y levantamos datos. La ciencia está generando una enorme cantidad fuera más tarde y poblando miles de servidores fuera cada día con base de datos o eran todo el uso fuera. Williams acaba de aumentar significativamente. Haces una opción fuera de sus mapas y modelos de micro servicios, y, como te habrías imaginado, se ha traducido en nada más que bosques fuera de servidores por todo el bucle.
6. ¡¡¡Hola a los contadores!: contenedores sobre abstracción en Application Layer, que empaqueta los códigos en dependencias juntos, vamos a ciudad un gran y ampliar más esta definición. Cadenas sobre abstracción en Aplicación Leah, que empaqueta cordones y dependencias juntas. Significa que en lugar de simplemente enviar las aplicaciones, contenedor enviar la aplicación en durante el entorno de tiempo también,
y aún así logró mantenerse de pequeño tamaño. ¿ Cómo? Vamos a compararlos arquitectónicamente con Williams. En una arquitectura tradicional de William, tenemos, ah, hipervisor como hiper V o regalarles encima de la infraestructura de hardware. Estos también se llaman hiper risers tipo uno, ya que no necesitan un sistema operativo host. El caballo invitado una disposición encima de hiper sabio y adquieren ese
entorno virtual aislado . En algunos casos, obtenemos el tipo dos hiper sabio, como la caja de joyas de Oracle's Watch, donde sí necesitamos un sistema operativo host, y el resto de la parte establece prácticamente lo mismo. Y así es como nosotros en la disfunción, en un sentido muy amplio, volviendo a los contenedores. La mayor diferencia en comparación con Williams es que no tienen sistemas operativos adivinados, contenedor y entorno de tiempo se utiliza en lugar de hiper sabio. Qué es lo que puedes pedir ahora, Digamos que es software el cual maneja y aterriza contenedores. Contenedores contienen el tribunal de aplicación sobre las dependencias, como acabamos de ver, Las dependencias no sólo significan bibliotecas externas o de terceros. También significa dependencias siempre niveladas. El lógico detrás de tal implementación es todo de la varianza Lennox compartir el mismo
coronel Lennox bien, más o menos así. No tiene sentido duplicar el mismo conjunto de archivos o y o en múltiples Williams si todos los contenedores simplemente pueden acceder a ellos en su propio entorno aislado. Con eso dicho, ¿qué pasa con los expedientes, que son poco comunes o para ser de tamaño libre? Los expedientes, ¿
cuáles son específicos del Oise? Contenedores de pozo los contendrán junto con la aplicación. Y dado que el proceso off haciendo los contenedores y ejecutándolos se realiza por el mismo contenedor y entorno de tiempo, no
habrá conflicto fuera del entorno. Si esta información es demasiado repentina para ti, no te preocupes. El propósito fuera mencionar todo esto es sólo para hacerle saber que cómo los contenedores pueden alcanzar el mismo nivel fuera de aislamiento que Williams, pero mientras comparten los recursos con host siempre en lugar de duplicarlos y lo que sucede porque fuera de ese pozo contenedores consumieron menos almacenamiento y memoria sin estirar los hechos en absoluto. Los gigabytes literalmente se convierten en megabytes. De esta manera. Enviarlos también es más fácil. No enviamos todo el Wiens ni una larga lista fuera de instrucciones. Acabamos de enviar contenedores listos para funcionar. Y dado que todas las dependencias necesarias también están empaquetadas con los contenedores, ¿se trabaja en el entorno de los desarrolladores? Funcionará también en tu máquina, ya que hemos reducido que el recurso se está escalando se vuelve fácil y más barato. A pesar de que necesitas crear 10 réplicas más de una parte posterior y un contenedor, probablemente
quieras cómo gastar dinero en comprar o alquilar un nuevo servidor. De hecho, si necesita implementar actualizaciones, aún
puede mantener sus aplicaciones en ejecución ampliando su número de
contenedores replicados , y es posible que logre cero tiempo de inactividad. Todo esto suena atractivo e innovador, pero si nos relacionamos esto con industrias que realmente están usando contenedores bien, Google pionero usando contenedores orquestados hace años cuando empezaron a enfrentar o reventar cantidad de datos. En estos días, empresas como Expedia, PayPal y GlaxoSmithKline son Wallenda re proporcionándose como las referencias y casos estudio aparte de ellos. instituciones educativas como Cornel University y gigantes del juego como Niantic, que se convirtió en un gran éxito después de que Pokemon siga todos usando contenedores, las empresas están migrando gradualmente a contenedores como muchos fuera que ya podrías conocer. Drops empleos están aumentando rápidamente y los contenedores son una parte esencial fuera del conjunto desarrolla movimiento. En la próxima conferencia, por fin nos presentaremos con Docker y empezaremos a aprenderla.
7. ¡¡¡Hola a los docker!: Es hora de que empecemos con el jugador clave fuera de nuestro curso. El Dr. Docker es una plataforma abierta para desarrolladores y modificaciones de quistes dedo del pie construir, enviar y ejecutar aplicaciones contenerizadas. En otras palabras, se
trata de una plataforma de ización de contenedores. Su doctor la única plataforma fuera de su tipo. Bueno, no, Ciertamente hay otros como cohete, pero doctor definitivamente es el dominante. cuando se crea el discurso, doctor es probado y probado y es una elección superior fuera de la industria por unanimidad. Significa que si quieres afilar tus habilidades de ización de contenedores, Docker es potencialmente la mejor opción por diversas razones, como más industrias lo están usando para que pueda aterrizar en más trabajos de religión. Es de código abierto y cuenta con un enorme apoyo comunitario. Ah, mucho fuera aplicaciones de terceros están disponibles para apoyar a DR Aunque está construido para Lennox, se puede usar en Windows y Mac OS. Para aquellos que simplemente no tienen otra opción, también
hay otros aspectos, pero no tiene sentido inundar sus cabezas esa información,
con la que tal vez no se pueda relacionar, quién se meterá en esos más adelante en este curso. En la próxima conferencia, instalaremos Docker en una máquina Lennox
8. Demo: instalación de Docker en Linux: En esta demo, instalaremos Docker en abierto a 16.4 o incluso a Zaenal. Empecemos con ejecutar un comando estándar apt get update. Una vez que hayamos terminado con eso, vamos a instalar algunos fuera de los prerrequisitos, como en el transporte https para asegurarnos de que nuestra máquina pueda comunicarse a través de certificados de
autoridad https , Go and Software properties Common, que contiene algunos objetos fuera del Golán los cuales serán utilizados por el Dr y la instalación es exitosa. Ahora vamos a descargar GP geeky para Docker y agregado dedo del pie en máquina. Y para asegurarnos de que no obtenemos una larga lista de procesos que suceden en segundo plano , usemos guión f s s l flag para mantener nuestra reserva tan pequeña como okey y se muestra OK, lo que significa que tenemos nuestro GP geeky. Vamos a verificar esta clave usando pseudo app clave huella digital común. Podemos verificar que hemos recibido la clave correcta buscando los últimos ocho
caracteres fuera de la huella dactilar, que debe ser cero e. D. F. Cd 88 Esta información es proporcionada por el Dr Myself, por lo que eso no es mucho para que lo descubras. Y sí, nuestra clave sí tiene esos caracteres como sus últimos ocho dígitos. Ahora ejecuta este comando dedo del pie. Agrega un repositorio llamado estable y en el contenido fuera descarga dot docker dot com slash La slash de
Lennar Cubano a en él ayudó siempre que se subrayara la bandera ls. Liberar guión CS para asegurarse de que Docker proporcione archivos correctos, lo que significa que los archivos para Urban dos senior están abiertos a 16.4 a nuestro repositorio estable. Ejecutemos de nuevo la actualización para reflejar los cambios. Entonces Sudo apt get install Dr C E para finalmente instalar docker guión C E significa Community Edition, que es una de las dos adiciones que proporciona Docker. El otro se llama Enterprise Edition, que no es gratis, por lo que no la vamos a incluir. En este curso. El proceso ha terminado y hemos instalado con éxito Dr CE o Docker community added
verificar que nuestra instalación sea exitosa ejecutando pseudo docker run Hello World Command . Esto ejecutará un contenedor llamado hola mundo, que solo sería posible si la instalación del médico fuera exitosa. No hay que prestar mucha atención a los procesos que están pasando porque estaremos explorando todos ellos fallecimiento insuficiente en más modelos, como dice son, instalación parece estar funcionando correctamente. Es posible que hayas notado que hemos estado usando privilegios de root una y otra vez para asegurarte de
que también puedes ejecutar Docker desde tu usuario habitual. Realicemos unos pasos más. En primer lugar, agreguemos un acoplador de tarjetas grupales usando pseudo grupo en Docker. Ahora agreguemos a nuestro usuario, que es 22 este grupo acosador, y proporcionamos privilegios de root. No, intentemos ejecutar hola contenedor World sin privilegios de root con solo Doctor y Hello World Command y obtenemos los mismos resultados.
9. Demo: aplicación web simple: en primera demo habíamos instalado y ejecutar el motor X en abierto a 16.4 localmente en la demo. Después de eso, instalamos Docker. Podría encontrar un patrón aquí, y podría haber podido averiguar que en esta demo vamos a correr en genética como contenedor portuario. A diferencia de Hello World Container, haremos esto de una manera un poco más elaborada. Empecemos con tirar de una imagen llamada Engine X latest del
repositorio Docker Hubs Engine X ejecutando el comando Imagen Docker. Pull Motor X, Kahlan Último. Esto descargará o tirará una imagen llamada motor X con el último ataque, que posteriormente se podrá ejecutar como contenedor. A ver si ayudamos a Dios. Nuestra imagen en Docker Images Comando para mostrar la lista fuera de las imágenes, y aquí vamos. Ayudamos a las imágenes. Primero es Hello World, que utilizamos en la última demo, y segundo es Engine X, que estaban usando en esta demo. Ambos han atacado, llamado último y tienen diferentes tamaños. Ahora ejecutemos esta imagen como un contenedor usando contenedores docker poco comunes, seguido de I T D bandera y nombre o Cantina Web server engine X con guión b common. Estamos mapeando el puerto 80 80 de nuestra máquina local para contener un deporte 80. Y finalmente estamos mencionando el nombre de la imagen y la siguiente última, que acabamos de sacar recientemente. Lo que conseguimos es un contenedor I d del contenedor X del motor. Sé que toda esta terminología suena bastante nueva y bastante abrupta, pero no te preocupes en esta demo, nuestro único propósito es encontrarnos con siguiente éxito. Pasaremos por todos estos términos en suficientes detalles. Cuando llegue el momento. Vamos a verificar que todo el contenedor se está ejecutando ejecutando el comando docker PS guión A. Y como puede ver, está ejecutando el contenedor X del motor del servidor
Web, que se construye sobre la imagen llamada motor. Siguiente último. Por último, veamos la salida de este contenedor yendo al navegador Web y abriendo nuestro
anfitrión local sport 80 80 y funciona con éxito
10. Stages de la contabilidad: en modelo anterior nos introdujeron a contenedores y luego una instancia fuera de él. En esta sección, profundizaremos en el proceso off Contener ization con referencia a docker antes de
entender Doctor a detalle, será eficiente visitar algunas veces. En breve doctor, los archivos se construyen, las imágenes de
Docker se envían y los contenedores se ejecutan. Puedes considerar el archivo Docker como blueprint off Docker image si lo recuerdas. Bueno, ya
nos encontramos con Docker Image y el contenedor Docker en nuestro motor X contienen una demo. Entonces ahora que conoces todos estos tres archivos definitivamente no en detalle. Pero al menos Wigley Podemos pasar a la arquitectura fuera, Doctor y volver a estos archivos más tarde.
11. ¿Cómo funciona el baile oral?: No, la progresión natural de la charla sería. ¿ De qué manera Dr Work Docker Ecosystem tiene una serie de ofertas donde algunas de ellas son más útiles que las otras? Empezaremos con Docker Engine, también conocido como DACA en general, y veremos otros importantes a medida que avanzamos más allá con este curso. Echemos un vistazo a la arquitectura del Dr. Darker y a todo el proceso fuera. ización kontinen gira en torno a tres componentes principales. Docker Client, Dr Host y Docker Registry. El Dr. Klein es la máquina son medios, a través del cual nosotros como usuarios, interactuamos con docker. Las dos formas básicas de la interacción son el médico CLI con stands para interfaz de línea de comandos en Docker AP Eyes, que de nuevo significa programa de aplicación. Los comandos de interfaz se pueden utilizar directamente desde la terminal del clan, mientras que AP ice se puede utilizar para hacer algunas aplicaciones. Doctor Doctor, como hemos visto en nuestra demo anterior, tanto Dr Pull como Dockery en nuestros comandos cubiertos por DACA CLI, exploraremos más comandos como una portada para los temas. Dr. Host Dr Host es la máquina que realmente realiza la tarea fuera, contener la ización. Se ejecuta un programa o pieza de software llamado Demon Docker, que escucha y realiza acciones. Preguntado por el cliente de Docker Dr Niemann construye archivo docker y lo convierte en una imagen docker. Los archivos del doctor y las imágenes más oscuras pueden comunicarse directamente con el Dr. Demon. Cualquiera de las imágenes se pueden construir a partir de Docker Archivo son que se pueden empujar o tirar de Dr Hub. En todo caso, esa tarea la realizará el Dr. Host usando Docker demon. El Dr. Imágenes también se puede hacer como contenedores. Los contenedores pueden comunicarse con Dr Demon by Dr Images. En otras palabras, cualquier cambio realizado en el contenedor también se refleja en la imagen del acoplador. Temporalmente bien explotar estas piezas individualmente lo suficientemente pronto. Es posible que Dr Klein y Dr Host sean en realidad la misma máquina también. Pero la función off Dr Klein como un software de pieza off es limitado dedo del pie pasando la entrada del usuario y mostrando la salida proporcionada por Dr Host Human Find. Docker Registry tiene el componente más simple fuera de la arquitectura de casilleros. Sirve como un lugar para almacenar imágenes de Docker y para ponerlas a disposición de los demás. El motor X image, que utilizamos anteriormente en nuestra demo, fue sacado de Dr Registry Dr Plan pláticas con Dr Demon Bi direccionalmente donde pasa la solicitud y recibe los resultados. Dónde está Dr Demon y Docker Registry pueden hablar bi, direccionalmente empujar y tirar imágenes. Vamos a un poco de todos los tres componentes de la arquitectura Doctor. En primer lugar, contamos con Doctor Client, cual tramita solicitudes a través del Dr Seelye y A P IES y recibe resultados a mostrar. 10. Escuchamos al Dr. Host, que también y a Stocker Demon y trabaja con imágenes Docker y contenedores. Por último, llevamos a cabo Docker Registry, que actúa como un acceso universal a los dedos del pie disponible imágenes docker. Ahora podemos volver a esos 34 meses que vimos antes. Dr Files, Dr Imágenes y Contenedores, que respectivamente representan, construyen nave y se ejecutan en la próxima conferencia echarán un vistazo detallado a cómo funciona Dr Files.
12. Una mirada rápida del formato del Dockerfile: ahora podemos volver a las 34 millas, que vimos antes. Dr Archivos, Dr Imágenes y Contenedores, que respetan,
representan, construyen, construyen, despachan y corren. En primer lugar, vamos a centrarnos en el archivo docker. Se trata de una secuencia barcos desprenden instrucciones destinadas a ser procesadas por Dr Demon Disponibilidad off dicho formato reemplaza un montón de comandos destinados a la construcción de una imagen
en particular. Ayuda a mantener las cosas organizadas con el tiempo. También ha resultado ser la principal salida, interactuando con docker y migrando a contenedores en general. En cuanto a trabajarlo, instrucción
secuencial fuera del archivo Docker se procesa individualmente, y da como resultado un archivo, que actúa como una capa fuera de la imagen final del médico, cual se construirá. A stack off tales capas de secuencia gestionadas por un sistema de archivos, se convierte en una imagen docker. El propósito detrás de esto es habilitar el cobro y facilitar la solución de problemas. Si para tocar archivos van a usar la misma capa en algún momento, demonio
más oscuro puede hacer justicia. Utilizó la capa pre creada para tales fines. No, veamos la estructura utilizada para escribir los archivos del médico. En primer lugar, es un archivo sin extensión en absoluto. Y una regla general de oro es nombrar al archivo como archivo docker con D mayúscula y sin extensión, se
puede utilizar cualquier editor de texto para crear el archivo. Tan solo asegúrate de no poner una extensión. El propósito detrás de hacerlo es hacer que el archivo pase de dedo compatible para autoconstructores utilizados por el Dr Toe. Construye las imágenes aunque no es una regla ironclad. Y puedes nombrar el archivo docker de acuerdo a tu conveniencia también, que buscaremos en el futuro Demos. Lo que ves dentro del Docker archivo nuestras instrucciones, Toby pasó en las instrucciones generalmente se puede dividir en tres categorías. Instrucciones fundamentales de configuración e ejecución. En próximas conferencias, escribiremos nuestro primer archivo docker y entenderemos estas instrucciones una por una.
13. Demostración: instrucciones fundamentales de Dockerfile: Escribamos o primero el archivo Docker y entendemos sus instrucciones fundamentales. A ver, ¿cuál es tu directorio de trabajo actual? Estamos en el directorio 20, que es el nombre del usuario en ese directorio de inicio. Es muy probable que también se encuentre en un lugar similar una vez que haya descargado el material proporcionado en tribunales y notas de conferencia y lo haya descargado. También debes tener un directorio llamado CC subrayado Docker, donde C, C y D son mayúsculas. Solo estamos buscando un nivel profundo tres en nuestro presente directorio. Y si tres no están disponibles en su máquina por alguna razón, puede verificar el CC. Guión bajo directorio Docker simplemente usando el comando L s. Ahora vamos a navegar al directorio CC docker Solo para familiarizarte con la estructura del directorio, encontrarás un directorio para cada segmento o módulo y subdirectorios para las
demostraciones respectivas . Si no tiene la intención de escribir los archivos usted mismo, por qué aprender puede simplemente utilizar los archivos apropiados para cada demo y ejecutar los resultados. Vamos más allá en cuanto al directorio, que contiene todos los cordones y archivos requeridos para este segmento. Estamos en la S a por el momento. Por último, naveguemos al directorio nombre D uno y verifiquemos que somos anti derecho, por favor, para el Vamos a crear un archivo Docker vacío, que toca el comando. Estoy creando este archivo porque quiero mostrarte paso a paso, cómo escribir un archivo dr, Pero encontrarás una prefecha en archivo docker en el directorio estaban usando Nano como
editor de texto , Pero otra vez, tú 're free para elegir el con el que podrías estar cómodo. Y con esto, abramos el archivo Docker vacío y empecemos a escribirlo. El primer instrucción que estamos dando es el Arca A R G R. El arte de la instrucción se utiliza para definir los argumentos utilizados por desde la instrucción. Si bien no es necesario usar arte y no usarlo no causa ningún daño directo a la imagen
resultante. En ocasiones ayuda a mantener bajo control parámetros como las versiones. Aquí tenemos argumento definido. Buena versión de guión bajo equivale a 16.4 lo que significa que vamos a usar algo que va a tener la cancha empeorar 16.4 en un bastante duro desde entonces. Recuerda en un sentido muy áspero, puedes tratarlo como una directiva de declarar un proyecto de ley en programación general como Macros. Pero de nuevo, este argumento sólo será relevante para la instrucción desde y siguiente es la
instrucción desde se utiliza para especificar la imagen base para el resultado y la imagen docker que
pretendemos crear en cualquier caso a partir de la instrucción debe ser allí en cualquier archivo médico, y la única instrucción que se puede escribir antes es el arte del que acabamos de ver general,
es seguida de una imagen del sistema operativo o una imagen de aplicación, que está disponible públicamente en Docker Hub. Aquí queremos tener el dedo abierto como nuestra imagen de sistema operativo basado con versión de corte, Nuestros juguetes versión 16.4 Así que el nombre fuera de la imagen es seguido por un Kahlan, y argumento se menciona en llaves llaves, precedido de un signo de dólar. Como ya hemos mencionado en nuestra instrucción, nuestra corte empeora su 16.4 por lo que se pasará como argumento, y la imagen basada para este expediente médico será considerada como hemos estado a 16.4 para agregar un poco más de sustancia a la imagen también incluyeron un set off run e instrucciones CMD, pero exploraremos sus significados y aplicaciones en próximas demos. Por ahora, vamos a guardar de nuevo este archivo. Es importante recordar que no debemos darle ninguna extensión al archivo docker y debemos nombrarlo mayormente. Como archivo Docker en sí, es hora de construir el archivo docker y convertirlo en una imagen. Hagámoslo con el Dr. Bill Command. Se utiliza la opción de guión D con el dedo del pie etiquetado de la imagen o, en otras palabras, nombrada a la imagen para que sea fácilmente reconocible. Atacaremos la imagen como soy g subrayado de. Y el punto al final dirige docker al archivo docker almacenado en el directorio de la prisión. Como se puede ver las imágenes que se están construyendo paso a paso, vamos a entender primero cada uno de estos pasos, paso fuera almacenar argumento fue bastante simple, por lo que terminó rápidamente. segundo paso implica el ajuste de la imagen base, y lo está haciendo tirando de múltiples capas del sistema de archivos desde Docker Hub y apilándolas en la jerarquía adecuada. Una vez completa, pasa al tercer paso, que es a juguetes actualizados, y ya hemos proporcionado el permiso con bandera esposa ¿dónde? Por qué significa sí, Una vez que se hacen los pasos, nuestra imagen es grande. Podemos muy luchar que se construya la imagen. ¿ Por qué se encienden las imágenes de Docker? Como puedes ver, tenemos cuatro imágenes docker entre las que soy g subrayado es la que creamos poco significa hace 11 segundos mientras que otras se crean o tiran previamente.
14. Demo: instrucciones de configuración de Dockerfile: en esta demo dará un paso adelante con la escritura del archivo médico y explorará
las instrucciones de configuración . Nuevamente, Estamos en S dos directorio, que contiene directorio individual para cada demo. Navegemos al directorio llamado D a Ahí vamos. Como se puede ver, hay un archivo DR ya presente en este directorio. Abrámoslo con Nano. Como se puede ver, este archivo docker también tiene una imagen base abierta a 16.4 mencionado usando de instrucción como se describe en la demo anterior. Pero esta vez nos hemos saltado usando nuestra instrucción y proporcionamos directamente el
número de versión . Ahora hemos corrido y envidia, que son instrucciones de configuración, aunque no son las únicas entradas en la lista de instrucciones de configuración. Pero estos son los que vamos a cubrir. Demo de ingresos. Vamos a pasar por ellos. Uno por uno, John pide a Docker que ejecute el comando mencionado con él en la parte superior de la imagen base, y los resultados se comprometen como una capa separada en la parte superior de la capa de imagen base. Aquí tenemos más de una menciones off run, y cada uno crea su propio lier separado con la instrucción de primera corrida que hemos proporcionado a los comandos toe actualizar el S instalar Carl y limpiar más adelante. ¿ Dónde está la segunda corrida? Simplemente hace un directorio llamado Cordones Bajo Directorio Inicio. No lo confundas con nuestras máquinas anfitrionas. Inicio Directorio Toe Aquí estamos hablando de imagen basada, siempre Inicio Directorio y las canchas se crearán en esa imagen base, no en nuestra máquina host. Después hemos utilizado E NV, que es otra instrucción de configuración. Hace lo que sugiere su nombre. Establece variables ambientales. Lo hemos usado tres veces para establecer variables de entorno de shell de usuario y nombre de registro
al igual que la demo anterior te tenemos CMD pero entraremos en eso más adelante. Otra vez. Usaremos el doctor Bill Command toe construir esta imagen. Pero esta vez lo etiquetaremos como soy G subrayados sobre envidia de guión para separarlo de la imagen
anterior. Como se puede ver en esta compilación, el primer paso consiste directamente en configurar la imagen base. Ya que hemos omitido abusar de nuestra instrucción, Paso dos realizará todos los comandos utilizados en la instrucción de primera ejecución y realizará los comandos fuera de la instrucción de segunda ejecución, que está haciendo un paso de directorio 45 y seis establecerá variables ambientales como se menciona en el archivo Docker, y el súper rápido Paso siete hará que nuestra imagen esté lista para ejecutarse. Vamos a enumerar están disponibles las imágenes con Docker images Command. Estas imágenes son las disponibles actualmente en el anfitrión. Nuestra imagen superior es que m g subrayado Run, envidia, imagen. Ahora vamos un paso más allá y ejecutemos esta imagen como contenedor con médicos y guión i d d comando el I e. D representa teltipo interactivo habilitado y desligado respectivamente. Estamos nombrando eso para estar ejecutando contenedor como Kant subraya Run envidia Y la imagen objetivo es que soy G subrayado Run y nosotros que acabamos de crear. El comando fue exitoso y acabamos de recibir el único contenedor idee proporcionado por Dr para nuestro Container. Aquí tenemos dos contenedores ganando, entre los que primero está el que manejamos recientemente. Está arriba significa correr durante cinco segundos y está terminando el bash común. Ahora vamos a ejecutar o contenedores bash comando aquí El bash common y el proceso se
ejecutaba en segundo plano debido al flag detach establecido mientras se ejecutaban los contenedores. Ahora lo teníamos sacándolo adelante. Como puedes ver ahora estamos en el directorio raíz fuera de ella. Kant subraya en nosotros contenedor. Vamos a enumerar aquí los directorios. Sí, la estructura se parece a una instancia regular de Lennox. Ahora verifiquemos las variables ambientales, que habíamos establecido con Ian Reconstruction mientras escribimos el archivo Docker. Como puedes ver, las variables shell de usuario y love name son justo como las habíamos configurado. Ahora vamos a navegar a Directorio Principal Como lo enumeramos. También podemos verificar la creación fuera del directorio de cordones, que se suponía que debía crearse a partir de nuestra instrucción de ejecución fuera del archivo docker. Por último, podemos volver a nuestro anfitrión y Weinmann saliendo del contenedor usando el comando de salida simple .
15. Demo: instrucciones de ejecución de Dockerfile: estamos de vuelta en nuestro S al directorio. Navegemos al directorio de los cinco y enumeremos los contenidos de él. Tenemos un archivo Dr para esta demo almacenado aquí. Ábrelo en un editor de texto. Múltiples instrucciones nuevas. Hemos estado usando mucho CMD en las demostraciones anteriores, pero vamos a cavar profundamente en ello en esta demo. Empecemos con la instrucción más básica pero importante de will set open toe trustee como la imagen base para este doctor La etiqueta de imagen es un par de valor clave, que suma el dedo del meditador, la imagen que hemos agregado a las etiquetas como pares de valor clave en argumento de línea múltiple para una instrucción de etiqueta crear una clave tiene un lienzo civil de valor, mientras que la clave de versión tiene 1.0. siguiente es una instrucción de ejecución, que va a sangrar la lista de paquetes fuera de la imagen base de manera no interactiva. Entonces tenemos punto de entrada. Como su nombre indica, Entry point permitirá al usuario configurar el contenedor en un punto de partida. Es decir, Entry Point traerá de vuelta el contenedor al punto de partida cada vez que se
diga que se reinicia un contenedor . Para esta imagen parlante, el punto de entrada se define en forma exacta, que también es el preferido. Ejecutará Ping cinco veces cuando el contenedor comience a funcionar. Por último pero no menos importante. Es instrucción CMD lo hemos visto hasta ahora que CMD proporciona el comando predeterminado
al contenedor que ejecuta. Pero si Entry Point se menciona en el archivo docker, entonces CMD siempre se ejecutará después del punto de entrada. Cuando CMD se define en forma exacta y no contiene el ejecutable, entonces será tratado como un parámetro fuera de la instrucción del punto de entrada. Sólo puede haber un cm la instrucción disponible en archivo docker entre múltiples
instrucciones CMD solamente. La última instrucción CMD estará vigente para esta imagen docker. La instrucción CMD es una forma exacta sin ejecutable, lo
que significa que proporcionará el host local como parámetro para el ejecutable fuera punto de
entrada, que es cosa. Si sumamos punto de entrada y CMD aquí, hemos establecido ese dedo mantenedor rosa el anfitrión local cinco veces. Tan pronto como el contenedor esté en funcionamiento, salgamos del archivo docker y construyamos nuestra secuencia de imágenes. Shelly, vamos a construir la imagen Docker basada en el archivo docker en directorio actual y etiquetarla como soy g subrayado y tres cmd build El contexto se envía al Dr Demon y se descargará la imagen open toe trustee del hub Docker a nuestro médico local Almacenamiento. Ahora imagen basada se ha descargado y se está ejecutando en un contenedor intermedio toe build open toe trustee entorno. Para construir nuestra aplicación, Steptoe creará etiquetas para nuestra imagen docker. El paso tres ejecutará la instrucción Theron, que actualizará la imagen base de síndico abierto y el cómic. El resultado en un nuevo paso de contenedor intermedio para establecerá el punto de partida fuera del contenedor en ben slash ping. Y el último paso es la instrucción CMD, que proporcionará el host local como parámetro al punto de entrada para ejecutar y para iniciar el contenedor. Al final, todas las capas serán apiladas secuencialmente por Dr Demon y una final I am G
entrada subrayada imagen CMD se creará con su imagen i D y última etiqueta. Echemos un vistazo a la lista de imágenes disponibles en nuestro almacén médico local. Qué imágenes de doctor Vamos. Como podemos ver, soy g subrayado entrada CMD Colin Lo último ha sido construido y almacenado en nuestras
historias de médicos locales . Es hora de ejecutar un contenedor basado en ese tipo de imagen doctor run, guión, nombre de
guión, con guión bajo y tres cmd, seguido de yo soy G y tres cmd pero su final y aquí vamos Cantina está haciendo pping nuestro local host en cuanto a punto de entrada e instrucciones CMD, y es rosa con éxito. El host local durante cinco veces cinco paquetes se han transmitido y recibido con éxito sin ninguna pérdida de paquetes, lo que significa o aplicación está ganando perfectamente. Ahora vamos a revisar ese estado en la entrada. Cmd con el guión de Dr Pierce A. Común como podemos ver, el contenedor ha salido con un error. Corte cero después de terminar su tarea predeterminada, lo que significa que la ejecución de contenedores fue exitosa.
16. Demo: exponer las instrucciones de Dockerfile: Navegemos al directorio de seis y enumeremos todos los contenidos de él. Tenemos un archivo docker para esta demo. Disponible aquí. Se abrió el archivo docker en el editor de texto. Como podemos ver, contiene cuatro. Dr Instrucciones de instrucción establecerá la imagen base Cubana a Colin, 16.4 como su imagen base para esta imagen docker. Se ejecuta la siguiente instrucción, que se actualizará e instalará en siguiente en el dedo abierto 16 puntos de cuatro imagen base. Encadenaremos subcomandante off run instrucción con Lógico y Operador, lo que significa para ejecutar segundo subhumano primero común debe ser un éxito aquí. Si consideramos apt la secuencia, obtener actualización de la imagen base debería ser todo un éxito. Con el fin de instalar el motor X después de la instalación del motor X AB se retire. Un brazo r f slash war slash lib slash lista ap slash aclarará Depositorios locales de paquetes
recuperados . Siguiente instrucción expuesta es un tipo de documentación que informará al Dr sobre la pizarra en la
que está escuchando el contenedor. Ten en cuenta que no publica el puerto, pero llena la brecha entre el constructor de imágenes médico y la persona que dirige el contenedor . Tenemos documentado con instrucción expuesta que este motor siguiente contenedor escuchará en puerto 80 cm. El instrucción hará que la aplicación del motor X se ejecute en primer plano al apagar el motor X como un proceso de demonio. Salir del archivo docker. Construye la imagen Docker con Dr Bill Command a partir del archivo médico disponible en el presente directorio y etiquetarla como soy g subrayado expuesto. El contexto de campana se envía a Dhaka Demon ya que ya tenemos abiertos a 16 puntos en los cuatro emites en historias de médicos locales. El Dr. Demon no vuelve a descargarlo. Se cobra en el Paso dos. instrucción de Jane Borracho está siendo ejecutada una por una. En primer lugar, actualizará el índice del paquete de la imagen base abierta a 16 puntos de cada cuatro. Después de un sangrado con éxito, la imagen y la Gen X se instalarán en la imagen base y al final, se aclararán los informes
locales de los paquetes minoristas. paso tres es exponer el puerto 80 fuera del contenedor con el fin de informar al Dr que el motor X ab escuchará en el Puerto 80. El último paso es configurar el comando deformado CMD, que establecerá la aplicación del motor x como el proceso de primer plano en este contenedor. Nuestra imagen ha sido construida y etiquetada con éxito ya que soy g underscore expuesto. Echemos una lista de todas las imágenes en nuestro almacén médico local. Ahí vamos. I m g subrayado Exponer ha sido creado y almacenado con éxito en DACA. Vamos a ejecutar un contenedor basado en Yo soy Jay Exposed Image. Mi doctor y guión ITV guión guión brazo Adam flag quitará automáticamente el contenedor una vez que se haya detenido. Síguelo con contenedor llamado con Underscore expuesto, seguido de guión p 80 80 Colin, 80. Lo que significa mapa el Container Sport 80 con host sport 8080 con el fin de acceder a motor ex servicio y finalmente realmente dar el nombre de la imagen, que es yo soy G subrayado exponer prensa enter y llegamos a contener un I D. Eso es lista fuera. Todos los contenedores en ejecución y parada con Doc aparece guión. Un guión bajo comando o con. Expuesto está en marcha y funcionando durante siete segundos. El puerto 80 de contenedores ha sido mapeado en el puerto 80 80 fuera del host para que podamos acceder y el siguiente servidor Web en nuestro navegador Web favorito. Ahora ve a tu navegador Web favorito, menos chrome y escribe http host local llamando 80 80 en el y un spa presiona enter y
concedemos la página principal predeterminada off lesionar próximo servidor Web.
17. Demostración: instrucciones diversas de Dockerfile (parte 1): Tengamos una realidad o PW d cheque. Muy bien, Estamos en Demo ocho directorio y siempre ha sido liberado. Los componentes que podemos ver al Dr Files ahora, antes de que puedas levantar las cejas con una tonelada de sorpresas como ¿Por qué? ¿ Por qué tenemos que Dr Files en un directorio? ¿ No es una mala práctica? ¿ No se confundiría el doctor? Permítanme aclarar algunas cosas aquí. Definitivamente puede haber más de un archivo médico en un repositorio o una carpeta, pero no se les puede nombrar como archivo docker. En primer lugar, siempre
estás no permitirás eso. Por lo que no hay mucho que discutir. Y en segundo lugar, nombrarlo como archivo Docker tiene sólo un propósito. Hacer el comando de construcción de imágenes más pequeño. Usando docker help Auto builder. Si simplemente tenemos archivos para diferentes nombres, que son esencialmente Dr Files, Doctor no se molestará por ello. Simplemente construirá el archivo que mencionamos con eso. Fuera del camino, echemos un vistazo a estos archivos tenemos archivo Child and Parent Docker. Entonces vamos a darle el debido respeto al padre. Henry, tú al principio. Muy bien, así que este es un archivo docker y el derecho arriba Es bastante sencillo. Sólo tenemos tres instrucciones entre las cuales sí te son bastante familiares. El Ventana Medio es una nueva entrada en nuestro Learning Co que tenemos sobre instrucción de construcción. Su propósito es bastante sencillo. Nos permite especificar un comando el cual se pasará a la siguiente imagen que utilizará esta imagen ya que su imagen base suena confuso. Bien recogido este ejemplo. Ayudamos a abrir a 16.44 como nuestra imagen base, y crearemos alguna imagen a partir de este archivo docker. Ahora bien, si esa imagen se usará como imagen base fuera de otro archivo médico, será igual al 1 al 16.4 ya que CMD puede sobreescribirse por el siguiente archivo docker CMD o instrucción de punto de
entrada. Entonces si queremos ayudar a algunos cambios que persistan mientras se utiliza esta imagen como imagen basada como tener un archivo llamado saludos dot txt, creado en la carpeta temp necesitamos usar en instrucción de factura, somos un acuñado la frase Saludos desde tu padre imagen dedo del pie, TMP slash saludo start txt y esperando que existiera cada vez que usamos la imagen creada a partir de este archivo médico como imagen base con esa clara en nuestra cabeza. Salgamos de este archivo ahora Vamos a abrir archivo Docker hijo. Sólo tenemos a instrucciones. 1er 1 se menciona la imagen base llamada Papa Open Do latest y léela que provienen de. Quizás te preguntes es el nombre de la imagen que pronto construiremos y estamos ejecutando Bash con instrucción CMD. Yo realmente queremos que Papa Bentos saludo start txt sea visible en esta imagen. Ahora construyamos la imagen padre usando docker build guión F common, seguido del nombre fuera Docker File Target Image name y adoptemos para indicar el
directorio presidente . Del mismo modo, construyamos imagen del dedo del pie abierto del bebé a partir del archivo Child Docker. vistazo a esto durante el primer paso de la configuración de la imagen base. Está ejecutando un disparador de proyecto de ley, el cual ha sido heredado de en instrucción de factura imágenes fuera de base. Archivo Docker. Veamos si ambas de sus imágenes están listadas o no. Sí, son John, un contenedor de bebé imagen del dedo del pie abierto y lo nombra contenedor del bebé. Cuando ejecutamos este contenedor, teníamos directamente a la raíz fuera de sus imágenes base abiertas del dedo del pie. Navegemos al director de TMP usando CD y veamos si empieza el saludo. Txt está presente. Sí, está aquí. También lo podemos tapar y verificar su contenido. Lo cual es parecer que teníamos un tribunal en ello. Podemos salir de este contenedor ya que nuestra demostración on bill es exitosa.
18. Demostración: instrucciones diversas de Dockerfile (parte 2): Bienvenido a la sección de archivo Conferencia Conclusiva Off Docker. En esta conferencia, lograremos tres objetivos. Entender e implementar el estado del contenedor Comprobación usando archivos docker hacen lo mismo con la instrucción de
señal stop , y mientras se
nos agrega, también contendrá ojos una aplicación de frasco de muestra. Como siempre, comenzaremos por conocer nuestro presente directorio de trabajo, que es la luna nueve bajo CMC. Si revisamos la lista de componentes, esta vez
ayudamos a tres archivos. Apt Art by docker archivo y requisitos inician TXT, que es un archivo de texto. Vamos a explorarlos uno por uno, empezando por secuestrar por. Estamos viendo una muestra de aplicación de matraz dedos de los pies o familiarizados con pelear on y han trabajado con matraz antes encontrarán este archivo un trozo de pastel y los que no han tocado matraz. No te preocupes, hay nada Incomprensible. Flask es un marco de interfaz de Gateway de servidor Web. En otras palabras, en caso de off fightin, permite Spuyten aplicación toe talkto servidores Web con el fin de reenviar y recibir
solicitudes y respuestas AP web . Hemos iniciado nuestro archivo con una declaración de importación simple para importar clase de matraz desde la
biblioteca flus o framework. Si te preguntas por qué en el mundo. Tendríamos instalado marco de matraz o Pitre? Aguanta la respiración. Esas piezas se unirán al rompecabezas pronto también. A continuación, estamos creando una instancia de aplicación a partir de la clase de matraz. Es argumento es nombre. Este nombre String puede ser reemplazado por cualquier otro que te guste, pero se recomienda mantenerlo nombre si estamos ejecutando una aplicación de modelo único. Cuando se compila la app de matraz, nombre es reemplazado por Main, lo que hará nuestra instancia. La instancia principal. Siguiente línea es un decorador, que es un rapero para describir una función usando otra función como su argumento. El propósito de este decorador es gritar las solicitudes entrantes para reenviar Slash, que se comprende como anfitrión local Puerto 5000. A continuación, estamos definiendo la función, que se ejecutará dentro de esta aplicación Web. Instancia. Se llama C M. C. Y fue simplemente ayuda imprimir una cuerda llamada Welcome to the Container, masterclass por lienzo civil como su valor devuelto. Por último, estamos instruyendo al matraz que si nuestra instancia es mala, que es, entonces ejecute esta aplicación y ponerla a disposición del público. Salgamos de este archivo Siguiente arriba. Tenemos el archivo más pequeño de todo el curso llamado requisito dot txt. Si recuerdas, durante la teoría introductoria de contenedores, habíamos mencionado que los contenedores redujeron una larga lista fuera de los requisitos. Testiguarlo. Simplemente tenemos una entrada en el archivo llamada requisito dot txt, que es la versión del matraz 0.12 punto dos. Pero tampoco los vamos a arreglar para instalar eso externamente. Después de todo, los contenedores están aislados y una menta por lo que cada instalación idealmente debería ocurrir durante las imágenes en el tiempo mismo. Idealmente, hablando fuera de las imágenes, necesitamos un doctor file toe build esta app. Entonces salgamos de este archivo y abramos tap. Empezando, ayudamos a abrir la imagen base del dedo del pie y estamos ejecutando una actualización e instalación apagado. Muerde pip y llama. Estamos copiando todos los contenidos de este directorio host toe app directory off base image y haciéndolo funcionar Directorio. A continuación, estamos instalando contenidos listados en requisitos. Iniciar txt. Podríamos simplemente haber mencionado flasheado allí, pero esta es una práctica estándar para enumerar sus requisitos en un archivo separado e instalarlos usando el propio archivo. También hace que la legibilidad fuera del archivo docker sea más simple para otros desarrolladores ahora que son prerrequisitos están configurados. Podemos entonces app no ser blanco como aplicación de tubería. Usando la instrucción CMD antes de CM Lido, tenemos instrucción de chequeo de salud. La comprobación de salud es una forma de realizar una comprobación periódica definida por el usuario o definida por el desarrollador en contenedor para determinar si no es situación deseada. Conocida también como sana o no, esta instrucción comprende tres aspectos son tres tipos fuera de argumentos en doble tiempo y vienen en total desafío un plazo después del cual se
agotará el chequeo periódico de salud . Lo hemos guardado 10 segundos, lo que significa que se realizará un chequeo de estado en el contenedor en marcha cada 10 segundos. Tiempo fuera, pequeñas mentes se fueron de los pies hacia atrás. Si el contenedor permanece insalubre, retroceder implicaría realizar un reinicio del contenedor. Esto nos lleva a otra pregunta. ¿ Cómo no nos importa si el contenedor no es saludable? El Dr. reconoce el hecho de que cada contenedor o aplicación tendría
definiciones diferentes fuera de ser saludable. Por ejemplo, en esta aplicación de matraz, solo hecho de que los recursos estén correctamente asignados y el contenedor se esté ejecutando no significa que la aplicación esté funcionando correctamente. ¿ Y si el servidor Web no está resolviendo nada? Y si nos encontramos con 401 o 404 errores donde la página web deseada no estaría disponible. Mataría por completo el propósito de esta aplicación en primer lugar. Por eso ayudamos a comando o argumento CMD. El argumento ejecuta comandos seguidos por CMD, y los resultados definen si el contenedor está sano o no. Por lo que nos toca proporcionar los comandos adecuados que puedan disuadir correctamente la
situación de los contenedores minados . En este caso, estamos proporcionando un comando con lógica nuestra condición, lo que significa que o bien esto están tocados. Nuestro primer comando es llamar al host local en el puerto 5000 que mostraría el resultado fuera de la aplicación de
matraz. Pero ayudamos a adjuntarle una bandera fallida, lo que significa que si los encuentros comunes entran 401 o 404 no mostrará ninguna salida. Ni siquiera esa respuesta predeterminada como este discurso no se puede mostrar etcétera. En ese caso, se realizará el
segundo comando el cual devuelve el estado de salida. Una de las razones para escribir el segundo comando de tal manera es que la instrucción de chequeo de salud considera un estado de salida como poco saludable. Por lo que vamos a la dirección sirviendo aplicación de matraz cada 10 segundos, y siempre y cuando no encuentre ninguna era de solución. No se escribirá estado de salida. Uno que significará que el contenedor está sano y en todo caso, sí encuentra alguna vez 401 o 404 No existirá. Estado uno, lo que significará que el contenedor no es saludable y t off. Dichas alteraciones provocarán un retroceso. Es obligatorio escribir chequeo de estado antes de instrucción CMD dedo del pie siempre anulándolo. Siguiente es señal de parada cuando terminamos un contenedor Docker Sentido Doctor domo Sick señal dedo del pie . El proceso Lennox responsable de ejecutar el contenedor enfermo domo mata con gracia el proceso, lo
que significa que borra toda la caché y la memoria antes de separar el proceso del
padre X y liberar recursos para ser utilizados otra vez. Pero podría provocar un choque o un bucle interminable si hay un error fatal o una
explotación de vulnerabilidad en la aplicación, lo
que significa que se hace necesario usar SIG kill en lugar de enfermo Tom, que mata inmediatamente el proceso. Stop signal te permite reemplazar eso antes enfermo Tom por la señal que deseas proporcionar. En otros casos, es posible que incluso tengas que usar SIG. Nosotros somos uno o seis top, dependiendo de la naturaleza fuera de su aplicación estaban reemplazando domo enfermo con PSA kill en instrucción de
señal stop . Con eso dicho, Guardemos este expediente y salimos. Construyamos la imagen y la nombremos matraz usando docker. Construir común. El edificio está hecho. Ahora Vamos a ejecutar el contenedor fuera de él y llamarlo matraz. Ahí vamos. No, vamos a tener una lista de estos contenedores. 1er 1 es matraz, y si le echas un vistazo a su estado, aparece y corriendo junto con sano,
lo que significa que se está realizando el chequeo de salud. Si desea verificar si el chequeo de estado es correcto o no, Local host on Port 5000 y allá vamos. Es la salida de nuestra aplicación de matraz. Por último, detengamos al convocador. Cuando volvemos a enumerar sobre contenedores, podemos ver que el matraz acaba de detenerse recientemente, pero a diferencia de otros contenedores, se detuvo con un récord 137 que en términos fuera de Lenox indica corte de salida fuera del proceso , terminado por instrucción de señal
enferma, enferma o parada, también funcionó correctamente. Parece que hemos logrado todos los tres objetivos fuera de esta conferencia, así que nos vemos en la siguiente
19. Demo: centro de Docker Hub: ya es hora de ir más allá de nuestra pequeña máquina anfitriona y conocer la amplia comunidad fuera. Doctor. El mejor modo de hacerlo es empezar con Docker home. Vuelve a nuestra web. Rosa Goto ayudo eso, dr dot com Y donde aterrizamos está la sala lanzada, doctor, ¿eh? Dr Hub es un servicio basado en la nube alojado por Dr Misself, que le permite construir, vincular y administrar las imágenes de sus médicos. También proporciona algunas fuera de la producción grandes características útiles como construcción automatizada. Tan solo para su información, el auto construirlo que utilizamos en nuestra sección anterior donde no proporcionamos ningún nombre fuera de archivo mientras pasaba el proyecto de ley Common. Y sin embargo, archivo
Dr Build the Content Off Docker también está alojado por back y servicio fuera de Doctor Hub Para
acceder a sus disposiciones en primer lugar, necesitamos crear una cuenta que sea totalmente gratuita, y todo lo que necesita es un conjunto genérico datos fuera como nombre de usuario, correo electrónico, I D y contraseña. Una vez que hayamos agregado eso, aceptemos los términos y servicios y probemos que no somos robots. Después de este paso, debe recibir un correo electrónico sobre la idea que proporcionó y debe hacer clic en el enlace de
activación. Es decir, eso es obvio, ¿verdad? Una vez que hayas activado tu cuenta, aterrizarás en una página. Deberíamos parecernos a éste. Es tarjeta el tablero. Muestra tu nombre de usuario y proporciona enlaces a casi todo lo que podrías querer hacer en el Dr Hubbert. En primer lugar,
estamos en la pila de repositorios donde puedes explorar los repositorios disponibles a nivel mundial o crear uno por ti mismo. También se puede crear una organización que SOS como una unidad fuera de la gestión de personas sobre se
replantearon . Es útil si no eres un individuo, pero estás actuando para una organización o en nombre, a menudo organización. Y como aún no hemos creado encuestas, no
tenemos ningún inicio reposar nuestras aportaciones en general. En el panel sobre estos pasos, tenemos unos cuantos lings. En primer lugar ellos te lleva al tablero donde ya estamos así que hacer click en él será
prácticamente inútil. Al hacer clic en la opción Explorer, obtenemos un mundo completamente nuevo de los repositorios populares creados por individuos y organizaciones todo el mundo. Para ser honesto, uno de los aspectos, que hace que los médicos sean tan populares y queridos Entre los ingeniosos, es el enorme aporte de la comunidad en tan poco tiempo, y el hecho de que el Dr reconozca su importancia y proporciona un lugar dedo del pie acceder a ella. Todos estos reportes están ordenados por el número de pull stay han recibido, y nuestro Motor X, que fue utilizado en nuestro contenedor de primera hora de discurso, está en la parte superior de la lista opción de organización nos proporciona otro dispuesto a embolsar respecto a las organizaciones y crear menú nos proporciona una lista fuera de opciones donde podemos crear ya sea organización de repo en una factura automatizada. Se puede crear una compilación automatizada proporcionando contexto de factura, que generalmente es un repositorio que contiene el archivo docker denominado Docker File en su
máquina host . decir, Esdecir,es la versión Web fuera del proyecto de ley de docker corto Común que hemos estado utilizando en la
sección anterior . Ya que es la versión Web, tenemos que utilizar un servicio de cancha y gestión de versiones como conseguir su bolsillo de órbita, y finalmente, tenemos una lista fuera de opciones para nuestro propio perfil, donde podemos hacer alguna personalización, como agregar más información sobre nosotros mismos, cambiar contraseñas, conseguir algún tipo de ayuda nuestra más importante la documentación. En próximos videos, entenderemos Dr Images con mayor profundidad y trabajaremos con ellos.
20. Comprender las imágenes de bailadas: ya hemos estudiado y trabajado con Dr File. Es hora de enfocarnos en las imágenes de los docker, como hemos visto anteriormente. Una imagen docker es una colección o pila de capas, que se crean a partir de instrucciones secuenciales en un archivo médico. Las capas son de sólo lectura, aunque hay una excepción fuera de la capa superior más, que es de lectura, tipo
escritura. Pero nos meteremos en eso más adelante. Las imágenes del doctor pueden ser reconocidas ya sea por su imagen única i D, que es proporcionada por DR o un nombre o etiqueta conveniente, que explota por nosotros, significa usuarios. Por último, se
pueden empujar o sacar de Docker Hub, que acabamos de visitar en la última demo. Si queremos visualizar las capas de una imagen docker, se apilarían así. Empezamos con el sistema de archivos de arranque, que es bastante similar al sistema de archivos de arranque propio de Lennox. Se trata de un arreglo fuera Ver nombre del grupo, espacios y recurso, una ubicación que separa virtualmente la imagen del resto de los archivos en el host o la nube . Además de eso, ayudaríamos a capa de imagen basada, que junto con las capas sobre ella, seguirá el mapeo de archivos establecido por el sistema de archivos de arranque. Leah. A continuación, tenemos capas como directorio de trabajo, variables
ambientales. Copia del anuncio expuesto. CMD etcétera. Hablando fuera de imágenes intermedias. Aquí te dejamos algunos puntos para recordar. En primer lugar, como hemos mencionado anteriormente, las imágenes
intermedias se crean a partir de instrucciones individuales del archivo docker, y actúan como capas fuera de imagen media o resultan en imagen. Todas estas imágenes intermedias son de sólo lectura. Por lo que una vez que se construye la imagen, estas capas no aceptarán ningún cambio en absoluto. Tienen idea de imagen separada fuera de su cuenta, cual se puede ver usando el historial médico Command. Si te preguntas, ¿por qué un médico tiene existencia fuera de imágenes intermedias en primer lugar? Es para el cobro. Por ejemplo, si estás construyendo dos imágenes diferentes a partir de la misma imagen base como Engine X y Apache en punta abierta, la capa de imagen base solo se descargará una vez y será la utilizada cuando sea la misma . Para que este cobro sea más sencillo, tenemos imágenes intermedias donde cada capa tiene su propia identidad significativa, y se separa de todas las demás capas en términos de usabilidad. Pero las imágenes intermedias pueden no ser utilizadas por sí solas, ya que no serían suficientes para ejecutar un proceso de contenedor por sí mismas. Por ejemplo, incluso la imagen más pequeña consistiría en al menos una imagen base, y una parece la instrucción de punto de entrada. Por último, están apilados como una capa de solo lectura de forma holgada colectiva por una U. F. S, que es un sistema de archivos sindicales.
21. Demo: trabajar con imágenes de Docker | Busar, empujar, push, y la etiqueta: En primer lugar, tenemos al Dr Search Command. Se utiliza para buscar imágenes desde Docker casa solo para aclarar, no es necesario tener una cuenta de ayuda del médico para buscar Informes de tu anfitrión incluso están tirando de ellos. Es solo un requisito usar la interfaz Web fuera del doctor, ¿eh? O por empujar repositorios sobre él. En cuanto al mismo impuesto fuera de este comando, la búsqueda del doctor congelado le sigue el nombre fuera de la imagen. Un número de versión opcional After Colon. Ejecutemos este comando. Aquí obtenemos una lista de imágenes de fightin ordenadas por el número de estrellas. Por supuesto, muchos fuera de ellos son marcos construidos encima de la fightin. Ya que beytin sería una de las palabras clave, hay descripción fuera de las imágenes para proporcionar más breves dentro y un cheque de si la imagen es oficial o no. Aquí, la primera imagen tiene más estrellas, y también es la imagen oficial. A continuación, tenemos un caso bastante especial. Doctores Buscar comando de registro da imagen oficial fuera del registro Docker del Dr Hub. Si no queremos sacar una lista tan larga de los repositorios, también
podemos poner filtros en nuestra búsqueda aquí esperamos Poner libremente hay guión oficial igual a True, que sólo nos mostrará imágenes oficiales. Ahí vamos. Sólo tenemos una imagen dulce, adecuada para quienes gustan de sus resultados necesitan en orden. Doctor también te permite dar formato a los resultados fuera de la búsqueda. Aquí el formato se menciona en comas dobles invertidas y comienza con la tabla de palabras clave , lo que significa que queremos un formato tabular. Después hemos entrado en los sentimientos deseados que queremos. Se mencionan los campos en tirantes dobles y están separados por barras inversas D, que tiempos para tabulador. ¿ Qué personaje espacial? Podría haber adivinado a estas alturas que esto creará tres columnas, una fuera de cada campo. Ahora que se hacen las predicciones y listas de deseos, hay bajo mando. Ahí vamos, estamos abarrotados, mesita está aquí y está mostrando los mismos repositorios que antes. Apenas en formato visualmente diferente. También notó que sólo ayudamos a tres campos que habíamos mencionado en el comando y se saltan el resto de los campos. Pasando de la búsqueda del médico, llevamos a cabo el comando de imágenes Docker. Se trata de una versión más corta fuera de las imágenes docker, una menos común y ambos fuera de ellas hacen exactamente lo mismo que es enumerar las imágenes en su host. Como puedes ver, estas son las imágenes que construimos durante nuestra sección anterior. Por otro lado, si queremos enumerar versiones o instancias fuera de tipo particular de imagen, podemos mencionar el nombre de la imagen seguido por Docker Images Command. Intentemos enumerar aquí todas nuestras imágenes abiertas del dedo del pie. También podemos ver el tamaño de la imagen, que denota el tamaño que actualmente ocupa Dick en la máquina de almacenamiento fuera de host Fuera de curso especificando el número de versión precedido por un Kahlan estrecha la lista sólo a una entrada . Además, si queremos ver las partes completas fuera de datos truncados como imagen I d Podemos usar
guión, guión, sin guión, tronco, bandera también. Pero ten cuidado mientras lo usas, ya que puede hacer que los resultados sean desordenados, Realmente desordenados. Después celebramos docker. Tire de él, Busta especificó imagen de doctor eh Puerta de hocker host. Aquí le hemos proporcionado al motor X con el último ataque de Colin. Por lo que nuestra imagen tendrá la última etiqueta en los concentradores Docker y se
sacará el siguiente repositorio . Como puedes ver, ha descargado una versión más reciente del Engine X, que es más reciente en lugar de lo último. Si utilizamos motor X colon, médico
alpino, Hubble proporcionar una imagen con etiqueta alpina. Ahora, si agarramos una lista de las imágenes disponibles del motor X en nuestro anfitrión, obtenemos con demasiada frecuencia. En primer lugar es el alpino, que acabamos de tirar, y en segundo lugar es la última versión, ya que se pueden ver ambos de ellos muy mayoritariamente. En términos de tamaño, Alpine es como la imagen mínima del motor X, que es más pequeña en términos de tamaño, ya que Alpine como la base en sí es más pequeña. Por último, si queremos todas las variantes fuera del motor imágenes X, digamos ,
para fines de prueba ,
para fines de prueba, podemos golpear el comando con
guión, guión, todo bandera fiscal, y vamos a recibir las imágenes que faltan del repositorio una vez enlistamos las imágenes
del motor X. Ahora es claramente visible que se trata de versiones diferentes pero de diferentes tamaños. Estamos de vuelta a nuestro doctor Hub puerto de efectivo. Demos click en la opción de crear repositorio para que podamos hacer un repositorio y empujar imágenes a él en el panel
izquierdo. Docker es lo suficientemente generoso como para enumerar los pasos para crear un repositorio. En primer lugar, se suponía que
todos proporcionarían un espacio de nombres para nuestros repositorios para que no tengamos que
hacer que el nombre sea único en todo el mundo. Generalmente, el espacio de nombres es el mismo que el nombre de usuario. Ahora vamos a nombre o repositorio. Lo estamos nombrando. Denunciar guión, Motor X. Puedes nombrarlo. Cualquier cosa que te guste. El siguiente paso es la descripción de las personas de aquí. Como puedes ver, hemos dado una breve y dulce descripción sobre la alberca de la ciudad. Si deseas describir tu reporte con mucho más detalle, puedes saltar a la sección de descripción completa de este reporte. Y en el paso final, podemos establecer el permiso de visibilidad para nuestra historia de reporte. Dr. Ofrece un reporte privado gratis Un reporte público ilimitado con médico gratuito tener cuenta. También lo hacen sus elecciones sabiamente. No necesitamos reportes privados por ahora, por lo que seleccionaremos la visibilidad pública para esta gente. Ahora vamos a crear el informe presionando el botón crear al final Fuera de la página, hemos creado con éxito nuestro informe Motor X, ya que podemos ver que hay algunos toques por encima de la breve descripción fuera del repositorio. 1er 1 es reportar en cuatro tabuladores. Muestra la información básica sobre nuestro motor de repo X, como es visibilidad, que es pública y breve descripción al respecto. 2do 1 es dags. Se pueden agregar múltiples imágenes bajo una sola gente separada por diferentes etiquetas. Si no especificas ninguna tachuela para la imagen que comprará antes de tomar el último ataque. 3er 1 son colaboradores. Consiste en un usuario o una lista fuera de usuario a quien el propietario fuera del reporte privado quiere otorgar el acceso de lectura, escritura o administrador siguiente, y el 4to 1 es Web Hooks. Web Hook es una solicitud de publicación de devolución de llamada http. Se puede utilizar para notificar a los servicios de usuarios u otras aplicaciones sobre la imagen recién empujada al informe. último es la configuración fuera del repositorio aquí el usuario puede cambiar el permiso de visibilidad fuera del informe y también puede eliminar el informe de los usuarios. Talker ayuda cuenta de forma permanente ahora. Como se puede ver, se pueden extraer las imágenes disponibles bajo el repositorio del motor X del informe. Al usar el acoplador específico, tire de doctor común tire de lona civil slash Reporte guión motor X y guárdelos en sus máquinas. Dado que este es su primer repositorio creado en Docker hub, démonos un capricho dándole una estrella. Empezar a la gente es una forma de demostrar que te gusta el repositorio y puedes recordarlo para tus futuras referencias. Ahora volvamos a la terminal antes de empujar una imagen al registro Docker. Necesitamos volver a iniciar sesión en Dr Help usando Docker Iniciar sesión Comando Interactivo Lee Aquí se nos
ha pedido que ingresemos a nuestras credenciales de inicio de sesión doctor Hub. Entraremos un nombre de usuario, que está verdaderamente en lienzo, y es contraseña hemos iniciado sesión exitosamente en nuestra cuenta con una advertencia con dice que nuestro médico tiene contraseña se almacena sin cifrar en conflicto dot Jason archivo en nuestra máquina para referencias futuras aquí. De acuerdo, votó por ahora. Por lo que haremos caso omiso de la advertencia y procederemos al siguiente paso. Ahora vamos a atacar una imagen local Motor X, Kahlan última en una nueva imagen. Especificaremos dónde queremos empujar esta imagen. Podemos escribir el nombre de host en el que está hospedando el registro, que es lienzo civil para nosotros. Ahora mencionaremos el nombre del registro en el que queremos empujar la imagen que es guión de repo Engine X. Quieres dar tu propio pegado personalizado a la imagen, como CC hyphen engine X, para este ejemplo son Si no menciones ninguna etiqueta para la imagen, tomará
lo último por defecto. Este formato de dos etapas es meditado a Bush, una imagen a un repositorio público. Ahora vamos a echar un vistazo o recién etiqueta imagen listando todas las imágenes en nuestra máquina. Papá, tú lo eres. Contamos con motor original. Siguiente última imagen y lienzo civil recién abordado Informe Slash. guión, motor X Colin CC motor X imagen. Pero, ¿notaste algo? Estas dos imágenes tienen la misma imagen I d Es porque Dr Tack Common ha creado un alias para tu imagen como su nuevo nombre de imagen para
que la imagen original quede intacta y todos sus cambios se puedan realizar al nuevo imagen más temprana. Ahora vamos a empujar la pizarra de lona civil Reportar Hyphen Motor X Colin CC motor xto. Nuestro reporte Motor X usando docker push common. Ya hemos especificado la parte para la ubicación de destino en nombre de imagen. Como podemos ver, Doctor está empujando cada capa de la última imagen original. Fin de Actus. Por otro lado, docker demon con stack todas las capas del's secuencialmente y crear una nueva imagen con la etiqueta CC Engine X en el reporte Motor X Al final del proceso, obtuvimos un nuevo resumen de imagen. Identificar fuera de la imagen push. Ahora volvamos a la cuenta de Dr Help para verificar que nuestro informe ha sido
empujado con éxito . Quién navegará al reporte y al siguiente repositorio Ir dedo tags y hemos empujado
con éxito la imagen, Etiqueta de
imagen, tamaño y un nombre tardío se mencionan aquí. En la próxima conferencia, profundizaremos en la imagen inspeccionándola y mirando su historia.
22. Demo: conoce tu imagen de la baile | Inspección e historia: ya que sabemos que Docker Images Command enumerará todas las imágenes docker almacenadas en nuestra máquina con alguna información básica como Image I D Repository, nombre e imagen Tak Tau Identificar diferentes imágenes. Pero ¿y si queremos saber más sobre alguna imagen en particular? Bueno, para eso, realizamos doctor inspeccionar médico mando, inspeccionar información de devoluciones comunes sobre cada objeto médico que ha contribuido en la creación a partir de una imagen portuaria particular, que puede ser muy útil en el momento de la depuración. Vamos a enumerar todas las imágenes abiertas del dedo del pie disponibles en nuestra máquina local. Mi comando de escritura Dr Images Abierto a y estamos. Tenemos cuatro imágenes de dedo abierto con diferentes etiquetas de imagen bajo abierto al repositorio. Vamos a inspeccionar dedo abierto Colin última imagen docker tipo docker imagen docker. Comando Inspeccionar seguido del nombre de la imagen que desea inspeccionar. Escribiremos mujer a Colin última aquí, presiona enter, y como puedes ver, ha mostrado la información detallada sobre la última mujer a imagen en Jason Terry. Aquí podemos ver la imagen extendida I D off open to latest seguido de reporte, nombre e informe. Yo pecho que es el número hex de 64 dígitos. A continuación, ayudamos a contenedor a identificar. No lo confundas con los contenedores corriendo que quieren imagen. Es el contenedor intermedio que el médico ha creado al mismo tiempo que construye la imagen del dedo abierto desde docker. Archivo. Conflicto de contenedores es los detalles de configuración sobre el mismo contenedor intermedio, el cual se almacena como imágenes. Meta líder para referencia. A continuación se presenta la información relacionada con la imagen scratch y su arquitectura, la
cual se utiliza como imagen base aquí. También menciona el tamaño real y virtual fuera de la imagen final. Y por fin tenemos Root FS identify, que muestra digerir todo e inmediatamente nosotros fuera de esta imagen. Si deseas acceder a un detalle específico sobre una imagen que conformas en la salida apagada. Doctor Inspect Tipo común Doctor Inspect, seguido de la antigua etiqueta Freud Argumentos para formatear bandera entre comas invertidas, reporte, impuesto e informe. Me acabo de separar por Kahlan al último tipo docker imagen, nombre, presiona enter y como resultado, nos devuelven el reporte y reporto me acabo de bajar mujer a última. También podemos ver de las reservas inspect, a menudo imagen a un archivo en formato Jason para futuras referencias aquí. Queremos almacenar los detalles de configuración sobre esta imagen en un archivo de texto. Para ello. Tipo Imagen Docker Inspeccionar formato seguido de Jason No hay conflicto en comas dobles invertidas y llaves que quieren y almacenan el resultado En inspeccionar subrayado informe subrayado puntera
abierta archivo txt. Es sólo un nombre que le hemos dado al expediente. Puedes dar cualquier nombre que quieras. Enumerar todos los archivos disponibles. Inspeccionar informe. Puntera abierta ha sido creada con éxito. Echemos un vistazo a los contenidos de este archivo. Conflicto. Detalles sobre la última imagen de dedo abierto está disponible en el archivo de texto. Si recuerdas los esfuerzos de raíz, identifícate en la inspección apagado, abierto a la última imagen mostró solo ese digerir todas las Leah's intermedias en la imagen
basado en solo digestores. Es difícil determinar cómo se construyó la imagen. Para eso tenemos una historia más oscura. Command Docker History nos mostrará todas las capas intermedias, muchas veces imagen. Averigüemos las capas intermedias de este tipo de imagen docker imagen Historia ¿quién fue dedo del pie en terminal? Tenemos todas las Leah's intermedias para nuestra última imagen de dedo abierto. Estas capas son chile de secuencia apilada comenzando desde la imagen base en la parte inferior hasta la capa
CMD en la parte superior. Fuera de los resultados. Todas las capas tienen su imagen asociativa, tamaños de
ID y su creación. Es hora de profundizar en esto. Hallemos historia fuera de una de la imagen que hemos construido sobre nuestro médico anfitrión local, quien encontrará historia fuera de i. M g Subrayar Apache Ahora escriba docker historial de imágenes, seguido del nombre de la imagen, que es I am G Subrayar Apache y pulsar enter. Te podría estar preguntando por qué algunos fuera de la columna de imagen rosa en tanto las reservas contenidas faltan y algunos fuera de ellas tienen su imagen. I ds. Como recordarán, las ideas de imagen intermedia se dan a las capas creadas por DR Five Instructions, y pueden ser utilizadas con fines de cobro por nuestro propio Dr Host. Pero si una imágenes sacadas de Docker Hub, tal cobro no ocurriría, y como puede causar enfrentamientos ambientales, por lo que no se nos proporciona ninguna idea de imagen para imágenes intermedias de Leah's off sacadas, Todo lo que podemos saber es existen. Tenemos dos tipos fuera de imágenes intermedias las cuales son fáciles de distinguir una que son construidas por algún otro médico host, y acabamos de usarlo como imagen base y las que se comprometen por nuestras instrucciones . También puedes identificarlos para el momento en que se comprometieron la imagen base de inmediato. EU tiene 17 meses de edad, mientras que los otros están comprometidos hace apenas unas horas.
23. Demo: limpia imágenes de docker: tener imágenes innecesarias tiradas alrededor de nuestro anfitrión puede ser toda una frontera. En primer lugar, consume mucho espacio fuera del disco y tener versión múltiple fuera de imágenes similares puede causar confusiones no obstante. Vamos a enumerar o imágenes disponibles. Basta con echar un vistazo. El listado ya es exhaustivo. Es hora de acostarlo un poco para mantener las cosas ordenadas y ordenadas. En primer lugar, usemos nuestro, um o eliminemos comando. Quitaremos una imagen con una etiqueta de tirón alpino de un guión. Como recordarán, estas imágenes fueron sacadas como una pila de imágenes intermedias en capas, por lo que también se eliminarán. De igual manera, todas las imágenes intermedias junto con la imagen resultante serán eliminadas de nuestro host sólo para verificar. ¿ Cómo le fue nuestro mando? Consigamos otra lista de imágenes y no deberíamos encontrar ninguna imagen con un guión Alpine pull attack. Otra forma de escribir imagen RM es simplemente escribir en M I y seguirla por imagen i d. Cuando vistas imagen I d. en lugar de etiqueta de imagen, todas las imágenes que contengan que d serán eliminadas aquí. Un guión, variantes
alpinas y alpinas fuera del motor La imagen X se verá afectada por este comando
Por otro lado Tal operación que involucra I D fuera de la imagen, que se usa más de una vez, no se puede realizar normalmente. Por eso estamos recibiendo este error y la sugerencia de eliminarlos de manera contundente. Hagámoslo. Usaremos el mismo comando con cuatro pila ya que notarás todas las imágenes. Con esto, yo d será liberado de su etiqueta y se les quitará junto con las
imágenes intermedias .
24. ¡Un contenedor está en mano!: terminamos tanto con el archivo Docker como con las imágenes de Docker, Así que ahora es el momento de prestar nuestra tan necesaria atención para extender el punto fuera de las puntuaciones. Cadenas Ya hemos visto la definición formal fuera de contenedores, pero si consideramos nuestros conocimientos actualizados, la forma más sencilla de describir contener a sería están ejecutando instancia de una imagen docker, puedes compararla con la analogía off proceso y programa En el de Lennar, igual que un proceso es una instancia en ejecución. Fuera de un programa. Un contenedor es una instancia en ejecución a menudo imagen con ayuda fuera de espacios de nombres en el Lennox. Los contenedores anfitriones proporcionan aislamientos similares. Al igual que nosotros, um, cada contenedor tiene su propio sistema de archivos, controlador de
red, controlador de
almacenamiento y privilegios administrativos también. A pesar de todo esto, cualquier contenedor sería al menos 100 veces más ligero que el Williams que hospeda el mismo conjunto de Softwares que hemos visto previamente que las imágenes de Docker se hacen fuera. Leer sólo las capas, y la capa superior más es herbaria derecha. Bueno, esta capa superior está redondeada. Hazlo mientras crea un contenedor fuera de la imagen con configuraciones de red correctas. Los contenedores también pueden hablar entre sí. Por qué yo paz o DNS. También sigue la política de copia sobre escritura para mantener la integridad fuera de la imagen Docker, que exploraremos pronto. Se puede preguntar ¿qué es exactamente lo que queremos decir al ejecutar la imagen? Bueno, mucho menos a la racha sorpresa se puede definir de manera bastante simple. En nuestro contexto, significa escribir recurso es como memoria de cómputos y almacenamiento.
25. Ciclo de vida de contenedor: Ah, contenedores. Ciclo de vida s bastante similar dedo del pie Un procesa ciclo de vida en Lenox porque después de todo, un contenedor es solo un proceso en ejecución. Instancia fuera de una imagen de doctor. Empezamos con los estados creados que pueden ser una parte fuera del comando doctor run o pueden ser causados
explícitamente por Dr Create Command. Si se trata de un comando part off run, conducirá automáticamente a la siguiente etapa que está en estado de ejecución. Significa que el contenedor creado o el proceso yule del cobertizo se está ejecutando y las fuentes de re están siendo utilizadas activamente por él. Alternativamente, si un contenedor está explícitamente en la etapa creada, se puede enviar al estado de ejecución con inicio. Vamos. Siguiente es escenario bossed que no ocurrirá por sí solo. En su mayor parte, se
puede causar estratégicamente con docker container Pause comando y reanudar su similar con un comando NPAs para contener un proceso irá a estados pendientes y una vez reanudado, volverá a estar en funcionamiento. A continuación se detiene la etapa, lo que significa que el proceso fuera del contenedor se termina. Pero el contenedor i d todavía existe por lo que se puede re escudo sin crear otro convocador y registrar su I D. Esto puede deberse a múltiples razones puede ser causado por una política de reinicio de época o simplemente contenedor. Habiendo terminado su ejecución hasta las tareas de finalización, podemos detener y reiniciar manualmente contenedores con contenedores Docker, detener y reiniciar comandos, respectivamente. Por último, hemos borrado etapa donde se retira el contenedor terminado y se libera su i d. Dejará de apelar en la lista de contenedores para expandirse aún más en múltiples contenedores partir de una sola imagen. Considerado este Bagram, la Leah de solo lectura es común, y las capas de escritura de lectura están recuperando datos de ella. Esto no causa ninguna corrupción de datos. Ya que la capa de solo lectura de datos no se va a modificar en primer lugar, y el sistema sólo tiene que realizar operación de lectura múltiple en los mismos datos. Esto optimiza el almacenamiento fuera del médico host. ¿ Dónde está el número fuera corriendo contenedores desde la misma o diferente imagen en un solo host siempre dependerá de las limitaciones de la arquitectura de los hosts como la memoria y la velocidad de procesamiento . Otro aspecto importante de los contenedores es su mecanismo de copia sobre escritura. ¿ Qué es eso? Bueno, es un trato bastante sencillo. Ahora hemos visto que capa creíble fuera contenedor está montado a la imagen de lectura acertadamente fuera de
Docker. Bueno, eso fue cierto, pero tiene un pequeño secreto para leer. Sólo las capas archivadas ellas mismas no se tocan. Ah, copiarlos se crea y leer correctamente está montado en esa copia, lo
que facilita la recuperación de las capas en caso de que cualquier
acceso no autorizado al sistema de archivos host o daño al condón.
26. Demo: la ejecución de contenedores vs: Probemos ambos comandos con un contenedor de caja ocupado. En primer lugar, usaremos contenedor docker. Crear comando. Le sigue el guión I etiqueta D, lo
que significa que será interactivo y teletype habilitado. No le hemos dado bandera desprendida ya que no necesitamos dedo del pie, estamos nombrando o contenedor cc guión. Ocupado cuadro A y estamos usando cuadro ocupado de imagen con el último ataque cuando ejecutamos el comando. Dado que el contenido de la imagen no está disponible localmente,
se sacará del centro médico una vez que se extraiga . Lo que ves al final es el contenedor único que d creado por
el Dr. La idea es única al menos en todo el host y cluster. Si estás ejecutando alguno ahora o se debe crear contenedor para listar el de Argentina, tenemos que ejecutar el comando docker ps guión A Y una vez que lo hagamos obtenemos una lista de descuento. Todos los contenedores que están funcionando están a punto de funcionar han terminado de ejecutarse en este Horst. El nivel de salida es bastante simple y la parte superior más entrada es nuestro contenedor creado recientemente . Todavía no se encuentra en estado de ejecución, lo que también se puede verificar desde la columna Estado. Le siguen bastantes contenedores más que han terminado de funcionar y han salido hace
algún tiempo. Aquí los recursos ya están listos para ser asignados al contenedor, pero aún no se han asignado. No te preocupes. Dejaremos que este contenedor también disfrute de su sueño de correr también. Pero antes de eso, veamos qué pasa cuando manejamos un contenedor. En cambio, tal
vez encuentres este comando similar al que hemos utilizado en algunas de nuestras demos iniciales. Es porque esta es la forma más a la corriente principal de ejecutarlo esta vez. También ponemos esa bandera para que no tengamos que sumergirnos en el contenedor. Y lo hemos nombrado cc casilla ocupada B. que ya habíamos sacado la imagen de la caja ocupada la última vez, Doctor le ha cobrado íntegramente y simplemente ha devuelto un contenedor. I d Si te preguntas, ¿por qué tenemos una bandera R M etiquetando a lo largo? Se instruye a Docker para que elimine este convocador después de que haya terminado de funcionar. Vamos a echar un vistazo al Dr P s guión e de nuevo y lo que vemos es nuestra entrada superior reemplazada por casilla ocupada ser contenedor. A diferencia de su contraparte llamada casilla ocupada A Esta está ganando durante seis segundos. De hecho, también
hay una diferencia de tres segundos entre su tiempo de creación y el solo tiempo de ejecución. Se puede suponer que el doctor se tomó ese tiempo para asignar los recursos y registrarlo como un proceso a su anfitrión. Ya que tenemos nuestros contenedores funcionando, jugaremos un poco más con él en la próxima conferencia.
27. Demostración: trabajar con contenedores |, detención, Restart y rename: Empecemos de nuevo Demo, donde hemos terminado la anterior. El listado fuera de contenedores sigue siendo el mismo justo el tiempo que la duración se ha actualizado. En demo anterior, habíamos creado el contenedor llamado CC Busy box A, pero no lo ejecutamos ahora para enviarlo al estado de ejecución. Usemos Docker container Start Command, seguido del nombre de dos contenedores. No tenemos que proporcionar banderas como idealmente, ya que ya se han pasado durante el comando create. Vamos a ejecutarlo. Ni siquiera vamos a conseguir un contenedor. Yo d aquí. Ya que esos dos se habían generado previamente, todo lo que obtendremos es el nombre del contenedor como un guiño al éxito fuera del comando en típico médico Ver estilo de vida. Tiempo de ponerse repetitivo y listar de nuevo los contenedores usando docker PS guión A. Y no hemos actualizado se crean. Contenedor cc Ocupado cuadro A ahora está finalmente en estado de ejecución, igual que inicio. También tenemos una orden para detener los contenedores. Ya que a acaba de empezar a correr, detengamos de nuevo cc ocupado cuadro B. Ah, señal de
confirmación es el nombre del contenedor, y si quieres verificarlo, enlistemos nuevamente a nuestros convocadores y esperemos, ¿dónde está RCC? Beat cuadro ocupado? ¿ Eso significa que no es ETA? Bueno, no. Si recuerdas, habíamos aplicado. Aflac llamó a Adam en nuestra última demo con Docker run common on Sisi Busy Box Beacon Dana, lo que significó que el contenedor se eliminará una vez en cuando haya dejado de funcionar. Para usar esto simple. Si desea reutilizar el contenedor, guárdelo. Si no quieres usarlo,
quítalo y libera a alguien. Fuentes. A continuación realizamos un comando de reinicio. Reiniciemos nuestra caja ocupada CC, un contenedor. También le daremos un buffer de cinco segundos. Y cuando lo verificamos, lo que obtenemos es un contenedor recién iniciado en funcionamiento. Por último, creo que todos estaríamos de acuerdo en que Sisi ocupado Box A no era tan grande fuera de una
convención de nomenclatura a seguir. Es sólo Lindy o complicado y soso. Si te encuentras con este tipo de pensamientos con los de Jurgen Deena, tenemos un comando para renombrarlos. Seamos un poco más casual y renombrar guión cc, guión de cuadro
ocupado A como mi guión ocupado cuadro, y cuando los
enumeramos, podemos ver que el cambio se refleja por la forma de notar que el contenedor acaba renombrado, no reiniciados, lo que significa que podemos renombrarlos casi siempre que queramos a menos que afecten a otros contenedores. En próxima conferencia, haremos algo más aplicación relacionada con nuestros contenedores.
28. Demostración: trabajar con contenedores |, Attach y exec: al igual que demos anteriores. Tenemos una lista de contenedor aquí Ahora usemos docker container adjunto comando. Significa que estamos adjuntando el estándar Io y el error estándar off o contenedor a la terminal fuera de nuestro cliente médico. Tenemos adjuntado mi ocupado contenedor de caja aquí, así que vamos a golpear entrar. Como puedes ver ahora estamos accediendo estándar. Debo una terminal fuera de caja ocupada desde nuestra abierta hasta terminal. Si golpeamos un menos, veremos una lista de directorios disponibles en entorno de ruta de caja ocupada. Podemos jugar un poco más para navegar a otros directores también. Si lo salimos escrito puerta trasera abierta a terminal host y hay un aspecto interesante
al comando adjunto. Cuando volvemos a enumerar los contenedores, podemos ver que mi contenedor de caja ocupado no está funcionando. Ha salido hace unos segundos. Es decir, adjuntar el contenedor condiciona que se detenga cuando salgamos del apego. Una alternativa a esto es Dr Executor significó que nos permite utilizar cualquier comando que queramos y ejecuta dos contenedor. Pero antes de que empecemos de nuevo nuestro contenedor. Ahora hemos usado Doctor exact, que significa Ejecutar con guión i d. bandera sobre cómo se dirige a correr e imprimir el resultado fuera de PWD Command. Una vez que tiene éxito, sostuvimos una línea inclinada hacia adelante, que indica ruta fuera de nuestra concurrida caja. A diferencia de adjuntar. Si volvemos a enumerar los contenedores, encontraremos o contenedores aún en funcionamiento.
29. Demostración: Inspect y comete contenedor: es momento de conocer nuestros contenedores a mayor profundidad. En primer lugar, tenemos la lista de contenedores solo para evitar cualquier confusión. Hemos corrido un contenedor de dedo abierto después del contexto apagado. Última demo. Consigamos más información al respecto con Doctor Inspect Command seguido del
nombre del contenedor . Lo que obtenemos como salida es la descripción de Jason fuera del contenedor. No necesitamos ser intimidados por la pura cantidad de información también. Interpretarlas uno por uno. Partiendo de la parte superior, tenemos contenedor I d proporcionado por Docker Timestamp off container creation part donde se está ejecutando el contenedor. No hay argumentos ya que no hemos proporcionado ninguno en el estado retrocediendo el contenedor. Tenemos indicios fuera de que sobre contenedor está en estado de funcionamiento y no pausado ni reiniciando nuestra deuda, entonces no se ha matado al salir de la memoria. Es proceso yo d en ti. Bento es 6 94 Entonces tenemos información de la imagen en Términos Off Image Digest y
contamos con varias partes como host, part log, part y parte de configuración. Entonces tenemos otro montón de información donde la mayoría fuera es irrelevante para este contenedor
en particular por lo que son o son nulos están vacíos. Pero que sí importan son el nombre fuera del contenedor y el hecho de que
aún no se haya reiniciado . Siguiendo esto? También contamos con volumen de red y otra información que podría ser útil para ti una vez que
sigamos avanzando en este curso. Por ahora, podemos enfocarnos en encontrar información específica del Comando Inspeccionar. Ya que aunque te familiarices por completo con todos los atributos, leerlos cada vez puede ser realmente desalentador. Usemos formato bandera con ella, inspeccionemos comando y estrechemos alrededor de los resultados a solo i p dirección. Podemos hacer esto estrechando el alcance a las redes y bajo la configuración de red. Elegir el campo de dirección I P. Ahí vamos. Tenemos la dirección I P fuera de nuestro contenedor. Siguiente es el Comando de la Cumbre. Para utilizar efectivamente ese comando, necesitamos hacer al menos un cambio en el estado del contenedor después de que se haya creado a partir de la imagen. Solo para recordarte, este contenedor urbano de dos se crea a partir de la misma imagen que habíamos empujado sobre nuestro doctor Hub Repo. Vamos a ejecutarlo con bash. Ya deberías estar acostumbrado a este comando. Vamos a verificar por listado o los directorios. Sí, estamos en el contenedor. Ahora Vamos a ejecutar una actualización. El propósito aquí es simplemente cambiar el estado. Contienen A de los hombres. Fue creado una vez que la placa A está completa. Salgamos ahora usemos Dr Command Commit, seguido del nombre del contenedor, que es mi nombre abierto y actualizado en el formato Off Doctor Hump People imágenes. Lo hemos mantenido como cubano actualizado a 1.0. Una vez que entramos en ella, el oblato estará comprometido con nuestro doctor Gente hambrienta. Como habrás adivinado, es esencial que seamos amados a nuestro médico. Tener cuenta para utilizar esta demo. El contenedor actualizado se compromete como la imagen tal y como se lee, write lier se convierte en sólo lectura y se apila encima de previamente nosotros fuera de la imagen anterior. Entonces en lugar de contenedores, si
enumeramos las imágenes, podemos encontrar la actualizada, que puede ser directamente entonces como contenedor, y no tendremos que leer bajo un gran comando. Esto ayuda a mantener desvíos fuera de las imágenes portuarias. En próxima conferencia, quién aprenderá sobre mapeo de puertos
30. Demostración: la exposición de contenedores | de contenedor y mapeo: en esta demo mapeará nuestro deporte máquinas anfitrionas para contener un puerto. El comando es bastante simple, ya que sólo tenemos que extender el comando run con una bandera. Mapearemos a nuestros anfitriones. Puerto 80802 Container Sport 80 en TCP mencionándolo siguiente guión. B note que las imágenes utilizadas aquí es la que habíamos creado mientras trabajábamos con instrucción
expuesta. Ahora, cuando manejemos los contenedores, vamos a conseguir los puertos mencionados en el aeropuerto. El resultado parece un poco desordenado, pero las anotaciones deberían ayudar aquí. Ahora vamos a crear otra gran cena a partir de la misma imagen llamada con engine X guión. A. En lugar de proporcionar puertos y protocolos como antes en esta ocasión, solo
proporcionará guión p mayúscula y permitirá a docker mapear puertos por sí mismo. Aquí utilizará la información proporcionada por la instrucción expuesta en el archivo docker y contabilizará los
vertimos disponibles de las máquinas host controladores de red. Podemos ver que el nuevo contenedor tiene el puerto 80 mapeado de contenedor a puerto, 32.768 fuera del host. También podemos ver esta información al golpear Docker Container Port Command, seguido del nombre del contenedor. Por último, cuando aprendimos host local en el puerto 8080 en nuestro navegador Web, podemos ver la página de inicio de Engine Ex, que indica que nuestro mapeo de puertos fue exitoso. Cuando hacemos lo mismo con el otro contenedor, también muestra
lo mismo. En próxima conferencia se limpiará o espacio de trabajo.
31. Demostración: limpieza de contenedores | Prune y Remove: Por lo que en esta demo aprenderemos diferentes formas de retirar los contenedores. Enumeremos todos fuera de los donantes de órganos. Y, sí, hay bastante fuera de ellos. De hecho, muchos de ellos no son ni siquiera eso es significativo en este momento y deben ser retirados primero. Teníamos un Comando Adam básico, seguido de un nombre de contenedores. Aquí hemos preferido un contenedor detenido. Kant subrayado de una vez. Es un estado de ánimo desaparecerá de la lista. Entonces tenemos el mismo Comando Adam. Pero en lugar de proporcionar nombre, hemos proporcionado el contenedor I DS fuera de los contenedores stop, y el resultado es el mismo. Desaparecen de la lista después de ser retirados. El caso será un poco diferente con los contenedores en funcionamiento. Tan solo para asegurarnos de que no estamos cometiendo ningún error mientras el contenedor líder corriendo nos pide
que proporcionemos la bandera de demolición forzada, yo diría que es un gesto amable, ya que evita posibles errores no forzados. A medida que agregamos la bandera forzada, nada puede detenernos de quitarla. Si queremos ser amables de contenernos y queremos matarlos adecuadamente, podemos enviar la señal de domo enfermo usando el comando Kill container docker. Pero como se puede ver, todavía
tenemos bastantes contenedores girando y no necesitamos parar unos en su mayor
parte,
para parte, quitar los contenedores stop, tenemos un contenedor de acoplamiento de carro de mando Prune. Es un común corto y dulce y no requiere ningún nombre. Nuestro i ds. Simplemente matará a todos los contenedores colgados y liberará cualquier recurso que pueda . Teníamos tres fuera de esos contenedores los cuales se retiraron, y obtuvimos 1.8 megabytes de espacio libre. Por último, nuestra lista fuera de contenedores solo contenía los de mentira en el próximo modelo profundizará en el networking.
32. Aplicaciones de múltiples contenedores e introducción a la red en las redes en Docker: hasta ahora hemos jugado con contenedores individuales en son Tuyos. Pero aunque sí usáramos más de un contenedor, eran completamente independientes el uno del otro. Por ejemplo, un contenedor podría ser suficiente para alojar una página de destino estática, pero una aplicación para teléfonos inteligentes definitivamente requeriría más de un contenedor, pero cada uno de ellos puede ser un propósito específico. En tal caso, el intercambio de
información entre contenedores se convierte en un factor crucial para el desempeño general fuera de la aplicación. En otras palabras, necesitan hablar. La comunicación puede ser de 1 a 11 demasiadas o muchas a muchas. En caso de contenedores docker, Estas comunicaciones son administradas por objetos llamados controladores de red para definirlos simplemente un médico Controlador de red es una pieza fuera de software que maneja redes de contenedores. Se pueden crear simplemente usando DOCKER Network Command. No se requieren imágenes ni archivos. Hablando fuera de las redes estas redes pueden generar desde instancias de host único a
clústeres de múltiples host . Por ahora, nos centraremos en un solo host y visitaremos las redes de clústeres y nos ocupamos de Docker Swarm. Dr. Los conductores delDr.
Network son bastante confiables, ya que el propio DACA los utiliza para comunicarse con otros contenedores y mundo exterior. Esto también significa que el propio Dr proporciona algunos controladores de red nativos. Si no queremos que el agua cree unos por nosotros mismos como un trade off, significa menos control o yo p rangos y puertos, aparte de las redes que creamos y las por defecto. Doctor también es compatible con controladores de red remotos, que son desarrollados por terceros y pueden instalarse como enchufes, aunque todavía están bastante por debajo de estados en crecimiento. Y en su mayoría son útiles para casos de uso específicos como habilitar redes en un determinado proveedor de
nube aparte de los controladores de red. Doctor también Floyd I. Pam R. I. P. Y Tress Management Driver, que maneja I P direcciones rangos y distribuciones si no son especificadas por el administrador. Sé que tienes montones de preguntas como, ¿Cómo funcionan estas redes? ¿ Hay algún tipo? ¿ Hay alguna estructura que sigan? Bueno, exploraremos todos los detalles de las próximas conferencias cuando estudiemos
modelo de redes de contenedores y tipos de redes de médicos
33. Modelo de redes de Docker (CNM) de Docker: Vamos a cavar profundamente en el modelo de redes de contenedores. En primer lugar, contamos con infraestructura de red host. Esto incluye tanto los detalles de infraestructura de software como hardware como el uso de Eternity o WiFi y aceites de host. Coronel y Work Stack en nuestro caso, Lennox Network Stack. Además de eso, tenemos controladores de redes Dr,
que incluyen conductores de Network y I Pam. Acabamos de decir recientemente que la funcionalidad brevemente en última estructura. Además de estos controladores, celebramos docker engine, que crea objetos de red individuales, como podría haber adivinado el usuario definido en antes de contener objetos metálicos caen encima del motor
docker. Desde su provisión por ella, estos bloques forman parte del propio DR. Encima de para la red de contenedores, sostuvimos contenedores en ejecución los cuales van acompañados por al menos un endpoint. Dije al menos una porque es normal que contenedor ayude conectado a dos o más redes y por lo tanto consistente fuera de Morton. Uno extremos hablando fuera de los extremos. Su lado contenedor conectaba la representación fuera de Internet virtual, que es el protocolo común para la creación de redes a través de más oscuro. Contienen información de redes como dirección I P, Andress física
virtual y puertos, como se mencionó anteriormente. Si un contenedor está conectado a más de una redes. Tendrá más de un endpoints correspondientes, los cuales contendrán diferentes I P's. El alcance fuera de estos I guisantes normalmente estaría limitado al host en caso de que fuera la
implementación de un solo host dentro del mismo alcance. Si dos contenedores están conectados a la misma red, también
pueden comunicar cable. DNS eran nombres de contenedor se pueden utilizar en lugar de las redes de contenedores de I P. Ploy esta información a la red y yo, los controladores
Pam, luego los controladores de red e IBM tradujo estas solicitudes en paquetes soportados por la red host y las transmiten para asegurarse de que los contenedores puedan comunicarse con el mundo exterior. Porque si eso no sucede, olvídate del motor X. Ni siquiera
serías capaz de ejecutar después de obtener el comando de actualización correctamente. Entonces así es como funciona el modelo de red de contenedores. En la próxima conferencia, veremos detalladamente los tipos de controladores de red.
34. Los Docker's la red nativa de Docker: fuera de la OTAN y los conductores de redes remotas iban a trabajar a los conductores nativos. Embket nativo APUESTA. Los conductores de camiones se utilizan en la creación, fuera de defecto en redes definidas por el usuario. ¿ Te acuerdas de este diagrama de la conferencia anterior? Vamos a encogerlo un poco por conveniencia ahora que se considera el primer tipo de red la red host. Aquí la idea es bastante vainilla. credenciales de red fuera del host se reflejan directamente en el contenedor y el punto, lo que significa que los contenedores conectados a esta red ayudarán al mismo i p que el propio host . Esto no quiere decir que contenedor con abandono, su verdadero dedo del pie naturaleza poniéndose un poco más práctico. Digamos que ayudamos a los contenedores conectados a la red host predeterminada o definida por el usuario. En este caso, ambos contenedores se comunicarán donde Internet virtual, reflejando las capacidades y limitaciones fuera de la máquina host. Pasando de host, ayudamos a la red de puentes. También es la red deformada para contenedores portuarios. Si no nos conectamos explícitamente ni contenedores a ninguna red, se
conectarán a la red puente predeterminada. El nombre fuera de esta red ayuda mucho a definir sus propiedades. Crea un puente de eternidad virtual todos los contenedores conectados a esta red están conectados a este puente, donde contenedor y puntos el puente se comunica con la red host. Significa que los contenedores estarán aislados de las especificaciones de la red host. Los contenedores tendrán ocular diferente al huésped. Podemos definir la gama I P y presentar mezquita para el puente y redes posteriores. Pero si optamos por dejar de lado esta decisión, los conductores de
Yo Pam manejaron esta tarea para nosotros. Podemos pensar nuestra dirección estos contenedores usando el I p explotado por el puente virtual. Fuera de curso. El comunicado pasará por las máquinas host Red significa si está abajo, pero no podrá hacer mucho ascendido. Pero esto puede ayudarnos a ocultar el DNS o i p fuera del host en versión reciente fuera de Docker E 17 y sobre. También podemos usar nombres de contenedor toe addis ellos cuando nos estamos comunicando dentro del mismo médico, Red de
puente prácticamente explorará estas redes más en dem electores. Además, tenemos redes de superposición en caso fuera de todo una red. Sí necesitamos salir del capullo de infraestructura de casillero de host único en
uso industrial fuera de la comunidad portuaria, nuestra edición Enterprise. Lo más probable es que encuentre clúster o clústeres fuera del host de Docker, que ejecutará solo, conectado, o al menos el conjunto relevante de aplicaciones contenerizadas. Tal arreglo se llama Enjambre, Atracado en Docker. Enjambre depende en gran medida del petróleo en un camión aprovisionamiento apagado más oscuro. Todavía estamos apoderados de enjambre en nuestro curso. Pero no te preocupes. Esta explicación no te inundará con terminologías de forma desconocidas en caso fuera de la
red de puentes . Todo lo que teníamos que preocuparnos eran contenedores I P. Ya que teníamos sólo un anfitrión. Pero con toda la red tendrá múltiples hosts teniendo múltiples contenedores donde cualquier combinación fuera de comunicación podría ser necesaria. Por lo que mientras establece o realiza la comunicación de contenedor a contenedor, nuestro conductor de red no puede escapar simplemente manteniendo el seguimiento de los contenedores. Yo p. También necesita gritar su comunicación al anfitrión adecuado. Para resolver esta red de superposición ayudará a dos capas fuera de la información de la red
de base cual contendrá datos relativos a la fuente y destino fuera de caballo. Yo sería y excesivamente información Lear, que contendrá datos sobre contenedores de origen y destino. I p. Como resultado, el encabezado del paquete de comunicación consistirá en. I p direcciones fuera tanto de los hosts de origen como de destino y contenedores. Si lo miras prácticamente cuando te introduzcamos caliente
35. Demo: crea redes de docker: en esta demo, crearemos nuestra primera red de Doctor y la entenderemos. Lo haremos mediante el uso de red médico, crear comando y amueblarlo con bandera de conductor. Nuestro conductor para esta demo es una red de puentes. Entonces pasaremos el puente argumental y finalmente le daremos un nombre adecuado. Mi puente. Lo que obtenemos como resultado es un i d para el objeto de red que se ha creado. Ahora antes de cavar profundamente en mi puente, vamos a crear otra red llamada mi Puente. Uno proporcionará unos cuantos perímetros más con éste para una mejor compasión. Aparte del conductor de bandera proporcionado previamente en su puente Value, también
hemos proporcionado la sub red y volvería a ser rango. Recibimos otro yo D. Vamos a enumerar estas redes fuera. Como pueden ver, mi puente y mi puente uno no son las únicas redes disponibles en la lista. Eso se debe a que el Dr. Roy nos A. Estableced off default, crearon redes usando diferentes controladores de red golpearon al host nuestro puente y ninguno se puede decir por los nombres que bridge y host están usando los controladores de red correspondientes. Ninguno es un puntera de caso especial. Se utiliza para indicar tu aislamiento y falta de conectividad. También podemos filtrar la búsqueda proporcionando la etiqueta de filtro. Pongamos el filtro que solo deseamos red de puentes por lo que se dirá el campo conductor puente y aquí tenemos todas las redes creadas con conductor de red de puentes.
36. Demostración: trabajar con redes de Docker |, desconectar, inspeccionar y limpiar: En esta demo, conectaremos uno apagado o contenedores con uno fuera de las redes que hemos creado. En primer lugar, veamos si tenemos algún contenedor en funcionamiento. El contenedor debe ser estado pasante, ya que la conectividad de objetos de red en Docker sigue las reglas de
comunicación entre procesos en Lenox, lo que significa que si no hay proceso, nada puede hablarle en términos desactivados redes. Como podemos ver, tenemos que sacar nuestros contenedores de repuesto del modelo anterior, pero ambos fuera de ellos en un estado de salida. Empecemos mi cubano para contener un Ahora mantén una lista fuera de las redes frente a nosotros para tomar mejores decisiones. Usaremos Docker Network Connect Command, seguido del nombre de la red y el nombre del contenedor y pulsa Enter. No obtenemos ningún tipo de respuesta como red I D o contenedor I d. de Docker. Por lo que una manera justa de verificar la conexión sería usar hablador. Inspeccionar comando después de usar inspect on my open to Si navega a los campos de red fuera de la salida, se
puede ver que tenemos descripción fuera de la red de puentes, mi puente uno adjunto a mi contenedor de punta abierta. Y también tiene el alias, que es igual al que habíamos recibido después de la creación fuera de la red tat bridge. También puedes notar el punto final, cual se describe con un endpoint i d y el siguiente. Vamos. En cambio, apaga usando un comando separado para conectar la Red del Doctor. Lo mencionarás junto con el comando Ejecutar usando bandera de red. Aquí estamos proporcionando red host al nombre del contenedor Kant. Underscore Engine X, que se creará a partir de motor siguiente imagen. Tener la última etiqueta, en particular si ejecutas Docker Container Port Command con el motor de subrayado de maíz X. No recibirás la información de mapeo de puertos ya que no se lleva a cabo ningún mapeo de puertos con el controlador de
red host contenedor se comunica con Internet usando puerto off host sí Podemos usted más información sobre esta red de caballos usando comando inspect en contenedor. Y como puede ver, podemos obtener detalles de red I D y endpoint fuera de la instancia de red host. Al igual que en el contenedor anterior Aquí, también, puedes notar un campo llamado puente bajo la configuración de red. Este campo está vacío. El motivo es que, si no proporcionamos ninguna red manualmente, Dr Price, el presidente por defecto, trabaja a cada contenedor. No Inspeccionemos la red de puentes predeterminada. Parece que también tiene su punto final. Presentar, y abordaría rango. Ahora, si miramos el campo de contenedores, encontraremos mi dedo abierto o, para ser precisos, solo mi dedo abierto. El motivo por el que el maíz subrayado Engine X no está listado aquí es que está conectado a la red
host, Dr The Next un container toe, uno fuera de las redes D Ford. Y en su mayoría la prioridad es el puente. A menos que mencionemos lo contrario. manera explícita, no la dirección I P fuera de mi dedo abierto bajo D para Bridge Network, que es 172.17 punto cero punto a. Ahora inspeccionemos la red de puentes definida por el usuario en nuestro caso, mi red Bridge one. Tiene parámetros similares en comparación con el puente predeterminado. Aparte de diferente endpoint, soy Range y me ds. También tiene mi contenedor de dedo abierto conectado a él. Pero el I P es diferente del puente predeterminado. En otras palabras, se puede acceder a
mi contenedor de dedo abierto desde ambas redes utilizando el ocular correspondiente. También podemos formatear la salida off, inspeccionar comando como solíamos hacerlo. Anteriormente, vamos a agarrar el campo de valor fuera de alcance fuera de la red de Fort Bridge son podemos agarrar un set off i D y nombre por lo mismo como es visible en la salida. El primer ingreso es la red I D. Y el 2do 1 seguido de un Kahlan, es el nombre de la red. Ahora vamos a enumerar son contenedores de nuevo para ver qué hacer a continuación. Bueno, podemos ver qué pasa cuando desconectamos una red de Container. Usemos Doctor Network Desconnect Comando, seguido de nombre de red y nombre de contenedor, que son mi puente uno y mi dedo abierto. En este caso. Por último, si inspeccionamos nuestra red, podemos ver ese contenedor Mi dedo abierto, que antes se mencionó. Ahí está fuera de la vista con éxito. De igual manera, si inspeccionamos el contenedor, no
encontraremos al devorador de red definido por el usuario.
37. Demo: par un contenedor de otro otro: en esta demo, por fin
veremos los resultados de nuestro médico. Networking Hustle. Comenzando, Sigamos nuestra práctica estándar fuera. Obtener una lista fuera. Las redes de médicos estaban bastante limpias. Todo lo que tenemos nuestro puente host predeterminado y redes neuronales no discretas. Una red de puentes llamada Net Bridge y proporcionó sub Net y I p. Rangos como se menciona en el comando. Un estatus hecho. Ejecutar un contenedor llamado Kant subrayado base de datos de Reedus Image y conectarlo a la red Net British. Eso es buscar su I p. Ya que lo estaremos usando más adelante en esta demo i p off Este contenedor es 172.0 punto a 40 Talk one. Vamos en otro contenedor de imagen de caja ocupada y llame Se acabó. A. Este también está conectado al trabajo de presidente neto igual que el anterior. Ahora inspeccionemos la propia Red de Puente de Red para encontrar qué contenedores están conectados a ella. Ahí vamos. Tanto la base de datos de maíz como la plata A están conectadas tal y como habíamos esperado para el más lo es yo . P es de 172.20 a 40 punto a seguir el rango que habíamos proporcionado Ejecutar el tercer contenedor también desde la imagen de caja ocupada y llámalo servidor. Tenga en cuenta que no hemos mencionado ninguna red en absoluto, lo
que significa que estará conectada a la red puente predeterminada. También podemos verificarlo inspeccionando la información de su red. Y mientras estamos en ello, no
seamos su I P también, que es 172.17 punto 0.3. Ahora cambiemos a ver un poco. Ayudamos a tres terminales, que estarán utilizando para tres contenedores diferentes. Si no quieres pasar por todos los problemas, puedes usar múltiples terminales y seguir cambiando entre ellos o puedes ejecutarlos en múltiples pantallas. No obstante te sientas cómodo. Ejecutemos contenedor de base de datos ido con Bash common. Una vez que hayamos navegado a la ruta fuera del contenedor, empecemos el dedo del pie Ping Google. ¡ Uy! Parece que cosa no está instalada en la imagen base fuera de los lectores. Entonces sigamos adelante y arreglemos eso. Se ejecutó una actualización genérica e instalar la utilidad Ping I P con este comando. Y una vez completada la instalación, siguiente currículum donde habíamos pasado el flujo fuera de este tutorial siendo Google. Me encanta decir esto siendo Google bing Google. Debería haber suficiente. Eso es bloquearlo con control, ¿
ves? Y lo que vemos es ser exitoso sin pérdida de paquetes. Ahora, si te acuerdas, hemos notado el yo p off todos los contenedores servidor es que yo sea fue 172.20 a 40 punto a
Vamos a ser que fue un éxito. Significa despegar todos los contenedores. Simplemente hablen entre sí sin ningún tipo de pérdida de paquetes. Ya que están conectados a la misma red de puentes, esta comunicación fue más o menos I PC o comunicación inter proceso dentro del
host Lennox . Pero considerando el aislamiento que han abierto, se puede tratar como dos extremos. A menudo, la aplicación se comunicaba. Ir más allá. Vamos a otra terminal y ejecutar servidor tomado Dana Thing, Google y Cont contenedor de base de datos de él. Ambos tendrán éxito, ya que Bridge Network permite a los contenedores comunicarse con el mundo externo utilizando
Internet virtual y los contenedores conectados a la misma red pueden hablar entre sí utilizando sus endpoints. Por último, vamos a ejecutar tan contenedor RB, que está conectado a predeterminado. Red penitenciaria, no definida por el usuario. Puente neto uno. Si tratamos de abrir Google, es un éxito. Pero si tratamos de hacer otros contenedores, fallaríamos, ya que en este momento no están conectados al puente por defecto. Por otro lado, aunque utilicemos nombres DNS fuera de los contenedores,
fuera de su ocular, contenedores conectados a la misma red se enfrentarán a notable oleaje pándose entre sí en absoluto . Esto explica y demuestra capacidades y limitaciones fuera de Origen funciona.
38. ¡Nunca pieras un "bit" de tus datos!: - Desde punto de vista de
1/3 persona, esto puede parecer una historia divertida, pero potencialmente puede costarte tu trabajo. Esa es la razón principal por la que necesitamos soluciones de tiendas eficientes con contenedores. La lógica es bastante simple. Los datos de contenedores necesitan ser respaldados en algún lugar como un almacenamiento permanente. Y una pregunta rápida que surgirá en tu mente sería en qué detalles
se deben respaldar. Para responder a eso, necesitamos mirar hacia atrás a la estructura en capas fuera de la imagen Docker y los datos del contenedor. Si recuerdas, ayudamos a tipos fuera de capas, colocadas solo capas, que mantienen datos permanentes y nunca se modifica. Política utópica correcta y capas de escritura de lectura, que sostienen temporales o billetera. Voy a datos si un contenedor se detiene o muere la billetera. Voy a día ahora se desvanece. Entonces ahora tenemos nuestra respuesta. Tenemos que hacer copias de seguridad de los datos importantes de la cartera. Voy a leer derecho lier fuera del contenedor. Ahora. La siguiente pregunta es ¿dónde almacenar los datos? Bueno, justo en cualquier lugar. ¿ Quieres almacenarlo en alguna máquina, que alberga Doctor? Adelante. ¿ Quieres almacenarlo en otro servidor? Adelante. ¿ Quieres almacenarlo en una nube, adelante también. Y la última n pregunta genuina Que me viene a la mente. ¿ Hay algún tipo de objetos de almacenamiento? Sí, hay más comúnmente de uso. El tipo de objeto universitario se denomina volumen docker en un volumen. El almacenamiento de contenedores está completamente aislado del sistema de archivos host, aunque los datos fuera del volumen se ordenan en un directorio específico fuera del host, su controlado y administrado por la línea de comandos de hablador. En comparación con otras opciones fuera del almacenamiento, que visitaremos pronto, los volúmenes son más seguros para enviar y más confiables para operar. Entendamos los volúmenes. Los volúmenes son objetos de almacenamiento fuera de Docker, que se montan dos contenedores en términos de implementación volúmenes son dedicados Directorios en hosts Sistema de archivos. Si se envía una aplicación contenerizada junto con el volumen, las personas aparte del propio desarrollador que usa la APP, terminarán creando un directorio de este tipo por su cuenta. Doctor hosts Container proporciona datos al motor Docker y usuario, proporciona comandos para almacenar los datos en el volumen o para administrar los datos en el mismo. Si bien lo que contenedor sabe, es solo el nombre fuera del volumen, no la parte en el host. La traducción se lleva a cabo en máquinas Docker, por lo que las aplicaciones externas que tengan acceso a contenedores no tendrán medios para acceder directamente a los volúmenes. Este aislamiento mantiene la integridad y seguridad frente a hosts y contenedores. Segunda opción es comprar mamás. El intercambio de información es bastante similar, aparte de que en lugar de crear un directorio inspirado en el nombre de montajes de
compra de volumen , nos
permiten utilizar cualquier directorio en el host docker para almacenar los datos. Si bien esto podría ser conveniente en algunos casos, también expone la ubicación de almacenamiento fuera del contenedor, lo que puede hacer densa en la seguridad general fuera de la aplicación en el propio host. Aparte de eso, los otros usuarios, aparte del propio desarrollador, pueden no cómo tal parte en su host y crear así puede no estar bajo sus privilegios o comodidad. Por último, les
ayudamos a los volúmenes FS o temporales del sistema de archivos y enlazar Mount le permiten compartir los archivos entre la máquina host y el contenedor para que pueda persistir los datos incluso después de que se detenga el contenedor. Si estás ejecutando Docker en Lennar, tienes opción 1/3. I m. F s mamás, el nuclear un contenedor con temperamento Fishman, el contenedor puede crear archivos fuera de los contenedores rideables antes a diferencia volúmenes y montajes de compra. Un temperamento fest Moan es temporal y sólo persiste en la memoria del host, no en el almacenamiento cuando el contenedor se detiene, el temperamento FIS montura es el estado de ánimo y el archivo seguro de ahí no se persistirá. El único caso de uso sensato, que me viene a la mente por 10 profesess, es almacenar archivos sensibles, que no quieres persistir una vez que se borre la aplicación. Algo así como el historial de navegación, que se borran si usamos la pestaña de incógnito. Él profesa monta cómo sus limitaciones se pueden crear, ¿qué nave? Y no funcionarán en entornos que no sean Linux como Docker en Windows.
39. Demo: trabajar con volúmenes | crear, hacer la lista y eliminar: en esta demo, vamos a crear un volumen usando la línea de comandos de doctor. Vamos a escribir el comando doctor volume create, seguido del nombre fuera del volumen. Aquí estamos nombrando el guión de la pared del volumen,
Ocupado cuadro. Una vez que el comando tiene éxito, obtenemos el nombre del volumen como el no fuera de él que se está creando. Antes de hacer algo a este volumen creado, vamos a crear otro. Pero esta vez, una
manera un poco diferente aquí, vamos a ejecutar un contenedor usando imagen de dedo abierto y vamos a dedo montar el guión de
pared de volumen , punta
abierta en los contenedores D. M. Directorio P.
O Temp. Nuevamente, no
haremos nada con este volumen,
ya que esta demo se centra principalmente en la creación a partir de los volúmenes. Ahora vamos a enumerar los volúmenes para ver qué hemos creado. Escribamos Dr William a. menos y como pueden ver, ayudamos. Cuatro volúmenes aquí hacen off ellos son creados por nosotros, mientras que para apagarlos los crea Dr usando controlador de volumen local, igual que cualquier otro objeto al que ayudamos a crear previamente, como imágenes, redes o contenedores. También podemos filtrar la salida de la L s común. Escribamos Dr. William LS. Y poner el filtro apagado colgando igual. cierto, Escierto,significa que enumerará los volúmenes que no se están montando puntera cualquier contenedor aquí pared ocupada caja no se ha montado a ningún contenedor. De igual manera, la que tiene al respecto, que es aprovisionada por portuario, no se
está montando, se
utilizan país. También, podemos inspeccionar o volumen igual que cualquier otro objeto mediante el uso del Dr. William Inspect, seguido del nombre del volumen. Y como puedes ver, obtenemos las etiquetas de tipo controlador de marca de tiempo de creación que no están aquí nombre de Punto de montaje fuera del volumen y alcance, que es local. Ahora intentemos eliminar uno de los volúmenes que hemos creado. Escriba el comando Dr William RM, seguido del nombre de volumen Hair were using volume wall hyphen open toe. Como pueden ver, obtenemos unas formas Energis del Dr. Demon. Dice que este volumen no se puede quitar porque está en uso, lo
que significa que se ha montado un contenedor. Entonces si retiramos el volumen, el contenedor y su rendimiento se verán afectados. Vamos a obtener una lista de contenedores para ver qué contenedor está bloqueando nuestra acción de quitar el volumen. Y como se puede ver, el tierno contenedor de ruido, que se construye de lo abierto a la imagen hace apenas dos minutos, ha sido montículo con el guión de la pared de volumen abierto a. A pesar de que aquí no se ha mencionado, se
puede adivinar ya que todos los demás contenedores están listos hace más de una hora. Eso es tipo el comando docker container RM, seguido de su nombre y tierna Niza se retira. Ahora vamos a leer en el comando docker volumen Adam Wall guión, Open toe. Esta vez no vimos ningún error y el volumen debió haberse eliminado. Vamos a verificarlo enumerando nuevamente los volúmenes. Y sí, el dedo del pie abierto de la pared no es visible.
40. Demo: cuando los contenedores se encuentran en volúmenes: en esta demo, vamos a demostrar el uso fuera de los volúmenes que hemos discutido en la teoría. Empecemos con crear el volumen, que habíamos borrado en la última demo, que es uno abierto a Lo haremos ejecutando un contenedor de abierto a imagen llamado Kant guión Open toe. Veamos si tanto el volumen como el contenedor están disponibles de nuevo. Para recordarte siempre podemos revisar el contenedor usando contenedor docker, inspeccionar comando y encontrar la información sobre volumen formateando su salida. Como se puede ver, el contenedor llamado Con Robin,
también, también, tiene el dedo del pie abierto de la pared de volumen unido a él. Ahora ejecutemos órgano. Dana Hendren Bash. Común en ello Puedes notar que no lo estamos ejecutando como contenedor de demonios, que significa que una vez que este comando tenga éxito, saltaremos derecho a la terminal off o contenedor. momento, este contenedor se encuentra en su estado por defecto, lo que significa que aunque lo eliminemos y lo gastemos de nuevo, nada cambiará. Entonces hagamos algunos cambios en ella, que se reflejarán en su lectura Write top most layer, y si eliminamos el contenedor, entonces se perderían los cambios que hemos hecho ahora. Aquí la acción puede ser bastante sencilla. No necesitamos hacer algo tan pesado, ni siquiera un simple acto off. Tan solo actualizar el siempre puede crear suficientes cambios para ser reconocido. Entonces vamos a actualizar esto abierto a escribiendo aplicación. Consigue un gran mando una vez que se haya rebajado. Cambiemos nuestro directorio de trabajo. Eres registro de guiones. Como habrás adivinado, este es el directorio donde el dedo abierto está guardando sus registros. Vamos a enumerar los archivos disponibles, y tenemos muchos archivos de registro aquí. El propósito de hacerlo es asegurarnos de que una vez que detengamos al convocador, deberíamos poder ver los mismos archivos que copia de seguridad en nuestra máquina host. Y la razón de eso es cuando creamos este contenedor, habíamos montado este directorio a nuestro host usando el guión de pared de volumen dedo abierto. Salgamos del proceso y detengamos el contenedor. No, tengamos los privilegios de root en nuestra máquina host. Y como pueden ver, estamos en el mismo directorio de trabajo solo con privilegios de root. Ahora, como hemos visto en la sección Terri fuera de volúmenes Docker almacena el backup off volume data underwear, guión, guión
labial, docker,
guión, guión, guión volúmenes. Por lo que vamos a navegar a través de él. Y vamos a enumerar el contenido en este directorio. Como puede ver, tenemos directorios fuera de todos los volúmenes creados por el controlador de volumen local. Ahora vamos a navegar por el guión de pared con el dedo del pie abierto para ver si se
reflejan los cambios en el archivo de registro . Una vez que estemos en guión de pared, abierto al directorio, veamos su contenido. Y lo que tenemos es un directorio de datos. Una vez que navegamos del dedo del pie que alistan su contenido, lo que vemos es una larga lista fuera de los archivos de registro, lo que significa que el montaje fuera del volumen con el contenedor fue exitoso. Entonces así es como montamos un volumen Tokcan Dana y creamos una copia de seguridad de sus datos para hospedar utilizando controlador de volumen
local.
41. Demo: trabajar con monturas de unión: en esta demo, vamos a probar el bind. Mamás. Vamos a crear un directorio llamado Bind Data on Our Doctor Host Inicio Directorio. Ahora ejecuta un contenedor llamado Bind You Bento de abierto a última imagen y enlaza. Es directorio vacío o temp al directorio de datos de enlace recién creado usando bind mount como costumbre, Vamos a ver si el contenedor se está ejecutando. Sí, lo es. Ahora es el momento de inspeccionar la información de enlace Monte y tenemos tipo Montaña, que está comprando montura junto con piezas de origen y destino, que son justo como las habíamos proporcionado. Para cuanto más hemos leído, escribir permiso configurar dedo del pie. Es cierto, lo que significa que los cambios en los archivos se reflejarán en ambos lados. Es probablemente la forma menos segura de montar un contenedor de datos dedo del pie almacenamiento persistente, pero por ahora funciona. Por último, tenemos la propagación del enlace. Es un aspecto interesante. La propagación de compras es una política que determina el acceso bilateral a los directorios creados dentro de la fuente y destinos de Mount Point. En otras palabras, decidirá
si los subdirectorios fuera de montaje se asociarán con la cantidad o no son privados es el valor predeterminado, lo que significa que cualquier subdirectorio dentro de fuente o destino fuera de MT. No reflexionará en ninguno de los dos lados. Ejecutemos. Enlaza 12 contenedor con Bash Command y crea un archivo llamado food dot txt. Lo estamos creando dentro del Directorio TMP de Contenedores, que es el Destino de Monte. Una vez que hayamos terminado, eso es salir del contenedor. Ahora vamos a acceder a la fuente fuera de Mount Point, que está dentro de directorio home off Doctor host. Podemos ver el directorio Bind Data reflejando aquí. Abrámoslo Y ahí vamos. Full dot txt está presente. Ahora intentemos hacer cambios al revés. Hemos visto actualización de destinos reflexionando sobre fuente, nada menos. Actualización de origen para ver si el destino refleja también los cambios. Mente bien que nuestro contenedor está cerrado por el momento y estamos creando un nuevo archivo llamado Hello dot txt. Volvamos a la terminal y ejecutemos de nuevo el contenedor para que podamos navegar de punta. Es el MP for temp directory hit ls para ver la lista de archivos y ahí vamos. Habíamos detenido el contenedor con un archivo, pero ahora tiene que apagarlos son Bine Mount está funcionando con éxito
42. ¡Demostración: el juego de la presentación de contenedor 2048!: vamos a hacer de código abierto oficial containerizado a cero para ocho en vivo nuestro médico anfitrión. Y para ello el primer paso es conseguir los archivos. Clonaremos este reporte get en nuestro directorio de inicio. Si no tienes que instalarte, por favor pasa por el artículo anterior. Una vez que el Depo es clon, vamos a navegar en él y obtener la lista de archivos. Tenemos un montón de archivos, incluyendo index dot html, que estaremos usando pronto. Ahora ejecuta un contenedor llamado 2048 del motor siguiente última imagen y usó el montaje de mina para montar nuestro clon 20 para ello. Directorio toe directorio html off y la siguiente imagen. Es decir, estamos reemplazando el archivo html index dot y brindando el soporte necesario para el nuevo índice dot html. Como siempre, estamos exponiendo contenedores. Puerto 80 para albergar deporte 80 es cero. El contenedor está en funcionamiento. Ahora abramos sobre el navegador y naveguemos al host local Puerto 80 80. Ahí vamos. Tenemos nuestro 2048 favorito en nuestro navegador Web y eso a containerizzate. A ver si funciona correctamente, - ¿lo
haces ? - Lo hace. Y no fue impresionante. Expediencia. Adelante, pruébalo tú mismo
43. Introducción a la composición de Docker: Hasta ahora hemos estado estudiando los objetos fuera del motor Docker, pero como habíamos mencionado anteriormente, ecosistema más
oscuro tiene más de un componente importante. Otro de esos Iscar Docker componer compuesto, es una herramienta para definir y ejecutar aplicaciones complejas con DACA. En caso de que no trabaje simplemente con motor docker, necesitamos múltiples archivos DACA para múltiples piezas o contenedores fuera de una aplicación completa . Por ejemplo, puede que tengamos que crear archivos separados para front end back in y otros bloques containerizzate, lo cual puede ser desalentador de administrar con compuesto, se puede definir una aplicación multi contenedor en un solo archivo, luego dar vuelta a su aplicación en un solo comando, que hace todo lo que se necesita hacer para que la APP se ejecute. Puedes definir e integrar múltiples objetos médicos como contenedores,
redes, servicios, servicios, etcétera en un solo archivo como bloques y compuestos los traducirá a docker engine para ti. En próximas conferencias, tendremos experiencia manos en mano con Docker, componer
44. Demo: instalación de la compose en Linux: como el título off. Esta demo sugiere que vamos a instalar Docker componer en esta demo. Lo haremos sacando a los binarios de doctor compuesto desde su oficial get hub release. Y almacenaremos este binario en Docker componer directorio bajo el usuario local Bin en nuestra
máquina host . Lo haremos con utilidad cool. Una vez finalizada la carga descendente, haremos ejecutables estos binarios y el proceso de instalación estará completo. Vamos a ver si la instalación es exitosa ejecutando Docker Compuesto versión comando. Bueno, la instalación es exitosa y Docker componer fue en 1.22 punto cero. Actualmente está instalado en nuestro host. Esta es la última versión para el momento en que se crea este curso.
45. Demostración: estructura del archivo de compose de Docker: para trabajar con archivos compuestos al igual que Second Model volvieron a cambiar de nuevo a comandos y archivos juntos. Ahora, solo para asegurarnos, veamos cuál es nuestro actual directorio de trabajo. Y como puedes verlo, un CC resaltó docker solo para recordarte de nuevo. El CC Docker tiene ocho victorias en total. Cada uno de ellos representa un módulo separado. Actualmente, estamos trabajando en un directorio de seis, así que vamos a navegar por allí. Y como puedes ver, hay un archivo llamado Docker Compuesto. No Yemen abrirá este archivo. Como hemos estudiado en la porción teórica, el archivo compuesto o el archivo compuesto médico es un archivo Yamil, que define múltiples objetos como servicios, redes y valores. Es importante saber que la parte por defecto para el archivo compuesto es siempre el
directorio presente . Ahora, antes de profundizar en el archivo más oscuro, compuesto en
sí, es importante conocer algunos bits y piezas sobre los archivos Yamil en general, donde Gamel representa yamma, no
somos lenguaje de marcado y tiene tres tipos de datos básicos. Uno su escala, er's como cuerdas y números. En segundo lugar, trata de secuencias que son una subida o lista y en tercer lugar nuestros ings de mapa, que son hashes en diccionarios, que se pueden representar usando un par de valores clave. El anidamiento de objetos en un archivo Yamil está determinado por sangría. Puede encontrar más información sobre los archivos de Yemen en el Lincoln a continuación. Ahora, ya que tenemos a Tad Coward, vamos a profundizar en este archivo compuesto médico. En primer lugar, mencionemos el worsen off doctor compuesto que estamos usando, que es t 0.3 en este caso. A continuación ayudamos servicios es el objeto patrón para los contenedores que vamos a crear. Si vamos a crear una aplicación de múltiples contenedores, se supone que debemos usar servicios. Eso es genial. Nuestro primer servicio llamado BB. Son tiempos para la base de datos ahora, al
igual que hemos estado creando contenedores usando comando. Aquí, también, necesitamos mencionar algunos parámetros en términos fuera clave Value pass. En primer lugar, mencionemos la imagen. Estamos usando mi versión secuela 5.7. Entonces estábamos bien imagen como Key y mi secuela 5.7 como valor. Entonces tenemos el nombre del contenedor, que de nuevo es una clave, y mi base de datos de secuela es el valor aquí. El Walactúa como la clave padre y el nombre del volumen y Mount Pot Act. A medida que los Niños notan la sangría entre todos los campos, la sensación clave o el padre siente sus servicios, entonces tenemos más sangría para los servicios que creamos DB o base de datos. En este caso, sigamos adelante y mencionemos la política de reinicio. Haremos siempre la política de reinicio para que no tengamos que preocuparnos de que el contenedor se apague y mente. Mint significa variables de entorno al igual que el archivo Docker aquí. Además, puede proporcionar variables de entorno a medida que el valor clave pasa inventándolas un poco más. Estamos proporcionando mi secuela, Jude Password, mi secuela Base de datos, mi secuela Usuario y mi secuela, Password for Our Wordpress instance que se creará en el próximo servicio aquí. Mi secuela, subrayado Database, que se va a llamar WordPress, se
usará como el nombre de los ratones. Igual instancia. Su contraseña raíz será palabra en Bad Press y mi secuela, Underscore User y mi secuela Contraseña. Estas dos últimas claves se utilizan dedo del pie permiten a WordPress otorgar a WordPress el acceso a la
secuela Mi . Instancia. A continuación, vamos a crear otro servicio en el mismo archivo llamado WordPress. Ahora mira el primer par de valores clave o mira el primer campo, dice
Depende de ello crea una relación de interdependencia entre contenedores, lo que significa que D be container necesita ser creado primero, y WordPress lo seguirá más adelante. Es útil crear aplicaciones completas de estado como esta. Aquí. El servicio de WordPress depende del servicio DB y un estado claro. Mencionemos todos los sentimientos necesarios para el contenedor de WordPress. Vamos a utilizar imagen de WordPress Nombrará el contenedor WD underscore front end. Vamos a utilizar el volumen llamado WordPress Underscore archivos y estamos montando BAR hizo ilegible w slash directorio html a este volumen. También estamos mapeando los puertos 8000 a 80 y estamos mencionando la política de reinicio como siempre, igual que en el servicio anterior. Aquí, también, estamos usando variables de entorno. El host de base de datos es DB llamando 3306 El usuario de WordPress DB su WordPress y contraseña es ABC a ese 123 Puedes usar cualquier nombre de usuario o contraseña que te guste, pero con fines de aprendizaje. Esto servirá. Por último, mencionaremos objetos que están fuera de los límites fuera de servicio o que no son el campo
Niños fuera de servicios. Dichos objetos son volúmenes y redes. Aquí no hemos creado ninguna red definida por el usuario. Tampoco han usado ninguno, por lo que no necesitamos declararlos. Pero definitivamente hemos utilizado volúmenes definidos por el usuario, por lo que necesitamos declararlos aquí usando la clave de volúmenes y los valores serán WordPress underscore file y db Datos de subrayado Una rápida revisión de lo que hemos hecho con este doctor archivo compuesto Hemos acostumbrado a los servicios Key Feels, y Williams on Held declararon volúmenes, los cuales se utilizan en los servicios en los servicios que sentimos que hemos creado a servicios, base de datos y WordPress. Y hemos mencionado las sensaciones de contenedor para ambos servicios, que incluyen nombre del contenedor, imagen del
contenedor,
entorno, entorno, variables e información de pared You Mount. En la siguiente demo, ejecutaremos este archivo compuesto y veremos cómo camina la aplicación.
46. Demo: Wordpress on Comose: En esta demo, ejecutaremos el archivo compuesto por doctor, cual creamos en la demo anterior. Ahora bien, si estás en el presente directorio de trabajo y si tu directorio consiste en un solo doctor compuso archivo de punto Yamil. Todo lo que necesitas escribir es guión médico compuesto por arriba, seguido de guión d tack off course. El guión D etiqueta es opcional. Y el único comando que estamos brindando es médico compuesto que, como se puede ver, es crear objetos uno por uno. Y si te das cuenta, pesar de que no proporcionamos ninguna información de red en nuestra demo anterior, en
primer lugar, está creando una red predeterminada con el conductor del camión D Fortman. Será una red de puentes. Entonces es crear los volúmenes archivos de WordPress y datos de DB desde el controlador predeterminado por lo que sus alcances serán locales. Entonces está creando servicios. Si nota el servicio db se crea antes del servicio de WordPress porque el lugar de trabajo
depende de DB. Ahora vamos a tener una lista fuera de contenedores en ejecución para ver si nuestro servicio ha creado ambos contenedores. Y como pueden ver, mi base de datos de secuela sobre WD subrayan front end. Ambos contenedores están en funcionamiento durante más de 30 segundos. Ahora, si ves más en caso de que fuera estabilidad, subraye frente y contenedor. Incluso la información de mapeo de puertos está disponible. Donde el puerto 8000 es mapa al puerto 80, puede preguntarse, ¿Cómo sucedió esto? No proporcionamos ninguna información relativa a ninguna red. Si recuerdas cuando Views Doctor compuso común Docker compuesto primero detodo creó una red
D Fort, esta red fue creada para asegurarse de que todos los requisitos de red fuera de los
servicios anteriores serán cumplidos por ella en términos de red de puentes, lo que significa que ambos fuera de estos contenedores están conectados a la misma red de puentes por defecto para
que puedan hablar con el mundo exterior y puedan hablar entre sí. No, vayamos a nuestro navegador Web y veamos qué se está hospedando en nuestro host local. Como podemos ver, el anfitrión local está hospedando la playa predeterminada fuera de la instalación de WordPress, lo que significa que la instalación y el hosting de WordPress fueron exitosos. Ahora juguemos un poco más con este WordPress y veamos qué podemos hacer con él. Bueno, no, ¿quién? Hemos agregado mucho contenido a un post ficticio y ahora dice que el Post ha sido publicado. Si hacemos clic en el botón de ver post, deberíamos poder ver cómo se ve nuestra publicación. Entonces hagámoslo. El Post se ve limpio, ordenado y bien estructurado. Significa que la instalación de WordPress no sólo fue exitosa, que está funcionando sin problemas. Ahora vamos a trabajar con mi secuela. Esto puede no parecer tan emocionante y remachado como la página web de WordPress, pero estamos de vuelta a nuestra buena terminal antigua. Ahora volvamos a conseguir una lista de contenedores en ejecución que ya hemos trabajado con WD Underscore Front End. Entonces ahora es el momento de trabajar con mi secuela base de datos Container. Vamos a darle la vuelta al Doctor exactamente D Común y ganar un bash Común en ello. Estamos dentro del contenedor con privilegios de root. Entonces vamos a enumerar los directorios. Navegemos a la pared slash lib slash mis directorios de secuelas para ver más su condón. Y como puede ver, la información sobre el usuario de WordPress ya se agregó a este contenedor, lo que significa que la vinculación de estos contenedores fue exitosa y la información se
intercambió con éxito también. Vamos en otra instancia, fuera de mi contenedor de secuela, pero esta vez como cliente, como pueden ver, estamos vinculando este contenedor con nuestro anterior mi secuela subrayada contenedor de base de datos, y también estamos proporcionando información sobre el puerto de comunicación y las credenciales de usuario root que puede tener para conectarse para permitirse la religión. Funciona como se puede ver el sitio del cliente fuera. Mi secuela ahora está activa, y podemos ver qué se está hospedando en la base de datos de mi secuela cuando aprendimos la consulta. Base de datos segura, aparte del sistema proporcionado o bases de datos por defecto como información Esquema, mi secuela Performance Key, Mom o SIS misma. También tenemos la quinta base de datos, toda WordPress, que se ha derivado del servicio fuera de WordPress front end. Si vamos más allá en esto, usemos el quickie use WordPress para que podamos profundizar más en esa base de datos. No, nuestra base de datos ha cambiado. Echemos un vistazo a las tablas dentro del tipo de base de datos WordPress tablas cortas, semi puntos y hit enter. Y aquí estamos todas las tablas requeridas para una instancia de WordPress exitosa. A pesar de que no necesitamos dudar si esto funcionaba correctamente o no, porque WordPress ya estaba establecido y funcionaba tan sin problemas. Pero esto nos da una creencia y comprensión aún más fuertes sobre cómo funcionan los servicios vinculados con Docker. Componer
47. Demo: introducción a la composición de Docker: Ahora que terminamos con el archivo Dr Compuesto Gamel y su ejecución, cambiemos a Docker componer línea de comando. Nuestro primer comando en la serie off Docker compose comandos es doctor compuesto Conflicto. Este comando se utiliza para ver el archivo Gamel compuesto en la pantalla de la terminal. Como se puede ver, proporciona toda la información sobre tanto de servicios como de volúmenes, que habíamos mencionado en el archivo yammer anterior. También podemos extraer información específica del archivo AMEL como servicios. El siguiente vamos es docker componer imágenes. Este comando se utiliza para enumerar todas las imágenes utilizadas para crear contenedores para servicios en archivos
compuestos. Como se puede ver, ambas imágenes están disponibles aquí, las cuales fueron utilizadas en los servicios anteriores off Doctor compuso archivo yamma o Next command is doctor compuesto lobs. Como habrías adivinado, este comando se utiliza para obtener la salida larga del servicio. Ya que tenemos muchos troncos, vamos a reducirlos un poco. Usando registros compuestos doctor, guión han sido cola igual. Sten the tail flag permite que los últimos 10 logs off tanto los servicios se impriman en el STD out o nominal. Como puedes ver, tenemos los últimos 10 logs off tanto los servicios como los contenedores, mi secuela y WordPress Al igual que el Dr P s.
Ayudamos al Dr Compuesto Bs donde podemos ver tanto los contenedores funcionando junto con otra información tales como state, que es información de mapeo de puertos arriba y comandos inter puntos. Nuestro siguiente comando es doctor Compuesto Stop, cual se utiliza para mostrar todos los procesos en ejecución dentro de todos los contenedores. Lo que significa que en ambos contenedores mi base de datos secuela en frente de WordPress y estos son los procesos que se están ejecutando cada proceso tienen el proceso individual i d y el
proceso de Barron i d. la estructura off process y parent child depende de la imagen base utilizada en la creación a partir de estas imágenes. Y finalmente ayudamos al Dr. Compuesto hacia abajo. Se puede considerar como un comando de limpieza o comando contrario a docker componer cuando
golpeamos enter se detiene ambos de los servicios, quita los contenedores y elimina recursos adicionales como redes. En el siguiente modelo, tendremos en cuenta probablemente la característica más exhaustiva fuera de Docker, que es Docker enjambre
48. Introducción a la Orchestration de contenedores y el calado de Docker: hasta ahora hemos estado girando alrededor de contenedores en un solo host. Un solo host generalmente significaría una máquina en una VM. Definitivamente tienen recursos limitados, y está totalmente bien, siempre y cuando tu propósito sea resolver algo no tan pesado como una
página de aterrizaje estática en una cuadra, y un tipo sería más que suficiente para manejar también. Pero esa no es la única aplicación por la que usamos contenedores. Hay gigantes como Google y PayPal que, cómo millones de usuarios al día. En su caso, la cantidad de contenedores sería asombrosamente alta, y todos pueden cómo comunicarse en cualquier topología en un momento dado. De hecho, usted y si no nos enfocamos en aplicaciones tan grandes, un sitio web dinámico que rastree a los visitantes y recoja datos de sus acciones
también necesitaría mucho más contenedores de lo habitual. Blawg. Digamos que usted y si logramos desplegar todos estos contenedores en el mismo host de alguna manera pero podríamos apagar Recurso es en cualquier momento se deben a que el rendimiento puede verse afectado severamente. Además, si el anfitrión baja, nuestro lado está condenado con seguridad. ¿ Qué debemos hacer entonces? Bueno, una solución simple sería implementarlos en más de un host y conseguir que sean administrados por
más de uno desarrolla. Ingenioso. Suena fantasía, pero todos estarían eternamente dispersos. Y para asegurarnos de que permanezcan sincronizados, puede que tengamos que ejecutar otro micro servicios de set off en el back-end. Además, contratar a más personas por hacer la misma tarea también sería menos económico y ninguno de los individuos obtendría oportunidades y crecimiento que merecen. Entonces, ¿qué cierto entonces? Bueno, parece que necesitamos a alguien que pueda hacer que todos los anfitriones del hotel colaboren y nos permita gestionarlos simultáneamente desde una sola instancia. Kindof like cluster. De hecho, exactamente como un clúster fuera de la docket hosts. De esta manera nuestros contenedores estarán sincronizados. El desempeño no se reducirá debido al recurso Cassidy. Se pueden administrar desde un único punto final. Incluso podemos pensar en réplicas y copias de seguridad de nuestros contenedores para los casos donde uno o algunos de nuestros anfitriones pueden bajar y la vida será feliz. Pero, ¿quién es ese? ¿ Alguien? El orquestador de contenedores es una herramienta utilizada para aprovisionar debe hacer y administrar contenedores fin habilidad sobre uno o más clústeres fuera de múltiples hosts, como hemos mencionado antes. Si bien Docker Ecosystem tiene muchas ofertas, algunas de ellas son menos significativas que las otras, tiene tres herramientas principales que deben ser aprendidas por cada entusiasta de los contenedores. Ya hemos visto Docker Engine y Dr Compuesto. La siguiente parada en nuestro viaje fuera de los contenedores de aprendizaje es el orquestador desarrollar y proporcionado por Docker llamado Docker Swarm. La idea y la implementación de un bastante simple. Aquí tomamos un set off hosts Docker y los conectamos usando el modo enjambre. Uno de estos hosts inicializan manualmente, es el clúster y se convierte en el administrador fuera del clúster. El gerente proporciona una clave que puede ser utilizada por otros Norte para unirse al clúster. Una vez que se incorporaron al gerente, se
convierten en nodos de trabajo. La analogía es bastante autoexplicativa aquí nosotros como usuarios nos comunicamos con el gerente, y el directivo se comunica con los trabajadores bastante como una jerarquía de gestión. A menudo la industria, en realidad, al
igual que Docker, se compone con demanda. Nuestras acciones informan de un servicio que gerente se traduce en tareas más pequeñas y las proporciona a
los trabajadores para que sean manejados. Para hacer todo este manager está equipado con un set off herramientas útiles como http AP I endpoint, que lo hace capaz de atender nuestra solicitud de servicio y crear objetos a partir de esos servicios. Orchestrator, que pasa tarea traducida de los servicios a los trabajadores. Asignador, que asigna clústeres internos i p's a los trabajadores y gerente que vende. Despachador con decide qué nodo lo hará qué tarea y da esta información al orquestador. Y finalmente ella doula. El pasado proporcionado por el orquestador está inactivo. No corren en cuanto se localizan. Ella doula señala a los trabajadores para que ejecuten la tarea que han recibido. Y así también decide qué tarea bien hecha primero y cuál no. En cuanto a los trabajadores, son bastante simples en comparación con gerente. Tienen dos componentes clave en total Worker, que se conecta al despachador fuera del maestro para comprobar si tiene alguna tarea que recibir
del orquestador, un ejecutor que literalmente hace lo que sugiere su nombre. Ejecuta las tareas, lo que significa que crea contenedores, volúmenes, redes y las ejecuta. Habrás notado que Dr no ha sido la forma más creativa, faras nombrando a las herramientas se refiere, ya que Warm es un orquestador el cual tiene un componente llamado orquestador que se ejecuta en su manager y el trabajador tiene un componente llamado trabajador. No podemos quedarnos Jean, pero podemos asegurarnos de que no nos confundamos por ello. lo que en este curso, siempre que nos referimos a un orquestador y trabajador, indicaremos herramienta de orquestación en general y trabajador nórdicos. Si desea abordar los componentes internos en su lugar, los
llamaremos específicamente, igual que cualquier otro tema. También tenemos un montón de manos en demos para enjambre. Pero para entender cómo implementar contenedores en un clúster es diferente de implementarlos en un solo host, tome este ejemplo. Digamos que tenemos un servicio el cual necesita tres réplicas fuera del motor X contenedores alojando el mismo contenido una vez que brindemos el servicio al gerente. Divide esto en tres tareas más pequeñas y localiza una tarea a cada trabajador. Por lo que todos los trabajadores estarían hospedando una instancia fuera del motor X Contenedor del servidor Web con la muerte dijo, Por ahora, podrías incluso estar preguntándote qué pasaría si Enjambre se enfrenta al fracaso. En otras palabras, ¿y si uno o más nodos bajan? Ya sabes la respuesta. Lleguemos a la siguiente conferencia
49. ¿Puede el mango de calar fallo?: puede enjambrar manejar la falla. Una palabra respuesta es
sí, puede, pero fiestas más interesantes. ¿ Cómo? Tomemos el ejemplo anterior del servicio, ganando tres réplicas del Motor X, cada una alojada en un trabajador o maestro el. Nuestros trabajadores están sanos y en funcionamiento. ¿ Y si uno de los trabajadores baja? Digamos que en este caso, trabajador tres cayó. Si eso sucede, la tarea tres será escudo en uno de los otros trabajadores. Una vez que el Trabajador tres esté de vuelta a su dominio de giro recto podría volver más a él. Y si no está causando ninguna sobrecarga en el trabajador para, ella, puede simplemente quedarse ahí y trabajar. Un árbol podría estar listo para albergar otras tareas cuando lleguen en el futuro. En pocas palabras. Si uno de los del Norte baja, el otro Norte puede manejar su carga. Si el maestro baja, sin embargo, los trabajadores realizan una elección mutua donde uno de los trabajadores es promovido y el clúster comienza a trabajar de nuevo. La siguiente pregunta sería cuántos nodos pueden bajar sin afectar bien a Enjambre, para asegurarse de que el clúster del pantano funcione correctamente al menos más de la mitad de descuento, los nórdicos deberían estar trabajando número mínimo de apagado requerido. Normas de trabajo para un cúmulo de enjambre feliz es igual al número fuera hija Lourdes, dividido por dos más uno, lo que de nuevo significa más de la mitad.
50. Demo: instalación de VirtualBox: Empecemos a configurar un clúster de pantano médico pero instalando ah, hiper wiser en nuestra máquina host. Si te preguntas qué es Ah, hiper visor, es un software de pieza off el cual nos permite crear máquinas virtuales. En primer lugar,
aquí está el archivo de lista de puntos de fuentes, y como puedes ver, hay muchos enlaces fuera ya disponibles y la mayoría de ellos son para actualizaciones con respecto al
dedo abierto u otro software. Hemos sumado la línea. Guardemos el archivo. Ahora vamos a conseguir el geeky GP para nuestra caja virtual dejó algunos pseudo un bonito comando get update . Y como puedes ver, justo debajo de texto sublime, podemos ver que también se ha actualizado la caja virtual. Ahora la aplicación se agrega a la lista fuera de un bonito paquete Manager. Vamos a instalarlo tipo pseudo épico get install, seguido de la versión fuera de caja virtual. Aquí, vamos a instalar Virtual Box 5.2. Una vez finalizado el proceso, veamos si podemos encontrar Virtual Box y nuestra lista fuera de Software Y aquí estamos. Oracle Virtual Box se ha instalado con éxito. Está en marcha y en marcha
51. Demo: instalación de la máquina docker: Ahora vamos a instalar una máquina de médico de tarjeta de herramienta. Se configurará múltiples hosts para nosotros, cuales actuarán como nodos individuales en un clúster de enjambre. Instalaremos Doctor Machine a partir de su informe oficial get. En primer lugar, lo
llamaremos y luego lo instalaremos bajo directorio bin local del usuario. Una vez completada la instalación, vamos a verificarlo escribiendo versión de máquina doctor. Dr Machine se ha instalado con éxito con la versión 0.14.
52. Demostración: configurar el clúster de calzado: Vamos a crear nuestro primer nodo usando la máquina Docker. Crear comando. Estamos usando la caja virtual como el buzo y estamos nombrando a nuestro gestor de notas mientras se está
creando la nota . Se puede ver que la máquina Doctor está usando un juguete personalizado llamado Bhutto Docker, y está usando sus ojos para que la imagen lo instale en una máquina virtual para la información. Boot to Docker es un SO Linux mínimo personalizado para que los contenedores funcionen sin problemas, siendo livianos al mismo tiempo. A ver si se ha creado el Norte. ha creado la máquina Doctora usada ls Command and Manager. Está ganando doctor versión 18.6 y también tiene su dedicado I P, que es 192.168 punto 99.100. De igual manera, también
podemos crear un par de más nodos llamados Worker one y worker también. Una vez que terminamos con su creación, debilita hecho, Doctor Machine ls de nuevo para ver si ambos están funcionando perfectamente. Y aquí están. Detengamos este Manager Norte usando Docker machine stop Manager comando Cuando enumeramos nuestro gestor de
notas existe, pero está detenido. Podemos iniciarlo de nuevo usando Docker machine start Manager Command Si queremos encontrar información
específica sobre un nodo, podemos usar Docker Machine I p Manager el cual proporciona i p off manager Nord Del mismo modo, podemos conseguir ocular fuera del trabajador uno y trabajador a Nord al igual que cualquier otro objeto en ecosistema
docker podemos usar comando inspect con Dr Machine Note así Usar Docker Machine Inspect Comando seguido del nombre fuera del Norte que es gerente aquí. Como se puede ver, el Inspector Man proporciona mucha información fuera sobre el gerente Nord incluyendo su nombre de
máquina I p dirección evaluar su usuario y puerto, una parte clave de salchicha y alguna otra información útil Finalmente, dejar ssh indoor manager de no usar Docker Machine Ssh Command seguido de nombre fuera del nodo que de nuevo aquí es manager hemos navegado a la nota del gestor de shell off
53. Demo: clúster de calzado: en esta demo, tenemos tres terminales, una para cada nota. En primer lugar, vamos a tener una lista fuera de los nórdicos con Dr Machine ls Command. Como puedes ver, tenemos gerente, trabajador uno y trabajador también. Ahora evaluemos gerente de interiores de edad igual que hicimos en la última demo. Ya que queremos hacer de este manager Nord manager que es bastante la pequeña cúpula por su papel , inicialicemos nuestro enjambre usando Docker enjambre en él comando y anunciemos su dirección i p a los otros nodos. Una vez que tocamos entrar, el estado de ánimo de enjambre se inicializa y el Nord actual, que está gestionando norte, se convierte en gerente. Ahora si queremos sumar trabajadores a esta nota de gerente podemos prestar médicos forma conjunta común respectivos nodos
de trabajo junto con el token que se genera a partir de este manager Nord . Este token es un I d único que puede ser utilizado por otras notas para unirse a nuestro manager como parte su cluster. En caso de que hayamos perdido este comando o token, podemos recuperarlo escribiendo Docker Swarm unido token worker Pero este comando sólo
funcionará si el gerente ha sido inicializado con el modo enjambre. Usaremos este doctor enjambre comando conjunto junto con su Tokcan tanto del trabajador uno como del trabajador asegurarnos de que ambos fuera de ellos se unieron a este cluster como trabajadores mientras la actual vialidad sigue siendo gerente. Como se puede ver, el comando ha funcionado con éxito desde Worker One note y se ha unido al
clúster de enjambre como trabajador. De igual manera, el comando fue exitoso en trabajador para así y considerar confirmación similar.
54. Demostración: trabajar con nódulos de calado | Lista e List: ahora que ambos del Norte se han sumado a la bluster como trabajadores. Vamos a verificarlo. Usando docker note L s comando. Toma nota de que esto es parte fuera. Doctores enjambre Comando Ling. Una vez que
tocamos enter, obtenemos todas las tres notas junto con sus nombres de anfitriones. Todos ellos tienen su condición de listos y disponibilidad como activos. Y si puedes notar, Manager también tiene el estatus off siendo líder. Esto es aplicabilidad cuando tenemos un clúster con Morton un gerente en cuyo caso uno fuera los gerentes actuará como líder. Aquí no hay confusión, ya que solo tenemos un gerente y a nodos de trabajo, Por lo que nuestro gerente será líder por defecto. Ahora podemos inspeccionar a nuestro gerente y trabajador al norte desde los gerentes Shell mismo. Vamos a escribir doctor nota inspeccionar seguido de auto junto con bonita bandera estaban mencionando auto porque gerente quiere inspeccionarse a sí mismo. Y como pueden ver, lo que obtenemos es la nota i d. su nombre de host uniéndose al estado Timestamp y alguna otra información como recurso plataforma es versión
Injun, que es versión doctor Injun. Aquí es 18.46 punto una edición comunitaria y algunos certificados de seguridad. Podemos golpear el mando para el trabajador uno y dos también, y obtenemos información respectiva sobre ambos de ellos. Como se puede ver, todas las tres notas de las tienen diferentes yo p. Pero el resto de las cosas son más o menos lo mismo. Por supuesto, sus roles son diferentes, que se explorarán en más demos.
55. Demo: crear un servicio en la Swarm: Usemos Docker Swarm por la razón que está diseñado,
que es el dedo del pie cómo múltiples réplicas fuera de un contenedor o a usted servicios con múltiples contenedores ellos mismos. Crearemos un servicio llamado Servidor Web a partir de la última imagen X del motor y ayudaremos a tres réplicas para ello. También hemos mencionado información de mapeo de puertos con bandera de guión P. Una vez que golpeamos entrar, se
puede ver que nuestro servicio se ha dividido en tres tareas y cada tarea se ha llevado a cabo de forma individual. Una vez concluidas las tareas, se ha verificado el servicio. Y una vez completada la creación del servicio, podemos enumerarlo usando el comando Docker service L s. En primer lugar, tenemos servicio i d. Entonces tenemos el nombre del servicio, que es como nos habíamos proporcionado con el comando Servidor web. Entonces hemos amarrado fuera de servicio. Se replica, que significa que la misma imagen se ha replicado más de una vez, y se crean múltiples instancias para múltiples contenedores a partir de la misma imagen. Ayudamos a tres réplicas en particular. El imagen que se ha utilizado es el último motor X, y también tenemos información de mapeo de puertos para TCP. Si queremos echar un vistazo al contenedor enviando dentro del servicio. El comando es bastante simple, justo a la derecha. Doctores Consultorio Bs, seguido del nombre del servicio. Aquí tenemos tres contenedores, y la convención de nomenclatura es bastante simple. Sus nombres son Servidor Web 0.1 Servidor Web punto a y Servidor Web 0.0.3. Están en marcha por aproximadamente el mismo tiempo, y todos comparten el daño común siguiente última imagen, igual que habíamos hecho con el Dr. Compuesto. Inspeccionemos nuestro servicio. Y a medida que vamos más allá, junto con la información genética, también
obtenemos alguna información adicional, como el amarrado fuera del servicio, que se replica, y detalles respecto a todos los anfitriones o todos los de las máquinas donde se aprovisionan todos y cada uno de los
contenedores fuera del servicio. A diferencia del Dr Service Bs, si regularmente ejecutamos el guión del doctor PS, un común en cualquiera fuera del Nord, llegaremos a saber que cada uno fuera de la nota solo está ejecutando un contenedor. Eso se debe a que el servicio se ha desplegado en todo el clúster, lo que significa que el Señor estaba dividido de manera uniforme desde que teníamos tres réplicas. Todos estos contenedores eran deben ceder en un servidor Web Nord individual 0.1 era en caso que usted va en gerente Nota. Servidor web dot to was should yield on worker one Nord and Web server 10.3 was shed your on worker to note. Al igual que un contenedor regular. Podemos inspeccionar este servidor Web 0.1 también. Ahora esto significa que todas estas tres notas están aprendiendo al menos una instancia fuera del motor siguiente servidor Web. Por lo que todos ellos deberían estar sirviendo en la siguiente página web predeterminada en sus respectivas
direcciones I P en su puerto 80 80. Vamos al navegador y comprobamos este hecho con nuestro gerente, Nord. A ver que estamos navegando al I p off del gerente, que es de $192.168.99.100 y están mencionando el Puerto 80 80. Parece un éxito. Ahora vamos a hacer lo mismo con el trabajador uno y trabajador a Esto significa que el servicio está ganando con éxito y los doctores warm es hosting engine next Web server en todas las tres notas de las
56. Demo: hacer que un nodo deje tu calzado: ahora que hemos desplegado nuestro motor ex servicio en todo el clúster de enjambre con éxito, pensemos en algunos casos de uso más innovadores. Por ejemplo, ¿Qué pasa si quiero quitar una de mis notas para mantenedores? ¿ O qué pasa si uno de mis apuntes realmente va aquí abajo? Lo probaremos. El modo seguro de hacer que una nota salga del clúster es soñarlo. Podemos hacerlo. Qué nota doctor Disponibilidad de actualización Comando, seguido de la acción y el nombre fuera del Norte. Aquí el comando funcionará como docker Nota disponibilidad de actualización Flag Dane Worker, también. Y lo que obtenemos es el nombre de la nota como la confirmación de que se ha drenado. Aún así, lo
podemos verificar escribiendo doctor note un menos, y podemos ver que el estatus off worker a notar sigue listo. Pero la disponibilidad es sueño, lo que significa que la nota está arriba, pero su disponibilidad es drenaje, lo que significa que ningún contenedor puede ser debe ceder sobre él. Cuando drenamos la nota, el contenedor fuera de la tarea debe hacer en la nota se transfiere o re si vas a hacer uno de los otros nórdicos. Vamos a verificarlo usando el servicio Docker servidor Web PS. Y como puede ver, el contenedor de servidor Web 0.3 se ha desplazado de trabajador a administrador, y se ha estado ejecutando desde 42 segundos, que es aproximadamente el momento en que worker to fue drenado. Por otro lado, si usamos Docker PS en worker hasta ahora, que se ha drenado, veremos que el contenedor ha salido de la nota y ahora se encuentra en estado bastante muerto. Ahora eliminemos esta nota del colesterol que sea, y cuando tratemos de hacerlo, obtenemos este error de Docker Demon. El motivo detrás de eso es que el Norte podría estar en la condición cerebral, pero sigue en pie. El doctor sigue sirviendo a su FBI, por lo que necesitamos asegurarnos de que deje primero el cúmulo del pantano. Después se retira de la lista de Maestros. Usemos Docker Enjambre Lou Comando de trabajador a nota. Una vez que lo hacemos, obtenemos un Nord bastante claro. Esa nota ha dejado el enjambre. Si tratamos de ejecutar de nuevo el mismo comando en nota manager, veremos que la nota do worker ha sido eliminada con éxito. Podemos verificarlo listando nuevamente a los nórdicos y lo que encontraremos es nuestro clúster hecho solo dos nodos. Gerente y trabajo de uno.
57. Demostración: la escala y la actualización con Swarm: en esta demo, realizaremos algunas tareas más relacionadas con la orquestación si recuerdas claramente o servicio. Servidor Web tenía tres réplicas fuera de la última imagen X del motor. Hagamos habilidad sobre el servicio y aumentemos su número de réplicas a seis. Podemos hacerlo con Dr Service Shabilite Command, seguido del nombre off service, y el número off réplicas. Una vez caliente, ha verificado el escalado. Podemos hacerlo también, utilizando el servicio médico PS, seguido del nombre del servicio y, como se puede ver en lugar de tres. Ahora tenemos seis contenedores funcionando en el motor X Última imagen. Tres de ellos están programados en manager y tres fuera de ellos te aseguran sobre trabajador. Todos esos seis están en estado de ejecución y tres fuera de ellos parecen bastante nuevos, como cabría haber esperado si no acoplamos ps guión e. tanto
en gerente como en trabajador uno. Veremos tres contenedores corriendo en cada uno de ellos, mientras que el trabajador uno tiene a contenedores nuevos. Gerente tiene un contenedor nuevo. Además, incluso
podemos lanzar algunas actualizaciones en todos estos seis contenedores. Como saben, todos los contenedores del mismo están funcionando con motor. Siguiente última imagen. Podemos cambiarlo a motor X Alpine. Si te preguntas ¿cuál es la diferencia? Bueno, la última versión de Engine X está construida sobre la imagen base de punta abierta, mientras que la versión Alpine se basa en la imagen mínima Alpine Lennox. Usemos el comando Actualización de Servicio Médico para cargar ¿Por qué tipo de sensación queremos actualizar? Queremos actualizar la imagen fuera del servicio. Una vez que golpeamos, entra toda la tarea del. Actualízate de uno a la vez. Una vez completado el proceso de actualización, podemos verificarlo con Dr Service Inspect Command y vamos a asegurarnos de que el resultado fuera inspector hombre esté bastante impreso. Como se puede ver, el servicio más se sigue replicando. El número fuera réplicas ISS seis. Si vamos a las especificaciones del contenedor en lugar de mostrar el último Engine X, muestra el motor X Alpine,
lo que significa que todos los contenedores están cambiados de motor X última imagen alpina del dedo del pie. Por último, podemos eliminar o dar servicio usando docker service RM comando seguido del nombre fuera del servicio y como notificación, obtenemos el nombre del servicio. Vamos a escribir Dr P s guión A y como se puede ver cada contenedor se está bajando uno por uno. Si hacemos lo mismo en trabajador una nota, verá que todos los contenedores son retirados y también retirados. Esperemos un rato y usemos el mismo comando en manager también. Bueno, ahora tú otro manager está vacío. Por último, limpiemos o agrupemos asegurándonos de que el trabajador Nord también esté dejando el bláster
igual que hicimos con el trabajador también. También haremos de trabajador uno. Dejar el clúster voluntariamente usando Docker Enjambre Dejar común Estamos con el dedo del pie atrás teniendo un médico anfitrión que es gerente.
58. ¿Qué es el más popular?: El Dr. Swarm es bastante útil. Pero cada vez que hablamos de orquestación de contenedores, uno llamado domina la conversación, que es
kubernetes, podría preguntarse. ¿ No ya terminamos con la orquestación? Bueno, aún
no. Docker, Swarm y Kubernetes ambos co existen en el mercado y aún más oscuro sí lo ha reconocido
ya que es amplio apoyo a las comunidades con su versión de empresa de velocidad. Además, lo que
respecta a mi conocimiento, no
existe tal cosa como gestionado. Docker enjambre en cualquiera fuera de las populares plataformas de nube pública, mientras que los kubernetes administrados es uno de las características sobresalientes de Google Cloud. Eso no es todo. Azure y AWS también se están poniendo al día bastante
rápido . Estas son razones más que suficientes para aprender comunidades junto al enjambre, pero debemos conocer las ventajas y retos fuera del barco. Empecemos con la naturaleza. Enjambre es parte del ecosistema de los médicos, por lo que todas sus características actúan como una extensión fuera de las capacidades propias de los médicos. Where's Kubernetes es un producto completamente diferente gestionado por C. N. C. F, que significa Cloud Native Computing Foundation. Ya que warm pertenece al Dr Ecosystem, no
te enfrentaste a ningún problema para adaptar sus terminologías o conceptos porque la mayoría de ellos estaban en línea con lo que ya podías hacer con Docker, por lo que algunos es más fácil de configurar y adaptar. Nada es siempre demasiado difícil una vez que consigues un ahorcarlo. Pero configurar y adaptar comunidades introduce más conceptos nuevos en comparación con un enjambre para que definitivamente
puedas universidad relativamente difícil. Además, Kubernetes presenta una línea de comando completamente nueva donde una línea de comando de pantanos es bastante similar a la del propio Dr Cli. En lo que respecta a las utilidades, Docker Enjambre muere menos profundamente en el campo fuera de la orquestación. ¿ Dónde está kubernetes novias? Tú una orquestación mucho más exhaustiva. Funcionalidades monitoreo enjambre puede ser complicado, ya que ya sea En muros, herramientas de
terceros son servicios pagados por el Dr Enterprise. ¿ Dónde está el soporte nativo de Kubernetes Broich para la tala y monitoreo? Además, los médicos a domicilio no sólo tienen menos funcionalidades en comparación con las comunidades, sino que también se vuelve difícil manejar después de tener más de 15 horas más o menos, porque puede que no tengas suficiente control sobre ella haciendo ciertas contenedores en cierto norte, que pueden ser alucinantes de manejar. ¿ Dónde está en caso de kubernetes? Tenemos mucha más libertad y tolerancia a fallas. El control final nos permite agrupar al norte como queremos, y abstenernos son contenedores de ser sombríos en ciertos nodos. De hecho, Comunidades ha mostrado actuaciones prometedoras, incluso en el caso, fuera más de 1000 ni abs. Debido a todo esto, A
pesar de que los médicos en casa tienen un buen apoyo de la comunidad y actualizaciones destacadas, Kubernetes tiene un enorme apoyo y se ha convertido en un completo desarrolla buzzword por todos los medios
positivos. Con todo, significa
que cuanto mayor sea su aplicación, más probabilidades es de utilizar comunidades en lugar de enjambre fuera de curso. No todo el mundo apunta a millones fuera del público y alguna vez escalar los clústeres para ellos enjambre podría ser suficiente. Pero para ti como aprendiz, el viaje no debe terminar antes de aprender aspectos emocionantes fuera de kubernetes.
59. Kubernetes: una historia de origen: antes de aprender kubernetes. Echemos un vistazo a su historia de origen popular. Hace mucho tiempo, había un buscador de chicas llamado Google. Fue desarrollado inicialmente por el señor Page y el señor Brennan durante ese doctorado en un área de trabajo no tan lujosa. Esta infraestructura era mínima y los usuarios eran limitados. Pero la idea era cambiar el juego. Por lo pronto se convirtió en una empresa de tecnología de lujo con mayor infraestructura técnica y creciente número de usuarios fuera. Pero eso, también, fue sólo el principio. Google resultó ser una de las mayores posibilidades tecnológicas con miles de millones Dilo de nuevo. miles de millones de usuarios de todo el mundo lo hacen. Google se convirtió en sustantivo, Google se convirtió en un hobby, y Google stock se convirtió en uno de las principales inversiones. Todo esto implicó un sinfín de esfuerzos, y sólo por apasionados, ingeniosos y sin embargo resultan ser servidores forestales fuera. aquel entonces, no
había médico, así que los ingenieros de Google no podían simplemente acudir a ti, Timmy y retomar. Por supuesto, tuvieron que detenerse profundamente en las raíces fuera de la historia de la computación. Después se les ocurrió la realización de que Lennox ya tenía una solución llamada contenedores , que podría configurarse usando espacios de nombres y ver grupos en contenedores sobre abstracción en capa de
aplicación, que empaqueta bienes y dependencias juntos. Por lo que empezaron a usarlos. Pero también necesitaban a alguien que pudiera orquestar sus contenedores a gran escala para ellos y que alguien fuera kubernetes. Es así como entraron en existencia las comunidades, y el descanso es una historia.
60. Kubernetes: arquitectura: desde una vista de pájaro, la arquitectura fuera del clúster de Kubernetes se vería bastante simple. Ayudamos a tipos fuera de instancias Maestro y Nordos, la frontera y las comunidades, pero auto propósitos diferentes, igual que gerente y trabajador fuera de enjambre. Echemos una mirada más profunda en el interior. Maestro Maestro actúa como nota controladora, y mientras trabajamos con Kubernetes, nos comunicamos con master. En su mayor parte, ejecuta un set off aplicaciones, que incluyen Cube, un PS, sobre el cual atiende todas las solicitudes restantes proporcionadas por el usuario y obtiene respuestas de otros nórdicos. Se puede considerar como una unidad central de servicio, afrenta y fuera del clúster. Entonces ayudamos a Cube controller manager con Selself como padre o proceso de gestión para una serie de procesos de controlador. Estos procesos de controlador administraron los objetos del controlador como réplicas ese controlador o controlador de
despliegue, que estudiarán lo suficientemente pronto. A continuación, ayudamos a Cubos peroné, que ella duela sobre contenedor bajo un entorno de sandbox de supervisión llamado cubos de parte. Abdula también decide qué fuera de los nodos estarán resolviendo, lo que activó contenedores. El A P I solicita a las comunidades gerente de controlador y cubos en caso de que Ula sea vendido por Cuba. AP hielo sobre. Por último, ayudamos a ocho CD, que es la clave distribuida Value Data store. Ocho ciudades Brindar los datos obtenidos de todos los demás componentes en valor clave Pase. Esto puede incluir nuestra entrada de configuración de clúster estado deseado, registros de eventos de estado de clúster
reales, detalles de
objetos, cualquier cosa y todo lo que vea. El único se comunica con los diputados de Cube más por razones de seguridad. Por lo que en pocas palabras, Cube controller manager controla objetos cubos regulares deben usar contenedores y los
ojos AP son vendidos por Cuba. AP un servidor, que almacena todos sus datos como un par de valor clave en 80 y recupera los datos del mismo lugar también. El sencillo pero robusto arquitectura off master es una de las razones del éxito próspero fuera de kubernetes. Ahora hablemos de nodos. Son bastante simples en comparación con dominar los únicos que dos componentes, para ser precisos. Una es Mr Talk talk, y otra es Mr Do que bullet es Mr Do do do do do como realiza la acción sugerida por
componentes maestros como Cube Sevilla AP hielo over. Nuestro controlador, gerente, Master y Nords son virtualmente diferentes máquinas físicamente, lo que significa cubano. Actúa como un proceso de supervisión en Norte para asignar recursos y crear contenedores o procesos
puntuales. Que Proxy es Mr Talk. Gestiona notas, comunicación con otros Nords Master y el mundo fuera del cluster. En Big Lucky,
es Cuba AP un servidor off master, que habla con Q proxy fuera del nodo. Entonces cue un PS sobre obtiene datos de ocho CD. Recibe peticiones de la encargada de la controladora y ella doula y la pasa al norte. Donde. Q proxy para proxy de rescate. Procesarlo al cubo lit, que a cambio proporciona la respuesta a estas solicitudes, que de nuevo pasaron a master. Por qué un proxy y almacenado en un CD. Pero si el clúster está alojado en la plataforma en la nube compatible con la comunidad Administrador de controladores Cube habla con Q proxy mientras que Cloud VPC u otra infraestructura relevante como tiene un componente llamado administrador de controladores en la nube. Ahora centrémonos en cómo nosotros como usuarios, interactuamos. Usuarios de Kubernetes hablan con el maestro de Ackermann's Digamos que comandamos a Maestro para crear un objeto. Maestro aprueba esta instrucción como una solicitud del FBI. Una vez cubano
, realiza su petición. Devuelve el estado fuera del norte como respuesta que las tiendas maestras en su ocho CD y pasadas a objetos estadounidenses pueden estar fuera de múltiples tipos, como cargas de trabajo, objetos en
conflicto, conectividad, objetos o objetos de almacenamiento. Donde las fincas están fuera de dos tipos estado deseado y estado de arma. Kubernetes siempre sigue comprobando si el estado de deseo y el estado actual coinciden si no coinciden, Kubernetes hace todo lo posible para asegurarse de que lo hagan. Y si hacen partido sigue revisando una y otra vez para asegurarse de que esta armonía se vea afectada. Este bucle interminable se llama Conciliation Loop, que aseguran que nuestro clúster esté en el estado más deseado tanto como sea posible. todo,
así es como funciona la infraestructura de las comunidades. A continuación, pasaremos por los objetos fuera de las comunidades y aprenderemos a usarlos. Y mientras lo hacemos, obtendrás un sentido más amplio y una idea más profunda de cómo se usa esta infraestructura al crear y usar objetos
61. Demostración: el clúster de la Kubernetes en Google Cloud Platform: abre tu navegador web favorito y goto esta consola de enlaces dark cloud dot google dot com Este es el enlace para Google Cloud Platform Dashboard o G C P Dashboard. Pero antes de que podamos ir allí, necesitamos iniciar sesión en nuestra cuenta de Google y hacer tu I D y contraseña y golpear. A continuación obtenemos un pop up, que nos pide confirmar sobre los vertederos y servicios de JCP y también proporcionar Google o detalle
residencial. Estoy poniendo a India. Puedes poner tu propio país, y luego tenemos una opción, si queremos cualquier característica de días o correos electrónicos de encuestas de Google o no. Bueno, ya que no quiero recibirlos,
voy a dar clic, sin hacer clic en, acuerdo y continuar, y el problema se va a ir. Lo que ves frente a tu pantalla es empezar a ver fuera del tablero de gcb. Tenemos un montón de productos más usados como Compute Engine, que estaremos usando para crear máquinas virtuales. Almacenamiento en la nube, que es el almacenamiento en bloque asequible de Google y la secuela en la nube, que se gestiona mi secuela o post Grecia igual de Google. Pero antes de que podamos usar cualquier pieza off, necesitamos configurar algo llamado building, lo que significa que necesitamos iniciar son prueba gratuita fuera de la Cuenta de Google Cloud haciendo lo cual
vamos a recibir un crédito de 300 dólares, que se puede gastar dentro de un año. Da click en Probar gratis. Parece que se trata de un pago de dos pasos en un proceso. Google está declarando explícitamente que obtendremos $300 de crédito gratis por iniciar la
cuenta de estilo . E incluso una vez terminados los créditos, no se
nos cobrará a menos que aceptemos ser construidos. paso uno es más o menos similar a lo que hemos hecho previamente al prompt, que apareció Necesitamos Toe de acuerdo con los términos y servicios fuera de Google, y necesitamos decirles si queremos configurar el correo electrónico o no y dar click en aceptar y continuar. paso dos involucra información personal como un tipo de ciudad, que puede ser información fiscal comercial o individual, que puede ser registrada o no registrada nombre de edificio domicilio de facturación etcétera. Una vez que hayas rellenado todos estos detalles y te desplazas hacia abajo, llegamos a los métodos de pago. Actualmente, la opción disponible son pagos automáticos mensuales y para habilitarlos necesitamos proporcionar detalles de tarjeta de
crédito o débito. Si vives en un país como India, donde las transacciones de Elektronik están protegidas por contraseñas de una sola vez o tres pines D, no se aceptará
tu tarjeta de débito y podrás usar una tarjeta de crédito. El resultado final es que cualquier tarjeta que utilices debería ayudar a caracterizar los pagos automáticos una vez que
ingreses tus datos. Hit on start my trial free Burton y el siguiente Green dice que Google está creando un proyecto para nosotros, y esto puede tardar unos momentos. Parece que nuestra prueba gratuita está configurada ahora. Contamos con $300 de crédito en nuestra cuenta de facturación de Google Cloud Platform, y podemos empezar utilizando los servicios de GCB. Entonces, ¿qué queremos probar primero? Bueno, quiero probar computación y aplicaciones, Así que vamos a dar click en eso. Estos servicios son estas disposiciones de Google caen dentro de la categoría off computing services. Ahora bien, si le echas un vistazo al dolor del lado izquierdo, aquí
tenemos múltiples opciones. Actualmente estamos en empezar tap, pero las otras pestañas están construyendo marketplace AP Eyes and Services support, que proporcionaría soporte de nivel de consumidor y negocio Soy un Edmund, que es útil para establecer permisos y reglas seguridad, etcétera. Hagamos click en construir. Esta es la página de resumen de nuestra cuenta de facturación, y dice que ayudamos $300 por 22,183 I nr 4 quedando en nuestro crédito. También, el 10 Tu restante para crédito es de 3 65 días en un año porque acabamos de empezar a usar JCP. Si lo ves a continuación, tenemos un proyecto vinculado a esta cuenta de facturación, que es mi primer proyecto en caso de prestación de Servicios de Recursos de Google Cloud Platform. Etcétera se gestionan bajo proyectos, lo que significa que una cuenta G C P puede tener múltiples proyectos para múltiples propósitos. Tenemos un proyecto creado por defecto, que se llama mi primer proyecto. JCP nos lo ha proporcionado, y si recuerdas, habíamos visto previamente una pantalla la cual decía, creando tu primer proyecto Bueno, fue este proyecto quien estará utilizando este proyecto a lo largo de este curso? Ve al dolor superior fuera de nuestro tablero y haz clic en el menú desplegable del proyecto, que aparece justo después de la plataforma Google Cloud. Ahora vamos a dar clic en el botón de inicio y vamos a dejar mi primer proyecto como nuestro proyecto una vez que hayamos seleccionado el proyecto, la vista fuera o el panel cambia. Y en lugar de tener una vista de inicio, estamos teniendo nuestra vista específica del proyecto donde la información se divide en múltiples tarjetas . El primer guardia es Project in four, que da información sobre el nombre del proyecto, Project I. D y Project Number, que son únicos en todo el mundo. Y celebramos El recurso es tarjeta. En este momento, no
tenemos ninguna profesión de recursos. Por lo que dice que este proyecto no tiene recursos y nosotros le ayudamos a ser hielo duro. Entre más usábamos gcb FBI, más fluctuaciones veremos en la gráfica de esta tarjeta. Actualmente, no
hemos utilizado mucho de los del FBI, por lo que la gráfica es bastante sencilla aparte de un pico, que podría haber generado cuando activamos o prueba gratuita. Después tenemos el estado de los servicios de la plataforma Google Cloud, y dice que todos los servicios son normales. Siguiente arriba es mejor tarjeta. No tenemos señas de ningún error, lo
cual tiene sentido porque no hemos utilizado ningún recurso en primer lugar. Después tenemos algunas tarjetas misceláneas como documentación de noticias, empezar, etcétera. Hagamos clic en el icono del menú de navegación del panel TCP, que también se llama el icono de hamburguesa, o tres líneas horizontales, que están en la esquina superior izquierda de nuestra sección Dashboard View Goto Compute Engine y dar click en Veum Instancias. Ya que no tenemos ninguna instancia de William creada en absoluto, estamos recibiendo esta respuesta. Tenemos tres opciones. En primer lugar, para tomar una puerta de inicio rápido segundo dedo del pie, importar alguna VM para tercera para crear una VM o máquina virtual por nosotros mismos. Bueno, vamos a crear una máquina virtual. Ahora Nos guiamos hacia tu página de creación de máquinas donde Google ha rellenado antes datos para unas palabras estándar tu máquina, pero lo modificaremos un poco. Eso ha cambiado nuestra instancia. Nombre a dominar, entonces tenemos que hacerlo. opciones relacionadas con la ubicación, que incluyen región y región de zona, indican el lugar general donde una zona indica un centro de datos determinado dentro de esa región. Cambiemos nuestra región el tema sur uno, que redirige a Mumbai, y en consecuencia, estamos eligiendo temas uno. Vea usted puede elegir su región y zonas más cercanas en consecuencia. En este curso, la elección fuera de región y zona no importará tanto, pero si estás haciendo algunas aplicaciones de alto rendimiento donde podrías requerir
cierto tipo de recurso es como GPU. Es posible que tenga que elegir regiones y zonas, que proporcionen esos recursos. Dicho eso, a
continuación tenemos tipo de máquina. El valor predeterminado para esos es una CPU V, lo que significa una CPU virtual y 3.75 GB de memoria desconectada. Significa que están viendo. La máquina tendrá un núcleo virtual fuera de la CPU asignada a ella, junto con 3.75 GB de memoria RAM fuera. Aumentemos ambas disposiciones hasta estos abusos. Y así en 0.5 g b apagado de memoria. A continuación, no
tenemos opción opcional que hacer, pero queremos desplegar una imagen de contenedor a esta instancia de William o no. Bueno, no
queremos desplegar una imagen de contenedor porque estaremos haciendo todas esas cosas nosotros mismos. Extra es el disco de arranque, lo
que significa qué sistema operativo se utilizará en este William. El valor predeterminado es Debian Lennox nueve, pero lo cambiaremos para abrir a 16.4 También podemos elegir entre SS, desk assistant desk
más profundo o disco persistente estándar y ambos de sus límites de 65.536 gigabytes. Nos pegamos a aguantar un disco persistente, pero aumentar los límites a 20 GB Vamos a seleccionar la cabeza. Mantendremos nuestra cuenta de servicio como cuenta de servicio predeterminada del motor de cómputos, y permitiremos el acceso completo a todos los ojos AP en la nube. A pesar de que no vamos a estar usando la mayoría de los del FBI. Tener acceso solo evita posibles errores. Por último, tenemos configuraciones de firewall donde vamos a permitir que todo el tráfico http y https que ha tenido botón de
creación fueron redirigidos a William Instancias Page y nuestra instancia maestra ha sido creada. Si hacemos click en él, podemos ver la información que hemos proporcionado antes. Además de eso, obtienes otro montón de información como la plataforma de CPU, que es Intel Sky Fugas Creation Time detalles de la interfaz de red, detalles del
firewall, arranque estas preferencias, etcétera . Volvamos a William Instancias Page. Si hacemos clic en la casilla de verificación justo al lado de la instancia maestra, vemos algunos botones iluminados. Ellos, respectivamente, nos permiten parar si inicia o borra la instancia de Veum, pero no vamos a estar haciendo nada por eso porque queremos mantener esta instancia y queremos trabajar en ella. De hecho, crearemos dos más a partir de tales instancias William, y les nombraremos No. Uno y No. Dos. Se recomienda que cree todas estas instancias en la misma región. Ahí estamos. Nuestras otras dos instancias se crean. Podría estar preguntándose. Se crean las instancias significa que EMS estamos listos. Pero, ¿cómo los usamos? Bueno, la opción más simple para conectarse a ella sería toe ssh dentro de ella. Y en el momento que dije, Evaluar, Edad. Hola. Sé que tu sitio está atascado en el botón ssh, pero antes de dar click en eso, echa un
vistazo a lo interno y externo p off. Todo por Williams. Vamos a conectarlo. Tenemos múltiples opciones, pero vamos a elegir el 1er 1 el cual está abierto en una ventana diferente del navegador. Ahí estamos. Estamos conectando con el maestro. Instancia desactivada. Maestro William. Instancia. Off G C P motor de cómputos. La conexión parece exitosa. Despejemos esta pantalla ahora. Queremos arrancar un clúster kubernetes en estas instancias, así que empecemos por obtener privilegios de root. Ejecuta el comando sudo su. Eso está en una actualización estándar usando apt get update. Una vez terminada la actualización. Vamos a instalar Docker usando solicitante instalar docker dot io y proporcionar el guión de bandera y por defecto. Sí, vamos a echar un vistazo a un médico de cuatro está instalado correctamente. Ejecutar docker empeora y dice que estamos ejecutando Docker 17.3 community added, lo cual está perfectamente bien porque eso es lo que queríamos correr. Si te preguntas, ¿por qué estamos ejecutando Docker? Bueno, Kubernetes es sólo un orquestador. Todavía necesita una plataforma de ización de contenedores. Por lo que estamos instalando Doctor. Vaya, parece que cerré la ventana. Bueno, vamos a abrirla otra vez. Ahora vamos a instalar algunas dependencias básicas fuera de kubernetes como https y llamar a la instalación parece exitosa. No, vamos a conseguir la clave G, PG o GENIO de privacidad Guard para kubernetes y añadirla al sistema. Obtenemos la respuesta bien, lo que significa que la clave fue agregada con éxito. Estamos agregando la línea el comer B, que significa Debian, seguido del link, que es http app dot kubernetes dot io slash kubernetes Zaenal significa al final de nuestra lista de
inicio de Sosa archivos estaban haciendo esto para que son un bonito paquete. Gestor puede acceder a las bibliotecas kubernetes siempre que esté realizando actualizaciones. Verifiquemos si el paso fue exitoso para una aplicación. Vuelve a tener un descanso. Y como pueden ver, nuestra última entrada get siete incluye actualización recibida de Kubernetes Ural. No. Instalemos todos los componentes de kubernetes,
que incluyen cubo, que incluyen cubo lit Cube, Adam y Cube CTL, donde un aspirante instalan que blade Cube Adam cubos ideales acompañados por el guión bandera y parece que la instalación está completa. Salgamos de nuestro mensaje e iniciemos sesión de nuevo. Consiste Comando CTL y establece nuestras tablas de puente neto predeterminado I P es igual a una. Este es un requisito previo para instalar la red de piezas que estaremos utilizando mientras
configuramos el clúster kubernetes. No, inicializemos nuestro clúster kubernetes usando cubo. Adam, ¿no? Comando parece que la inicialización de Cluster está en curso. Y una vez que se completen las comprobaciones previas, estamos recibiendo muchos certificados generados. Una vez completada la inicialización, habíamos proporcionado algunas sugerencias. En primer lugar, tenemos una confirmación de que nuestro maestro kubernetes ha sido inicializado con éxito. A continuación, tenemos un montón de comandos que se deben utilizar. Si queremos usar este Lester como usuario regular y no solo usuario root. Te recomiendo copiar todos estos tres comandos en un lugar seguro porque
los estaremos usando más adelante. A continuación se presenta un comando sugerido para desplegar la red aparte en el clúster. Pero no necesitamos copiar eso. Y por último, tenemos un tubo Adam Comando conjunto, seguido del token de incinerado por nuestro master y certificado de 64 dígitos, que debemos copiar y guardar en algún lugar porque este comando es extremadamente crucial y será utilizado por todos los demás norte para unirse a nuestro maestro. Una vez que hayas copiado todo esto, despejemos la terminal. Antes de continuar, asegúrate de no dejar espacios en blanco innecesarios y copia el comando. Ahora volvamos cubos. Ideal aplicar comando seguido de la U R l fuera de nuestra configuración de red de partners que estamos utilizando . Tenemos net Así que la u R L empieza con hija de la nube, no funciona, pero puedes usar cualquier red de parte que te guste, como franela, calico, etcétera y los detalles para otras redes de parte pueden ser encontrado en kubernetes documentación. Parece que viejo apartamento está configurado. Vamos a comprobar antes de que cluster esté trabajando en Cube CDL get pardes, seguido de una bandera, guión, guión, todos los espacios de nombres. No es necesario profundizar demasiado en este comando porque vamos a estar pasando por toda la línea de comando
kubernetes paso a paso. Todo lo que tienes que notar son los nombres familiares como cada CD Cube MPs sobre ti, Controller manager que proxy cubos debería ula etcetera? Todo off thes son componentes fuera de la arquitectura kubernetes que hemos estudiado en teoría. Y ahora están desplegados en tu Google Cloud. Instancia de William. Por supuesto, estos fueron los componentes fuera de una buena victoria. Es maestro para instancias de nota, tendremos diferentes componentes. Ahora Eso es gran acceso de usuario regular a nuestro maestro alrededor de los tres comandos uno por uno que habíamos copiado antes. Y para ver si para kubernetes está trabajando en usuario regular o no. Vamos en la misma ideología cubos. Se vierte comando de nuevo y parece que todas las partes están funcionando y funcionando, y kubernetes master es accesible desde el usuario regular también. Ahora volvamos a nuestro discurso ji cpv VM en ssh para anotar uno. Vamos a volver a obtener el acceso de usuario tipo Ahora ejecuta Cube. Adán se unió al mando. Si recuerdas, habíamos hecho Cube Adam en él de Master y habíamos recibido un token desde el día Ahora estamos usando Cube Adam se unió desde ninguna instancia para unirnos al maestro como los miembros fuera del clúster Los tokens que estamos proporcionando son los mismo que habíamos recibido cuando se inicializó el maestro su hijo Endo. Ahí vamos. Una vez completado el proceso de unión, obtenemos una sugerencia de que deberíamos ejecutar cubo CDL obtener notas sobre Master para ver si lo conocido
se ha unido al cluster. Bueno, lo
haremos. Pero después de hacer no para unirse al clúster de nuevo a D c P v
EMS, ssh a nodo a nada demasiado complicado. Exactamente los mismos pasos que habíamos realizado un nodo uno. Obtén el acceso del usuario raíz y ejecuta el cubo Adam Joint Command con los mismos tokens. Una vez hecho eso, sigamos su sugerencia y regresemos al maestro. Ya hemos configurado un cubo de usuario no root acceso CDL en master por lo que no necesitamos ejecutar pseudo así de nuevo, Simplemente ejecuta cubo CTL obtener normas Y ahí vamos. Tenemos a los tres al norte listados, pero si notan nadie no es muy todavía. Nada demasiado de qué preocuparse. Démosle un poco de tiempo. Y luego el mando otra vez. Bingo. Todo el norte se han unido al clúster con éxito y están listos para trabajar. Ahora que nuestro clúster kubernetes está configurado correctamente, estamos listos para explorar diferentes aspectos de kubernetes como cubos de cargas de trabajo, línea de comando
ideal, etcétera. Nos vemos en la próxima conferencia.
62. ¿Qué son los pods?: partes. Hasta ahora, he estado evitando usar este término mientras explicaba la arquitectura tanto como sea posible . Pero confía en mí, Kubernetes se trata de partes. Entonces, ¿qué son las partes si tenemos en mente este conjunto médico de arquitectura donde los contenedores están encima,
Doctor, Doctor, Aquí es donde la comunidad se encuentra justo entre Dhaka y Contenedores. Pero Kubernetes no hospeda contenedores como son. Los encapsula en un entorno u objeto llamado barred. Ah, parte puede tener uno o más contenedores dentro de ella, pero la mayoría de ustedes encontrarán una parte por contenedor. Los bardos caen dentro de la categoría de objetos de carga de trabajo. Aquí te dejamos algunas cosas sobre las partes que debes recordar. Son la unidad más pequeña fuera de orquestación en kubernetes y todo gira en torno a ellos. El único modo de interactuar con los contenedores en las comunidades es a través de partes, por lo que son bastante absolutas. Como mencionamos anteriormente, cada parte corre al menos un contenedor. Puede tener más de uno, pero uno es imprescindible. Y también es una práctica estándar. No, esto es lo que hace especial a la parte. Kubernetes está diseñado con el hecho en mente que los contenedores mueren. El fracaso es natural. Y así la política de reinicio de contenedores alojados por partes se establece dedo del pie siempre por defecto, igual que pantano. Realizar orquestación en contenedores. Objetos de alto nivel fuera de kubernetes realizan orquestación en partes. Ahora, ya que sabemos un poco de Pardes, vamos a trabajar con ellos.
63. ¿Cómo operar en Kubernetes? Imperativa versus: trabajar con kubernetes es divertido porque tiene dos formas distintivas de aceptar solicitudes. Es decir, hay dos formas de manejar objetos en comunidades o de trabajar con comunidades. Los caminos son imperativos y declarativos deteriorados lejos nos exige a la novia Todo tipo de información
específica a kubernetes explícitamente, por ejemplo, crear algo actualizar algo hábil, algo. Todos los de son comandos específicos donde se menciona la acción off creación o actualización. Claramente, esto significa que tenemos más control sobre qué queremos cubano? Es hacer. Pero también significa que tenemos que dedicar más tiempo y esfuerzos al hacer esto. Por otro lado, declarado fuera, vamos a los kubernetes a averiguar las cosas por sí solos proporcionando un archivo sencillo y pidiéndole dedo del pie . Aplícalo. Si los objetos mencionados en el archivo no existen, Kubernetes los crea, y si existen, escala o actualiza el sistema. Tal enfoque podría sonar absurdo, pero se vuelve bastante útil para el procesamiento por lotes donde podemos controlar múltiples objetos sobre una sola instrucción. Hay dos formas de comunicar el Imperativo Lee a través de archivos y tomó un mes. O el orgullo ricano se presenta contigo, especificaciones de
Hamel o comandos con un montón de banderas. La forma más preferida es usar archivos, ya que facilita una solución de problemas más adelante, como se mencionó anteriormente, solo
hay una forma de comunicarse decorativamente. Aquí es cierto los archivos que la entrada puede ser un archivo o un directorio completo que contiene un conjunto de archivos, lo que hace que el procesamiento por lotes sea más rápido. En la próxima demo, veremos cómo el dedo del pie trabaja imperativo, Lee y Declarativo Lee.
64. Demostración: trabajar con pods: crear, analizar y eliminar (imperativa y declarativo): Ahora que sabemos qué es una parte y cómo funciona, vamos a crear una por nosotros mismos. Ya hemos visto anteriormente que hay dos formas de crear cualquier objeto en comunidades incrustadas y declarativas. Para asegurarnos de que cubrimos ambas vías, ayudamos a que los terminales se abran lado a lado en una terminal crearán aparte Imperative Lee. ¿ Dónde está en la otra terminal? Crearemos la parte declarativa Lee. Tenemos estos terminales uno al lado del otro para que podamos compararlos una vez que se hayan
creado ambos . Empecemos con el imperativo para crear imperativo aparte. Lee. Tenemos que proporcionar todas las especificaciones ya sea a un comando o a un archivo de Yemen. Vamos a joyas ñame de esta vez. Escribamos un expediente llamado Documento Imperativo Barrado. Estamos usando Nano como nuestro editor de texto, pero puedes usar cualquier editor de texto que quieras. Los fundamentos del expediente de Yemen siguen siendo los mismos que Docker componer. Sólo diferencia serían los campos que se indicarían como pase de valor clave. Pero dicho eso, empecemos. Nuestra primera sensación o primera clave valor malo. Su versión del FBI. Este campo se utiliza para dejar cubano no es qué versión off a p. Me está usando para crear este objeto para más información sobre el A p
A. Peora y qué versión usar para qué objeto puedes seguir los kubernetes oficiales documentación yendo al eslabón que cae. A continuación ayudamos a kind kind especifica qué tipo o qué tipo de objeto se va a crear . Usando esta pelea, queremos crear un pard por lo que son amables, sentidas o amables Clave tendrá la parte de valor. A continuación, tenemos meta data. Hace lo que sugiere su nombre. Se trata de datos sobre el objeto que se va a crear. Por lo general, moderador contendría sensaciones como nombres, etiquetas y así sucesivamente. El uso primario fuera de los metadatos en las comunidades es para nosotros, y la comunidad es en sí misma dedo identificar grupo y ordenar las partes. Queremos nombrar a la parte como impor I m. P. Dash Part y queremos dar una etiqueta que diga, a igual a mi app. Es posible que hayas notado que las etiquetas son un par de valor clave por ahora. No vamos a detenernos en lo profundo de las etiquetas y vamos más allá. A continuación tenemos campo de especificaciones con stands para especificaciones. Puedes considerar a Specht como el campo más importante de este archivo. ¿ Y por qué es eso? Bueno, la razón es bastante obvia. Se utilizan especificaciones para la información de configuración de objetos de novia, lo que significa que aquí spec ful proporcionará información y configuraciones sobre la parte en sí, o primera especificación son contenedores. A diferencia de docker, contenedores, son solo unas especificaciones en un campo fuera del objeto padre, que es parte específica, ations me listo con objetos, lo que significa que diferentes objetos pueden tener diferentes especificaciones y diferentes sentimientos para proporcionarlos. Nuestra siguiente entrada debajo de los contenedores de vuelta es el nombre fuera del contenedor. Es diferente del nombre fuera del tablero. En teoría, puedes mantenerlos a ambos igual, pero mantenerlos diferentes hace que las cosas sean más simples. A continuación ayudamos imagen de campo Feel describe la imagen que se va a utilizar para ejecutar este contenedor por defecto. Kubernetes utiliza imágenes de Docker Hub. Pero si queremos usar otros registros, necesitamos proporcionar específico que lo eres, pero nos meteremos en eso más adelante. A continuación tenemos mando. Éste es bastante sencillo de comprender. Estamos pidiendo a nuestro contenedor que ejecute Shell Command e ICO, una cadena llamada Welcome to Contener, um, masterclass por lienzo civil y duerma durante 60 segundos. Mencionaremos todas las especificaciones requeridas para crear el spot. Navegemos nuestro archivo y salgamos del editor de texto Farrelly. También estamos escribiendo otro expediente llamado parte declarativa punto Yemen. Y como puedes ver, también
están proporcionando sensaciones similares como archivo anterior en este, como epi, un lavado en especie y metadatos para distinguir esta parte de la parte anterior. Le estamos dando un nombre diferente, pero ambas fuera de las partes contendrán misma etiqueta. A continuación, tenemos especificaciones nuevamente. El nombre fuera del contenedor está cambiando, pero la imagen está ahí significando lo mismo, y esta vez le estamos pidiendo que imprima la misma cadena, pero duerma durante 60 segundos más. Guardemos esto y salgamos también. Volvamos a nuestra terminal izquierda y escribamos el cubo Command. CDL crear guión f Parte imperativa, no Yemen. Estamos pidiendo cubos ideales para crear un objeto a partir de este archivo en particular y no para tener éxito fuera de este comando. Recibimos la notificación desactivada. Yo soy ser parte de guión habiendo sido creado, Volvamos a la terminal del lado derecho. A diferencia de Imperative Way, escribiremos el Command Cube CDL aplique y mencionó el archivo usando guiones, bandera
F y las partes creadas también. En este caso, aunque hubiéramos querido eliminar o escalar la parte, el comando habría sido los mismos kubernetes o cubo. CDL lo habría descubierto por sí mismo. ¿ Qué queremos transmitir a través del archivo, mientras que en caso fuera de Comando Imperativo, específicamente
teníamos que decirle a las comunidades que crearan un objeto. En todo caso, crean
ambos o puertos Imparato y declarativos, así que veamos si están funcionando o no. Cubo derecho, CDL consigue Pardes. Estaremos usando mucho este comando en Future Nemo. Da una lista bien arreglada fuera de partes, junto con algunos atributos más como ¿cuántas de las partes enumeradas están listas? ¿ Cuál es el estado de cada uno e informar si hubo reinicios durante el tiempo de ejecución fuera de la parte? Y desde cuánto tiempo está funcionando la parte? Podemos ver tanto imperativo como declarado parte. Habiendo sido creados No, vamos a profundizar en ambas fuera de las partes escribiendo el tubo de comando CDL describir Pardes, seguido del nombre fuera de la parte que en este caso es I. M. P. Dashboard will también ejecutar el mismo comando en el lado derecho o gran ventaja a terminal también. Ahora tenemos descripciones de ambas fuera de las partes para que podamos hacer una comparación justa. Empecemos desde arriba. En primer lugar, tenemos nombre off, ambos fuera de las partes, que son únicas. Entonces podemos ver que ambas partes están asignadas al mismo nombre. espacio, que es la Fortney en el espacio, son imperativos. Parte es debe ceder sobre No. Dos, en tanto que declararon aparte. Emitido, desconocerás uno. También tenemos esos sellos de tiempo de inicio y sus etiquetas, lo cual es común. En cuanto a las diferencias, la parte imperativa no tiene adiciones. ¿ Dónde está la parte declarativa? Tiene bastantes de ellos. El motivo detrás de eso es Cube City L ha utilizado la configuración que fueron proporcionados por nosotros para crear la pieza en caso fuera parte imperativa donde está en caso de declararse aparte, ha utilizado una plantilla de punto especificada y acaba de llenar nuestro reemplazado el que hemos proporcionado, moviéndonos más allá tenemos p para ambas fuera de las partes, pero nos meteremos en eso más adelante. A continuación, ayudamos a la información de contenedores. Como se puede ver, ambos del contenedor tienen diferentes nombres y diferentes ID de contenedor, pero se ven la imagen del contenedor y las ideas de imagen. También tenemos el mando, que va a ser ejecutado por ambos contenedores, y tiene la ligera diferencia. Como habíamos mencionado avanzar más, tenemos al estado fuera del contenedor, que se está ejecutando en ambos apagado. El caso es, y también tenemos el sello de tiempo de inicio del contenedor, lo que significa que este es el punto donde el contenedor pasó de estado creado para arrancar en
ST en primer contenedor, lo cual es imperativo, o soy Beacon. Dana ya ha salido o terminado porque se completó, mientras que parece no es el caso con el otro, porque el periodo de sueño era un poco más largo. A continuación ayudamos a la información de cantidad y volumen, pero no necesitamos detenernos tan profundamente en eso ahora mismo. Los veremos cuando estudiemos volúmenes para kubernetes. Mi parte favorita personal sobre la descripción fuera de los contenedores son los eventos. Esto es diferente a cómo solíamos inspeccionar nuestros contenedores. Usando Docker Kubernetes nos da un corto y dulce, veraniego de eventos que fueron realmente importantes. Podemos ver que ambos fuera de los contenedores pasaron por un montón de eventos fuera, incluyendo ahí, ella Dooling, tirando de una imagen, habiéndose creado
contenedores y finalmente comenzado. Entonces así es como podemos crear y distinguir partes imperadoras y declarativas.
65. Ciclo de vida de un Pod: al igual que los congéneres partes tienen sus ciclos de vida también. En primer lugar, parte está en el estado pendiente, significa que sus confrontaciones son aprobadas por controlador de cubo, gerente y diputados sobre, pero aún está por ser debe ceder en un nodo. Una vez que obtiene señal verde de Cuba encendida y distribuida, está en el estado en marcha. Significa que al menos una fuera del contenedor de piezas definitivamente está funcionando. En ocasiones los contenedores están programados para salir después de realizar una determinada tarea. En tal caso, la parte va a estado exitoso donde todos fuera de sus contenedores han salido con éxito. O puedes decir con gracia si uno o más contenedores fallaron en el medio, nuestro contenedor muere por estar sin memoria. De lo que va el dedo del estado fallido de correr estado. Puede ser el transbordador después de la solución de problemas, y eso le da retrocede dependiendo y luego en estado de ejecución. Por último, ayudamos a Estado desconocido donde la parte no se está ejecutando, pero aún no se determina el motivo de ello, y éste es el ciclo de vida fuera de la parte
66. Demostración: la vida de la: Kubernetes proporciona ganchos del ciclo de vida del contenedor para activar comandos en
eventos del ciclo de vida del contenedor . Si recordamos, Container Lifecycle tenía cinco etapas creadas, ejecutadas ,
pausadas, detenidas y eliminadas de estos cinco cubos. Ideal proporciona ganchos de ciclo de vida para dos fuera de los estados los cuales se crean y se detienen. Exploremos ambos fuera de estos usando parte del ciclo de vida, no archivo jahmal. Se trata de una exportación de motor estándar llamada Life Steve. Veo parte y debajo del contenedor spect Ayudamos a los ganchos de ciclo de vida llamados Post Start y pre stop estos ganchos. La funcionalidad es más o menos como sugieren sus nombres. Ambos fuera de ellos tienen manejadores adscritos a ellos, los cuales son comandos ejecutables. Empezaremos los ganchos. Manipulador. ¿ El ICO dará la bienvenida a dedo un archivo llamado pobre Inicio MSG y se activará después de que el convocador ingrese al estado creado. Este es el estado donde resultan los recursos para leer derecho lier, pero el contenedor aún no está funcionando. En otras palabras, la última CMD nuestra instrucción de punto de entrada aún está por ejecutarse. El gancho funciona actualmente con el proceso de creación del contenedor de piezas, lo que significa que si por alguna razón el manejador fuera del gancho
se cuelga, se siente ejecutar, la pieza permanecerá en estado creado en contenedor y no entrará en funcionamiento estado para resumir las cosas. En primer lugar, se creará
el contenedor en el post art gancho se manejará y se
imprimirá el mensaje . Y entonces el contenedor comenzará a ejecutarse ejecutando CMD o Entry Point Command. Un uso general fuera de este gancho es para una mejor depuración, igual que la cláusula try and catch en la programación. Pero también quita la carga estancando el contenedor si el gancho no se maneja correctamente. Por lo tanto, si los eventos de parte y los registros son suficientes para su depuración, es posible que desee omitir el uso de este gancho. Por último, ayudamos a liberar Stop Hook, que desencadena antes de la terminación del contenedor simplemente estaban dejando el
proceso X del motor antes de terminar el contenedor. Pero si se quiere fuertemente luchar muy contra este gancho, se
puede aplicar señal a uno de los procesos cruciales de contenedores, y se encontraría el contenedor salido con un registro respectivo. Salgamos del archivo y creemos el tablero 30 segundos abajo, y la parte está lista. Sé que hemos vendido mucho los beneficios de los contenedores, pero siempre es divertido ver que un aislamiento administrado tan nivel fuera se crea con menos esfuerzos y en tan poco tiempo. Ahora ejecutemos la parte con cubos. Ideal Ammán exacto y ejecutar Bash en él. Consigue el archivo Post Art Nemazee y Bingo. El gancho fue ejecutado con éxito. El mensaje es fuerte y claro. Bueno, no tan fuerte, pero está bastante claro. En la siguiente conferencia veremos cómo reemplazar Convocar un comando CMD.
67. Demostración: adición de el comandos y los Arguments del contenedor a la pods: Empecemos esta demo pendiente de una lista de piezas disponibles. Usando cubos it, obtendrás partes. Solo tenemos una parte del ciclo de vida, que es de la demo anterior, porque hemos borrado el imperativo y declarado unas partes. No te preocupes, pasaremos por cómo aliviar las piezas también. Pero por ahora, vamos al comando de archivo pard Darty Amel. El archivo yamma se ve bastante similar comparado con toa anteriores dos demos también. Entonces, centrémonos en los cambios aquí. En primer lugar, los nombres de la pieza y contenedor han cambiado. A la parte se le denomina pieza de guión CMD, y al contenedor se le denomina guión CMD. Contenedor tiene sentido. Entonces en campo de especificaciones después de nombre e imagen fuera del contenedor tenemos campo Comando de
campo Common indica el comando de punto de entrada en la imagen docker. Si no proporcionamos ningún comando o valor al campo de comando, Kubernetes utiliza el punto de entrada predeterminado fuera de la imagen Docker, pero podemos cambiarlo proporcionando comando y sus argumentos. En lugar de mantener el contenedor arriba ejecutando un bucle fuera de bash Common. Simplemente le estamos pidiendo que imprima un par de variables de entorno, por lo que el comando es sprint envidia y sus argumentos son host. Nombre y kubernetes subrayan pobre. Puede notar que el comando y los argumentos están escritos entre comas dobles invertidas y sus encapsulados por corchetes. Los argumentos están separados por una coma. Salgamos del archivo y deshagamos. Entonces cubos. Creará guión f Vamos, parte de
guión, no Yemen. Se debió haber creado la parte. Vamos a probarlo con cubos. Idiom. Obtener piezas. Aquí vamos. Pero echa un vistazo. Esta parte no está en estado de funcionamiento. Se encuentra en el estado concluido. El motivo es que no hemos proporcionado ningún comando de bucle infinito como Bash. Acabábamos de pedirle que imprimiera un par de variables de entorno, lo
que hizo con éxito en unos pocos milisegundos. A lo mejor así. cuando corremos el Comando Cube Ciudad obtendrá partes. El contenedor ya había terminado su tarea, y la parte estaba en estado terminado. Vamos a tener una descripción de esta parte usando cubos. Ideal. Describe parte CMD parte aquí es nuestra descripción larga, bien estructurada. Estoy bastante seguro de que puedes comprender la mayoría de las partes fácilmente, así que saltemos directamente a la sección de comandos y argumentos. El comando es el mismo que habíamos proporcionado, que es envidia sprint y sus argumentos son nombre de host y kubernetes sport. Ahora bien, si saltamos eventos del dedo del pie, también
podemos ver que el contenedor había comenzado hace 35 segundos, mientras que terminó hace 34 segundos. Por lo que en un segundo se realizaron todos los comandos. También podemos verificar esto mirando el log off la parte simplemente cubos correctos, ideólogos. Y luego el indulto, que es parte de guión CMD. Y ahí tienes. Tenemos nuestro nombre de anfitrión en Kubernetes Sport ambos impresos.
68. Demostración: configuración de las variables del entorno del contador con las pods: Hola a todos. Como de costumbre, empecemos esto. El movimiento con una lista de piezas disponibles ayudamos a partes CMD y Life Seaway puertos marítimos. Uno de ellos está terminado y el otro sigue funcionando. Ahora vamos a abrir el guión de entorno de archivos yamma, parte Gargamel con nano. Nuevamente, la familia es bastante similar a las demos anteriores, por lo que debemos centrarnos en los cambios Los nombres fuera de parte y contenedor R
E n v guión parte y e n'dri guión contenedor. Al igual que nuestra convención de nomenclatura habitual. Si le echas un vistazo a la imagen, no simplemente
hemos proporcionado un nombre con etiqueta. Teníamos toda la parte sobre ti R l fuera de la imagen. Esto lo hemos hecho porque esta vez no queremos utilizar doctores Registro de imágenes. Queremos utilizar Google Container Registry, que es otro lugar para encontrar imágenes de contenedor. En esta demo, estamos usando una fuera de la muestra de imágenes de Google llamadas nodo. Hola. Esta nota hola es más o menos como hola mundo off Docker imagen industria y este está construido en la parte superior de la imagen base alpina. Con eso dicho, lleguemos a la crema fuera de esta demo, que es E n V. R E N V Field, que se utiliza para proporcionar variables de entorno al contenedor. Si el contenedor no tiene las variables de entorno proporcionadas dentro de este campo, lo agrega junto con sus variables de entorno predeterminadas. Y si la menta sin iluminación valiosa con el mismo nombre ya ha sido configurada por la
imagen docker , el contenedor en ejecución lo reemplaza por los valores que proporcionamos. Entonces toma este ejemplo. Digamos que tenemos una imagen docker y proporcionamos variables de entorno E B y C iguales a B Q y R respectivamente. Si estamos proporcionando las mismas variables de entorno con diferentes valores usando kubernetes archivo
Yamil al igual que Docker, sólo el contenedor en ejecución reflejará el valor cambiado, lo que significa que los valores se reflejarán en una copia fuera del imagen y la imagen original permanecerá sin cambios. Por lo que las variables de entorno de imágenes originales seguirían siendo ABC igual a becue y son sólo una copia fuera. Lo tendrá como B C igual a S de y usted o cualquier otra cosa que proporcionemos. En este caso, estamos brindando al medio ambiente, objetos de valor, parte saludo
y parte favorable, y sus valores también son adecuados al nombre. Bar saludando su bienvenida y parte despedida. ISS. No queremos que te vayas con su sombrero. Smiley. Quien eso dijo, Vamos a guardar y salir voy a crear la parte. Uso de cubos Ideal crear guión f común. A ver si está funcionando o no. Parece que la parte se está ejecutando. Ahora. Saquemos una descripción de esta parte usando cubo CDL describe pard, seguido de su nombre, guión
E N V. Parte aquí es la descripción de esta parte. Enseguida saltemos a la sección de medio ambiente y ayudamos a las entradas en este
tablero de campo saludo y parte despedida exactamente las que hemos configurado. Vamos a despejar y ejecutar esta parte usando cubo CTL guión exacto I t seguido de nombre de parte , seguido del comando, que queremos ejecutar. Se puede notar que disco un hombre es bastante similar a lo que el médico ha proporcionado para ejecutar un contenedor también. Ahora estamos en directorio raíz para contenedor. Llevemos nuestras variables de entorno y ahí vamos. Tenemos una larga lista fuera de variables de entorno. Esto responde a más de una pregunta. En primer lugar, ¿qué pasa con las variables de entorno que habíamos configurado bien aquí se vierten las dos. El saludo y la despedida del puerto están presentes. Y segundo, cuando ejecutamos el contenedor, ¿por qué llegamos a raíz ante la envidia? Parte no envidia contenedor? Bueno, la razón es que seguimos en el directorio raíz fuera del propio contenedor. Pero el nombre del host es E N V. Parte, que se puede ver en este entorno. Variable. Con eso fuera del camino, salgamos de este contenedor y volvamos a nuestro dominio.
69. Etiquetas, electores y espacios de nombres: Este podría ser el comienzo cuando comienzas a sentir que Kubernetes profundiza en
la orquestación en comparación con el enjambre,
digamos la orquestación en comparación con el enjambre, que tenemos cuatro partes llamadas Think rosa claro, azul
oscuro claro y azul oscuro. Podemos etiquetarlos para proporcionar una agrupación lógica de partes aquí. Tanto las partes de color rosa claro como oscuro están etiquetadas B para rosa, y el resto en la etiqueta B para etiqueta azul es ataque. Se trata de un meta data, que nos permite agrupar o separarnos lógicamente para una clasificación eficiente. También hay etiquetas disponibles con doctor, pero son bastante inútiles si no podemos hacer mucho con ellas para completar
las funcionalidades fuera del Laborista. Tenemos selectores. Podemos utilizar electores para buscar piezas con uno o más hígados particulares. Aquí queremos barras con etiqueta P. Así que todos sacamos un dos de las partes rosas. Podemos jugar con etiquetas y selectores para todo tipo de cosas. También se puede, qué etiquetas más elaboradas y selectores para escoger una parte en particular, como un rayo. No, tal
vez se pregunten podemos tener dos partes con las mismas etiquetas, pero ¿podemos ayudar a partes con el mismo nombre? Respuesta recta es no. Pero hay una captura que podemos ayudar a diferentes espacios de nombres, Al
igual que la programación llamada Especies en Comunidades también es una forma de aislar a Pardes. Lógica o voluntariamente. Significa que podemos tener dos partes con el mismo nombre en dos espacios de nombre diferentes en siguiente Demo huirá con etiquetas y selectores.
70. Demo: trabajar con espacios de nombre: son un mecanismo lógico de partición fuera de las comunidades, que permite que su clúster sea utilizado por múltiples usuarios, temas fuera usuarios o un solo usuario con múltiples aplicaciones sin preocupaciones o preocupaciones fuera de interacciones no deseadas. Cada equipo de usuarios off user on application puede existir dentro de su espacio de nombres, aislado de cualquier otro usuario fuera del clúster y operando como si fuera el único usuario fuera su clúster. Con eso fuera del camino, veamos cuántos nombres espacios tenemos en nuestro cluster? Parece que ayudamos a tres nombres base en este momento fuera de tiempo. Mente Bueno, ninguno de estos nombres espacios los creamos nosotros. Estos son el espacio de nombres que les proporciona kubernetes, y si nos fijamos en su edad, todos ellos están arriba por 80 minutos. Se trata de la hora en que iniciamos por primera vez o cluster. Tenemos predeterminado Q. sistema
Público en Cubo llamado Espacios. El fuerte, como su nombre indica, es que el espacio de nombre del fuerte para cada parte que creamos dentro del sistema Kubernetes Cube es utilizado por las propias comunidades. Por lo tanto, aísla sus partes de la falta. R Q. Espacios de nombre
público que sitúan uno de nuestros comandos más estándar solo cubos. Obtendrá partes y obtenemos lo que habíamos esperado. Tres partes, que habíamos hecho en demostraciones previas. Ahora vamos a agregarle un giro. Proporcionar una bandera llamada todos los espacios de nombre y ver si obtenemos más piezas. Y tenemos una larga lista fuera de partes. Lo que significa que durante todo este tiempo, Kubernetes no sólo cumplía 12 o tres, sino que no eran todas las partes del mismo. En primer lugar, veamos las partes dentro del espacio de nombres predeterminado. Son lo mismo, que habíamos creado CMD envidia y vida. Ves, veo partes, lo que significa que las partes regionales que habíamos creado cayeron directamente en el espacio 14, y todas las demás partes están en el espacio de nombre del sistema de cubo. Estas partes son implementaciones fuera de diferentes bloques fuera de la arquitectura kubernetes. Si recuerdas, ya
hemos estudiado ocho CD Cube AP a Server Cube controller manager Cubos deben Ula y Q Proxy. También habíamos instalado Real Net, que es la red de partes para Kubernetes Cluster, y todos estos bardos se están ejecutando bajo el espacio de nombres del sistema de cubo, por lo que están aislados de lo que estemos haciendo en nuestro espacio de nombres predeterminado. Vamos a crear un nuevo nombre, Espacio con Cubo. CTL. Comando Crear espacio de nombres, seguido del nombre fuera del espacio de nombres que queremos crear, que en este caso, es mi espacio de nombre de guión. Conozco nombres, piezas creadas. No. Vamos a crear la misma parte imperativa que habíamos creado en nuestra primera demo, pero esta vez la pongamos en mi espacio de nombre en lugar de por defecto con guión y flak. Consigamos nuestras partes. Como puede ver la lista fuera de partes por defecto, el espacio de nombres sigue sin cambios. Estamos teniendo las mismas tres partes viejas en Imperative Part no es visible en ninguna parte. Saquemos la parte de mi espacio de nombres y ahí vamos. Tenemos nuestra parte imperativa funcionando durante casi 20 segundos, y siempre podemos verificarla enumerando partes de todos los espacios de nombres, echa un vistazo a la última entrada. Es parte imperativa
71. Demo: gestión de recursos de Pod: Cuando especifica aparte, opcionalmente
puede especificar el hogar en la CPU y la memoria o ram que cada contenedor necesita. Cuando los contenedores mantenían solicitudes de recursos especificaban el cobertizo. Ula puede tomar mejores decisiones sobre qué notas colocar partes, y luego los contenedores tienen sus límites. Especificado. Los contenedores pueden asegurarse de que las notas no se estrellen. Empecemos con conseguir una lista de partes. Abramos el archivo, la parte del guión fuente, no Gammel. Y ahí vamos. El expediente parece más grande que el partido anterior Emma que hemos usado, pero no te preocupes. En cambio, fuera de uno, ayudamos a contenernos. Esta vez una es mi base de datos SQL Can Dana, mientras que la otra es frontal y contenedor de WordPress. El nombre del partido es frontal y en primer lugar, tiene que pasar por las cosas obvias como nombre fuera de los contenedores, imágenes que se están utilizando, variables de
entorno configuradas y metadatos fuera del bod. Una vez que todos esos están fuera del camino, tenemos recurso es sentir en ambos fuera de los contenedores. Este campo se utiliza para proporcionar límites de recursos pobre contenedor y solicitud por contenedor recursos son memoria y CPU. Como puede ver, hemos proporcionado bastante poca cantidad de recursos a ambos fuera de los contenedores,
donde el límite de recursos es de 1 28 megabytes bajo petición límite es de solo 64 megabytes. Veamos qué pasa cuando tratamos de crear tal parte. Guardemos un exacto este archivo. Como de costumbre, Run Cube CDL crear guión F common, seguido del nombre fino en la pieza se crea. Enumeremos las partes fuera. Parece que la parte sigue en el estado de creación de contenedores. Vamos a darle un poco de tiempo libre. Bueno, parece que los contenedores todavía se están creando. O, en otras palabras, aún no se han creado. ¿ Por qué es eso? Echemos un vistazo a la descripción un poco. Está bien, así que la parte no está lista porque todavía se están creando los contenedores. Como se puede ver, nuestra parte es seguir las limitaciones de recursos de manera bastante estricta. Vamos a enumerar de nuevo las partes. Vamos. Sólo uno de cada dos contenedores está listo, y la parte está en bucle Crash. Estado Atrás fuera. A ver. Cuál es el problema aquí cuando Don Cube Citadel describió comando de nuevo, podemos ver claramente que el contenedor de base de datos estado fuera está terminado, y la razón de eso es o M culpa, que destaca por fuera,
fuera de la memoria mató la solución de problemas. Esto no es muy difícil. Sugiere claramente que los límites de ubicación de recursos que hemos proporcionado simplemente no son suficientes para que este contenedor se ejecute. Pero es por otro lado,
el contenedor de WordPress se está ejecutando correctamente. Incluso cuando miramos los eventos, todos los Aaron's con respecto a los contenedores de WordPress parece ayudar en bien. Pero en caso de que fuera de mi contenedor de base de datos secuela, la imagen fue sacada con éxito. Pero el contenedor no pudo arrancar porque el recurso es simplemente no fueron suficientes. Y si notas ambos contenedores un escudo en la misma nota porque están en la misma parte. Entonces cuando estemos aprendiendo más de un contenedor aparte, serán escudos en la misma nota. Pero eso no distrae de nuestro objetivo principal. Tenemos que encontrar una manera de asegurarnos de que lo que fuera de estos contenedores estén funcionando sin problemas en el acto. Por ahora, eliminemos nuestro frente y parte usando cubo CTL Eliminar piezas Comando, seguido del nombre fuera de la parte. Puede haber una o más partes que queremos eliminar, pero en este caso, sólo
queremos relacionar front end, y parece que se lo cree. Volvamos al archivo gamma fuera de vanguardia y parte y aumentemos los límites de recursos para nuestros contenedores en lugar de 128 MB. Lo estamos cambiando a un gigabyte. Y mientras estamos en ello, hagamos lo mismo con WordPress Container también. Eso selló el archivo y salir de Nano, e intentemos crear la pieza de nuevo. Y cuando enumeramos el tablero Mullah ni siquiera tardó 11 segundos y son parte junto con ambos de sus contenedores está en estado funcionando. Cuando lo describimos usando Cube City y lo
describimos, podemos ver claramente que los límites de recursos han cambiado. Todas las pruebas relativas a ambos de los contenedores fuera de nuestra parte fueron sin problemas.
72. Controladores de Kubernetes |, Concepto y tipos: controladores son un tipo fuera de los objetos de carga de trabajo al igual que las partes. El controlador actúa como un padre u objeto de supervisión con el dedo del pie aparte, y gestiona el comportamiento de las partes de ciertas maneras. modo en que el controlador manejará la pieza depende de qué controlador sea, por ejemplo, o réplicas que crearán múltiples réplicas de una parte en ejecución. Un controlador de despliegue puede realizar actualizaciones de replicación fuera de la exposición de servicio en el estado de las piezas . Los conjuntos completos arreglarán la orden de ejecución de las piezas y se asegurarán de que ninguna las partes rompa el cubo. tanto que los empleos crearán partes que terminarán después de la ejecución en el siguiente, las conferencias trabajarán con diferentes controladores y las entenderán.
73. Introducción a los replicantes: Entendamos los objetos de control. Uno por uno, comenzaremos con conjuntos de réplicas, conjuntos réplicas en unidad más alta fuera de orquestación en comparación con las partes, lo que significa que supervisarán las partes. El propósito es bastante obvio. Como se mencionó anteriormente. Este vendaval partes son que manejaron el número fuera réplicas fuera aparte. Podemos aumentar o disminuir el número de réplicas fuera. Aparte. Usando las partes del conjunto de réplicas se dan etiquetas y réplicas. Se les dan selectores para mantener un seguimiento de qué partes supervisar. También es posible proporcionar definición de pieza junto con conjuntos de réplicas. Significaría que la creación a partir de esas partes también será gestionada por conjunto de réplicas. Si lo hace, debe proporcionar especificaciones de pieza como plantilla de pieza al archivo Yemen fuera del conjunto de réplicas. Si bien son bastante útiles, práctica
estándar no implica el uso de conjuntos de réplicas directamente allí utilizados bajo supervisión fuera del despliegue, que aprenderemos lo suficientemente pronto.
74. Demo: trabajar con replicaciones: Empecemos como de costumbre sacando una lista de partes. Estas son las partes de nuestra sección anterior. Ya que no necesitamos nada de ellos ahora mismo, eliminémoslos todos y volvemos al cuadrado uno. Abramos nuestro expediente. Réplica guión, parte Dottie Amel Usando Nano. Se trata de un archivo de Yemen fuera de conjuntos de réplicas. Pasémoslo uno por uno. En primer lugar, todo lo que tenemos FDA empeora. Y si notas o epi, una versión es diferente a la que solíamos usar con las partes. Piezas utilizadaspara tener epi. Una versión que ganamos donde sus conjuntos de réplicas están usando FDA fue app slash re uno. A continuación, ayudamos amables. Obviamente, ya que estamos creando conjuntos de réplicas, nuestro tipo de objetos es, dijo
Replica. A continuación se presentan los metadatos. Tenemos nombre y etiquetas estaban nombrando o réplicas establecidas como réplicas que guion libro de visitas y etiquetas son apt guestbook y tire Front end thes etiquetas aplican al conjunto de réplica en sí. No quiere decir que las partes creadas bajo el dicho Sablikova llevarán en la misma etiqueta. A continuación, tenemos campo de especificaciones, igual que aparte archivo Zamel. Incluso en caso fuera de Replica dijo que Speck es el campo más importante. Nuestra primera especificación son réplicas o número off réplicas, que en este caso es de tres, lo que significa que dicha réplica, creará tres partes. Si proporciona cinco
, creará cinco partes y si proporciona 50 creará 50 piezas. Si eres nodos, tener suficiente recurso es el siguiente. Tenemos selectores. Selectores son mecanismos utilizados por Replica dijo para determinar qué partes caerán bajo el activo
separado. Tenemos dos formas de proporcionar los selectores, que son etiquetas de coincidencia o expresiones de coincidencia. Bajo etiquetas de partido, hemos proporcionado un valor clave neumático front end, lo que significa que cada parte que tenga la etiqueta cansada es igual al front-end caerá directamente debajo del conjunto de réplicas rodado que están bajo el mismo espacio nombre y son una coincidencia expresión Selector dice que las partes que tengan la clave Tyr y su valor siendo frontón
caerán en el CEP. Dijo LICA. Esencialmente ambos selectores están haciendo lo mismo en este Yamil, pero acabamos de escribirlos para que puedas conocer ese terror dos formas de mencionar a tus selectores. A continuación ayudamos plantilla. Esta plantilla es una plantilla de piezas, igual que hemos comentado anteriormente en la teoría proporcionará datos sobre las partes, las cuales se crearán bajo casete de disciplina. Dijo nuestra réplica. Usaremos esta plantilla para crear el número fuera de las partes que se mencionan bajo el
aspecto de réplica . Empecemos con mental más tarde fuera de las partes. No hemos proporcionado nombre en los nombres aquí, por lo que el conjunto de réplicas dará título a las partes por sí mismo. Pero sí tenemos etiquetas, y son bastante esenciales. Y la razón es que las etiquetas se asegurarán de que las piezas coincidan con la condición fuera del selector de conjuntos de
réplicas. A continuación, tenemos especificaciones de parte donde estamos rectos mencionando los contenedores. El nombre del contenedor será lectores de PHP, y la imagen será libro de invitados versión tres front end del repositorio de contenedores de Google . También hemos mencionado la información de puertos, lo que significa que si expusimos estos contenedores contenedores Puerto 80 será mapeado con hosts. Ex esposas ese puerto. Ahora vamos a guardar y salir de este archivo. Es hora de crear nuestro conjunto de réplicas usando cubo CTL crear guión F comando. Estamos creando o replicando conjunto Imperative Lee, pero puedes crearlo, declarar Italia también. Ahora veamos cuántas partes tenemos usando cubos Ideal get parts. Y ahí tienes. Creamos tres partes simultáneamente usando un conjunto de réplicas. Los nombres de las partes los dan automáticamente las comunidades, y todos ellos fueron creados hace 6.5 minutos. Ahora echemos un vistazo a la descripción de una de las partes para ver si las partes del's son diferentes a las que habíamos creado usando archivos individuales Yamil, empezando por el espacio de nombres y nombres. No tenemos muchas diferencias, aparte de que tenemos un nuevo campo esta vez llamado Controlado por esto significa que estas partes tienen un objeto padre el cual las está controlando. Y en este caso, este objeto es réplicas set guestbook, que acabamos de crear. Aparte de eso, mayor parte de la descripción es similar a una parte regular, igual que el porno. También podemos enumerar nuestros conjuntos de réplicas usando Cube ver trato get RS RS es la abreviatura de conjuntos de
réplicas , y ahí vamos. Tenemos un conjunto de réplicas, y dice que esta réplica dijo tiene tres partes deseadas, y está teniendo tres partes actualmente listas, lo que significa que el conjunto de réplicas está funcionando a la perfección. Ahora vamos a echar un vistazo a la descripción de réplica conjunto libro de visitas usando cubo CTL Paris réplica dicho libro de visitas. Hasta ahora sólo hemos usado cubos. Describirá comando con partes, pero ahora da un formato general fuera de este comando. Por lo que Gipsy Deal describe es seguido por el tipo fuera del objeto que queremos describir y seguido por el nombre fuera del objeto, que en este caso es una réplica, dijo libro de visitas. La descripción es más corta en comparación con la parte. Llevamos a cabo generar información como metadatos, descripción del tablero de estado de la
parte y tres eventos donde cada uno de los eventos indica creación uno de las tres partes del conjunto de réplicas. De hecho, hay otro aspecto al conjunto de réplicas. Tratemos de eliminar una de las tres partes que tenemos aquí usando cubo CDL borrar partes, seguido del nombre fuera de esta parte y los cuerpos borrados. Si tratamos de encontrar una lista fuera de partes, ahora, ¿ayudará a dos partes o tres partes? Vamos a echar un vistazo Bueno, tiene tres partes, la que habíamos borrado. Se ha ido para siempre, pero son réplicas tenido ha girado hacia arriba otra parte con un nuevo nombre pero misma configuración, y se puede ver que la parte más nueva está ganando durante 10 segundos. Significa que incluso si las partes que están bajo esta réplica dijo Die crash son
réplicas borradas , simplemente girará piezas nuevas por sí mismo, lo que nos parece mucho fuera de esfuerzos.
75. Introducción a los implementos: despliegues son aún más altos que los conjuntos de réplicas en términos fuera supervisor En la naturaleza, significa que los despliegues son capaces de crear sus propios conjuntos de réplicas, que a su vez crearán las partes en consecuencia. despliegues son una especie de todos los objetos, que se pueden utilizar para muchas cosas, como crear piezas, administrar réplicas, rodar actualizaciones en partes, exponer partes, etcétera, al igual que conjuntos de réplicas. También utilizan etiquetas y selectores para la identificación de puertos. Por ahora, puede que haya empezado a darse cuenta de que las etiquetas son mucho más que un mero moderador para las piezas. Todos estos aspectos hacen de las implementaciones una opción perfecta para hospedar aplicaciones sin estado, donde la creación de piezas de pedido puede no ser tanto crucial. Y como se mencionó varias veces, son los objetos de orquestación de contenedores más utilizados en Next Demo estarán trabajando con implementaciones.
76. Demo: trabajar con implementaciones: para evitar cualquier confusión. Empecemos con la lista fuera de las partes por Running Cube. CDL Obtén piezas ayudamos a tres partes de un conjunto de réplicas anterior. Que estén donde estén y abramos nuestro despliegue. Archivo Dottie Amel. Empecemos desde arriba. Al igual que conjuntos de réplicas. Despliegues también usan epi, una versión ab slash que tenemos en su tipo. El tipo de objeto es obviamente despliegue. Le hemos dado el nombre off reply hyphen, Engine X. Vamos al campo Specs estaban usando estrategia de match label como selectores, y estaremos buscando piezas con etiqueta. App es igual a Engine X. Las
implementaciones son objetos de orquestación de mayor nivel en comparación con conjuntos de réplicas. Entonces si estamos creando un despliegue,
un despliegue en sí mismo es capaz, creando el conjunto de réplicas que necesita. Al proporcionar campo réplicas. Podemos instruir a la réplica resultante para que cree un cierto número de piezas. No, vayamos a la plantilla del partido y llenemos los datos. Proporcionaremos la aplicación de etiquetas igual motor X remolque. Evita cualquier conflicto y vamos a proporcionar la información del contenedor que incluya nombre, que se despliega contenedor e imagen del contenedor, que es inter siguiente, 1.7 punto nueve, estamos de vuelta a usar imágenes de médicos registro porque, bueno, son simplemente simples, también. Justo después de mencionar el tablero, vamos a guardar y salir de este archivo como de costumbre. Eso es correcto. Cubos ideales. Crear guión aire, seguido del nombre fuera Se crea el archivo, que es el mamífero de punto de despliegue en ningún despliegue. Volvamos a tener una lista de piezas, y ayudamos a las piezas nuevas aquí. El top dos partes en motor X piezas creadas por despliegue guión desplegado Motor X Primero desmoronan de la etiqueta que hemos proporcionado, que es apt igual al motor X. La parte contiene otra etiqueta, que es para la plantilla de pieza que está utilizando. Esta etiqueta ha sido proporcionada por la propia kubernetes. A continuación, ayudamos controlado por. Como se puede ver, esta parte no está controlada directamente por un despliegue. Está controlado por un conjunto de réplicas, el cual es controlado por el despliegue. A continuación, ayudamos a los detalles del contenedor, incluyendo imagen ,
nombre ,
imagen, I D y estado, que está listo. También tenemos los eventos normales apagados, imágenes siendo sacadas y el contenedor que se está creando etcétera. Despejemos o terminemos y describamos o desplegemos. En la descripción del despliegue se proporcionan muchos detalles, empezando por los obvios como nombre, nombre, espacios y etiquetas. Tenemos descripción sobre el conjunto de réplicas, lo que indica que se supone que este conjunto de réplicas debe mantener dos partes en funcionamiento. Debajo de eso, tenemos tipo de estrategia. Te podría estar preguntando qué tipo de estrategia bien estamos hablando de estrategia de actualizaciones fuera del despliegue. Uno de los casos de uso más conocidos fuera de Deployments es sin derribarlo. Tenía el tipo de estrategia está rolando actualización. Si te preguntas qué significa la estrategia de actualización de fallo, solo tienes que ir un par de pasos a continuación y llevamos a cabo actualizaciones sucesivas. Estrategia D días dice 25% max disponible y 25% max Search. Significa que cuando se está actualizando este despliegue, sólo 25% de descuento, sus partes totales pueden no estar disponibles, y el clúster sólo está permitido desplegar 25% de descuento en piezas extra mientras un sangrado de la implementación Tome este ejemplo. Es el despliegue tiene cuatro partes, y estamos tratando de actualizarlo 10 25% máx. Disponibilidad significa que el despliegue necesita mantener al menos tres partes fuera y funcionando todo el tiempo, y 25% como máximo. Surge significa que el despliegue solo puede crear hasta cinco piezas al máximo. Yendo abajo. Tenemos detalles sobre plantilla de parte, que es bastante común. Pero si vas incluso por debajo de eso, tenemos el nombre fuera del conjunto de réplicas que se ha creado bajo este despliegue. Y si nos fijamos en los eventos, sólo un evento está directamente vinculado al despliegue, que se está escalando hacia arriba, la réplica dijo Toe rest. Todo off, los eventos relativos a parte y contenedores son manejados por cualquiera de los conjuntos de réplicas, que trabajaron bajo el despliegue o partes que van por conjuntos de réplicas.
77. Introducción a los trabajos: pasando de los despliegues. Tenemos trabajos. Podría haber adivinado que también son unidades de nivel más alto que las partes. Bueno, porque casi todos los controladores son más altos que las partes para definirlos. Simplemente empleos significan piezas cuyos contenedores no correrán por la eternidad una vez que se
cumpla el propósito . El de salida y términos más técnicos los comandos proporcionados a los contenedores son tiempo e integración limitada. Una vez que se ejecutan, contenedor se detiene con gracia y le da el recurso está de vuelta al host. Si enumeras las piezas que son mantenidas por
los empleos, no estar en estado de ejecución no será mucho de un gran problema. Permanecerán en estado terminado una vez la salida del contenedor, y está totalmente bien. Se utilizan trabajos para el procesamiento por lotes o en paralelo. grandes empleos, que son trabajos repetitivos periódicos, se utilizan para cheques o deben dar reiteraciones de una determinada tarea. Tareas como la comprobación de bases de datos están pendientes. Escuela de futbol actualizada cada cinco minutos, etcétera, y próxima demo estará trabajando con empleos
78. Demo: trabajar con trabajos: tenemos cinco partes de las dos conferencias anteriores. Abramos empleos dot Archivo Yamil Usando Nano, como hemos visto en la teoría, empleos se ejecutan a tipo de terminación fuera de objetos de orquestación, lo que significa que el comando que proporcionamos debajo de los contenedores de vuelta no será sólo un comando de bucle interminable Al ir desde arriba, tenemos un AP diferente. Una versión comparada toa conjuntos de réplicas y despliegue, que es la slash por lotes que tenemos en nuestro tipo de objetos es nombre de trabajo apagado. El trabajo es una bicicleta de trabajo que escuchamos nombrarlo de alguna manera, porque este trabajo va a imprimir el valor off por con 2000 puntos decimales yendo más allá , ayudamos a separarlos cuchillas donde bajo los contenedores de campo spec. Los detalles incluyen un nombre fuera del contenedor, que es trabajo puede Dina imagen, que es registros médicos, imagen
completa y comando. En este mando. Estamos ejecutando una huella de dedo de guión completo. El valor off por en 2000 puntos decimales y otro aspecto u otra especificación Off the job es su límite de retroceso. Dado que el empleo es un tipo de organismo de terminación de renta, no
podemos tenerlo perdurando para siempre. Este trabajo intentará asegurarse de que el comando de este contenedor funcione, pero si no lo hace por alguna razón, es que el contenedor falla. 10 Trabajo probará comida. Intentos repetitivos fuera corriendo el contenedor Después de cuatro intentos. Si el contenedor no está funcionando, el trabajo retrocederá y se alimentará. Habiendo dicho eso, eso es incluso salir del expediente. Vamos a crear el trabajo usando cubos. Ideal Crea guión F, y se crea nuestro trabajo. Vamos a verificarlo obteniendo una lista de piezas. Y ahí tenemos nuestro bípode de trabajo, que tiene ocho segundos de antigüedad. Si describimos el contenedor, podemos ver que está controlado por el trabajo llamado Job by sobre su estado se logra, lo cual es diferente a las otras partes que hemos visto recientemente. ir más allá, también
podemos conseguir una lista de empleos, y el trabajo también se puede describir usando Cubes et al. Empleos descritos. Mordida de trabajo, al
igual que los objetos de orquestación regular o trabajo también tiene campos de descripción como nombre, nombre, etiqueta selectores de
espacio. También cuenta con tiempos de inicio, tiempo y tiempos de finalización, tiempo y la duración para con el trabajo se estaba ejecutando. Por último, llevamos a cabo el estatus de partes donde se logra una parte, que fue sobre deseo Estado y cero han fallado. Tiene solo un evento fuera de la creación exitosa fuera de la parte ya que habíamos utilizado el
dedo del comando . Apagar el valor por Vamos a ver si la salida está disponible usando logs off la parte creada por el trabajo ejecute los registros de Command Cube Cdn seguidos del indulto y ahí vamos tratar memorizar este valor.
79. Introducción a los tipos de servicios y de servicio: todo bien. Enorme descargo de responsabilidad. Ya que todos ustedes ya han estudiado el servicio de enjambre Docker será un término que ya son familia del mismo. Pero ambos servicios off thes son diferentes en caso de que el servicio de enjambre actuó como un despliegue donde se pueden declarar todos los objetos deseados y manejables convertirlos en tareas. Pero aquí en las comunidades, los servicios son meramente objetos de networking para las partes, ya que ambas formas Joe's tener interpretación diferente para el mismo término, se convierte en nuestro trabajo no confundirse a su alrededor, sino que fuera del camino, profundizemos en los servicios comunitarios. En primer lugar, servicios también son objetos al igual que las partes o los controladores, pero caen dentro de la categoría de conectividad para entender cómo funcionan los servicios. Vamos a pegarnos a partes ficticias azul, oscuro y rosa oscuro. Queremos que estas partes sean capaces de platicar Dr External Word o simplemente entre sí. Entonces los servicios son objetos de conectividad, que así como una pila fuera de configuraciones de red, lo que puede permitir que las partes puedan comunicarse al igual que las implementaciones o conjuntos de réplicas. Los servicios también utilizan etiquetas y selectores para determinar qué partes se conectarán a ellos. Nuestras partes cómo era la etiqueta DB NDP. Nuestro servicio cuenta con un selector busca D. B. Así que el rosa oscuro no se afiliará al servicio. La conectividad del blues oscuro ahora será manejada por este servicio, y potencialmente puede hablar también con el mundo exterior. ¿ Recuerdas la palabra potencialmente hablar? No necesariamente. Vamos a resumir. Ya te resultan familiares los servicios forzados a los puntos, pero son importantes listar. Te podría sorprender que la propia Kubernetes utilice estos servicios para realizar todo tipo fuera en las comunicaciones de cluster y globales. Por lo que esto es generalmente orgullo cluster I pito cada parte lo que le permite hablar dentro de cluster . Pero si elegimos abstenernos de tal práctica, podemos crear un servicio sin cabeza. Y por último, Kubernetes también proporciona soporte nativo para múltiples servicios y equilibradores de carga en la nube. Hace poco mencionamos que los servicios pueden hacer que las partes hablen potencialmente con el mundo exterior, pero por qué potencialmente bien con el servicio es también cómo los tipos primero de ellos es el clúster I P, que solo expone el servicio dentro del clúster. Significa que el mundo exterior puede acceder a él, pero las partes dentro del clúster conectadas al servicio pueden hablar entre sí. segundo tipo es Northport, que expone el servicio en el ocular externo fuera de todos los nórdicos fuera del clúster, incluyendo master. Esto creará por defecto también un cluster I p donde se dudará el puerto Norte
eventualmente si tenemos que encontrar un balanceador de carga roidado en la nube, Podemos usar servicio de tipo equilibrador de carga que no solo lo exponga todas las notas, sino que también se enorgullece ocular externo dedicado a las piezas conectadas al servicio. Y finalmente contamos con EEM externa lo que nos permite utilizar la dirección DNS para comunicarnos a partes conectadas al servicio. En la próxima conferencia se echará un vistazo a los servicios de clase tipo E y Northport, mientras que visitaremos equilibradores de carga cuando no hagamos comunidades en una provisión de nube administrada.
80. Demo: trabajar con servicios de ClusterIP: después de realizar la dilatación en cascada en última sección o cluster parece ser bastante limpio y ordenado. No tenemos partes, ni conjuntos de réplica, ni despliegues no hay trabajos perdurando con eso dicho Vamos a abrir el archivo. Desplegar motor Siguiente rt Amell Este es un archivo Gamel regular para un despliegue llamado Deploy Hyphen Engine X, que va a ejecutar un par de contenedores con Inger siguiente imagen. No entendamos demasiado en eso porque estoy bastante seguro de que ya lo entiendes y salgamos ahora Está abierto. Por lo que guión extorsión motor. Jahmal, esto es algo nuevo. Este es el archivo Yemen fuera de un servicio comunitario como siempre, A partir de la parte superior, ayudamos a la versión del FBI al igual que réplica set para pard estaban usando una versión para PC Hemos ganado. El tipo de objeto es servicio, por lo que su nombre es guion de servicio en genética y su etiqueta se ejecuta igual a mi motor. ICS avanzando con las especificaciones fuera del servicio. Contamos con información de puertos. La información del puerto sugiere que se supone que el puerto 80 de contenedores se expone utilizando este servicio. Y finalmente tenemos selector, como hemos visto en la teoría, el servicio utilizará el dedo selector identificar qué bardos exponer. Y aquí el selector se ejecuta igual a mi motor X, que también pasa a ser la etiqueta de las piezas que se están creando por nuestro despliegue. Vamos a guardar una salida de este archivo. Vamos a crear tanto nuestro despliegue como el servicio o el despliegue está listo en ambos o las partes están funcionamiento. Ahora saquemos una lista de nuestros servicios. Ayudamos a los servicios tendidos por aquí. Uno es creado por el propio kubernetes y el otro mismo. Motor X, que es creado por nosotros hace casi 25 segundos. Si notas el tipo de barco fuera de los servicios es Lester I. P. Y si recuerdas, Cluster I P permite que los contenedores hablen dentro del cluster, lo que significa que el motor X country nous off. También motor Siguiente despliegue se exponen dentro del clúster en el Puerto 80 y estamos accediendo a los servicios de la
comunidad dentro del clúster usando el Puerto 4 43 Vamos a describir sobre servicio usando cubos et al describe s
que vemos, que es la abreviatura fuera de los servicios. Entonces Engine X, que es el nombre fuera del servicio, la descripción es bastante corta. Tenemos información básica como nombre, nombres, anotación de etiqueta
basada y selector, que se ejecuta igual a mi motor X. Entonces ayudamos a un tipo fuera del servicio, que es bluster i p. Siguiente ayudamos a Target Board, que es de 80 en protocolos TCP, y también tenemos endpoints para ambos de nuestros contenedores. Si recuerdas, Dr Sesiones y puntos son el mecanismo para habilitar la comunicación con contenedores portuarios. Hemos dicho que nuestros contenedores son accesibles dentro del clúster en nuestros contenedores están expuestos dentro del clúster, lo que significa que la página principal fuera del motor siguiente servidor Web debe estar alojado en estos guisantes de ojo, pero el alcance debe ser limitado a nuestro clúster. Bueno, probemos mi chica corriendo Comando para carga por http I p fuera de nuestro servicio, seguido de un Kahlan y el puerto, que es de 80. Y ahí vamos. Se trata de dos formato html off engine. Siguiente Servidores Web dan la bienvenida a la página principal, lo que significa que nuestro servicio está en funcionamiento
81. Demo: trabajar con servicios de NodePort: No necesitamos crear una implementación separada para esta demo. Simplemente usaremos el que hemos creado en la demo anterior. Vamos a enumerar una vez o se despliega el despliegue Engine X, que tiene dos réplicas fuera del motor X webs sobre para trabajar con el servicio Northport. En primer lugar, eliminemos el servicio que hemos creado previamente, que es tan motor X que era un clúster. Yo sería tipo de servicio. Ahora abramos el auto herir al lado. Thiemann otra vez. Como se puede ver, es diferente a lo que solía lucir en la demostración anterior tipo epi A. ¿No era metadatos, etcétera artista parecen. Pero el tipo de servicio esta vez es Northport para http. Hemos proporcionado Puerto 8080 Considerando que para https hemos proporcionado Puerto 4 43 Está teniendo el mismo selector que el anterior. One run es igual a mi motor X. Digamos el archivo y salgamos de él. Crear el servicio usando cubo CTL guión f create y nuestros servicios creados. Cuando obtenemos una lista de nuestros servicios, ayudamos. Entonces Motor X, que se ha creado hace casi 10 segundos y esta vez es una nota pobre tipo de servicio. El campo de puertos indican que container sport 8080 y 4 43 on. Expuesto al puerto 30 99 32105 respectivamente para conexiones http y https. El Nota. Servicios portuarios Yo como el punto de entrada externo. Solicitud entrante para tu app. El Tablero Asignar Notas. Se expone públicamente en el proxy de cola, desactivando a cada trabajador al norte en el clúster. Significa que nuestro servicio así Motor X está en vivo en externo i p. Facilidad de todo el norte de cuatro cluster, y también cuenta con un cluster I P Servicio creado para sí mismo para que los contenedores puedan hablar entre sí dentro del cluster también. Usando esto, I p Cuando describimos el servicio, se
puede ver que aparte de port y Target board, también
tenemos nueva información, que es Northport. Y como hemos expuesto a puertos fuera de nuestra parte o contenedor, ayudamos a diferentes Northport o puerto público expuesto en nuestras máquinas host. El motivo es que cuando exponemos nuestra aplicación creando un servicio comunitario fuera de tipo Northport, un puerto de notas en el rango off 30,000 a 32.767 y se
asigna una dirección de clúster interno i P a la prueba de servicio. No deja abajo el externo i p off una de todas las notas estaban tomando nota. Uno. Aquí, ¿Quién soy yo? B es de $35.200 dólares. 215 no 1 39 Vamos a chica igual que la última vez. Pero esta vez, en lugar de usar cluster, yo estaría Usando el AP externo fuera de nuestra nota, y aquí vamos. Obtenemos la página de bienvenida del motor X Servidor web. También puedes probarlo en un navegador Web, y está sirviendo en genética, lo que significa que no sólo desde esta instancia Artistas Web browser desde cualquier navegador Web del mundo, puedes usar la combinación fuera del externo I p fuera de tu Nord y puerto expuesto. Y lo que obtendrás es el contenido que estás hospedando en tu servidor Web. Por lo que finalmente hemos expuesto o un servidor Web a nivel mundial
82. Introducción a el almacenamiento en Kubernetes: primero de todos los objetos de almacenamiento son solo otro tipo fuera de los objetos y la idea detrás de
los objetos de almacenamiento también es similar a la apagada más oscura que se utiliza para crear copias de seguridad de
información importante , que se crea durante el tiempo de ejecución fuera de los contenedores. Entonces tal vez te estés preguntando, ¿Por qué deberíamos volver a estudiar almacenamiento? Bueno, Doctor tenía cuatro tipos fuera de disposiciones de almacenamiento, volúmenes, temperamento, montajes
fess bind y enchufes de terceros. Kubernetes es algo diferente, aparte de admitir la creación de volúmenes en el propio host, admite bloques elásticos de AWS, soportes de
dedo del pie, disco
azul y como su plan absoluto de Google Cloud. Soportaba pilas abiertas para apoyar a SVM. Su almacenamiento de soporte OS Wald soporta trabajos de Boat. El listado es aún más grande que esto fuera de curso. No necesitamos aprender todas y cada una de estas opciones solo disponibilidad fuera. Tantas opciones es suficiente fuera de una razón para aprender el trabajo fuera de un objeto de almacenamiento binario. Y esto se trataba apenas de volúmenes persistentes. Kubernetes también tiene volúmenes temporales y volúmenes proyectados. Aparte de esta abrumadora disponibilidad fuera de opciones, también
hay otra diferencia clave. Si recuerdas la naturaleza fuera de almacenamiento en Docker, fue algo así. Los contenedores generan aplicaciones de cable de datos, los
volúmenes almacenaban los datos como una copia de seguridad, y cuando eliminamos el contenedor, el volumen seguiría quedando ya que waas. Con el tiempo, podemos tener demasiados volúmenes colgando, lo que nos puede enviar a escasez de almacenamiento o facturas no deseadas. Al final, ayudamos a eliminarlos manualmente. Esa puede ser una tarea desalentadora, pero es en caso de kubernetes. Cada volumen adherido a una pieza tiene una vida útil encuadernada, que es exactamente tanto como la propia fiesta. De esta forma, aunque el contenedor muera, la parte permanecerá viva y reiniciará el contenedor para que el volumen no desaparezca. Pero si eliminamos la parte misma, el volumen también se desvanecerá. Eso es bastante útil. En la próxima demo, aprenderemos a usar objetos de almacenamiento fuera de Kubernetes.
83. Demostración: el volumen para un Pod: Siempre es genial iniciar una sección con pizarra limpia, por lo que no tenemos partes en ningún despliegues por ahí. Tratemos una nueva parte con o archivo Yemen Realmente deporte, no Hamel. Pero antes de eso, vamos a entrar en ello. Este es posiblemente el archivo Yemen más pequeño que hemos visto en este curso. Es bastante sencillo. Simplemente tenemos información básica requerida para crear realmente estado de un deporte. Vamos a exhibir. Vamos a crear la pieza y comprobar si ha sido creada. Está bien, estamos bien para irnos. Ejecutemos esta parte usando Cube, CDL salida I T y ejecutemos Bash Command. Aquí estamos en la raíz off para contenedor y nuestra capacidad orinada o presente
directorio de trabajo es datos. ¿ Qué debemos hacer al respecto? Bueno, vamos a escribir una introducción sobre el lanzamiento en sí. ICO. Se trata de un código abierto en la memoria. Hay tal almacenado utilizado como base de datos. Guardémoslo en. Radio intro dot txt Ahora actualicemos este contenedor usando apt get update. Tal vez te estés preguntando que este es un estado real de su contenedor, ¿
verdad? ¿ Cómo podemos aprender? Apt Obtener actualización. Bueno, la imagen base de este contenedor pasa a ser Debian. Por lo que usar app get a blade está totalmente bien y no hay actualización completa. En pocas palabras, hemos hecho algunas modificaciones al contenedor corriendo dentro de nuestro deporte realmente. Ahora vamos a matar a este balón. Usa PS ox para conocer la lista de procesos en ejecución. Vamos a crear un proceso de liberación en sí mismo, que terminará en la terminación del contenedor. Y ahí vamos. Estamos fuera de por contenedor porque ha sido asesinado. Consigamos una lista de las partes otra vez. Bueno, nuestra parte está en marcha, pero Container ha tenido un reinicio, lo que se debe a que matamos el proceso de los lectores. Entonces entramos al contenedor. Hicimos algunos cambios. Matamos el contenedor. Entonces, ¿qué pasa con los cambios que habíamos hecho? La forma más fácil de comprobar es volver a entrar al contenedor y ver si los archivos que
habíamos creado siguen ahí. Hagámoslo. Parece que nuestro directorio de datos está vacío. Por lo que se ha desvanecido el archivo txt de liberación en orden que habíamos creado. Y esto exactamente lo que significa la pérdida de datos Para evitarlo, usaremos un simple volumen de directorio vacío. Salgamos del contenedor y volvamos a nuestra fiesta. Archivo Amel. Aparte de la imagen del contenedor y la información del nombre, aquí
tenemos unas cuantas líneas más. En primer lugar, vayamos a la línea de volúmenes. Por lo que hemos declarado un nuevo volumen llamado Reedus Volume y es tipo. Es directorio vacío, y también hemos declarado cantidad para ese volumen, lo que indica que el camino de montaña es datos. Entendamos las funciones. El muro que sientes declara a las comunidades que se necesita
crear un nuevo volumen fuera del tipo de directorio vacío , y que necesita ser nombrado como volumen de lanzamiento. Y mientras montas, asegúrate de que nuestro Directorio de datos de Readers Containers esté montado en el
volumen de directorio vacío solo por el bien de la novedad. Estamos nombrando o parte como Leer este muro y nuestro contenedor como contenedor de pared de liberación. Guardemos y salgamos del archivo como de costumbre. Vamos a crear la pieza y comprobar si se ha creado correctamente. No, vamos a tener una descripción fuera de esta parte para ver si tiene algo diferente a las partes que habíamos creado en secciones anteriores. Sí tiene diferencia. La descripción ahora también está poblada con información de volúmenes. Aquí se menciona nuestro volumen de lanzamiento, que es un tipo de directorio vacío y quién entidades es lo suficientemente amable de hacernos saber que un directorio
vacío es un directorio temporal que comparte una vida de partes, igual que habíamos discutido en la teoría . Y también manteníamos información de monto en Contenedores Field para comprobar si este volumen está funcionando correctamente, sigamos los pasos, que habíamos hecho a la parte sin volumen y veamos si hay algún cambio. Una vez que matamos el contenedor. Bueno, ayudamos a matar el contenedor. Por lo que la próxima vez cuando saquemos la lista de partes ambas, nuestras partes deberían tener un reinicio. Vamos a ejecutarlo de nuevo y ver si Data Directory tiene algún contenido dentro de él. A menos que y bingo, tenemos a nuestros lectores en total txt intactos. Está dispersa para ver si es el mismo archivo. Bueno, es ISS o volúmenes están funcionando correctamente.
84. Demostración: montura de volumen proyectado en un Pod | los secretos: ayudamos a partes de toda la última conferencia. Dejémoslos intacto ahora. Vamos a crear a archivos temporales, nombre de
usuario y contraseña dot txt y rellenarlos con las credenciales requeridas. Usar guión ICO End, que significa Edmund nuevo y derecho en un archivo temporal llamado nombre de usuario dot txt. Haz lo mismo con contraseña. Puedes usar cualquier cadena que te guste para la contraseña. Estamos manteniendo esto absurdamente difícil de pronunciar uno. No, vamos a crear secretos a partir de estos archivos. Secretos son un tipo de volúmenes proyectados, los
cuales son diferentes a los volúmenes persistentes porque tomados montaña múltiples fuentes en un solo directorio en corriente estaba fuera kubernetes secretos, mapas de
conflicto, cuenta
de servicio tokens. Todos son volúmenes proyectados. Aquí estamos trabajando con secretos. Con eso dicho, Vamos a crear un secreto con cubos. Ideal crea secreto, seguido del tipo secreto, que en este caso es nombre secreto genérico, que es usuario y fuente off. El secreto, que es de un archivo o un archivo temporal llamado nombre de usuario Doc Txt ha creado otro secreto llamado Be Inestabilidad, que significa contraseña de password dot txt. No, vamos a enumerar todos los secretos. Ayudamos a tres secretos tirados por aquí un par de ellos usuario y estabilidad de paz en
los que acabamos de crear hace unos segundos. ¿ Dónde está el token deformado? DP Duty F se crea hace casi 25 horas, y cuenta con tres fuentes diferentes. Si miras el tipo fuera de estos secretos, los que recrearon son opacos, lo que significa que los datos dentro del secreto no serán visibles aunque lo describamos. En tanto que el token secret predeterminado es un token de cuenta de servicio, que cubano es utiliza para sus propósitos de creación de parte. Describamos todos los secretos, y como puedes ver, solo
obtenemos los meta datos sobre el secreto, no los datos en sí. Podemos ver que el archivo es de 13 picaduras grandes, y el secreto se deriva de la contraseña fuente dot txt. Pero no podemos ver lo que hay dentro del expediente. Entonces si eliminamos la contraseña dot txt ahora, que se dilatará tarde o temprano, ya que es un archivo temporal o se protegerá contraseña, tal vez se pregunten, ¿y si queremos ver qué hay dentro del secreto? Bueno, vamos a montarlo con un archivo de documento de volumen Bard Open Project ID. Se trata de una olla de caja ocupada general con secretos montados como proyecto que volúmenes. Si entra en el campo de volúmenes, puede ver que el nombre fuera del volumen es volumen de prueba y el tipo se proyecta en el volumen
proyectado. Las fuentes no son los dos secretos que hemos creado, y ambos de estos secretos equivalen a una parte común llamada Proyecto y volumen en la caja ocupada Contenedor. Digamos que tú y salgas del archivo ahora Ya puedes adivinar qué vamos a hacer. Vamos a crear la pieza y comprobar si ha sido creada así. Eso es ejecutar propia caja ocupada y ejecutar shell en ella. Recordamos correctamente habíamos montado nuestros secretos a un proyecto de cordel directorio y volumen. Entonces veamos qué hay dentro del directorio. Aquí vamos. Ambos archivos están disponibles. Vamos a gato uno fuera de los fuegos, digamos contraseña dot txt. Y es la misma contraseña que habíamos ingresado, lo que significa que la información sensible, como nombre de usuario y contraseña, son brecha segura en el sandbox de un contenedor y se pueden enviar junto con él en lugar de empaquetarlo en algún otro formato de archivo. Es más simple y seguro
85. Demo: una antigua combinación de MySQL Wordpress con Kubernetes: vamos a crear una aplicación integral, que demostraría los usos tanto de los servicios como de los volúmenes. En primer lugar, empecemos creando un secreto llamado mi secuela Contraseña. Y esta vez, en lugar de tener un archivo como fuente, ayudará a una cadena como fuente. Y para hacerlo, gente escribe Dash Dash desde dash literal igual contraseña igual a ABC al 123 Por supuesto, puedes elegir cualquier contraseña que quieras y se crea nuestro secreto. No, vamos a crear el respaldo de nuestra aplicación. Abrir mi secuela? Preguntó Debbie, no Yemen. Como habrías adivinado, el respaldo es un despliegue, que utiliza un P A.
Was aps slash B one. El nombre de Deployments es mi secuela DB, y tiene una etiqueta llamada APP igual a WordPress. También tenemos selectores con la condición off label matching y las etiquetas que
buscaría selector . Nuestra aplicación es igual a WordPress y ciervo es igual a mi secuela. Ahora vamos a ir a partes de plantilla de parte también tendrán ambos de estos trabajos, así que no hay confusión Por allá y debajo de la sección contenedora estamos creando Convoque Accord, mi secuela Container, que utiliza imagen fuera de mi secuela 5.6. Estamos configurando entorno con Variable llamada mi secuela Drood Password, y obtendrá su valor del secreto, que habíamos creado antes. Estamos mencionando que los contenedores 3306 puertos deberían estar expuestos yendo hacia abajo a volúmenes estaban creando un volumen de directorio vacío llamado My Sequel volume y montándolo a donde slash labio slash mi directorio secuela Fuera de nuestro contenedor, podrías estar preguntándose. Hemos comprobado volúmenes proyectados, y hemos comprobado Directorio Vacío, que es volumen normal. ¿ Y los volúmenes persistentes? Bueno, aguanta la respiración. Ahí hay una captura sobre eso y lo visitará pronto también. Pongamos un separador y a información sobre nuestro servicio en el mismo archivo mamífero también . Sí, puedes hacerlo. Se pueden crear más objetos a partir de un solo archivo Yamil porque, después de todo, Gamel es solo un lenguaje de marcado, que se utiliza como plataforma para declarar sobre el estado deseado. En el clúster Kubernetes, hemos mencionado detalles de un servicio llamado mi secuela DB, que expondrá el Puerto 3306 fuera de contenedores teniendo trabajos AP es igual a WordPress y aquí iguala mi secuela, lo que significa que los contenedores cayendo bajo el despliegue que vamos a crear ahora. Salgamos del archivo. Ah, y por cierto, el tipo de servicio es cluster I p. Esta vez, usemos declarado a la materia para crear nuestros objetos usando cubos. Ideal Aplicar guión f mi secuela, documento
DB. Y no ayudamos a hotel kubernetes nada. Entendió todo por sí mismo, y nuestro despliegue y servicio ratones igualmente ser, se crean. Podemos jugar un poco más allá enumerando o servicios de despliegue de piezas y revisando descripciones también. Parece que estamos bastante terminados con la espalda y no escapar del front end, que podría haber adivinado por ahora, es un contenedor de WordPress goto WordPress dash front y no Gammel. Y aquí estamos. Se trata de otro despliegue llamado WP Dash Front End, que tiene etiqueta APP igual lugar de trabajo en el mismo selector. Selectores que pedían etiquetas, app igual eran prensa entera igual front end y sin plantillas aparte. El parte está siguiendo las mismas etiquetas, y se crea usando una tarjeta de imagen, WordPress 4.8 una fiesta. También estamos enviando variables de entorno aplicables llamadas host de base de datos WordPress en base datos
WordPress. host de contraseña está obteniendo su valor directamente con mi secuela DB, Considerando que la contraseña, está obteniendo su valor de un secreto. También estamos creando un volumen de directorio vacío llamado volumen WP y montándolo en la barra de piezas barra barra www slash html de nuestro contenedor de WordPress. Al igual que antes, vamos a crear o frente y servicio también. El servicio es bastante intuitivo. Puedes conseguir casi todo por ti mismo como ¿cuál es el nombre del servicio con selectores? Se busca qué puerto y partes expondrá. Y finalmente, esta vez. Además, este tipo es equilibrador de carga. Vamos a desacreditar. Por qué están respaldando fue Cluster I P. Y Frontline es equilibrador de carga. Bueno, front end va a ser accedido por todos los usuarios de todo el mundo, lo que necesita poder hablar también fuera del clúster, mientras que back in solo estará hablando con front end por lo que no necesitamos exponerlo al mundo entero. Garantiza un poco más de seguridad a nuestras bases de datos de mi secuela. Apliquemos este archivo también, y se crean nuestro despliegue y servicio. Muy bien, vamos a enumerar por servicios. Tenemos tres comunidades de servicios, que es por defecto, y está siendo utilizado por las propias comunidades. Mi secuela DB y fueron mear front end. Si nos fijamos en la columna externa I p definitivamente comunidades y mi secuela a ser no
tendrá un externo i p desde su cluster, sería una especie de servicio. Pero, ¿qué pasa con WP front end? Es un balance de carga de servicio, por lo que debe tener un externo i p el cluster I p para el equilibrador de carga ya se ha creado, por cierto. De hecho, incluso el puerto 80 fuera contenedor de WordPress ha sido expuesto a 31 002 lo que significa que North board también ha sido expuesto. Entonces, ¿qué pasa con lo externo? I p Bueno, ya ves, no
hemos configurado ningún equilibrador de carga en ninguna fuera de los viens que estamos usando como nuestros nodos de cluster
kubernetes. Entonces Entonces Kubernetes está tratando de averiguar qué hacer con el equilibrador de carga. Pero si bien se agrega, ha expuesto nuestro servicio como Northport y se hospedará en el externo me p off todo el norte, al igual que nuestro servicio anterior ni deficiente. Pero entonces, ¿cómo podremos demostrar el equilibrador de carga? Bueno, llegaremos a eso. Ese es Notre I P fuera de nuestro nodo uno otra vez. Y cuando navegamos por dedo externo I p. Colin Note Board combo, lo que obtenemos es una página de instalación de WordPress, que significa que WordPress ha sido alojado con éxito en nuestro clúster kubernetes a través todos fuera de los nodos y parece estar funcionando también después de empezar a aprender comunidades. Esta es tu primera aplicación de multiplicador completo, que no es nada corto, a menudo importante. Hito. Llevemos nuestro viaje aún más allá y aprendamos aspectos más emocionantes fuera de kubernetes.
86. Estudio de casos de Blackrock: BlackRock es una empresa proveedora de servicios financieros. Significa que son un montón de inversionistas que piden dinero prestado al cliente, invierten en mercado y obtienen ganancias. Comparten sus ganancias con el cliente, y todos se quedan contentos. BlackRock quería que sus inversores trabajaran en la vanguardia, mordida y la combinación de chispas, lo que haría que sus análisis fueran más rápidos y precisos. Pero en tales casos, las personas pueden terminar usando un entorno diferente el uno del otro como diferentes
versiones beytin , y los resultados pueden no ser tan grandes como se esperaba para todos. Qué hacer entonces negro Lockhart, un equipo de 20 ingenioso que desarrolló una Web on Spark and Fight on y lo hospedó usando Docker y Kubernetes. La aplicación Web se desplegó a todos los inversores de todo el mundo, y ninguno de ellos tenía una diferencia fuera del entorno. Todos pudieron utilizar esta app para sí mismos y mejorar su salida analítica, lo que ayudó a sus subidas también. Y todo esto se logró en tan solo 100 días. Por lo que con más oscuro y kubernetes, BlackRock pudo actualizar su infraestructura de software y mejorar el rendimiento dentro de casi un trimestre financiero
87. Despedido nuna de los noes de un clúster de Kubernetes: Estamos empezando sin partes en absoluto. Vamos a extorsionar motor. Hamel Lo es. Yemen archivó un simple motor, excepto LICA dijo, Con dos partes, se creó un conjunto de réplicas y obtener la lista de puertos. Esta vez, imprimiremos la salida de ancho porque queremos tener un poco más de información de la que se proporciona Generalmente notó tiroteos aquí. . En primer lugar, aún no
expusimos este conjunto de réplicas con un servicio. Siguen siendo partes tienen ahí yo sería nuestro cluster. Yo lo estaría. ¿ Por qué es eso? Bueno, ¿recuerdas el servicio kubernetes, que fue creado por defecto? Estas partes están conectadas al servicio comunitario, y en segundo lugar, tenemos a Notre haciendo información. Nuestra primera parte emitida You 'll on No. Dos y segunda parte te emitió un nodo uno. Ahora soñemos No. Dos y ver qué pasa. Por cierto, drenar significa desocupar completamente la pieza y dejarla no disponible para cualquiera que ella dictamine absoluto. El proceso de desagüe ocurre en dos etapas. En primer lugar, toda la nota discordante para que no más partes debería. Te pondrás en ello. Y segundo es el sueño, lo que significa que va partes en reposición. Pero estamos consiguiendo un editor aquí. Dice que esta parte contiene conjuntos de demonios que no se pueden soñar. Pero esta carta es bastante generosa y la solución también se proporciona en el corchetes. Entonces usemos el demonio ignorado establece bandera y ahí vamos o parte es desalojada. Ahora saquemos la lista del norte. Tenemos la misma cantidad fuera de los nórdicos, todo el norte ya, pero no hay dos disponibles a ciencia cierta. Dooling, ¿está haciendo está desactivada en él, lo que significa que el proceso de drenaje fue completamente exitoso. ¿ Qué pasa con la parte que es, debe usted o no hacer? Entonces vamos a comprobarlo. Esta parte se reposicionó sin problemas al nodo uno, y si se puede ver su edad es de 42 segundos, lo que significa que la parte en No. Dos murieron y se creó una nueva parte en el Nord uno. Por lo que el número apagado réplicas de la parte sigue intacto, pero la parte anterior murió. Es así como no funciona ningún drenaje o no afecto. Antes de que vayamos más allá. Vamos a destapar en el norte para que esté disponible seguro volver a hacerlo. Ahí vamos, o Noto vuelve a la normalidad
88. Demostración: actualizaciones de rodaje de rodaje de |, Pause, verificación de estado: Empecemos esta demo con una lista fuera de partes que ayudamos a partes de un conjunto de réplicas anterior . Déjalos ser Vamos a abrir actualizar parte dot Archivo Gamel. Se trata de un próximo despliegue Injun con 10 réplicas utilizando motor X 1.7 punto nueve. Ten en cuenta el número de imagen es Motor X 1.7 punto nueve. Guardemos y salgamos de este archivo y creemos este despliegue y se crea nuestro despliegue. Todas las 10 piezas están actualizadas y disponibles. No, describamos o
implementemos solo para tranquilizar la sentencia La estrategia de actualización es 25% max no disponible y 25% max Search, lo que ,
si recuerdas, significa que este despliegue necesita tener al menos siete réplicas fuera del motor extendiéndose en cualquier punto de tiempo dado. Y aunque quiera proporcionar una actualización, puede crear 13 réplicas en Max. Ahora usemos cubos. Comando ideal set image en nuestro despliegue. Despliega Motor X y vamos a configurar nuestra imagen de contenedor X del motor en 1.9 punto uno, que antes solía ser 1.7 punto nueve. Entonces, alguna
manera, estamos brindando una actualización de su despliegue y asistido. Se actualiza la imagen, pero eso solo significa que el motor X 1.9 punto uno es el estado deseado fuera del clúster. ¿ Significa que el despliegue también está abradido? Vamos a comprobarlo por el estado de implementación de Learning Cube CTL, seguido del nombre del despliegue. Parece que el proceso de actualización no está totalmente completo. Se han actualizado cinco de cada 10 réplicas, y si esperamos un poco más, llegaremos pronto al número 10 nuevamente. El ritmo de este proceso puede estar sujeto al tamaño de las actualizaciones rodantes de imagen, estrategia o conexión de red en el centro de datos de Google Cloud, que es el menos posible. De hecho, aquí no
seamos satisfechos. Traigamos otra actualización. Toe este despliegue estableciendo la imagen del dedo motor X Alpine. Y ahí vamos. No, podemos tener una historia fuera. Días de descanso son desplegar dash y el próximo despliegue. Están en Cube CTL historial de
despliegue, slash de despliegue desplegado dash engine X. Y parece que teníamos tres divisiones donde cero siendo el estado inicial. También podemos profundizar en una cierta revisión Mi historial de despliegue de Cube CDL en ejecución, seguido del nombre del despliegue, seguido de su número de revisión. Bueno, revisión
derecha es igual a dos. Dice que la revisión consistió en una plantilla de sangrado aparte con motor de imagen x 1.9 punto uno, igual que cómo podemos configurar parámetros fuera del despliegue y realizar actualización rodante
también podemos deshacer la actualización está en Cube CTL despliegue deshacer, seguido del nombre del despliegue y Under fue exitoso. Consigamos una lista de piezas. Bueno, todos los 10 de ellos parecen estar listos y funcionando. Por cierto, si te preguntas qué pasó con la parte anterior fuera del motor X, dijo
Replica, acabo de borrarlos. Por último, también
podemos revertir el despliegue a una versión de revisión específica. Vamos a retroceder. El repaso a y cuando describimos el despliegue, podemos ver que nuestra imagen está fijada en 1.9 punto uno. Y cuando llegamos a los eventos, todo lo que podemos ver es que el despliegue se está escalando hacia arriba y hacia abajo varias veces. Eso está bien, porque eso es lo que pretendíamos hacer
89. Introducción a los tetas y las Tolerations: volviendo a la arquitectura kubernetes tenemos Maestro y Nordos. Digamos que tenemos una carga de trabajo fuera de tres partes y se distribuye uniformemente entre todos los nodos. Ninguna de las partes está en master, y aunque alguna de ellas sí trate de conseguir que lo hagas en master, se bloqueará. ¿ Por qué es eso? Bueno, en la configuración normal de kubernetes, Maestro ha declarado una bandera, o mancha, que dice que no hay partes, lo
que significa que no permitirá que ninguna parte se asegure dude sobre sí mismo y eso es maestros estado deseado. Si una parte intenta instalarse en el maestro, llevará a maestro a un estado indeseado. Nadie quiere eso así Maestro lo bloqueará y la parte tendrá que ir a otro lado. Resto del Norte también puede tener daneses. Digamos que no a ha logrado que no quiera permitir ninguna parte con etiqueta LP, que representaría el rosa claro en ese caso, al
igual que los servicios o despliegues. Tampoco tendrá un selector que buscará etiqueta LP, y si nuestra barra termina por
tenerla, será echada del norte y será arrojado yule sobre algún otro Nord. Si por casualidad también sucedieron otras notas para bloquearlo, sí razones de recursos detenidos o insuficientes. El parte no tendrá a dónde ir y seguirá siendo estado inminente. En la parte se puede utilizar un boleto o un tipo comodín de provisión para eludir, retener y mandar al Noto Should Hewlett. Esto llevará al norte a un estado menos deseado, pero es mejor que las partes pendientes. Este ticket se llama tolerancia cuando se aplican coloraciones dedo del pie aparte. Excavar usted inmunidad condicional dedo del pie todos los trenes, lo que significa que parte se obtendrá debe hacer, pero sólo después de cumplir alguna condición. Digamos que la condición es esperar 300 segundos o cinco minutos, que es el valor predeterminado para la mayoría de las partes. Después de esperar cinco minutos, la parte podrá usar la tolerancia y dejarse ensillar. En próximas conferencias. Estaremos trabajando con James y políticos
90. Demo: programar las podes con tainos: Estamos de vuelta del dedo del pie o William Instancias dio sus frutos. Jcp Compute Engine Vamos a crear una nueva instancia fuera de William Name ni tres que vamos
a sumar a nuestro clúster. Pongamos su región a Asia Sur una y otra vez estamos optando por liberar abuso y 7.5 conciertos de memoria para ello igual que Norte anterior. Mantengamos la imagen para abrir a 16.4 Pero esta vez nuestro arranque este tipo será S S D en lugar
de cada d discordia del sistema más profundo normal, disco
persistente Eso dijo que es tamaño a 20 asistir Estos son generalmente más costosos comparados toa persistente son HDD discos Pero tenemos un propósito especial aquí Así que hemos optado por utilizar SST para esto. Nord ha permitido el acceso completo a la nube AP Ice junto con el tráfico http y https y hit create o William se crea. No, Vamos a Issa Sage dentro y hemos navegado al norte tres al igual que el Nodo Maestro Uno y no. Dos. También es necesario instalar prerrequisitos Docker y comunidades en Norte tres. Una vez que hayas terminado con eso, una salchicha de nuevo dedo del pie nuestro nodo maestro Y aquí estamos. Hemos navegado el dedo del pie atrás en Maestro Ahora vamos a obtener un token que puede ser utilizado por North Tree para unirse al clúster en la lista Cube Adam Broken. Aquí tenemos la ficha. Es el mismo token que habíamos usado para hacer de Nodo uno y no para unirse al clúster. Pero si lo miras más de cerca, verás que el token ya es inválido. Y la razón detrás de eso es la ficha generada por Cuba. Adam sólo tiene una validez de 12 horas y estamos mucho más allá de una pérdida ahora. Entonces, ¿qué hacer ahora? Bueno, necesitamos pedir a las comunidades que donen otro token que puede ser utilizado por más al norte para
unirse al clúster. Vamos a convertir cubo, Adam Token crear. Y aquí vamos o se crea token, copia este token y se pega en un lugar donde se pueda acceder más adelante. No. Evaluemos la edad de nuevo al norte tres. Siria, Irán, Cuba,
Adam, Adam, Comando
Conjunto, igual que tú habías corrido en el nodo uno y No. Dos pero tiempo de prueba, nuestro token es diferente. Estamos usando el token que llevamos a cabo unidad. Hace apenas unos segundos para unirse a este clúster, y parece que nuestro proceso fue exitoso. Hume Adam nos está sugiriendo que ejecutemos cubo CDL conseguir nodos en master para ver si el
proceso ni de unión fue exitoso. Entonces hagámoslo otra vez. Estamos de vuelta al maestro. Vamos a girar cubos, gritar, conseguir nodos ni tres es al menos visible. Todavía no está listo, pero démosle un poco de tiempo. Volvamos a ejecutar el comando y ya estamos listos. Ningún árbol se ha unido al cluster. Todas las notas están ejecutando la última versión. Comunidades 1.12 punto uno, y esta versión se considera más reciente, al
menos para cuando estamos grabando discurso. Ahora saquemos una descripción blanca de todos los de. Nórdicos. Bueno, no
hay conflicto fuera. El doctor tampoco lo estaba. Todos ellos están volteando dr 17 Point to the point to and Cuban. Se trata de la versión 1.12 punto uno, lo cual es bastante tranquilizador. Ahora vamos a conseguir las etiquetas en nuestros nodos. Aparte de Master, todos los del Norte están compartiendo etiquetas similares donde la única diferencia es ese nombre de host. Consigamos otra etiqueta. Dos No. Tres. Y esta vez la etiqueta es este tipo igual a S. D. Estamos usando esta etiqueta porque a pesar de que hemos usado SST como que este tipo fuera de este nodo kubernetes no se dará cuenta por sí mismo. Si queremos usar esta característica fuera de este norte para ordenar o debemos tratar las partes, necesitamos decirle explícitamente a Kubernetes que este conocido tiene este tipo igual a SSDI, y la mejor manera de hacerlo es proporcionarle una etiqueta en ella, que es única en comparación con todos los demás nodos. Vamos a sacar una descripción de Arnold para ver si su propia etiqueta ha surtido efecto. Y, sí, nuestra etiqueta es visible. Ahora vamos a tener una salida blanca fuera de lista de piezas. Ayudamos a 10 partes del despliegue anterior que habíamos creado, y todas ellas aseguraron que vas en cualquiera de los nodos uno o no a ninguno de ellos un escudo en master porque master no está permitiendo que ninguna pieza sea. Ella se ocupa de ello con su equipo de trafico de náuseas. Y como hemos agregado ni tres recientemente y no hemos creado ningún despliegue absoluto,
ningún Árbol
tampoco tiene ninguna partición en su espacio de nombres predeterminado . Ahora vamos a abrir el archivo test parte dot Gama's. Este es un simple archivo Gamel, a menudo exportación de motores, y el centro fuera de foco aquí es el selector norte de anteojos,
no selector está lejos del dedo del pie. Dígale al Cubo Sevilla que la parte debe ser debe ceder sobre un cierto tipo de nota off y igual que un selector regular, el selector notas también utiliza el dedo del pie del Laborista. Identificar el norte que quiere ser debe ceder sobre Aquí están norte Selector está teniendo etiquetado este tipo igual a evaluar D, que es igual a lo que habíamos proporcionado al Norte tres recientemente. Idealmente, esta parte debería quedar ensombrecida en el norte tres. Veamos si eso sucede o no que guarden y salgan del archivo y creen el tablero una vez más . Vamos a sacar la lista de partes como salida blanca para ver si nuestra parte recién creada emitida te vas a notario o no y sí, lo es. Controlamos explícitamente el norte donde se suponía que debía estar nuestra parte. En caso de u'll usar North Selector. El parte. 71 segundos y está ganando sobre Norte tres. Perfecto. Ahora vamos a asegurarnos de que no se pongan las partes en el norte tres pintándolo usando Cube City l notas manchadas seguidas del nombre Norte y condición detenida aquí, la manchada o la condición de dolor es que las partes. Tener el disco de la etiqueta igual Speedy no deberá obispo usted va en North tres, que ha sido pasado como una combinación off label a condición separada por un colon. Y nuestra nota está manchada. Si quieres comprender esto de manera lógica, estamos separando las partes que necesitan ser. ¿ Deberás estar en denotos evaluados y nodos de disco persistentes, que en la mayoría de los casos es una tarea real que también estarías realizando en tu clúster? Algunas fuera de sus partes me requieren SST para su desempeño mientras que las otras pueden no. Por lo que es mejor no blindarlos en él. Y sólo por medio fuera de las etiquetas y los dolores, estamos tratando de asegurarnos de que las partes que necesitan ser deben ceder en SST explícitamente vayan ahí y las otras no toquen esa nota. Describamos o anotemos de nuevo para ver si el dolor se ha producido y es visible. No, vamos a ejecutar en el despliegue llamado HDD con seis réplicas e imagen X del motor. Vamos a etiquetar todo de su parte esta igualitaria veloz se crea nuestro despliegue. Estamos recibiendo una advertencia de que la ejecución de Cube CDL podría duplicarse en el futuro, pero por ahora está funcionando bien, vamos a conseguir una amplia lista de piezas para ver si alguna de las seis partes lo hace en notario o no. Bueno, no
parece así. Todas las piezas nuevas aseguraron que ya sea en el nodo uno están en No. Dos, mientras que el Norte tres todavía tiene sólo uno termina en exportación, que antes tuvimos saludo. No, eliminemos el dolor en Norte tres y eliminemos nuestra STD de despliegue. Se elimina el despliegue, lo que significa que todas sus partes también se han ido. Vamos a volver a crear el mismo despliegue con el mismo número de réplicas fuera, misma etiqueta y misma imagen, y a ver si obtenemos algún cambio en el ella haciéndolo bien. Sí sacamos algunos cambios de seis piezas recién creadas por el despliegue de HDD para quitarles un escudo en North tres, que acabamos de desatender hace unos segundos. Entonces así es como usamos las manchas, coloraciones y etiquetas para ordenar o debemos hacer nuestras partes de manera efectiva
91. Demostración de la Autoscaling el Cluster de Kubernetes con HPA: Todos sabemos que a pesar de cuántas predicciones hacemos, a veces el número de contenedores o piezas que hemos desplegado para vender frontón o volver entrar, simplemente no
es suficiente, y necesitamos destetarlos para mantenerse seguros en tal situaciones. Podemos usar una característica off kubernetes llamada HB A o auto escalador de parte horizontal. En esta demo, vamos a utilizar HP un remolque automáticamente habilidad uno de nuestros despliegues. Cómo se divide pantalla en dos instancias fuera de Masters Terminal, se utilizará
la terminal en la parte superior para crear y monitorear el despliegue, mientras que Terminal en la parte inferior se utilizará para crear un pseudo o ficticio lord. Empecemos sacando la lista de partes. Y como pueden ver, hemos borrado todas las partes anteriores para empezar de nuevo. No hay piezas, ni despliegues y solo un servicio comunitario predeterminado. Ahora vamos a crear un despliegue llamado PHP Apache mediante el uso de la imagen de registro de contenedores de Google . Es un ejemplo. Estamos limitando nuestra solicitud de CPU Toe 200 Millicent Pew y estamos exponiendo contenedores. Puerto número 80 con los cubos de advertencia estándar. Ideal run Mike se duplique en el futuro o se crea el despliegue. Ahora intentemos crear un pseudo señor desplegando un contenedor de cajas ocupado para crear una pseudo carga. Vamos a subir un contenedor de caja ocupado usando cubos CTL Jon Kamen Lo estamos amueblando con
bandera DT Y para ejecutarlo directamente una vez que se haya creado, hemos navegado toe are busy box container. Ahora usemos W obtener guión Q y Ping, el servidor web Apache, que acabamos de girar hacia arriba en nuestra implementación anterior, y nos dieron nuestro bien, que era una pseudo carga. Ahora implementemos un escalador automático HP A u parte horizontal usando la
implementación automática de habilidades CTL de cubo , seguido del nombre de implementación, seguido del parámetro de uso, número
mínimo de réplicas fuera y número máximo de réplicas fuera. Nuestro parámetro de uso es CPU Person equivale a 50 lo que significa que una vez que se consume 50% de CPU, auto scaler girará una nueva réplica para mantener saludables todas las partes o contenedores y evitar que se sobrecarguen. H P A u horizontal Ponte Auto scaler ha sido creado. Dice que PHP un despliegue de partido ha sido autos asesinados. Corre cubo, CTL, consigue HP A. Nuestra habilidad auto es algo con éxito. Tiene 10 segundos de antigüedad tiene una parte corriendo y cero réplicas nuevas creadas. Ahora vamos a crear un bucle interminable fuera del pseudo Señor, que habíamos creado antes poniendo el mismo comando que habíamos usado anteriormente
en finanzas. ¿ Por qué bucle? Y ahí vamos. Si te preguntas por qué hay tantos o caso están ocupados contenedor de caja, está enviando continuamente solicitudes toe a PSP, party service, y en algún momento,
una de sus partes obtendrá 50% de descuento en su CPU utilizada, y ayudará a dar vuelta a una nueva réplica. Esperemos un rato y mantengamos este bien fluyendo. Ahora vamos en cubos Ideal. Consigue de nuevo a HB y ahí vamos. El número de réplicas apagado se ha incrementado a una. Por lo que sólo en un minuto también o despliegue PHP Apache se ha escalado hacia arriba.
92. Demostración: implementar Apache Zookeeper con Kubernetes: en esta demo, vamos a crear una producción. Great Apache Zookeeper Cluster Zookeeper es un
sistema centralizado de administración de servidores de código abierto para el entorno de clúster distribuido. Zookeeper ayuda al sistema distribuido a reducir su complejidad de gestión al proporcionar baja latencia y alta disponibilidad. Para proceder con esta demo, te
recomendamos que limpies tu espacio de trabajo kubernetes, lo que significa que eliminas todas las implementaciones de piezas,
servicios, servicios, conjuntos de
réplicas o cualquier otro objeto enviando lo que sea sea sugerido porque durante el proceso son nodos se drenarán. Significado, si tenemos alguna parte es elemento al racimo zookeeper. Podrían estar comprometidos, lo cual es una especie de dolor que no queremos tomar en este momento. Con eso dicho, empecemos a desplegar. Oh zookeeper Cluster. Empecemos abriendo zookeeper, Hyphen hee start archivo Hammel. Se trata de un servicio fuera de nombre. Zk Dash, que es cada uno es sinónimo de sin cabeza. No, ¿Qué es la maravilla Humana sin cabeza? Bueno, llegaremos a eso en un momento. Vayamos al campo de especificaciones. Ayudamos a puertos mencionar aquí 4 a 888 para servidor y puerto tratable ocho para
elección de líder . El clúster que p siento tiene su atributo como ninguno. Significa que este servicio no brindará ningún cluster i p a las piezas que operan bajo él. El motivo para hacerlo es que queremos mantenernos dedo permitir, identificarnos fuera de nuestras partes para proceder por la comunicación. Pero más sobre eso después. Por último, ayudamos a seleccionar una tarjeta. App es igual a zk porque estamos desplegando aplicación zookeeper. Guardemos y salgamos del archivo. Ahora abramos archivo de otro servicio llamado Zookeeper C s Dottie Amell. Esta vez el nombre del servicio es el Kiss Es y es un cluster i p type off service con solo una mención de puerto, que es 2181 Klein Port. El servicio también cuenta con la app selector Equal Seiki y retirado dijo Salgamos de eso también . Si te preguntas, ¿por qué creamos dos servicios? El motivo. Es bastante sencillo. Queríamos o anteriores dos puertos para ser manejados por un servicio sin cabeza. Dónde está el cliente Puerto puede ser manejado por un servicio de clúster genérico I P. A continuación se presenta la tarjeta de archivo zookeeper un PDB Darty Amell, donde BDB representa presupuesto de disrupción de olla. Este es un nuevo tipo de objeto que estamos contando aquí. Pero no te preocupes, no
es tan complicado. Vayamos desde arriba. Tenemos una p Una versión off policy slash v one beat a one el tipo fuera del objeto está prohibido. engaño Presupuesto de engaño significa que cada vez que estamos proporcionando alguna actualización a la junta, ¿cuántas partes se pueden comprometer o cuál es el estado deseado fuera de la parte que se puede comprometer para proporcionar la actualización aquí? El nombre de esta parte engaño presupuesto es CK Dash bdb, y está usando un selector con etiqueta off. App es igual a Ikea porque las partes estarán sosteniendo esta etiqueta también. El campo Max No disponible tiene el valor uno, que significa que cualquiera que sea la actualización que estamos proporcionando, solo una parte puede interrumpirse o solo una parte puede estar disponible. Es decir, la actualización debe proporcionarse una parte a la vez. Pero dicho eso, salgamos también de este expediente. Si te preguntas, ¿por qué sólo vamos a los archivos y los salimos? No te preocupes creará todos los objetos del mismo tiempo. Por último, vamos con el dedo del pie zookeeper como s bonita Amell. Y si te estás preguntando cuál es la postura de SS s para el conjunto completo del estado, podrías haber visto un vislumbre fuera del estado completo set en la teoría off workloads. Un conjunto completo de estado es algo diferente de un despliegue. despliegues son ideales para aplicaciones sin estado porque el orden fuera de la apariencia de la
pieza o la creación de la pieza no importa en absoluto, mientras que en ST conjuntos completos las partes se crearán en cierto orden. El motivo puede ser la dependencia entre sí o la naturaleza fuera de aplicación, lo que requiere que se realice un paso antes del otro paso. Por lo que se puede decir que las implementaciones son ideales para aplicaciones sin estado, donde un conjunto completo de estado son ideales para aplicaciones completas de estado a partir de la parte superior o conjunto completo de
estado está usando una versión P A APS slash re one, que es lo mismo que despliegues. Yendo más allá, hemos nombrado a nuestro conjunto completo estatal zk, que significa zookeeper. Entonces estamos saltando directamente a Spec Field para el estado. El juego completo también está teniendo un selector, lo
que significa que solo irá en las partes que contendrán o que coincidirá con la etiqueta. App es igual a zookeeper, al igual que el estado de despliegues. Los conjuntos completos también son capaces de encapsular conjuntos de réplicas y servicios dentro de ellos. Por lo que hemos mencionado el nombre del servicio, zookeeper, sin cabeza o buscar un dash H s y el número off réplicas de las partes que se crearán es de tres. A continuación ayudamos plantilla de parte, empezando por metadatos. A las partes le van a seguir etiqueta app igual, zookeeper, Porque eso es lo que hemos estado configurando todo este tiempo. Entonces tenemos spec feel o contenedores serán nombrados kubernetes. Entonces guardián. Y esperamos mencionar la política de extracción de imágenes es igual a siempre, lo que significa que independientemente de la disponibilidad de imágenes, siempre que se supone que se cree
el contenedor, la imagen siempre la gente Siguiente arriba ayudamos imagen estaban usando Registros de contenedores de Google. zookeeper de Kubernetes estaba en 1.0. Encontré 3.4 punto luego imagen Hemos mencionado todos fuera de tres puertos los cuales habíamos definido en headless y cluster I P servicio que nuestro cliente servidor y líder puertos electorales. A continuación, ayudamos a comando. Este comando iniciará nuestro clúster de zookeeper. El mando es bastante grande. Entonces lo hemos desglosado. Bandera por bandera. Echémosle un vistazo. Estamos iniciando shell y corriendo start zookeeper para carga por bandera de Silver, que tiene el valor. Tres, lo que significa que ayudaremos a tres servidores. Si te hubieras dado cuenta, habíamos pedido a todos los estados full set crear tres réplicas, que significa que cada contenedor lo hará como uno fuera de los sofás zookeeper en todos los
servidores del . Directorio de datos será war slash lib slash por lo que los datos de slash keeper, que es una parte fuera de la configuración del zookeeper. Partes similares son registro de datos y directorio de configuración, que son alambre slash lib slash sue keeper slash data slash log y opt slash zookeeper slash corn, respectivamente. Después hemos proporcionado los puertos que habíamos expuesto utilizando nuestros servicios los cuales son escalados elección
portuaria, puerto o líder, puerto
electoral y puerto servidor, que son 2181 tratables ocho y dos triples ocho, respectivamente. Entonces ayudamos a escoger el tiempo. Esto es bondadoso una definición o declaración. Estamos declarando nuestro tiempo de toma como 2000 milisegundos. Entonces, las configuraciones o lo que se sienta o que nuestra bandera usará unidades se pegan para ellas. Cada palo será de 2000 milisegundos o dos segundos. Siguiente arriba. Nosotros ayudamos, ¿no? Limitar Anderson. El valor es entonces podrías estar preguntándote qué es 10 significa entonces ¿qué? 10 segundos, luego milisegundos. Después minutos. Bueno, picos
distantes. Y aquí grueso es igual dedo del pie 2000 milisegundo o dos segundos. Por lo que nuestro innit limita sus 20 segundos en él. Limit vincula a nuestros servidores para elegir a un líder y unirse a ellos dentro de una cantidad de tiempo especificada. Lo que significa que en un plazo de 20 segundos el servicio tendrá que elegir a un líder y unirse a él. Siguiente es límite de sumidero, que aquí es de 56 o 10 segundos. Se define límite de sumidero para comprar el servicio fuera del colesterol, que no son líderes. Ponte al día con las actualizaciones de los líderes más. Significa que si Leader está recibiendo una actualización, el otro servicio conectado a él debería recibir ese oblato en un plazo de 10 segundos. Esa actualización puede estar un poco fuera de una actualización de archivos fuera de la configuración, algún nuevo archivo agregado o cualquier otra cosa. A continuación, estamos proporcionando algunas otras configuraciones, como memoria de pila apagado 512 megabytes. Conexiones Max Klein hasta 60. El intervalo de Bush hasta 12 hit 12 es nuestro. Y aquí parte en total desafío que cada 12 horas nuestro clúster necesita ser refrescado. Entonces ayudamos a otras configuraciones como Max session time out men session, time out y log level, que respectivamente, tienen 44,000 e info como sus valores, donde el a punto de mal definido en milisegundos. Por último, tenemos volumen, cantidad y volumen en cuatro. Estamos creando un nuevo volumen llamado Zoo William Off Time Empty Directory. Si tienes provisiones para días persistentes, puedes usar eso también. Pero para la demostración apagado, este directorio vacío demo funciona bien, y lo estamos montando a la parte mientras barra los labios últimos zookeeper fuera de nuestros contenedores antes guardar y salir del archivo. Hagamos un breve recapitulación de lo que hemos hecho. Hemos creado un conjunto completo estatal, que creará tres réplicas fuera del zookeeper. Contener a y todos los contenedores del del iniciarán sus instancias de zookeeper con
configuraciones comunes . Estos contenedores están montados en un volumen de directorio vacío llamado Zoo Volume, y todos estos contenedores están teniendo etiqueta a igual zk o zookeeper. Guardemos y salgamos del archivo. Ahora vamos a crear estos objetos uno por uno, empezando por el servicio sin cabeza, hemos creado parte engaño, presupuesto, estado full set y el otro servicio también. Todos siguen el mismo formato fuera corriendo cubos creará guión f seguido del nombre del archivo. Entonces no hay nada nuevo ahí. Ahora saquemos la lista de partes. Ejecutar cubo, CTL obtener partes seguido del guión bandera W guión. L app es igual a zk Si te preguntas qué significa eso, estamos viendo la salida fuera de este comando y solo estamos echando un vistazo a las partes que como la etiqueta APP iguala a zk Si tienes claro o cluster antes, entonces estas serán las únicas partes que tienes en tu espacio de trabajo. Esperemos un poco más y ahora todas estas tres partes están funcionando. This partes son creadas por el conjunto completo del estado que acabamos de definir antes. Y si miras más de cerca zk cero Dios creó primero, seguido de ck uno luego zk también, lo que significa que había un orden estricto fuera de la creación de parte y corriendo no menos ejecutar estos contenedores e imprimir su variable de entorno llamada nombre de host. No queremos hacer esto una y otra vez, así que podemos ser un poco más inteligentes y escribir un bucle para realizar este comando repetitivamente correr para i n 012 seguido de do Cube CDL exact Z gay hyphen dollar I dash, dash host, nombre y acabado. Es con un semi colones y hecho aquí. Yo en enfermo un dólar. Seré reemplazado por 01 y dos por lo que todas las tres partes del del mismo serán ejecutadas y se imprimirán sus nombres de
host. Ahí vamos. Nuestros nombres de host son 60 z Clave uno N Z K. Dos en un zookeeper on symbol, que es otro término para Cluster. Por lo que se usaron los números naturales como únicos. Identifícanos y la tienda cada servicio. Alquilé fuego en un archivo llamado Mi I D, que se almacena en un directorio de datos de servicio. Lo hacen para mantenerse alejados el uno del otro. Examinemos el contenido fuera de esto. Mi archivo I D ejecutar cubo CDL cantidad exacta para nuestros contenedores zookeeper ejecutar contenedores zookeeper usando Cube City, un exacto seguido por el comando cat. One lib zookeeper data Mi i D, lo que significa que vamos dedo del pie gato el contenido fuera de mi i d. antes de eso. Y encapsulemos este comando en un bucle cuatro escribiendo para I en 012 seguido de do ICO my i d z k dash dollar one votamos para comprender se ponen mejor y nos dieron eso único . Identifícanos. Zk cero se identifica como uno. Zk uno se identifica como dos y se descompone a se identifica como Terry. Apache nos recomienda utilizar una función llamada F Q D N, que significa nombre de dominio totalmente calificado. En cambio, fuera del dedo del ojo dirigirse a los servidores fuera de un conjunto de zookeeper para usarlos. Necesitamos dedo del pie. Obtenerlos primero. Entonces volvamos a correr por Luke. Y esta vez usa Cube cereal exact para imprimir el nombre del anfitrión, seguido del guión F Flag, que significa hit totalmente calificado. Entra y obtuvimos los nombres de dominio o nombres de dominio totalmente calificados para cada uno de nuestro
contenedor zookeeper . Nuestro plateado zk ceros f judean zk zero dot zk dash h s dot default dot s Vemos que cluster dot local y ambos de los otros servidores también están siguiendo el mismo patrón. Aparte de que los nombres de los anfitriones son reemplazados respectivamente, podemos echarle un vistazo a usted también más conflagraciones. Habíamos mencionado en la resección CME para contenedores que las configuraciones fuera del zookeeper se
almacenarán en opt slash zookeeper slash maíz. Entonces vamos a gato la salida de un archivo de tarjetas. Ooh Dorsey F G bajo la misma parte. Dice que este archivo se generó automáticamente y se nos aconseja no editarlo. Por lo que seguiremos el consejo de que cualesquiera configuraciones que hubiéramos proporcionado
al iniciar las instancias de zookeeper ahí intactas y se reflejan igual que deberían haber sido . Significa que zookeeper, cluster o on symbol está al menos configurado correctamente. Ahora vamos a ver si está funcionando correctamente protestado vamos a poblar aparte en zk cero así que más y comprobar si los cambios realizados en 60 se reflejan en los otros servidores ikebana NZ, Kato o no. Para ello, ejecuta el Command Cube CDL exact zk zero, seguido del mensaje Command Z K C como punto que comenzará a zookeeper, línea de
comandos, script
shell y diariamente con un comando zookeeper nativo el cual es crear seguido de la parte donde queremos poblar. El dato seguido por los datos o parte es alto desde el remitente y nuestros datos son altos desde receptor. Estamos brindando esta parte porque esto es lo que estaremos revisando a otros de nosotros si
comprobamos alto desde remitente en otros servidores y ellos proporcionan alta desde receptor Entonces nuestra comunicación será exitosa. Vamos a golpear Indo the Watcher off Así que sigue encendido notifica que se llevó a
cabo un evento de sincronización de estado y algunos datos se poblan bajo la parte alta del remitente Eso está claro Fuera o terminal Ahora ejecutemos esto sobre zk one y ejecutemos el comando cubo CDL exacta Zeki uno otra vez Zika Sea lion consiguió s H lo cual iniciará el zookeeper entra en línea Y esta vez
vamos a drogarnos desde el centro. Antes habíamos acostumbrado a comando crear esta vez estamos usando get lo que significa que estamos obteniendo los datos bajo esta parte. Si el spot en sí no existe, obtendremos un error. Si los datos de esta parte no existen, no los
encontraremos. Y si todo va sin problemas, deberíamos ver alto desde el receptor al final. Eso es todo. Entra y ahí vamos. Los cambios realizados en el servidor zk zero también se reflejan en otros servidores, lo que significa que nuestro zookeeper on symbol está funcionando correctamente. Antes de salir de esta demo, limpiemos lo que sea que
ayudemos a crear, podríamos encontrar algo interesante por ahí también. Eliminemos el conjunto completo del estado. Zk y ER dice que se borra el conjunto completo estatal, pero si echamos un vistazo a las partes, tardarán un poco en terminarse. Selects lo miraba. Y curiosamente, conjuntos de pies
estatales no solo crean las partes en un orden particular. También eliminan a un dominante en el mismo orden también. Una vez que hayamos terminado con eso, asegúrate de eliminar el mal engaño, el
presupuesto y los servicios también. Esto puede parecer un proceso sin problemas, pero esto es sólo el poder de las comunidades. En realidad logramos desplegar un zookeeper de grado de producción y sambal, que es la base de aplicaciones de big data. Al igual que su grupo, hemos empezado de crear una muestra y el siguiente contenedor, y ahora eres capaz de ejecutar zookeeper huido completo en clústeres Cymbals R también.
93. Estudio de caso de Pokemon Go: , Iman Go es un juego móvil basado en realidad aumentada, que hace que sus usuarios caminen por la calle y atrapen Pokemon virtual en su smartphone o tableta. De esta forma, pueden crear un gran roster fuera de sus Pokemon y posiblemente convertirse en un programa sobre master si consideramos historias de crecimiento fuera de los populares juegos móviles. En un principio, tienen menos usuarios que se han unido al juego, impresionados por la idea o el contenido. Bueno, qué hora Cavando más usuarios debido a lecturas positivas y palabra de Mt. Y finalmente ahí. Los usuarios aumentaron rápidamente y el juego se convierte en una tendencia. Esta ciudad está fuera de crecimiento tiene muchas ventajas. Los desarrolladores pueden determinar qué funcionó y qué no. Pueden obtener algunos ingresos antes de Skilling White, por lo que el riesgo también sería menor y pueden tener tiempo suficiente para extender sus servidores y cubrir diferentes países del mundo. Pero el libro sobre el caso de ganso era diferente debido al fandom fenomenal en todo el mundo. El bombo por el juego ya se había generado cuando lanzaron su juego en Australia y Nueva Zelanda. Esperaban que unos 100 mil usuarios iniciaran sesión durante la fase inicial, que fue alrededor de dos semanas pero esa cantidad se cruzó justo después de 15 minutos de salida. En el peor de los casos, se habían preparado para cinco veces más usuarios de lo esperado. Pero apenas en un par de días, el número de usuarios de descuento había superado 50 veces sus expectativas. Significa que tienen un millón de usuarios fuera Para empezar, este fue un enorme reto a superar. Tenían que escalar rápidamente y asegurarse de que los usuarios no veían algo como esto. La solución se resolvió incluso antes de que se produjera el problema. Pokemon Go fue desarrollado en gran medida en Java C Plus plus y C Sharp. Pero los servicios fueron alojados usando Docker y Kubernetes como una solución de gestión proporcionada por Google Cloud. De esta manera tenían una copia de seguridad de la infraestructura de Google, y podían escalar tanto como quisieran. manera rápida, no
tuve que configurar servidores se realizan, contratación
inmediata o servicios de contratación. De hecho, las soluciones fueron tan eficientes que mientras lanzaban el juego en Japón, al mismo tiempo trajeron a un pobre 1000 Nuevos señores kubernetes mientras se aseguraban de que los anteriormente corrían no se vieran completamente afectados de esta manera, cavando más usuarios mientras mantiene feliz a su ya grande base de usuarios. En próximas sesiones, aprenderemos kubernetes en la nube
94. ¿? ¿? ¡¡Toma una elección!: como sabemos, los estudiantes tienen una infraestructura informática limitada. Si estás usando comunidades con fines de aprendizaje y terminas corriendo tres o más William simultáneamente, posible que
tu sistema no permanezca en su mejor forma, lo cual no es un día feliz. Por otro lado, las industrias, cuánta infraestructura más sofisticada como los servidores, que pueden contener gran número de Williams. Y aunque no salgan de recursos, siempre
pueden comprar o rentar más. Entonces la solución debe ser simple, ¿verdad? Si eres estudiante, usa la nube. Si eres un profesional con infraestructura de la industria, utiliza la instalación local. Bueno, no
es tan sencillo porque también hay algo llamado comunidades alojadas o administradas. Se explota por los principales proveedores públicos bajos como JCP, AWS o Azure. Y da todas las facilidades fuera kubernetes cluster sin la pintura fuera, administrándolo. Entonces antes de decidir si es la solución adecuada para nosotros o no, Echemos un vistazo a su proceso y sus contras. Trajo. Es rápido e ilimitado, escalando de manera muy eficiente, como se ve en el caso de estudio de Pokemon go. Pero si tus contenedores exigen infraestructura específica como cierta GPU o algo así ,
es posible
que no esté disponible en tu región en cuyo caso puedes cómo recurrir a
infraestructura privada . Es necesario contratar a menos personas para administrar un clúster y dejar toda la molestia a los
proveedores de la nube . Pero si el personal existente no se desconoce, esto no es lo suficientemente hábil. D puede cómo hacer una habilidad menor, ser
edificante a medida que avanza y escalado dinámico reduce el riesgo de las
inversiones en infraestructura no deseadas . Pero ingenio como dejar abiertas unas notas noticiosas y traer lágrimas a las carteras. La alta disponibilidad, equilibrio de
carga y el monitoreo son en su mayoría un clic de a debido a los servicios en la nube, pero es posible que tenga que pasar por un proceso de migración inevitable. Podría decirse que puede obtener un rendimiento más confiable con más riesgos de seguridad. Pero de nuevo, ambos sospechosos indiscutibles. Por lo que para alguien que no quiere escalar su personal y quiere escalar rápidamente con menos riesgos, administrar, Kubernetes podría ser la mejor opción. Pero para alguien que quiere mantener sus datos absolutamente seguros y no quiere migrar, infraestructura
privada sería una mejor opción. Pero como siempre, para ti como estudiante, aprendizaje gestionando comunidades definitivamente será un gran activo y la habilidad. Entonces empecemos
95. Demostración: configuración de la clúster de motor de Google Kubernetes: y estamos de vuelta al tablero de Gcb. Seguimos corriendo con nuestros créditos. Nuestro proyecto de ley sigue siendo cero, así que estamos bastante seguros en ese frente. Vamos al menú de navegación o al ícono de la hamburguesa o a tres líneas horizontales en la esquina
superior izquierda de nuestro tablero de instrumentos,
desplácese hacia abajo hasta el motor de comunidades y haga clic en los clústeres. Todavía no tenemos gafas creadas, así que estamos teniendo esta pantalla. Nos está dando algunas opciones. Toma un inicio rápido, despliega un contenedor directamente o crea un clúster. El más amistoso de aspecto parece ser crear cluster. Entonces vamos por ello. Al igual que nosotros, um, instancias. Gcpd nos está impulsando a definir algunos fuera de las especificaciones fuera de nuestro clúster. Pero antes de eso, vamos a ver, ¿Qué tenemos en las plantillas de clúster? Contamos con aplicaciones intensivas de CPU de clúster estándar, Cluster Intensivo de Memoria
Lester, GPU, clúster
acelerado y clúster de alta disponibilidad. Todos estos son útiles para diferentes aplicaciones, pero nos apegaremos al Cluster Estándar. El nombre dado por defecto es el último estándar de uno, pero eso es demasiado cliché. Vamos a ponerle otra cosa. Llámalo obtener s, que significa cúmulo kubernetes. Siguiente opciones tipo ubicación. Podemos tener ya sea un clúster zonal o regional. ¿ Qué significa que desea extender su clúster a través de diferentes zonas fuera de una región, o desea extender su clúster a través de diferentes regiones ellos mismos? El tipo de ubicación de elección es permanente para una alta confiabilidad. Regional podría ser la mejor opción, pero por el momento no estamos abriendo para aplicaciones tan intensivas de rendimiento, por lo que simplemente correremos con zonal. Escojamos nuestra zona. Puedes elegir cualquier zona que prefieras. Escogeremos Europa Norte uno A. Siguiente es la versión maestra. Esto significa la versión Kubernetes, que se ejecutará en la instancia maestra. El valor predeterminado es 1.9 punto siete o G seis, y lo mantendremos en eso. Ahora definamos nuestro pool de notas, lo que significa el número fuera del norte y luego tipos de máquinas. Estamos creando un clúster tres norte, y todos estos norte ayudarán a contenedor optimizado siempre o C O s instalado en ellos. Están usando máquinas con una CPU virtual y 3.75 gigs de memoria y nuestro tamaño de disco de arranque . Este 10 GB para nodo. Hemos habilitado la reparación de autos para evitar posibles fallas y nuestra cuenta de servicio es la cuenta servicio predeterminada del motor de
cómputos. Permitimos el acceso completo a toda la nube AP ICE. También podemos proporcionar mentalmente ese dedo o racimo como etiqueta y dolor. Pero esa característica está bajo batidor ahora mismo, así que saltémosla y pinchemos en Guardar. Por último, hagamos clic en crear. Y aquí estamos o se crea cluster, re ayudando el nombre fuera del cluster, que es K y S Cluster. Nuestra ubicación Zona, que es Europa. Ni una. Una cantidad fuera del norte o tamaño de racimo, que es de tres hijas maderas fuera de curso, que es de tres abuso de visa. Porque cada off the North ha ganado re CPU y memoria total, que es de 11.25 gigs porque cada off the North tiene 3.75 gigs de memoria, podemos mirar la descripción fuera de este Lester haciendo click en el nombre fuera de él. Partiendo de lo alto. Tenemos versión maestra, que es el D Ford, un endpoint para este clúster en particular, y alguna otra información sugiere, comprado en la extraña e información fuera de pila, anhelo
del conductor y monitoreo. Debajo de eso, tampoco
tenemos especificaciones de pool, que son más o menos lo que habíamos proporcionado. Vamos a guardarlo sección. Bueno, esto no se trata de la historia. Tamaño de disco, nodos
apagados. Se trata de los objetos de almacenamiento dentro del clúster. Dado que no hemos hecho nada al clúster, tanto de los campos fuera de volúmenes persistentes como de las clases de almacenamiento no tienen
entradas especiales . Y si notas de cerca, hay una clase de almacenamiento llamada Standard, que aprovisionan motores de Google Compute. disco persistente estándar utilizará la clase de almacenamiento en el futuro para aprovisionar algunos
volúmenes persistentes . Por último, vamos a la sección Norte. Estas son las agujas de las tres notas de nuestro clúster estos nombres largos y complicados
a los nombres fuera de Reince, que se utilizan para crear el clúster todo fuera de su estado está listo. A continuación,
celebramos, celebramos, solicitamos y asignamos tamaño de CPU a base de hierbas, mientras que los tamaños de Cebú solicitados son diferentes. Localizar. El tamaño herbario es común, que es de 9 40 mil ISI, P U, lo que significa más o menos un V cebú. A continuación, ayudamos a la memoria solicitada y localizamos la memoria herbal. 2.7 gigs se encuentran BLE, mientras que habíamos proporcionado 3.7 gigs. También lo están el resto fuera de la memoria. Bueno, puedes comprender. Localice la memoria herbal como la memoria del espacio del usuario fuera de todas las máquinas virtuales del. Lo que significa que un gigabyte restante será utilizado por el Coronel Espacio fuera de estas máquinas. Hasta ahora, aún no
hemos solicitado en ubicado ningún almacén. Parece que conocemos mejor nuestro clúster que antes. En la próxima conferencia, navegaremos por el clúster y jugaremos un poco con él.
96. Demo: accesar a la clúster de GKE: En la última conferencia, habíamos creado este clúster sobre motor geeky E o Google Kubernetes. Esta vez, vamos a conectarnos a él. Navegemos a través de él. La opción más intuitiva parece presionar ese botón de conexión. Hagámoslo cuando hacemos click en Conectar, Google nos pide un comando para ejecutarnos en Cloud Shell. Cloud Shell es un shell CLI proporcionado por Google para realizar todo tipo de comandos off. Se puede definir cloud shell como un acceso ssh a un William, que ya tiene configurada la línea de comandos G cloud para nosotros sin más demora. Demos click en Ejecutar en Cloud Shell y se ha abierto un shell de nube. Vamos a redimensionarlo un poco. Bueno, se está conectando para que se vea más bonita. Y ahí vamos. Google nos da la bienvenida a nuestro shell en la nube, y son lo suficientemente amables como para imprimir ese comando en la terminal también. Todo lo que tenemos que hacer esta prensa entrar. Pero antes de que
hagamos eso, intentemos comprender este comando. Dice que estamos obteniendo credenciales de un clúster llamado K. Es clúster de Project Rapid siendo 218812 en Europa. Ni uno es uno. En pocas palabras, está dando acceso a arcade como cluster a la VM, que está hospedando el shell del club. Ahí vamos ahora. Deberíamos poder ejecutar cubos. Se pondrá en línea. Vamos a ejecutar cubo CTL obtener nodos dependiendo de su zona de conectividad de red o región que haya elegido, o el Señor en la nube de Google en sí. El funcionamiento de speed off puede variar un poco, pero definitivamente obtendrás los resultados fructíferos. Y aquí vamos. Aquí la lista fuera de todas las tres notas del mismo, que hemos visto en conferencia anterior también. Se ve más o menos como salida fuera de la clase que teníamos bootstrapped por nosotros mismos. Pero hay un poco de diferencia. Echa un vistazo a la columna de reglas. Ninguno fuera de los nodos. Cómo maestro rollo. ¿ Por qué es eso? Bueno, no
tenemos bootstrap este cluster. Lo acabamos de aprovisionar. Google lo ha bootstrapped y nos está permitiendo usarlo como kubernetes alojados o gestionar clúster
kubernetes. Por lo que el maestro es administrado por Google. ¿ Cuál es la dirección I P desactivada? Maestro, ¿Cuál es el nombre William apagado, Maestro, cuál es el tamaño fuera Maestro? ¿ Cuál es la arquitectura off master? No sabemos nada al respecto todo lo que sabemos es un desertor kubernetes versión 1.9 punto siete porque lo habíamos dicho mientras creábamos el cluster. Esto no sólo agrega otra capa de confiabilidad y seguridad, sino que también nos ahorra manejar el dolor fuera maestro, que bloquea las partes de ser ¿Debería estar en él. Ese es el ideal de un Ncube. Consigue Pardes y, como era de esperar, no se encontraron recursos moviéndose más allá. Ayudemos a partes de todos los nombres base, y aquí obtenemos una larga lista de nuevo. Pero esta vez las partes no son las mismas. Todas estas partes están en instancias Norte y no en los maestros. Aquí hay piezas disponibles. ¿ Se puede encontrar Q B P ace sobre que controlador manager incluso cubos? En caso de Ula Ninguno de ellos está aquí porque master está completamente fuera de acceso. En cambio, lo que sí tenemos es Q proxy para todos nuestros nodos, un panel kubernetes preconfigurado gripe DNS y ser como la red fronteriza y montones dedo del pie para monitoreo o clúster kubernetes. Se siente como un lustre completamente diferente al que teníamos bootstrapped por nosotros mismos, que está en la parte trasera y al menos pero en la parte delantera y estará usando la línea de comando Cube CDL justo como usamos en nuestro brillo anterior. Entonces sabe lo que hay en la próxima conferencia creará una aplicación sobre este geeky e cluster.
97. Demostración: volumen persistente y equilibrio en GKE: hemos creado aplicación de WordPress en Docker compuesta a bordo Stop kubernetes cluster . Probémoslo con geeky ahora mismo lo que estamos haciendo con escribir archivos Amel. Nosotros les hemos dado de baja mucho, Así que esta vez vamos a utilizar las muestras de motor kubernetes proporcionadas por Google y los vamos a
clonar directamente desde get hub use get blown, seguido de este enlace. Ahí vamos. Veamos si el repositorio está aquí. Bueno, es kubernetes motor samples directorio es bastante enorme, así que vamos a sacar muestras kubernetes fuera. Tiene Goto Cuban Re Muestras Directorio. Enumeremos los componentes aquí, y hay muchos ejemplos, pero queremos centrarnos en los discos persistentes de WordPress. Ejemplo. Vamos a navegar por el guión laboral persistente Dash este directorio y cuando lo
miramos, tenemos un montón de archivos yamma. Ah, pocos de ellos parecen bastante amables. Mi secuela, Dottie Amel, mi servicio de secuela wordpress dot Gamel y servicio de WordPress start Camel. Estos son todos los archivos en los que hemos operado previamente, pero tenemos algunos archivos nuevos también, que son mi secuela volumen Claim y WordPress. Volumen reclamó Gargamel Lo que hago, Vamos a revisarlos. Por lo que resulta que mi secuela Dash volume claim no Gammell es un archivo por declarar limpio un volumen
persistente. Sus volúmenes auxiliares son objetos de almacenamiento en comunidades y como su persistente aunque la parte muera, el volumen no se desvanece. Por lo que necesita haber un mecanismo a través del cual la nueva parte de enlace pueda montarse con el volumen. Por lo que al igual que las fuentes con volumen proyectado, los volúmenes de
posición ayudan al PVC o a las afirmaciones de volumen Estos objetos son utilizados por las partes del dedo del pie reclaman un cierto volumen y lo utilizan después. Partiendo de arriba, nuestro tipo se posiciona reclamo de volumen, que está usando la misma A p Una versión como parte o réplica dijo, que es V uno en la sección media posterior, le
hemos dado su nombre para entender persistente reclamos de volumen mejor los comparó con las partes. En realidad son bastante similares a las piezas que las partes consumen recursos Nord, mientras que los limpios de volumen persistente consumen recursos de volumen persistentes. Martin pide CPU y memoria para este puesto. Reclamaciones por volumen piden almacenamiento inspecciona sección. Tenemos dos campos. Acceso páramos y recurso es para diferentes aplicaciones. Para los siniestros de volumen auxiliar tienen diferentes accesos, más como los secos o leer solo muchos etcétera. Por último, se va a pedir una cuadra de almacenamiento de 200 gigabytes. Del mismo modo, también se
puede ver el reclamo de volumen de WordPress. Aparte del nombre fuera del reclamo, nada es diferente. Por lo que en total estaban pidiendo 400 gigs fuera de almacenamiento. Apliquemos ambos fuera de estos archivos yamma y creemos planos de volumen persistentes. Podría estar preguntándose si las reclamaciones persistentes por volumen son una forma de reclamar historias de D. C P quien realmente proporciona el almacenamiento. Bueno, si recuerdas hace un par de demos, cuando miramos la sección de historias fuera de nuestro clúster Jiechi, encontramos un nombre de clase de almacenamiento. Clase de almacenamiento estándar es responsable de aprovisionar almacenamiento a las reclamaciones de volumen persistente . Ahora vamos a crear un secreto para nuestra contraseña de mi secuela. A continuación, echemos un vistazo a nuestros despliegues y servicios. Empecemos con mi despliegue de secuelas. Es bastante como lo que habíamos usado anteriormente, aparte de que esta vez no está usando un directorio vacío como volumen, sino que está usando un volumen persistente en Williams Field. Mantuvimos el nombre fuera del volumen, que es mi secuela, Almacenamiento
persistente, lo que significa que estamos pidiendo kubernetes toe crear este volumen llamado mi secuela
Almacenamiento persistente y nuestras próximas líneas determinarán que este volumen va a ser un volumen persistente. La razón es igual que las fuentes con volúmenes proyectados estaban proporcionando reclamos de volumen de posición con este volumen, seguido del nombre de la reclamación, que es mi secuela. Reclamación por volumen o parte de montaje también se ve como lo que waas cuando previamente desplegamos WordPress. Salgamos de este archivo y creemos esta implementación. A continuación tenemos mi servicio de secuela fuera de Cluster I P Type. Es exactamente igual a lo que hemos utilizado anteriormente, por lo que podemos echarle un vistazo rápido y salir de este archivo. Vamos a crear rápidamente el servicio también y echa un vistazo a nuestra implementación de WordPress al igual que mi implementación de secuela aquí, también. La única diferencia es el tipo fuera del volumen donde el infierno proporcionó volumen persistente y también mencionaste la limpia que es crear este despliegue también. Echemos un vistazo a nuestro servicio de WordPress, que también es el mismo que la última vez, pero esta vez esperamos que sea tipo ser equilibrador de carga haga un impacto significativo. Vamos a crear un servicio a menos que recibas una lista de servicios hasta ahora, todo iba igual que lo fue con nuestras comunidades bootstrap. Pero a partir de este paso, podemos ver el apagón alojado o gestionado kubernetes off, geeky o lord. Equilibrio de servicio está funcionando a la perfección, y tenemos un externo I p 35 a 28 0.119 no 91 dedicado a nuestra aplicación WordPress, lo que significa que no tenemos que revelar el externo i p facilidad de los nórdicos. Y aunque alojemos algunas aplicaciones más en diferentes puertos, tendrán sus i p individuales por lo que no tendremos conflictos I p en absoluto. Además, cuando describas el servicio WordPress echa un vistazo a los eventos, geeky está constantemente asegurándose de que el equilibrador Lord esté funcionando correctamente. Ahora vayamos a una nueva pestaña en nuestro navegador Web y simplemente pongamos el I p externo en el
equilibrador de carga . Yo p fuera de nuestra aplicación. Sin carbón, sin combinación de I p y número de puerto. Nada. Tan solo un simple i p. Y ahí vamos o lugar de trabajo está en marcha
98. Demo: Kubernetes en Microsoft Azure Cloud: hemos visto gestionados en comunidades alojadas en gcb, que representaba Google Cloud Platform. Ahora pasemos a Microsoft Azure. Abramos nuevamente el navegador Web y vamos a esta dirección azur dot Microsoft dot com. Y ahí vamos. Estamos en la página principal de Microsoft Azure Cloud. Microsoft Azure es un servicio de computación en la nube creado por Microsoft para construir, probar, implementar y administrar aplicaciones y servicios a través de una red global fuera de los centros de datos
administrados por Microsoft . Podemos ver un montón de ubicaciones de información en todo el mundo, que están cubiertas por como centro de datos, como grandes empresas y clientes, que usan Microsoft Azure en algunas estadísticas MSP otra vez, igual que G, C P o cualquier otra nube Breuder probando Microsoft Azure también es gratis. Demos click en el botón de inicio de tres para configurar nuestra cuenta. Esta página se trata de lo que obtendrías al crear una cuenta gratuita? Llamemos más allá para obtener más información, y ahí vamos. Dice que tendremos 12 meses de descuento, algunos de los servicios populares gratuitos y 25 más servicios siempre gratuitos. Sin blanco. Esto ordenar muy drenaje. A diferencia de JCP, Azure se ha dividido. Es provisión de cuenta gratuita en términos de uso por hora y costo de consumo, lo que significa que el uso gratuito de algunos de los recursos se calculará en
piezas usadas por hora donde sea libre de uso. calcularán otros recursos en términos de crédito deducido. Una vez que nos
quedamos sin crédito, no podremos usarlos de forma gratuita y de voluntad mental. A pesar de que Azure proporciona muchos de los servicios gratuitos durante 12 meses, el saldo crediticio que obtenemos en términos de divisas es solo por un mes, lo que significa que si no usas este recurso es dentro de un mes, desperdiciarás los créditos. Por ejemplo, si nos desplazamos más allá, podemos ver que algunas de las provisiones informáticas básicas como máquinas virtuales, disco de
almacenamiento, almacenamiento
blob, blob instancias de servidor de
bases de datos, etcétera son gratis. Pero para un uso limitado, 7 50 horas fuera de las máquinas virtuales Lennox o Windows, dos tees SS fuera 64 gig tamaño cinco G B off blob storage son 2 base de datos de 50 GB. Instancia. Además, tenemos la lista de servicios que siempre son gratuitos. Por ejemplo, servicio de
contenedores, que estaremos usando pronto, está en servicio siempre gratuito, pero para usar el servicio de contenedores o el clúster kubernetes como se estará desplegando Williams , que de nuevo será cobrable si no sacamos créditos por tres horas. Vamos a gatear de nuevo a la parte superior y haga clic en el botón de inicio libre. Al igual que Google Cloud Platform necesitaba una cuenta de Google. Microsoft Azure necesita una cuenta Microsoft. Generalmente, puede que no tengamos una cuenta Microsoft, así que vamos a crear una. Puedes usar tu dirección de correo electrónico existente u obtener una nueva. Utilizaremos un ya existente a un clic siguiente. Entonces elijamos un acierto de contraseña apropiado. Siguiente otra vez. te pedirá que proporciones un tribunal de verificación, cual obtendrás en tu dirección de correo electrónico, y debes elegir si quieres recibir algún email promocional en este momento , no
necesitamos toe get correos electrónicos promocionales. Entonces, solo terminemos con la cancha de verificación y golpeemos a continuación. También se te puede pedir que escribas el texto de una captura solo para que sepan que
no eres un robot. En la siguiente página, necesitamos proporcionar parte de la información personal, igual que habíamos proporcionado a Google. El primer apartado incluye tu nombre completo, dirección de
correo electrónico, número de
teléfono, etcétera y algunos fuera de los detalles. Yo listo basado en donde vives. Seguido de eso. Contamos con verificación de identidad a través de un teléfono y una verificación de identidad por medio de una cédula. Al igual que aquí JCP, dos guardias que no permiten pagos de automóviles pueden no funcionar. Además, ASHA tiene otra regla con estados de que sólo se puede crear una cuenta usando una
tarjeta de crédito . Una vez que haya proporcionado su número de teléfono e información de tarjeta, lo
siguiente es firmar el convenio. Da click en Estoy de acuerdo y sigamos. Y aquí estamos en el tablero de Microsoft Azure. Hagamos un recorrido. En primer lugar, tenemos que crear botón de recurso. Entonces contamos con todos los servicios que son proporcionados por ASHA. A continuación, tenemos favoritos. Estos son miedo global. Es pero a medida que seguimos usándolos, los favoritos me cambian. Contamos con una barra de búsqueda amigable, seguida de algunas de las opciones de configuración. Honestamente, puede
que no parezca tan fácil y soportado oh, como gcb, pero es solo otra plataforma en la nube, por lo que si lo usas lo suficiente, te acostumbrarás. Haga clic en el botón justo después de la parte de búsqueda, que se utiliza dedo del pie abrir la cáscara de nube celeste, igual que D. C. pieza nube shell. Una vez que hacemos click en él, obtenemos el prompt de bienvenida. Tenemos una opción para elegir entre Bash y Power Shell y para mayor comodidad irá con Bash para usar Cloud Shell de manera efectiva. Necesitamos montar un almacenamiento persistente a este shell de nube. Instancia. El almacenamiento persistente es una parte de la suscripción gratuita en sí, por lo que no se nos cobrará por ello. Es click en crear almacenamiento y avanzar más allá. El siguiente mensaje es que se ha creado nuestro disco en la nube y se está
inicializando nuestro shell en la nube . Ahí vamos. Cloud Shell configuró su éxito, pero estos teléfonos parecen bastante aburridos, así que los haremos un poco más refrescantes. Ir más allá. Vamos a crear un recurso Grupo on Resource Group es ansiosa manera de monitorear un montón recursos
relevantes bajo una sola ubicación. Estamos nombrando a nuestro grupo de recursos como C C CK y estamos estableciendo su ubicación del dedo hacia el Este nos
igual que teníamos regiones y zona en G. C. P. Tenemos ubicación en Microsoft Azure y la provisión del grupo de recursos es exitoso. Ahora vamos a crear un clúster kubernetes dentro de este propio grupo de recursos. Estás usando el comando easy a ks create que significa Azure community services create . Y estamos instruyendo a nuestro shell de nube para que cree un clúster de K s con un Nord en el grupo de recursos de
C. C. A. A.
K s, y también estamos habilitando un monitoreo adicional. Llévala. Por último, estamos proporcionando la forma de autenticación como claves ssh. Pasan muchas cosas entre bastidores fuera de este comando Azure s provisioning. Ah, todo nuevo William como nodo en él está instalando todos los requisitos como docker kubernetes etcétera en esa máquina virtual. Por lo que este comando podría tardar una cantidad significativa de tiempo en terminar. Pero mantener a los pacientes ya que el resultado será dulce. Una vez que el comando haya terminado con éxito, obtendremos la configuración del clúster o la salida del comando en formato Jason. Echemos un vistazo a algunos de los términos conocidos. Bueno, el recuento de nodos es uno. El número máximo de partes posibles es de 110 y la nota nombre completo no es pull one por
más el disco asociado a este aviso off 30 g b y estos recursos se aprovisionan bajo el grupo de recursos Sisi s en oriente nos. Y por último, también
tenemos el nombre del cluster, que es un ks cluster toe. Acceder a este comando cluster run easy a ks get credenciales para que podamos importar
las credenciales del dedo del pie del clúster, nuestro cobertizo de nube y el comandante exitoso y podemos verificarlo usando cubos. Ideal obtener nodos como hemos solicitado. Este cluster tiene sólo una nota y la salida es bastante similar. Toe todos los demás cubos lo va a conseguir ningún comando, que proporciona información como status off north rolla fuera nords el tiempo ya que la nota está en marcha, y la versión Kubernetes, que ha sido instalada en ella. Vamos aún más allá y ejecutemos o estándar en el próximo despliegue con una carga, equilibrio o servicio por fin. Nuestro despliegue y servicio se han creado con éxito, y el equilibrador de carga también está funcionando muy bien porque nuestro servicio cuenta con un I p externo llamado 137 lote 135.78 no 74. Navegemos a esta dirección I P en una pestaña separada del navegador y ahí vamos o Motor X está marcha. Significa que el clúster, que habíamos configurado, funciona perfectamente bien. Al igual que gcb, puedes probar todo tipo de objetos y experimentos con esto, también
un cúmulo de cáncer. Minimicemos el tablero y exploremos algunos aspectos más de este clúster. Navega a grupos de recursos y podemos ver un montón de grupos de recursos ya creados a partir de estos, el que habíamos creado. Se llama C C C A Ks, que se encuentra en East nos eso es click en él. Tiene un recurso llamado E. K s Cluster, que es un kubernetes administrado. Instancia. Al hacer click en él, obtenemos aún más detalles sobre el cluster, que acabamos de crear. Si recuerdas, también
habíamos habilitado el monitoreo en este Lester. Entonces vayamos a puñalada adentro. Estos insights se refieren principalmente a la utilización de recursos en el marco de tiempo mencionando el
rango de tiempo . Podemos hacerlo más conciso agregando otros filtros, y si garababa más, podemos encontrar todo tipo de información como notas, utilización de
CPU, utilización memoria de
nodos, ni contar etcétera. También contamos con abs como nodos, controladores y contenedores, los cuales brindan información respectiva. Si vamos a anotar puñalada, podemos ver que sólo hay un Nord ganando dentro del clúster, y si tuviéramos que controlar una puñalada. Tenemos un controlador comenzando con mi motor X, que si miramos de cerca, es una réplica, dijo Controller, que ha sido creado por mis extremos Siguiente despliegue. Ahora volvamos a Cloud Shell y lideremos el grupo de recursos, que hemos creado. Usar EasyGroup creía común, seguido del nombre fuera del grupo de recursos y proporcionar sí para darle permiso para eliminar los recursos que actualmente se están utilizando también. Cuando terminemos, podemos cerrar el shell de nube y cerrar sesión desde esta cuenta.
99. Demostración: UI de Docker con Kitematic: Todos se cansan de líneas de mando y pantallas terminales en algún momento de su vida. Ahí es donde necesitamos aplicaciones G Y. off largometraje del Dr. Freud Ridge Ey con su Enterprise Edition, y se llama UCP. Pero como este curso es gratuito y sólo cubre contenido que es libre de acceder y configurar , usaremos 1/3 party. Alegría para Doctor, llamada Kite Matic. Kite Matic es una aplicación GeoEye de código abierto bien hecha para Docker, que soporta un solo host Dr Instancias. Por el momento, sin más charla, saltemos directamente a su página get help, donde podemos descargar sus binarios. Acude a tu navegador Web favorito y navega a esta dirección. Como puedes ver, pragmático está disponible para todas las plataformas populares como Windows y Linux. Descargaremos bodegas para Open to Lennox. El actual versión off right Matic es 0.17 punto tres, que podría haber sido operado por el momento en que estás viendo el curso. Una vez que el proceso de descarga esté completo, vayamos al directorio de descargas en nuestra máquina host. Vamos a extraer aquí. A medida que
vayamos más profundo, veremos una estrella dentro de la estrella, así que vamos a extraer eso sí finalmente tenemos un archivo tar llamado datos el cual necesita ser extraído también. Conozco demasiadas extracciones, justo dentro de los datos tenemos directorio llamado Ben, que contiene el ejecutable llamado Kite Matic. Simplemente haga doble clic en él y bastante Matic Joy estará listo y funcionando solo para darte una breve comprensión pláticas pragmáticas tanto para Dr Host como Docker Hub El GOP es bastante simple e interactivo. Es fácil predecir en esta etapa que estos son los informes sobre Docker Hub junto con eso tira. Pero no vayamos demasiado rápido. Esta página principal tiene mucho que ofrecer. En primer lugar,
tenemos la opción de registro que nos permite vincular a nuestro médico, cuenta de
ayuda con Kite Matic. Entonces tenemos una gran barra de búsqueda para imágenes de docker las cuales son extraídas de Docker Hub. Después hemos recomendado o destacado imágenes en el lado derecho. Tenemos pestañas como mi gente y mis imágenes mi descanso muestran descanso en tu
cuenta de ayuda del doctor actual No mostrará nada ya que aún no las hemos visto. En otras palabras, esto es sólo un simple g y con ni médico tener cuenta vinculada a ella. No obstante, mis imágenes mostrarán imágenes disponibles en nuestra máquina host local. Si notas estas imágenes de varios modelos, sí te ves bastante familiar en el extremo inferior del lado izquierdo, tenemos un pequeño icono de engranaje, que representa la configuración de las aplicaciones. Puedes personalizarlos de la manera que quieras. Los vamos a mantener como están. Entonces tenemos una herramienta de chat que no necesitamos en este momento. Y por último, tenemos un enlace al Dr CLI dando click. Esto abrirá una ventana terminal para que utilicemos los comandos Docker. Vamos a cerrarlo. Tenemos una lista de imágenes recomendadas por DR en tu pantalla, y podemos crear un contenedor basado en cualquier imagen disponible aquí con un solo clic. ¿ No es increíble? Vamos a ver cómo podemos hacerlo. Seleccionaremos hola imagen World Engine X, que es una imagen X de motor ligera ponderada y
personalizada para demostrar características desactivadas. Pragmático al fondo. Hola World Engine X. Tenemos el número de descargas y me gusta para la imagen en el lado izquierdo y crear botón en el lado derecho. Demos click en el botón crear para crear y ejecutar un contenedor basado en esta imagen y ahí tienes. Doctor se está conectando con Dr Help para descargar la imagen. Hola World Engine X. Debido a que no está disponible en un registro local amplio, podría tardar algún tiempo en descargar la imagen. Después de que el proceso se complete o el contenedor se creará con éxito. Debe haber notado aquí la pantalla de bloqueo de contenedores. Será salidas tan largas fuera de los contenedores en ejecución actuales. Tenemos cero número apagado bloqueos para hello World Container por ahora porque acaba creado, bien podría recordar la diferencia entre estados creados y corriendo fuera del contenedor . Cuando se cree el contenedor, no tendrá ningún registro, pero en cuanto se ponga en marcha, tendremos algunos troncos de contenedor entero en el lado izquierdo del contenedor. Pantalla de bloqueo le dice a una lista fuera corriendo y detener contenedores. Incluso incluye esos contenedores, que no son iniciados por Kite Matic. No tenemos ningún contenedor pre running o stop en este punto de tiempo, por lo que el único contenedor disponible es hola World Engine X. También
tenemos la sección de volumen en la esquina inferior derecha fuera de la pantalla. Se trata de los archivos del sitio web de volumen, que se monta en nuestro contenedor en ejecución. Hola mundo. Podemos habilitar el volumen con el fin de editar a archivo almacenado en él. Demos click en habilitar volúmenes y veamos qué sucede. Nos han dirigido a la parte. Inicio slash documentos slash kite Matic slash Hola World Engine X en su máquina local. Kite Matic ha expuesto el volumen de contenedores como un directorio en nuestra máquina local, lo que permite a los usuarios acceder a él fácilmente. A medida que accedemos al sitio web del volumen Underscore archivos, podemos ver el D fort index dot html cuando es importante notar. Aquí es tan pronto como habilitamos volúmenes para editar el motor X contenedores dejan de girar. Se retiró y se reinició con un nuevo indicador de volumen para reflejar cualquier cambio realizado en los volúmenes. No hemos hecho ningún cambio en el volumen aquí sobre volúmenes en la esquina superior derecha. Contamos con sección Web Review. Nos permitirá ver el resultado de los contenedores en nuestro navegador Web. Maximicemos el dedo del pie de revisión WEP. Échale un buen vistazo. Hola, World engine X container está funcionando en host local o 3 a 769 Volvamos a bastante Matic y verificamos los resultados. Usando Doctor CLI en su terminal, el doctor Pius guión E para enumerar todos los contenedores en marcha y detener. El resultado asegura que hola, world engine X container está funcionando con éxito en el mismo puerto. Volvamos a guiar, médico y detengamos el contenedor. Como podemos ver, hay múltiples iconos disponibles exactamente sobre la sección larga contenedor tenemos iconos de Detener, reiniciar, reiniciar,
exact y docks aquí. Y como sugieren sus nombres, deténgase y reinicie. Los iconos se utilizan para detener y reiniciar contenedores. Exactamente. Icono se utiliza para ejecutar un comando en un contenedor en llamas. Docks Icon nos dirigirá al Dr Documentation. Argentina ha sido detenida. Nunca llegues al lado izquierdo de la pantalla donde aparecen todos los contenedores. Queremos eliminar este contenedor, por lo que da clic en el icono de cruz para retirar el contenedor. Se abrirá un cuadro de diálogo con el dedo del pie. Pide tu confirmación sobre la prensa de proceso de eliminación, Imu y o contenedor se ha eliminado y estamos de vuelta a la pantalla de inicio. También podemos buscar una imagen en particular aquí. Es similar al Dr Search Common. Basta con quitar el nombre de la imagen docker que desea buscar buscará la imagen del propio registro Docker. Por lo que teclearemos registro y presionaremos enter. Obtuvimos todas las imágenes del doctor las cuales incluyen registro en sus nombres. El primer resultado es la imagen oficial del registro Docker con 419 millones de descargas. Al igual que hola mundo y genética. Podemos jugar con esto en cualquier otra imagen también. Entonces esto fue bastante Matic el doctor G y. Puedes jugar más con él e incluso puedes vincular tu propia cuenta de centro médico para usarla interactiva Lee.
100. Demostración: serie minikube: antes de instalar Mini Cube en nuestra máquina Lennox Lexan un estándar apt get update e instalar algunas dependencias. Estamos instalando su paquete de transporte DDB s. Y si te estás preguntando por qué han aplaudido la bandera adquirir Fuerza I p cuatro igual Verdadero, es para asegurarse de que la respuesta no se atasque mientras buscas una
dirección i P V seis . Porque este sistema está usando una dirección I P V cuatro. Si no tienes un conflicto así, puedes
saltarte esta bandera una vez que hayamos terminado con la actualización. Bajemos un anuncio. G PG R Gene te clave de protección de privacidad para comunidades que usan Curl Command seguido de este enlace , obtuvimos una confirmación con Oki. No, agreguemos kubernetes parte de actualización a los archivos de lista de puntos de fuentes para verificar la adición Lección después volver a obtener un poco Y fue todo un éxito. Si puedes ver la línea empezando por, consigue 12 ha recogido paquetes del repositorio principal Kubernetes Zaenal, igual que Docker o Virtual Box. Ahora es el momento de instalar Cube CDL, que también es un requisito previo para ejecutar Mini Cube y y Sudo Apt get install cubos, grita, empleó un guión predeterminado por Veamos si la instalación fue exitosa. Ejecutar la versión Cube CTL y obtener la instalación fue exitosa. No, descarguemos Mini Cube de su repositorio oficial usando llamado Again. Ahora hagamos ejecutable Mini Cube usando C H Mart, lo que significa cambiar más plus X. Y finalmente, agreguemos este ejecutable al usuario slash directorio local de bin slash y opcionalmente. Se puede quitar de aquí también. Muy bien, ¿cuántos cubos configurados está completo?
101. Demostración: serie minikube: Ahora vamos a iniciar nuestro clúster mini Cube kubernetes de un solo nodo, usando muchos cubos, iniciar comando y proporcionar su controlador de ización virtual o controlador de VM como caja virtual. Si recuerdas, ayudamos en inicio caja virtual bien, configurando el enjambre Docker también, por lo que nuestra máquina ya tiene recordado configurado. Pero en caso de que lo hayas quitado, puedes volver al formulario de médicos, configurar conferencia y consultar las instrucciones de instalación para lo que ella va a boxear. Eso, dijo Indo. Si echas un vistazo más de cerca al proceso, hay bastante similar a cómo bootstrap o cluster kubernetes regulares? Se está consiguiendo I P direcciones de Reims. Se está moviendo archivado a una máquina virtual aislada. Está poniendo absurdos los matorrales. Está conectando nuestro clúster de refugio, y también está configurando conflicto de cubo, que se utiliza para configurar configuraciones kubernetes. Parece que los procesos están hechos. Probemos y ejecutemos un despliegue sin que nos lleven trabajando. Simplemente ejecutemos nuestro motor vainilla X sobre y expusimos su puerto 80 ya que un servicio de Northport estaba usando la última imagen del motor siguiente, así que vamos a golpear enter. Recibimos nuestra advertencia estándar de Cube City Los niños podrían obtener ID deprecate en el futuro, pero nuestro despliegue se crea cuando aprendemos Cube City obtendrá piezas. Parece que se ha creado una implementación de una sola pieza y o contenedor aún está bajo estado de
creación mientras se está creando. Describamos la parte usando cubos que describirás, y la descripción se ve bastante similar a todas las partes anteriores que hemos creado, lo que significa que si estás ejecutando un clúster de kubernetes bootstrap estándar en tu premisa, toda la orina en kubernetes en Cloud todo tu corriendo Mini Cube Cube City en línea de comando y su rendimiento sigue siendo el mismo. Y mientras estábamos echando un vistazo a la descripción, parece que nuestro contenedor ha sido creado y comenzado, lo cual es bueno. Vamos en cubos ideal Consigue piezas de nuevo y ahí vamos. Nuestra exportación de motores está en marcha. Lo mismo va para nuestro despliegue, y hay un hueco de seis segundos entre el despliegue que se está creando y la parte que se está
creando , lo cual está bien. Si bien nos agregan, también
podemos echar un vistazo a la descripción de implementaciones a partir de etiquetas. Todo es similar a un clúster kubernetes regular, incluyendo rodar de gran estrategia y eventos. No. Expongamos nuestro motor de implementación X servidor con tipo de servicio Northport y nuestros servicios expuestos. Ya que hemos utilizado el servicio Northport, necesitamos saber cuál fuera de nuestros puertos públicos se ha mapeado para contener un deporte. 80. Vamos a voltear cubos lo va a conseguir s Vemos nuestros servicios. Parece contenedores. Se mapea el puerto 80 a las máquinas host Puerto público 30 a 29 Feria suficiente. Lo que significa que una combinación fuera de máquinas host I p y el puerto público expuesto nos debe dar extremos. Siguiente página de bienvenida. Pero mente bien aquí, máquina
host no significa esta máquina. Significa la forma m en la que muchos Cube se está ejecutando. Y para conseguir su I p. Vamos a ejecutar muchos Cubo I p r I. P es $192.168.99.100 eso es usarlo. Abre tu navegador Web favorito y terminó la combinación de puertos I B. Ahí vamos. El Reem corriendo Mini Cube está hospedando al Motor X en su puerto de 30 a 29. Genial. Ahora vamos más allá y echemos un vistazo al tablero de Kubernetes usando Mini Cube Dashboard Command, y nuestro tablero se está abriendo en nuestro navegador Web en el deporte anfitrión local 37339 Aquí estamos. Se trata de Kubernetes Dashboard o kubernetes G Y. Se ve sencillo, intuitivo y agradable trabajar con. Partiendo de arriba a la izquierda, tenemos cubano. Se trata de logo. Se une por una barra de búsqueda que se puede utilizar para filtrar objetos como despliegues, Pardes, etcétera y en la parte superior derecha. Ayudamos a crear Button, que se utiliza para crear objetos kubernetes, pero nos meteremos en eso más adelante. Echa un vistazo a las cargas de trabajo. Tenemos implementaciones, púas y conjuntos de réplicas ganando, y parece que todos ellos están funcionando perfectamente. Sin embargo, el 100% significa que todos fuera de los despliegues, todos fuera de las partes y todos fuera de los conjuntos de réplicas están en su estado deseado. Debajo de eso, tenemos detalles para todos aquellos que comienzan con el despliegue. Los detalles presentados aquí un bastante similar a la salida fuera del cubo CTL get command. Pero aquí tenemos representación GeoEye fuera de todo y en lugar de tener una columna fuera de estado funcionando, tenemos una marca verde que indica su estado de ejecución y lo que obtendrá el primero de la salida fuera de Cube City es que también obtenemos un lista fuera de las etiquetas que se adjuntan a estos objetos kubernetes representados debajo de la sección de carga de trabajo. Ayudamos al descubrimiento y equilibrio de carga, que esencialmente enumera todos los servicios que tenemos a los servicios que ganamos, entre los que primero se encuentra Engine X Server, que es Northport Service, que acabamos de crear un hace unos minutos. Tenemos todo tipo de retails como endpoint interno Blaster I p off the service
endpoints externos los cuales no están disponibles en este momento, cada uno fuera del servicio y etiquetas y por debajo ayudamos a las comunidades, que es el servicio por defecto, y por fin ayudamos a configurar y almacenar objetos. Ya que no aprovisionamos ningún volumen o no usamos ningún montajes de valor, solo
tenemos un volumen proyectado, que es token por defecto, cual se ha creado mientras se activa el minuto que enyesar en el panel izquierdo. Partiendo de la parte superior, tenemos diversas construcciones fuera del cluster sugiere espacios de nombre, nórdicos, volúmenes
persistentes,
reglas, reglas, vidrios
de almacenamiento, etcétera. Después sostuvimos opciones para navegar a cargas de trabajo
particulares, servicios particulares o entradas o objetos de almacenamiento particulares, y al final, ayudamos sobre y establecer pasos. Empecemos con nombres. El espacio es igual que un clúster kubernetes regular. Este mini cluster cubo también tiene tres espacios de nombres, cuales son el sistema Q Cubo Público y el fuerte. Dado que no creamos ningún espacio de nombre definido por el
usuario, estos tres están en funcionamiento. Desde que comenzó el clúster, entonces tenemos información del Norte. Podría estar preguntándose si Mini Cube es solo un clúster kubernetes de un solo nodo. ¿ Por qué no tenemos información en primer lugar? Bueno, muchos cubo y kubernetes dashboard son entidades diferentes. comando Mini Cube Dashboard solo nos permite usar el panel de control de Kubernetes, que muestra el estado actual fuera del clúster de un solo nodo. Pero el mismo dashboard se puede usar con un clúster de Adam de cubo de bootstrap, en cuyo caso tendrás más de un nordos, igual que otras cargas de trabajo. El carnet Nord también tiene detalles como etiquetas, solicitudes de recursos
estatales y límites de recursos. Se puede navegar a otras pestañas como volúmenes persistentes, rollos, clases
de almacenamiento, etcétera también. Pero saltaremos directamente a algo que parece un menú desplegable, y dice espacios de nombres. Se trata de un menú desplegable, y se utiliza para cambiar de un nombre, del dedo del
pie del otro. Actualmente, estamos en el espacio de nombres por defecto. Pero si cambiamos nuestro espacio de nombres, los objetos disponibles también cambiarán. Podemos navegar por diferentes ejecuciones hipotecarias también. Vamos a despliegues, y obtenemos el mismo resultado, que obtuvimos en la página principal. Pero esta vez esta salida no va acompañada de conjuntos de réplicas y partes. Demos clic en el nombre fuera del despliegue para ver qué sucede. Bueno, bueno, esto sí se ve bastante parecido. De hecho, este es un parece el resultado Off Cube CDL describe comando. Cuando describimos un despliegue, tenemos toda clase de información como nombre,
nombres, base, base, anotación de
etiquetas, tiempo de
creación, etcétera. Después ayudamos a un conjunto de réplicas, que va por este despliegue, y al final ayudamos a eventos igual que la salida del comando describe. Ya que no hemos inicializado ningún asesino de autos de parte horizontal, ese campo está vacío. De igual manera, cuando vamos a paso de parte, todo lo que obtenemos son partes. Al hacer clic en el indulto también se dará la salida de Ciudad Cube y se describirá el comando de parte . Pero no seamos el depredador. A ver, ¿cuáles son estas cuatro líneas? Dice acción y registros. Es click en ellos y ahí vamos esas cuatro líneas mostraron las bitácoras de su motor X Server parte y lenguaje. Ian R D. G. Podemos descargar los registros que contenemos para dimensionar texto, texto, color, etcétera y bajo la pestaña de acción, tenemos dos opciones. Dedo del pie. Ya sea solo ver o editar el archivo Gamel o para eliminar por completo el despliegue. Volvamos a la visión general en la página principal. Demos la cabeza hacia atrás, dedo del pie o terminal y detengamos este clúster usando Mini Cubo Stop Command. Es importante detener su clúster cuando no lo está utilizando, pero su sistema podría entrar en el estado de memoria O M R Out. Y por último, vamos a eliminar el clúster usando muchos cubos delete y se elimina el Glasser. Comandos
simples, vida sencilla.
102. Introducción a las Kubernetes en serverless Kubernetes: Hola y bienvenidos de nuevo a The Container masterclass. Estamos de vuelta con una actualización significativa esta vez con algo que se
ha convertido en el centro de la conversación en torno al ecosistema Kubernetes. Y es decir, Kubernetes se va sin servidor. En pocas palabras, sin servidor significa no tener que preocuparse por la infraestructura subyacente en absoluto. Por ejemplo, mientras se opera un clúster Kubernetes regular, hemos visto que el usuario interactúa con el maestro y pasa la solicitud a través del maestro. Cuando utilizamos alojados Kubernetes es como Google, motor de entidades de Google. Nosotros, como usuarios atracamos
al servicio comunitario alojado que brinda plataforma en su lugar, como Google Cloud. Pero sí tenemos que gestionar el clúster. Estamos muy bien conscientes de las configuraciones de cluster y también tenemos que estar atentos a
la utilización de recursos para ver si tenemos que escalar el clúster para un mejor manejo de carga. Es decir, los Kubernetes alojados nos permiten hospedar y administrar el clúster en sus recursos. Pero piensa en este caso. Todo lo que necesitas es un navegador de escritorio que funcione. Tienes que hacer unos clics aquí y allá. Y boom. Tu aplicación containerizzate está en vivo. Eso es Kubernetes sin servidor. Ella está detrás de bambalinas en el back-end a proveedor de servicios Kubernetes sin servidor también tiene muchos clústeres Kubernetes desplegados, pero no tienes que preocuparte por ello. Esto tiene algunas implicaciones. En primer lugar, no conoces todos los detalles del clúster en el que estás operando. Hay excepciones, pero nos meteremos en ellas más tarde. En segundo lugar, la unidad de adquisición más pequeña ya no es un montón de máquinas virtuales. Simplemente se le da un espacio de nombres separado y es muy probable que otros usuarios también estén operando en el clúster en el que se encuentran los contenedores. Pero nunca chocarás por el aislamiento del espacio de nombres y son políticas de acceso de vuelta. Esto hace que la implementación de sus aplicaciones sea aún más rápida, económica y más fácil. La nube R1 de Google Cloud es un gran ejemplo de ofertas de Kubernetes sin servidor. En la próxima conferencia, nos pondremos manos a mano con Cloud run. Hasta entonces, feliz aprendizaje. Y espero que tengas un gran día.
103. Activar la API en la nube en GCP: Hola y bienvenidos de nuevo a The Container masterclass, o como lo llamamos de manera muy informal el CMC. Como recordarán de muchos, muchos videos de este curso. Este es el panel de control de la nube de Google. Cloud R1 forma parte de las ofertas de Google Cloud Platform. Tanto como las VM de Google Compute Engine o gk se alojan. Kubernetes es la forma de navegar es a través del icono de la hamburguesa. Antes de empezar a usar Cloud run, necesitamos asegurarnos de que hemos habilitado su API y nuestro proyecto GCP. Acude a API y servicios. Haga clic en dashboard y encontrará estadísticas sobre una lista de API relevantes para los productos utilizados en su proyecto GCP. Demuestra que hemos tenido más solicitudes hechas a Compute Engine y API de registro. Lo cual tiene sentido porque tanto las VM de GCE como los clústeres de GK se alojan mediante VM de Compute Engine. Para encontrar la API de ejecución en la nube, vayamos a la pestaña Biblioteca. Se puede ver un montón de API divididas por categorías de uso. No queremos seguir desplazándonos por la eternidad. Entonces usemos uno de los mejores inventos de la informática para buscar función, escriba cloud R1. Y el primer resultado que veas debería ser nuestra API objetivo. En caso de que obtienes algunos resultados diferentes. Podrás recordar este pequeño ícono, que parece un estilizado botón de reproducción o avance para un reproductor de música. Una vez que aterrizas en la página de API de ejecución en la nube, puedes notar muchos detalles como cuándo se actualizó la API por última vez, o es descripción de un solo liner, o es visión general, o incluso enlaces a su documentación y algunos tutoriales de Quickstart. Tomemos una amplitud relajante por un momento y veamos la visión general de la ejecución de la nube. Esto es importante porque así es como Google describe y quiere que percibamos la corrida permitida como un producto. Se trata de una plataforma de computación administrada. Por supuesto, porque como mencionamos, sí se ejecuta en clúster Kubernetes en el backend. Permite ejecutar contenedores de aplicaciones sin estado en viables a través de API HTTP. Las API Http están bien porque todo lo que hemos hecho hasta ahora en este curso ha utilizado solicitudes HTTP de una forma u otra. Pero el detalle más crucial aquí es nube
apátrida RUN de grabar este video en el 20-20 de noviembre solo permite aplicaciones sin estado. Entonces no hay conjuntos con estado. Pero los despliegues son apátridas. Por lo que deberíamos poder jugar con ellos. Resto de las cajas, cómo abstrae la gestión de la infraestructura. Ya lo hemos visto en la última conferencia. Por lo tanto, habilitemos la API. El API está listo. Está mostrando algún tráfico previo porque lo había usado para probar antes. Ahora, volvamos a la nube, corremos por el ícono de la hamburguesa. El listado de servicios está vacío ya que esta sería la primera vez que lo utilizas. El API está listo y podemos empezar a crear nuestra primera Cloudera y servicio en la próxima conferencia. Hasta entonces, feliz aprendizaje. Y espero que tengas un gran día.
104. Tu primer servicio en la nube: Hola y bienvenidos de nuevo a la CMC. Y en esta conferencia, crearemos nuestro primer servicio nublado. Estamos en la Página de ejecución de Google Cloud y habilitaremos su API en la conferencia anterior. Demos clic en el botón Crear servicio y serás guiado a la página de configuración del servicio. Nuevamente, Google se está elaborando con las descripciones ahí, elaborando cuál es el servicio. Esto es útil y frustrante al mismo tiempo porque
ya hemos visto enjambre Docker y objetos Kubernetes llamados Servicios, lo que lleva a diferentes interpretaciones. Independientemente, para la ejecución de Cloud, servicio es como una bolsa mixta de despliegues de la humanidad y servicios comunitarios. Se trata de un punto final, así
como una unidad de orquestación de cargas de trabajo sin estado. Además, es importante tener en cuenta el servicio creado por cloud run escala automáticamente. Esto elimina otra carga de nuestros frágiles hombros de DevOps. Continuando, escuchamos la plataforma de implementación, que está configurada en Cloud run de forma predeterminada. Ya hemos visto qué es la nube R1. La otra opción se llama Nube ejecutar cuatro y lanzar. Y el lanzamiento es para los usuarios que quieren alojar sus contenedores en sus propios clústeres, pero aún así quieren características sin servidor para los desarrolladores finales. Y lanzamiento le permite configurar la ejecución de la nube en su clúster gk II, en servidores de Google o en sus propios servidores. Nos apegaremos a Cloud run y escogeremos una región. Siguiente arriba. Proporcionaremos un nombre a todo el servicio. Vamos a llamarlo hola Cloud run. Al golpear Next, nos llevan a una página de opciones de configuración. Google dice que los servidores pueden tener múltiples revisiones, pero los conflictos de cada revisión son inalterables. Esto significa que cada vez que realice cambios en alguna de las configuraciones de servidores como imagen de contenedor o exposición de puerto, se servirá como una nueva versión de su servicio. A diferencia de lo anterior, donde solo podíamos aplicar Cube CDL, cualquier cambio e implementaciones se modificaría. En primer lugar, este nuevo enfoque proporciona un gran control de versiones y accesibilidad de revisión. Además de eso, como cada cambio es una nueva versión del servicio, el despliegue de implementaciones azul-verde o enero se vuelve aún más intuitivo. Ya que todo lo que tienes que hacer es administrar el tráfico entre dos versiones de un servicio, entonces llegamos a elegir entre usar una imagen de contenedor de Google Container Registry de nuestro proyecto o desde un repositorio fuente como GitHub. Segunda opción es útil cuando queremos configurar una canalización de despliegue continuo. Aquí queremos apegarnos a una sola versión, click en Seleccionar, y elegir una imagen de contenedor demo llamada Hola. Esta es una de las imágenes incorporadas de Google que se proporciona a cada proyecto GCP para que los entusiastas prueben Cloud run. Haga clic en Siguiente. Por último, llegamos a elegir como máquinas virtuales de Compute Engine o clúster GK. Si queremos permitir conexiones externas sin autenticación. Establezca en sí. Vamos a golpear Crear. Podemos ver el estado del servicio que se está creando, desplegando la revisión, configurando las políticas de acceso, enrutando el tráfico. Todo se hace sólo unos clics. El único y único revisión se llama Hello cloud R1 00001 guión staff. También obtenemos un montón de información sobre el contenedor, como la URL de la imagen, número de puerto
expuesto, que es 8080, en este caso, al mando, que se hereda de las imágenes de Docker, chico de
entrada instrucción, y algunas estadísticas de asignación de recursos. Lo más importante, escribir además del nombre de nuestro servicio, podemos ver la región que habíamos seleccionado y el enlace donde se está exponiendo el servicio. Simplemente puede hacer clic en este enlace. Y aquí vamos. Una hermosa pequeña página de aterrizaje de Google. Puedes hacer mucho más con Cloud run, como ya habrás adivinado. Pero eso es conversación para otro día. Puede volver a la página de servicios y ver su servicio listado con la configuración que había aplicado. Por supuesto, puedes seleccionar el servicio y
eliminarlo usando el botón en la parte superior cuando no lo necesites. Eso sería todo para esta rápida actualización. Espero que te haya gustado esta dulce pequeña introducción a esta poderosa herramienta. no hemos terminado con la ejecución sin servidor o en la nube. Estaremos de vuelta con más bonificaciones y actualizaciones en el futuro. A prestar. Como siempre, feliz aprendizaje. Y espero que tengas un día excelente.
105. Conclusión: primer lugar un enorme tanque dedo del pie todos unos maravillosos estudiantes que se inscribieron en este curso creyeron en nosotros y se pegaron hasta el final. Realmente esperamos que te vendamos bien, y esperamos que el curso cumpliera tus expectativas. Si te gusta este fantasma, por favor léanos con cinco estrellas. Si crees que el curso no estuvo a la altura o le faltaba algo, siéntete libre de hacernos saber en la sección Q y A para mensaje o incluso con comentarios, definitivamente te
contactaremos, e intentaremos resolver tus sugerencias lo mejor posible. Y si eso te satisface, amablemente lectores mejor. Tus calificaciones serán de gran ayuda, ya que permitiría a otros alumnos descubrir este curso y ser parte de este viaje. Con eso dicho, Nos vemos con actualizaciones Feliz aprendizaje.