AWS: básico a experto | Venkatraman Venkatasubramanian | Skillshare
Buscar

Velocidad de reproducción


1.0x


  • 0.5x
  • 0.75x
  • 1x (Normal)
  • 1.25x
  • 1.5x
  • 1.75x
  • 2x

Ve esta clase y miles más

Obtenga acceso ilimitado a todas las clases
Clases enseñadas por líderes de la industria y profesionales activos
Los temas incluyen ilustración, diseño, fotografía y más

Ve esta clase y miles más

Obtenga acceso ilimitado a todas las clases
Clases enseñadas por líderes de la industria y profesionales activos
Los temas incluyen ilustración, diseño, fotografía y más

Lecciones en esta clase

    • 1.

      Introducción al curso

      2:30

    • 2.

      Tema 1: introducción a AWS parte 1

      28:09

    • 3.

      Tema 1: introducción a AWS parte 2

      37:58

    • 4.

      Introducción a AWS Labs

      9:21

    • 5.

      Labs antes de la creación de la cuenta gratuita

      6:08

    • 6.

      Labs Creación de cuentas gratuitas de AWS

      6:00

    • 7.

      Laboratorios de MFA y presupuesto de AWS

      13:53

    • 8.

      Laboratorio sobre la revisión completa de los servicios incluidos en el Dominio 1

      13:37

    • 9.

      Automatización de laboratorios (AWS CloudFormation)

      5:10

    • 10.

      Servicios de AWS gestionados en laboratorios (Amazon RDS, ECS, EKS, Dynamo DB)

      15:35

    • 11.

      Labs Redimensionamiento del tipo de instancia

      12:35

    • 12.

      Labs BYOL y otras estrategias para licencias

      14:17

    • 13.

      Calculadora de precios de AWS de Labs de costos fijos vs. costos variables

      16:46

    • 14.

      Cumplimiento de AWS Labs

      9:32

    • 15.

      Labs AWS Detective

      7:35

    • 16.

      Laboratorios de AWS GuardDuty

      8:49

    • 17.

      Labs AWS Inspector

      7:08

    • 18.

      Labs AWS Security Hub

      9:07

    • 19.

      Laboratorios AWS Shield

      13:28

    • 20.

      Descripción de certificados de laboratorio

      9:42

    • 21.

      Cifrado de datos Labs Rest

      6:59

    • 22.

      Cifrado de datos Labs Transist (ACM)

      15:16

    • 23.

      Labs AWS Audit Manager

      3:48

    • 24.

      Laboratorios AWS Cloud Watch

      10:35

    • 25.

      Laboratorios de AWS CloudTrail

      9:45

    • 26.

      Labs AWS Config

      7:49

    • 27.

      Laboratorios AWS XRAY

      4:55

    • 28.

      Labs First para la creación de instancias de EC2

      7:58

    • 29.

      Introducción a Labs VPC

      7:52

    • 30.

      Claves de acceso a Labs

      12:49

    • 31.

      Almacenamiento de credenciales de Labs

      11:04

    • 32.

      Laboratorios: identificación de métodos de autenticación en AWS

      7:08

    • 33.

      Políticas de contraseñas de Labs

      3:25

    • 34.

      Tipos de gestión de identidad de laboratorio

      8:27

    • 35.

      Grupos y políticas de usuarios de Labs

      17:52

    • 36.

      Laboratorios AWS Knowledge Center

      5:41

    • 37.

      Laboratorios AWS Security Center

      5:00

    • 38.

      Laboratorios de AWS WAF

      20:47

    • 39.

      Labs Network ACL

      9:57

    • 40.

      Grupo de seguridad de laboratorios, parte 1

      11:10

    • 41.

      Grupo de seguridad de laboratorios, parte 2

      4:49

    • 42.

      Productos de seguridad de terceros de Labs

      12:05

    • 43.

      Asesor de confianza de Labs

      7:49

    • 44.

      Laboratorios: operación de CLI de AWS con múltiples comandos

      15:16

    • 45.

      Laboratorios IAC de formación en la nube de AWS

      6:52

    • 46.

      Laboratorios AWS Cloud Shell

      3:22

    • 47.

      Laboratorios AWS Direct Connect

      8:02

    • 48.

      Labs SDK de AWS con Python

      5:50

    • 49.

      Introducción a Labs CLI

      2:35

    • 50.

      Instalación de la CLI de Labs Linux Actualización de AWS Linux

      5:43

    • 51.

      Labs de Instalación de CLI de Linux: creación de instancias de Ec2

      9:44

    • 52.

      Método de instalación fuera de línea de la CLI de Labs Linux

      6:52

    • 53.

      Instalación de la CLI de Labs Linux mediante Snap

      5:27

    • 54.

      Instalación de la CLI de Labs para Windows

      3:39

    • 55.

      Zonas de disponibilidad de los laboratorios

      7:35

    • 56.

      Configuración de un sitio web con Labs Cloud Front

      20:48

    • 57.

      Laboratorio que describe cuándo usar varias regiones

      6:54

    • 58.

      Introducción a la ubicación de los bordes del laboratorio

      7:37

    • 59.

      Configuración de la conexión de peering de laboratorios

      29:18

    • 60.

      Introducción a las regiones de los laboratorios

      10:32

    • 61.

      Longitud de onda de Laboratorio, zonas locales y latencia práctica

      22:12

    • 62.

      Grupo de autoescalamiento de Laboratorios con Política Dinámica Práctica

      26:21

    • 63.

      Introducción al balanceador de carga AutoScaling de Labs

      11:17

    • 64.

      Introducción al balanceador de carga EC2 de Labs

      27:41

    • 65.

      Desinstalación práctica de ECS de Labs

      4:17

    • 66.

      Configuración de ECS de Labs Parte 1 Prácticas

      28:50

    • 67.

      Configuración de ECS de Labs Parte 2 Prácticas

      12:33

    • 68.

      Prácticas de Pods EKS de Labs y despliegue

      7:45

    • 69.

      Configuración práctica de EKS de Labs

      24:05

    • 70.

      Labs Fargate en primer plano

      6:52

    • 71.

      Introducción a Labs Lambda

      10:53

    • 72.

      Labs Otra política de escalamiento en ASG en primer plano

      7:57

    • 73.

      Tipos de laboratorio de instancias de EC2 al día siguiente

      7:15

    • 74.

      Tipos de laboratorios de LB en AWS

      7:29

  • --
  • Nivel principiante
  • Nivel intermedio
  • Nivel avanzado
  • Todos los niveles

Generado por la comunidad

El nivel se determina según la opinión de la mayoría de los estudiantes que han dejado reseñas en esta clase. La recomendación del profesor o de la profesora se muestra hasta que se recopilen al menos 5 reseñas de estudiantes.

2

Estudiantes

--

Proyectos

Acerca de esta clase

AWS Training proporciona conocimientos completos sobre la infraestructura, los servicios y las mejores prácticas de Amazon Web Services (AWS) para crear, implementar y administrar aplicaciones basadas en la nube. Este curso abarca estrategias de cálculo, redes, almacenamiento, seguridad, automatización y migración que permiten a los profesionales diseñar, optimizar y solucionar problemas en entornos de AWS. Los laboratorios prácticos y escenarios reales ayudarán a los estudiantes a obtener experiencia práctica con las soluciones en la nube de AWS, la automatización de DevOps y la seguridad en la nube.

Objetivos clave del aprendizaje:

  • Comprende la arquitectura, las regiones y las zonas de disponibilidad de AWS.
  • Aprende a implementar y administrar instancias EC2, almacenamiento S3, bases de datos RDS y redes (VPC, Route 53, CloudFront).
  • Implementa infraestructura como código (IaC) con Terraform, CloudFormation y Ansible.
  • Configura las mejores prácticas de seguridad usando IAM, grupos de seguridad, AWS WAF y cifrado.

¿Quién debe asistir?

  • Ingenieros y arquitectos en la nube que diseñan soluciones escalables de AWS.
  • Ingenieros de DevOps que automatizan las implementaciones y la gestión de infraestructuras.
  • Profesionales de seguridad que implementan las mejores prácticas de seguridad en la nube.
  • Administradores y desarrolladores de TI que buscan migrar o implementar aplicaciones en AWS.

Requisitos previos:

  • Conocimiento básico de redes, administración de Linux/Windows y fundamentos de la nube.
  • Familiaridad con el uso de secuencias de comandos (Bash, Python, PowerShell).

Conoce a tu profesor(a)

Teacher Profile Image

Venkatraman Venkatasubramanian

Welcome to Devops & Middleware Traniing

Profesor(a)
Level: All Levels

Valoración de la clase

¿Se cumplieron las expectativas?
    ¡Superadas!
  • 0%
  • 0%
  • Un poco
  • 0%
  • No realmente
  • 0%

¿Por qué unirse a Skillshare?

Mira las galardonadas Skillshare Originals

Cada clase tiene lecciones cortas y proyectos prácticos

Tu membresía apoya a los profesores de Skillshare

Aprende desde cualquier lugar

Ve clases sobre la marcha con la aplicación de Skillshare. Progresa en línea o descarga las clases para verlas en el avión, el metro o donde sea que aprendas mejor.

Transcripciones

1. Introducción al curso: Hola, chicos. Bienvenidos de nuevo al siguiente video. En este video, voy a presentarme, y luego voy a ir con entender o familiarizarte con los conceptos de los temas que has elegido y la formación que has elegido, y luego vamos a ver la estructura de la formación, vamos a ver cuál es la gente real que va a tomar esta clase, y vamos a ver algunos resaltes o valores de esta clase también. Bastante comenzaremos con mi introducción. Esto es VanCatrama aquí. Tengo 20 años de experiencia en middleware y también en tecnología cloud últimos 14 años estoy trabajando en tecnología Cloud y esta tecnología Cloud que estoy cubriendo en este video es AWS. Ahora, AWS, esta capacitación va a ser todo sobre trabajar con AWS, comprender los conceptos de AWS. Y, ya sabes, trabajar con conocimientos en tiempo real en AWS en lugar de solo una arquitectura o simplemente tener una idea de ella. Así que aquí te he dado formación práctica completa en AWS, y aquí realmente puedes obtener el conocimiento de la AWS básica a los conceptos avanzados de AWS, con las manos en. Donde voy a hablar de un servicio y luego ejecutaré el servicio y te mostraré una demostración adecuada sobre un servicio, que estoy hablando en esas clases de AWS. Esta va a ser la estructura de la capacitación, y aquí, esta capacitación está destinada a cualquier persona que sea nueva en AWS o que quiera aprender AWS porque vamos a empezar desde lo básico y si ya tienes un conocimiento básico y buscas conocimientos avanzados, también puedes saltarte directamente algunas clases al principio para que ya conoces los conceptos de AWS para que puedas saltar a la sección avanzada de la misma. Ahora bien, los valores de esta clase es básicamente, sabes, como te dije, reunirás una muy buena experiencia en AWS desde el principio hasta el nivel experto y los proyectos se crearán más tarde en el momento para que trabajes en los proyectos y luego obtengas los valores en tiempo real e información sobre los elementos de AWS. El siguiente el siguiente video sería sobre cómo iniciarte en AWS. Estoy muy emocionado de comenzar la capacitación en AWS. Te veré en el siguiente video. Cuídate. 2. Tema 1: introducción a AWS parte 1: Oigan, chicos, bienvenidos de nuevo al siguiente video. En este video, voy a hablar de computación en la nube. Pero entonces antes de comenzar este tema, pensemos, quiero decir, nosotros mismos, cuando hablamos de computadoras ¿Qué es lo primero que te viene cuando hablas de computadoras, de tus laptops, verdad? ¿Tus teléfonos móviles, tu iPad y, ya sabes, tabletas y esas cosas? Entonces estas son forma de computadora. Entonces cuando decides que quieres una computadora, como tu laptop o algo así, vas a una tienda y les dices, qué tipo de laptop necesitas, ¿verdad? Entonces les dices, quiero comprar un portátil para fines gaming o quiero comprar laptop porque viajo mucho, y quiero usarlo mientras viajo, así que debería ser como tener una batería de larga duración. Debería tener buena conectividad de red, como Wi Fi y esas cosas. Va a tener como un televisor de almacenamiento. Uh, necesita tener procesador iFive porque no quiero ir por el procesador I siete o yo nueve en mi laptop porque eso va a ser demasiado caro Entonces voy por I cinco procesador, y luego necesito sistema operativo Windows. De igual manera, das especificaciones y compras un portátil, que se ajusta a tu presupuesto, ¿no es así? Y además, se adapta a tus requerimientos. Entonces esto es básicamente lo que lo llamamos como un físico uh, ya sabes, activo físico. Entonces este portátil es uno físico que está ocupando un espacio en tu habitación, y ocupa ese espacio, y puedes acceder a él yendo allí físicamente y escribiendo el portátil en el teclado del portátil o si estás usando un teclado externo. Entonces eso es básicamente algo llamado activo físico, y eso existe en tu vida real, ¿no? Ahora, cuando hablas de empresa, cuando hablas de empresa, tienes empleados. Y estos empleados usarán sistema dentro de él. Entonces hay dos tipos de sistemas. Hablemos de ello. No estoy hablando de laptops físicas o esas cosas. Estoy hablando de dos tipos de interfaces. Tu empleado accede a una interfaz, y esa interfaz irá a una herramienta donde el empleado accederá a su fondo Providence. Accederás a su sueldo, nómina y esas cosas. Solicitará licencia, HRMS y todas esas otras cosas, y todas esas otras cosas, como el sistema de gestión de nóminas Entonces ese tipo de interfaz que empleado tendrá la comunicación con el empleado, ¿verdad? Entonces, um, y hay otro tipo de interfaz con la interfaz del cliente , ¿verdad? Por lo que el cliente está accediendo a su producto. Ahora, cómo quieres proyectarte ante el cliente. Tendrás un sitio web, ¿verdad? Y ese sitio web tendrá información sobre tu producto donde entra un cliente y compra ese producto desde tu sitio web. Entonces están los dos tipos diferentes de interfaces. Ahora bien, cuando tienes esa compañía y ejecutas este tipo de dos interfaces diferentes, una para tu empleado, una para, ya sabes, tus clientes, ¿dónde vas a alojar estas? Vas a alojar esto como parte de un sistema, ¿correcto? Una computadora. Entonces lo mismo, lo que hace la compañía es, como, en lugar de ir a un distribuidor de portátiles como Apple o HB o lo que sea el distribuidor vaya a usted cuando jugador o cuando quiere comprar un portátil, la compañía va a Dell, HP o algún tipo de Apple en sí. Por lo que fabrican servidor. IBM, fabrican un servicio, ¿verdad? Entonces van a estos fabricantes y les preguntan, como, quiero alojar esta base de empleados, y tengo miles de empleados. Quiero, como, tener, como, infraestructura, una construcción de centro de datos, y quiero, como, tener servicio en ellos. Y eso realmente albergará los datos relacionados con mis empleados. Y quiero mantenerlo seguro porque no quiero que nadie más acceda a los datos de mis empleados. Yo sólo quiero acceder a eso. Entonces, ¿qué haces? Construyes esto en base de datos prem, lo siento, en prem Data Center Ahora bien, en esto on prem data center, vas a tener vamos de abajo Vas a tener interfaces de red. Vas a tener almacenamiento construido para almacenar datos. Servidores, que va a tener el procesamiento, que va a conectarse con un dispositivo de almacenamiento, si es un dispositivo de almacenamiento externo, solo va a conectarse con su red nuevamente. Va a tener un sistema operativo, ¿verdad? Va a tener algunos componentes de middleware, un componente de base de datos, los datos de tus clientes o los datos de tus empleados, así que vas a diferenciar estos dos tipos diferentes de Y entonces vas a tener esta aplicación de cliente o tu aplicación de empleado , ¿verdad? Entonces estas son cosas que manejas como empresa. Porque vas a gestionar estos datos. Por lo que ya sea tus datos de clientes o tus datos de empleados serán gestionados por ti. Pero para administrar eso, necesitas una base de datos, middleware, Y para alojar esta base de datos y middleware, necesario tener un sistema operativo que entienda lo que es middleware y Y el sistema operativo necesita ejecutarse en servidor, que tiene CPU, memoria, disco duro para el sistema operativo inicial, y luego componentes para conectarse con el cable de red, componentes para conectar a su almacenamiento, dispositivos de almacenamiento externos, ¿verdad? Entonces necesita tener esos artículos para que funcione, ¿no es así? Entonces ahí es donde la empresa necesita en base de datos prem, lo siento, centro de datos Ahora, cuando se tiene el centro de datos, hay muchos gastos generales Como, por ejemplo, cuando compras una laptop, en ese caso, qué pasa si compras una laptop, necesitas tener un lugar para que te quedes con una laptop. Entonces necesitas comprar un escritorio para ello, ¿no? No puedes mantener tu laptop siempre en tu regazo. Tu laboratorio se calentará, ¿no? Porque cuando procesas muchos datos, se va a poner muy caliente. Por lo tanto, necesita comprar un escritorio, y debe colocar su computadora portátil encima del escritorio y luego proporcionar la conexión de cableado para su cable de alimentación, y luego proporcionar Wi Fi para Internet. Y luego necesitas si quieres monitor externo, necesitas tener este cable extra conectado a tu HDMI. Y luego si necesitas que el mouse y el teclado sean útiles, y quieres mouse y teclado externos, entonces necesitas conectarte a Bluetooth. Entonces estos son algo que se requiere para ti. Estas son algunas cosas que necesitas, ya sabes, acomodar o asignar. solo hecho de comprar una laptop no tiene ningún sentido a menos que hasta que no tengas estos equipos contigo, ¿no? Entonces, lo mismo para un centro de datos, se necesita tener espacio para el centro de datos. Como, por ejemplo, un centro de datos puede ser grande, también puede ser pequeño. Por lo que también puede estar dentro de las instalaciones de una empresa hasta que se asegure del acceso directo de otras personas. Entonces necesitas crear una habitación. Es necesario dar espacio para el centro de datos. Necesitas comprar en los cachés, como el Chasis, lo siento, donde pones en el servicio ahí, necesitas comprar los cables de red Necesitas comprar switches para tu red, ¿verdad? Entonces, del mismo modo, necesitas hacer arreglos, y necesitas mantener algunos administradores de servidores. Al igual que, necesitas contratar a algunas personas para administrar el servicio. Si hay un corte de energía, necesita tener respaldo de energía, ¿verdad? Entonces, del mismo modo, necesitas no solo comprar servicio, sino que luego necesitas comprar infraestructura. Entonces ahí es donde AWS está entrando en escena. AW va a liberar parte de la carga de trabajo que tienes ahí. Al igual que, ¿qué tipo de carga de trabajo te va a liberar de ella? Por lo que AW tiene diferentes servicios que puede ofrecer. Entonces tiene esta instancia de AWS EC dos. Eso es lo primero que entró. Se llama infraestructura como servicio donde AWS se encargará del espacio del centro de datos, el alquiler del mismo, los cableados, las administraciones y otras cosas. Entonces lo que van a dar es como, te van a dar red. Te darán almacenamiento. Te darán un servidor a host. Ahora bien, ¿qué necesitas traer contigo mismo? Necesitas o bien si ya tienes una licencia de sistema operativo contigo, puedes traer eso. Si estás usando un sistema operativo de código abierto, realmente no tienes que hacer eso. ¿Bien? Entonces, si estás usando, como, un Ubundu que es de código abierto, puedes seguir adelante con eso sin pagar nada O vas a AWS y les dices que no tengo una licencia existente con ninguno de los sistemas operativos, pero quiero usar Windows para mí o Red Enterprise siguiente. Cuando dices la palabra empresa, eso significa que hay un cargo por ello. Entonces, lo que te daría AWS es como si instalaran el sistema operativo, pero te cobrarán por la empresa. Sea lo que sea que estén cobrando, están siendo cobrados por el sombrero rojo. Por lo que te cobrarán indirectamente, y será parte de tu proceso de facturación. Y luego necesita traer su propia licencia para su base de datos de middleware, datos clientes y aplicación de clientes Entonces lo que necesitas administrar es menos, sí, cuando te comparas con lo que tenías que manejar antes. Pero viene con una desventaja. Déjame decirte rápidamente la desventaja. No eres el dueño del servicio. Esa es una forma buena donde no tienes que comprar el servicio dando, como, mucho dinero o no tienes que pagar renta por el centro de datos. Entonces eso es algo bueno, pero el problema es, como, este servicio puede ser accedido en cualquier momento por el AAWSoP que está dentro de eso Pero normalmente van a quedar vinculados al acuerdo. Allí no van a hacer nada ilegal. Pero aún así, no está bajo tu supervisión, así que puede pasar cualquier cosa. Entonces eso es algo de lo que debes estar al tanto. Así que muchas cosas bancarias, no ponen sus datos privados reales en un centro de datos, lo siento, en una nube pública de alojamiento público como AWS o Azore Entonces o tomarán un privado para que tengan el anfitrión dedicado para ello. Hay una opción para ello porque todo el servicio que vas a utilizar, ¿verdad? Todos estos servicios que vas a utilizar, por defecto, se comparten a menos que y hasta que les pidas un host dedicado, lo que significa que un host en particular se dedicará para tu operación. Entonces hablaremos de eso más adelante. Es como que no es como un concepto simple, que son conceptos realmente avanzados. Pero hay una manera de hacerlo. Así que AWS te da muchas opciones como esa. Pero aún así, el servidor se encuentra en un sitio de proveedor de terceros, que es AWS, que es Amazon, ¿verdad? Entonces hay desventaja, pero hay estas ventajas. No tienes que pagar por un espacio. No tienes que comprar equipo. No es necesario tener el cargo por gastos generales de tener un empleado para administrar este servicio. Así que no tienes esos gastos generales también. Así que en realidad se ahorra el dinero. Y si estás usando esto para un propósito de prueba y error, así puedes usarlo durante una hora y luego apagar el servidor, y no se te cobrará por ti. Por lo que todas estas operaciones se apagarán y no se le cobrará por ello. Entonces hay una buena ventaja de eso también. Y también hay otra ventaja. Al igual que, y si quiero tomar el servicio y pagar por adelantado. Así que AWS te da una buena oferta si estás pagando por adelantado. Como, por ejemplo, quiero tomar el servicio por tres años. Bien, me pagas tres años por adelantado, y te voy a dar un muy buen precio Así que va a ser mucho más barato que el precio bajo demanda. Entonces eso es muy bueno, ¿ verdad? Así que obtienes ofertas basadas en las regiones que seleccionas, según la ubicación, también obtendrás ofertas. Entonces hay muchas ventajas en la infraestructura como servicio. Interesante saber sobre esto, ¿verdad? Entonces, en el siguiente video, continuaremos con esto, y hablaremos de plataforma como servicio, software como servicio y almacenamiento como servicio. Pero espero que entendieras así sucesivamente que cómo un data center on premises es diferente de un cloud computing. ¿Correcto? Ahora, por qué dicen Nube, es porque está en la Nube. En realidad no manejas ninguno de esos. Así que en realidad está en la nube. Entonces necesitas Internet todo el tiempo. Pero si eres un on prem, no necesitas tener Internet Puede ir directamente al sitio del centro de datos, conectar el cable y, de hecho, puede acceder al elemento usando un monitor. Pero desgraciadamente, no se puede hacer con una nube porque está en la nube. Entonces necesitas tener Internet para conectarte a la Nube y acceder a los datos desde Internet. Entonces ese es el único problema. Pero no te preocupes por ello. AWS es básicamente HTTPS. Entonces, toda la transacción entre usted y el proveedor de Cloud está asegurada a través del certificado, que está utilizando certificados TLS Mucho más detalle en el siguiente video, chicos. Te veré en la siguiente. Oigan, chicos, bienvenidos de nuevo al siguiente video. Este video, vamos a hablar de la continuación a donde lo dejamos en los modelos de servicio de la computación en la nube. Ahora, ya hemos discutido sobre sobre prem lo suficiente. También hemos discutido sobre infraestructura como un servicio donde infraestructura es dejada salir por un proveedor de servicios como Amazon, Google, o se puede decir, Microsoft Aaball También hay otros proveedores. No estoy mencionando eso no quiere decir que no existan. Hay tantos proveedores en este momento que brindando su infraestructura como servicio, y todo lo que tienes que pagar por ellos es el costo de la infraestructura, y podría ser por hora o podría ser como configurado en un marco de tiempo acordado, como de uno a tres años. Ahora, AWS le ofrece dicha infraestructura como un servicio, pero AWS le ofrece incluso mejor que eso, que es, um, que es plataforma como servicio. Ahora, para la plataforma como servicio, como puedes ver aquí, AWS te proporciona hasta el middleware a nivel de base de datos, Por lo que solo tienes que traer tus datos de clientes o tus datos de empleados. Y luego ponlo en una aplicación existente que pueda ejecutarse en una línea de código específica, ya sabes, bien. Y básicamente, puedes usar tus datos, y eso se puede ejecutar usando Amazon EKS es uno de los ejemplos. Hay tantas otras ofertas de plataformas de AWS. EK es uno de los buenos ejemplos donde EKS es, ya sabes, Elastic Kubernetes, y te brinda el servicio Kubernetes te brinda el servicio Kubernetes Entonces todo lo que tienes que traer está en tu código de aplicación, y luego se puede ejecutar en EKS. Un ECS es un servicio completamente administrado, lo que significa que realmente no tiene configurar la sobrecarga de un administrador que necesita configurar el EK, el lado de KuBint de las cosas, porque eso será administrado por Entonces este tipo de plataforma como servicio también se te está ofreciendo, y hay tantas otras cosas de las que hablaremos más adelante. En cuanto al software como servicio, software como servicio es un muy buen ejemplo es tu hoja de Google es un muy buen ejemplo de software como servicio donde en realidad no tienes ninguna de las lógicas detrás de tener esta hoja de Google funcionando Pero luego cuando vayas a sheet.google.com, obtendrás la hoja de cálculo de Google, la hoja de cálculo de Google Y todo lo que tienes que hacer es, como, ingresar los datos, guardar los datos en Google, y luego más o menos eso es, ya sabes, ese es tu software como servicio, lo que significa que realmente no tienes que entregarte a ningún tipo de codificación ni ningún tipo de requisitos de desarrollador, no hay nada ahí Así que usted como organización no tiene que comprar una suscripción que necesita ser instalada en un sistema también. Como, por ejemplo, si comparas Google Sheet con Microsoft Excel, ¿verdad? Microsoft Excel en este momento tiene una versión web del mismo, como la versión de servicio de software de la misma. Pero antes de eso, tenías que descargarla e instalarla en un sistema, lo que significa que necesitas tener una computadora y necesitas tenerla una computadora y necesitas tenerla físicamente instalada en tu sistema. Pero ahora mismo, en realidad no tienes que hacer eso con Google Sheet. ¿Por qué? Porque puedes ir a Internet Center o al centro navegación y en realidad puedes opensettoggle.com, iniciar sesión con tu ID, hacer tu trabajo Y luego Guardar y salir de él, y no tienes que ni siquiera instalar nada en ese sistema. Para que puedas usarlo de forma temporal y luego hacer tu trabajo, y luego empacarlo y dejarlo. Lo mismo también para tu servicio de almacenamiento, ¿verdad? Entonces, por ejemplo, en esta situación, entonces hay un software predefinido que se deja salir por suscripción donde puedes suscribirte a ese software pagando algo de dinero, y luego puedes acceder a él desde cualquier parte del mundo, si solo tienes un navegador. Y lo mismo para el almacenamiento también. Entonces vas por una base de suscripción, y luego todo lo que harás es acceder al almacenamiento en Google Drive o Dropbox o cualquier tipo de almacenamiento como servicio. S tres también es uno de esos servicios de Amazon, que será, que se puede dar como ejemplo en este momento. Y puedes subir, descargar cosas desde cualquier parte del mundo, dar acceso a cualquier persona que vea el acceso o algo así, y luego simplemente puedes compartir el enlace, y cualquiera en todo el mundo puede descargarlo. Pero aún hay que pagar una cuota de suscripción por ese servicio en particular, y ese servicio en particular es de la Nube. Entonces el mejor ejemplo es Google Drive. Así que siempre uso Google Drive para compartir mis documentos y cosas así. También puedes pensar que Git Hub también tiene el mismo método donde realmente podemos almacenar nuestros códigos y archivos en GitHub. Y eso también se puede compartir. Entonces GitHub también puede considerarse como nosotros es una especie de híbrido entre el software como servicio y el servicio de almacenamiento porque puede ser utilizado como stand. Entonces, de igual manera, tienes tantos ejemplos en vivo alrededor del mundo en este momento a través de Internet, y puedes encontrar uno de estos, al menos, que en realidad lo estás usando a diario. Entonces estos son algo que es modelos de servicio habilitados para la nube, y estos modelos en realidad le brindan una representación completa de cuál es la capacidad de los sistemas basados en la nube. Espero que haya entendido esto. Entonces esto te va a ser muy útil cuando empieces a trabajar con Cloud base para te va a ser muy útil cuando empieces a trabajar con que realmente puedas diferenciar cuál está en la nube y cuál no. ¿Bien? Entonces pienso que para este momento, deberías entender lo que hay en la nube y lo que no lo está. Y solo trata de entender las cosas, los elementos que estás usando actualmente en tu vida diaria, mira cuáles están involucrados en Cloud y cuál no lo es para que realmente puedas entender la diferencia entre eso. Entonces la mejor manera es probarlo tú mismo y tratar de entender. Todo bien. Gracias de nuevo por ver este video otro video. Veremos algunos ejemplos más con este tipo de ejemplos en vivo, sí. Oigan, chicos, vuelvan a reservar en el siguiente video. En este video, vamos a ver las ventajas de usar la computación en la nube. Ahora, como se puede ver en la imagen, computación en la nube está en el centro, y alrededor de eso, se ven muchas cosas dando vueltas alrededor de eso. Una de las cosas es la flexibilidad y la agilidad, por lo que es muy importante que Ya sabes, un proveedor de nube sea flexible y ágil. Ahora bien, ¿qué quiere decir con flexible? Así que cuando quiera, puedo detener la instancia, y cuando quiera, quiero iniciar la instancia, ya sea a través de scripting, ya sea a través de scripting, línea de comandos o a través de la consola Así que la flexibilidad me da cuando la quiero y cuando la necesito, tengo esa potencia extra. Ahora bien, ¿qué es la agilidad? La agilidad me ayuda a, ya sabes, ejecutar mis implementaciones rápidamente. Como, por ejemplo, cuando digo despliegue, ¿qué significa? Implementación lo que significa que estoy implementando un servidor cuando hay un requisito. Y eso necesita ser creado rápido. Por lo que la flexibilidad me permite aumentar o disminuir la capacidad o escalarla. Pero la agilidad me ayuda a hacerlo más rápido. Entonces, te mostraré en las manos el tiempo que lleva crear y ejecutar una instancia, ¿de acuerdo? Crear una instancia puede ser manual y puede llevar mucho tiempo, pero una forma automatizada de crear una instancia, como cuando estoy usando ubunts en Bus Me gustaría crear una instancia instantáneamente tan pronto como vea una carga alta en el sistema. Así es como funciona el autoesquí, ¿verdad? Cuando veo una carga alta en un sistema, inmediatamente quiero hacer girar más instancias, correcto, para manejar la solicitud. Así que la agilidad me ayuda aquí a crear más instancias de inmediato cada vez que hay un requisito para que lo haga. Ahora en términos de innovación, me permite agregar nuevos servicios. AWS sigue agregando más servicios, innovar a sí mismo. Y para que veas que hablamos del entrenamiento de interacción. Vimos un nuevo certificado para IA y aprendizaje de misión. Entonces ese tipo de innovación es de lo que estoy hablando. Por lo que un socio de la nube nunca debe verse comprometido en términos de innovación. También debe estar siempre innovando, sumando la nueva última tendencia en el mercado La tendencia actual en este momento es la IA. El siguiente es rentable. Entonces hay tantos clientes que me preguntan, ¿cómo podemos hacer que este proyecto sea rentable? Entonces, como ingeniero de nube o ingeniero de infraestructura, debe pensar en una solución para la rentabilidad. AWS le ayuda en términos de reducir el costo. Cuando comparas el costo y el gasto energético de tu centro de datos en las instalaciones, y lo comparas con la Nube, va a ser mucho más sencillo porque solo pagarás por lo que usas. ¿Correcto? Si no hay ningún requisito para que lo uses, entonces no vas a pagar por ello. Entonces, como ingeniero de infraestructura o ingeniero de nube, debe determinar cantidad de réplicas o la cantidad de servicio que debe estar funcionando en un momento en el que la carga es menor Entonces de esa manera, se puede reducir el costo para la empresa en la que a su vez realmente puede traer más ganancias a su organización. Entonces vamos a discutir mucho sobre los métodos y estrategias rentables más adelante punto del tiempo en términos de escalabilidad, ya hablamos en la parte de flexibilidad de la misma La aplicación escalable es uno de los requisitos más altos de cualquier servicio de computación en la nube Ahora, la escalabilidad viene de con un AWS, y AWS también admite escalabilidad de terceros, Entonces, si estoy implementando cobert por separado de, ya sabes, por separado del motor uberts incorporado o predeterminado, que es dado por AWS, todavía puedo escalar esa aplicación usando, ya sabes, ya sabes, Entonces, aunque no estoy usando los servicios de cobert incorporados EKS, todavía puedo escalar mi aplicación usando los Cubs lo siento, En términos de seguridad, Um, AWS te brinda muchas formas diferentes de asegurar tu consola, tu acceso a CLI, tu acceso a tus API de Cloud y tu acceso al servicio, ¿verdad Y también acceso de servidor a servidor. Está muy asegurado. Los servicios dentro de AWS también están utilizando protocolo seguro para comunicarse entre sí para que no haya hacks y ataques a los servicios de AWS. El siguiente es la confiabilidad. Confiabilidad, cuando hablo de confiabilidad, el tema me viene a la mente son las regiones y ***. Ahora, por defecto, cualquier región tendrá al menos dos As mínimo, lo que significa que tendrá dos zona de disponibilidad mínima. Entonces, lo que significa que sus datos se replican a través de estas dos zonas, pero las principales, las principales, ya sabes, las regiones más utilizadas tienen al menos tres o más zonas de disponibilidad, lo que da mucho ancho de banda para tu confiabilidad aquí En términos de desarrollador amigable, la consola, que vas a ver es tan amigable para desarrolladores que vas a pasar un buen rato alrededor de la consola. Entonces más adelante punto de tiempo, veremos la confiabilidad. Sea lo que sea de lo que hablemos, en realidad lo estaremos viendo uno por uno. Así que no te preocupes por ello. No los estoy cubriendo a detalle, pero esto es solo una visión general. En cuanto a las capacidades de la nube híbrida , se ha hecho mucha innovación en términos de AWS para brindarle esa solución alternativa de la nube híbrida ¿Qué tiene la nube híbrida trabajando con su centro de datos y también con AWS? Entonces eso es posible. Por lo tanto, puede tener dos datos, uno seguro en su centro de datos Onpromiss, y otra mitad es un dato público al que pueden acceder todos los que pueden hospedarse en AWS Por lo que Hybrid Cloud es completamente compatible en términos de trabajar con AWS. Y entonces lo importante es el ecosistema y la comunidad, el número de AMIs, que se llama Amazon Machine Image y el marketplace que tienes y el apoyo de la comunidad para el marketplace y la documentación. Y la gente que usa, ya sabes, AWS en todo el mundo ofrece muchos videos y documentos de YouTube y todo lo demás donde la gente está usando esto. Y en realidad puedes copiar, ya sabes, su fórmula de éxito a tu empresa y hacer que tu empresa sea exitosa. Entonces este tipo de comunidad es lo que, ya sabes, construye un software más fuerte. Y esto AWS te va a dar eso. Derecha. Entonces estas son las ventajas de usar Cloud company lo siento cloud computing, especialmente AWS. Gracias por ver este video. Espero que este video te haya sido fácil de entender. Si tienes alguna duda, sugerencia, por favor déjala en la sección pin. Tu reseña lo significa todo. Así que asegúrate de dejar una reseña, y si no estás satisfecho con la capacitación, puedes decir eso en la revisión. En lugar de solo calificarlo, solo di eso. ¿Qué es lo que necesitas para mejorar? Porque estoy aquí para innovar. Estoy aquí para llevar el entrenamiento al siguiente nivel. Gracias de nuevo. 3. Tema 1: introducción a AWS parte 2: Hola, chicos. Bienvenidos de nuevo del siguiente video. En este video, vamos a hablar sobre los otros proveedores de Cloud que existen. Entonces ahora sabes que AW es uno de los proveedores de Cloud. También hay otros proveedores por ahí. Así como, tienes Microsoft Azore, tienes e Cloud de Appo Tienes Citrix, tienes SAP. Tienes A&E Cloud. Tienes IBM Cloud. Tienes Red Monk, Amazon servicios web. Dell tiene su propio servicio en la nube, HP tiene sus propios servicios en la nube. Así mismo, cada empresa alrededor del mundo viene con sus propios servicios en la nube y ofrecen al cliente una amplia gama de ofertas y atractivos, ya sabes, servicios gratuitos, ya sabes, gratuitos los cuales pueden ser utilizados para la formación y el aprendizaje y acostumbrarse a sus servicios también. Um, he visto que Google Cloud está cediendo, como, muchos descuentos para empresas, como si te registras con tu, ya sabes, dirección de correo electrónico corporativa Entonces, si quieren que experimentes su nube. Esa es la razón, razón principal por la que te están pidiendo que experimentes en su Nube. Y Azore también hace lo mismo, y AWS, como ustedes saben, que ya tenemos una cuenta gratuita que se va a crear más adelante punto de tiempo Así mismo, tienes tantos proveedores de Cloud. Pero si ves a los principales proveedores de Cloud, que está ahí fuera es AWS, claro, tienen, 34 porcentaje de cuota de mercado, según esto es el informe de 2020 two, pero entonces este es casi un caso similar incluso ahora como WOW. Por lo que AWS sigue siendo líder del mercado. Pero Azore de Microsoft, está tratando de llegar a su, ya sabes, fortaleza porque están cediendo están dando muchas ofertas para conseguir muchos clientes y tienen tantas soluciones, igual que cómo AWS tiene servicios, ¿verdad Por lo que también tienen similar tipo de servicios, y tienen documentación. Al igual que, están creando mucha documentación de YouTube para que la gente esté familiarizada con su nube en la nube, ya sabes, mejoras también. Y entonces tienes a Google Cloud aquí. Google Cloud también se está haciendo famoso, y también están, ya sabes, consiguiendo más clientes. En general, quien esté en contra de Microsoft Office, ¿verdad? Van por el sistema Google EnSit como Google Sheets y Google Word y todo lo demás. Entonces con su producto, también están tratando de vender a esos clientes, el Google Cloud, también. Entonces mi último proyecto, teníamos Google Sheet de Google y todo. Estamos en contra de Microsoft Office. Um, entonces lo que Google hizo eso es como cuando queríamos modernizar nuestro entorno, así que fuimos con Google, en lugar de Microsoft Azore o Amazon AWS, porque ya teníamos un buen contrato con Google porque estábamos usando su sistema n suit Y en realidad han dado mucho descuento porque estamos, ya sabes, no cambiando a Azore o AWS. Estamos cambiando a ellos. Entonces ese fue un verdadero buen trato que tomamos para el cliente. Y Google es ahora los proyectos anteriores, ya sabes, proveedor de ID completo para Google Cloud. Entonces, del mismo modo, si tienes vínculos existentes con el proveedor existente, entonces hay una buena posibilidad de que te den un buen descuento o una buena ganga en su propia nube lugar de cambiar a un nuevo proveedor de nube. Ahora, recuerden que esto es 20221. Aquí era el mercado 203000000000. Ahora, 2024, va a ser mucho más grande. Voy a tratar de conseguirte más tarde punto de tiempo, ya sabes, algunas estadísticas relacionadas con 2024, cómo se ve un punto de tiempo posterior. Pero entonces, ya sabes, esto es algo que no cambia tanto en cuanto a la ocupación, por lo que aún AWS sigue siendo el líder en términos de prestación de servicios en la nube. Perdón por el ruido de fondo, si puedes escuchar algo algo que no puedo controlar. Nuevamente, esto es lo que quería decirte en este video para mostrarte que hay diferentes proveedores de nube por ahí, pero elegimos AWS porque AWS es uno de los líderes incluso ahora en 2024 también. Gracias de nuevo por este tiempo y paciencia. Si tienes alguna duda, déjala en la sección de preguntas. Te veré en el siguiente video. Chicos, bienvenidos de nuevo al siguiente video. En este video, vamos a hablar de regiones y AZ. Entonces primero nos concentraremos en las regiones, y luego iremos a las zonas T disponibles. Bien, porque esos están relacionados entre sí. Ahora, antes de seguir adelante y entender sobre las regiones, y puedes simplemente hablar de un escenario en tiempo real aquí, lo cual es mucho, mucho útil para que entiendas sobre ese concepto. Ahora, comencemos con nuestra propia compañía. Entonces digamos que tenemos una compañía nuestra. Y lo que hacemos es que hacemos negocios de comercio electrónico. Y tengo mis clientes en todo el Reino Unido. Así que mi producto se vende en todo el Reino Unido , principalmente Londres y Manchester Digamos, por ejemplo, estas son dos ubicaciones de donde obtengo la mayoría de mis clientes. Ahora, tengo una oficina en Londres por ejemplo, y tengo mi centro de datos en el propio Londres. Ahora bien, hubo, como, la tormenta severa en Londres, y tengo este corte de energía, y ha sido como, ya sabes, desde hace un par de horas, más de cuatro o 5 horas, mi respaldo incluso se acabó Así que el sitio web de mi empresa se cerró por completo y ningún usuario de Manchester o, ya sabes, de Escocia o de Irlanda. No pueden acceder a mi sitio web por sí mismo. Entonces, en todo el mundo, mi sitio web está completamente caído porque el servicio que en realidad alojaba en mi centro de datos se ha quedado sin energía. Entonces lo entiendes, ¿verdad? Entonces ahora, después de que vuelva el poder, me conecto con mis administradores, y trato de entender cuál fue la razón por la que mi sitio web no estaba disponible Y la razón estaba bastante clara como a la luz del día, ¿verdad? Porque la energía no estaba ahí y la energía de respaldo incluso se agotó. Tuve este problema. Hay dos soluciones, sí, para ser muy específicas, ¿verdad? Entonces una es, como, puedo agregar más poderes de respaldo, y eso me va a costar mucho. Pero eso es solo redundancia, ¿verdad? Que si no hay problema de energía, ocurre algún hack o algún tipo de infiltrador entra en mi empresa y luego apaga mi servidor, entonces ese Entonces el poder agregar más potencia no me da una solución real. Entonces lo que decido es que voy a crear otra zona en Manchester, que es, ya sabes, mi segundo lugar allá porque mi enorme base de clientes está ahí. Entonces creo otra zona ahí que ambos servidores puedan para que ambos servidores puedan comunicarse entre sí y trabajar en un mecanismo de equilibrio de carga y que, ya sabes, en una secuencia de desastres en Londres, habrá servicios alojados en Manchester, que en realidad pueden hacerse cargo de mi sitio web, por lo que no estará abajo permanentemente. Entonces entiendes eso, ¿verdad? Entonces este es el ejemplo que quiero centrarme en el concepto de AWS por aquí. Ahora, las regiones, nada más que las ubicaciones físicas reales en todo el mundo, y las zonas de disponibilidad o las zonas son los centros de datos en eso, ya sabes, en esa ubicación en la ubicación física Por ejemplo, tomemos a EU East como ejemplo. Entonces hay una región llamada EU East. Acabo de poner esto a través de ustedes. Entonces estas son regiones, sí. Entonces EU East es básicamente Virginia del Norte, Estados Unidos. UEST es básicamente Irlanda. AP Sureste, uno es Singapur. Entonces, de igual manera, cada región tiene un nombre un nombre que es decidido por AWS al tener algo así como, ya sabes, el nombre del continente y luego qué lado está en el lado oeste o lado este o lado central o lado sureste como Pie. Entonces ellos deciden eso, y luego dan uno, dos, como en regiones. Entonces pueden si una región en particular tiene múltiples regiones en ella, entonces será como una, dos, así. Pero hasta ahora, ha sido una de las que he visto hasta ahora. Entonces pero dentro de la región, tendrás AZ Ahora bien, estos son los centros de datos. Entonces, ¿la región es un centro de datos o AZ un centro de datos? Los AZ son los centros de datos. Las AZ se denominan básicamente como zona AvailaBT, lo que significa que son un Ahora, el grupo más grande de centros de datos está disponible en EU East porque mucha gente aloja su aplicación en EU East porque mucha gente está realmente en esta zona en esta Nueva York, ya sabes, eso es Chicago, todas esas cosas entran en esta zona en particular. Entonces esa es la razón por la que tienen seis AZ lo que significa seis centros de datos Ahora, puedes ir al sitio web de Amazon y en realidad puedes echar un vistazo a esto. Entonces vas y dices AWS y puedes decir, como regiones. Y en realidad obtendrá la lista de regiones de AWS que va a tener aquí , puede ver la infraestructura global por allí, y podrá ver la lista de regiones en las AZ que es parte del mundo Al igual que, se puede ver que ellos mismos han dividido esto en Norteamérica, Sudamérica, Europa, Oriente así. También puedes obtener toda la visión del mundo también. No estoy seguro de dónde, pero se supone que debe estar aquí en alguna parte, sí. Entonces, cuando solo haces clic en eso, en realidad puedes ver eso Regiones enteras por aquí. Entonces tienes 34 regiones las cuales tienen múltiples zonas de disponibilidad, que es tu centro de datos. Y luego CloudFront, hablaremos esto completamente en una sesión diferente Entonces lo han dividido en múltiples regiones, como se puede ver por aquí, y cada una es, como, esto es Norteamérica, esto es Sudamérica, y esto es Europa. Y entonces esta es Asia. Entonces, de igual manera, han dividido esta región. Y, ya sabes, cada ubicación tiene una o más regiones por aquí. Para que puedas ver la fecha en que se ha lanzado. Al igual que, se lanzó en 2009. Para que veas que hay uno en Irlanda. Que se lanza en 2007, y tú uno en la región de Londres. Y cuenta con tres zonas de disponibilidad. Eso significa que hay tres centros de datos. Ahora bien, no hay mucho detalle al respecto, como, dónde está exactamente la ubicación de estas zonas de disponibilidad que se guarda con el propio ABS, pero luego te dicen cuántas zonas de disponibilidad hay, para que tus datos se repliquen o crucen zona de multidisponibilidad Entonces, si hay un desastre o una AZ, eso no afectará a otra AZ porque está separada de con una distancia, ¿bien? Entonces el desastre no sucedería en todas partes. Entonces esa es la razón de ello. Entonces están estos colores rojos que dice, como, ya sabes, próximamente como en esas regiones. Entonces puedo ver que las principales ciudades tienen una región a ella, y cada región tendrá al menos dos zona de disponibilidad He visto dos zonas de disponibilidad en la mayoría de las regiones. Entonces esto es más o menos lo que quería decirte en este video. Y esto es más o menos lo que es la región y la zona de disponibilidad. Espero que también entendieras el ejemplo del mundo real. No vamos a entrar en tantos detalles sobre esto en este momento porque apenas estamos empezando las cosas. Entonces ahora mismo, solo quiero que tengan una visión muy amplia sobre qué son las regiones, qué son las AC. Eso es todo lo que se necesita ahora mismo. Gracias de nuevo por su paciencia y tiempo. Te veré en la siguiente. Oigan, chicos, bienvenidos de nuevo al siguiente video. En este video, vamos a entender rápidamente sobre los servicios. Ahora bien, estas son algunas de las cosas importantes en AWS, que es algo que aprenderás. Y cada uno de estos servicios tiene diferente, ya sabes, significado para ello y así como diferentes razones por las que existe. Ahora, hablemos de servicios en un todo en un ejemplo del mundo real, y luego compararemos esto con los servicios reales. Ahora, por ejemplo, si hablas de servicios, como, por ejemplo, en tu teléfono móvil, entonces tu móvil tiene cámara. Tu teléfono móvil tiene Bluetooth. Tu celular tiene el teléfono el propósito de llamada, derecho, el GSM o CDMA Entonces esa es toda la razón del teléfono móvil, ¿verdad? Tiene tiene puede reproducir videos. Puedo tocar audios. Pero, ¿cómo puedes acceder a esas funciones? Si quieres cámara en mi teléfono, como cámara trasera o amiga, ¿cómo trabajas con ella? ¿Qué opinas al respecto, y luego se abre? No, ¿no? Entonces tienes solicitudes para cada una de esas, ¿no? Entonces tienes aplicación para cámara. Tienes aplicación para teléfono, que en realidad va y marca y luego usa el CDMA o lo que sea la tecnología GSM que Tienes app para habilitar Bluetooth, ¿verdad? Ahí es cuando se conecta a algo, ¿verdad? Entonces estas son aplicaciones para fines específicos, ¿no es así? Lo mismo en AWS son estos servicios. Ahora bien, si ves una evolución de teléfono móvil, la cámara, el teléfono, los videos, no todo llegó en una sola vez, ¿verdad? Si vas diez años atrás, estarías usando un teléfono flip, que se utilizará principalmente para, ya sabes, conectarse con otra persona través de una llamada telefónica, ¿verdad Pero nada más se puede hacer con un teléfono móvil. Pero luego los complementos, ¿verdad? Estos son algo así como complementos que siguen llegando. Obtienes una nueva versión de cámara, obtienes más cosas de mega píxeles. Entonces como en cuando hay un nuevo avanzado en tecnología, que tienes eso agregado con el tiempo, lo mismo con los servicios también. Por lo tanto, verá que más servicios se agregan a lo largo del tiempo en AWS. AWS se le ocurrieron, como, 100 servicios antes. Ahora cuenta con más de 400 a 500 servicios, los cuales se utilizan por múltiples razones. Y estos son servicios que se agregan a lo largo del tiempo. Y entonces, como que ves estos muchos servicios apareciendo. Y estos servicios tienen diferente razón de su existencia. Aunque es posible que no cubramos todos los servicios, ya sabes, el patrimonio de AW. Entonces estaremos tocando base sobre algunos de los servicios, mirándolos en muchísima visión general de SOT. Entenderemos la mayoría de los servicios por su nombre, entenderemos cuál es su propósito. Y lo intentaremos Voy a tratar darte algunos ejemplos del mundo real para que realmente puedas asociar el nombre de los servicios y lo que realmente realizan en un escenario en tiempo real para que puedas responder esas preguntas cada vez que esa pregunta aparezca en tu examen. Ahora bien, recuerden que para nuestro examen, Uh, eso solo, decía en este documento mismo, como se puede ver en el Apéndice A, entonces dice tecnología y conceptos. Estas son tecnologías y conceptos que aparecen en tu examen. Entonces estos son algunos de ellos son servicios. La mayoría de ellos son servicios, en realidad. Para que veas que las regiones y AZ que acabamos, ya sabes, hicimos la visión general hace algún tiempo Y está esta migración de Cloud, y tienes servicios de red. Tienes tantos servicios por aquí, lo cual va a ser parte de tu examen. Entonces es necesario conocer las diferencias entre estos servicios y lo que realmente hacen. Eso es todo lo que requieren en este momento porque se trata de una certificación a nivel fundamental No quieren que conozcas los detalles ni cómo operarlos o, ya sabes, algunas cosas avanzadas. No quieren que sepas que quieren que conozcas algunas de las cosas básicas al respecto, para que sean como, Bien, esta persona está familiarizada con estos servicios, así que voy a, como, ha elegido la respuesta correcta. Entonces no va a ser complicado. He visto preguntas para curso profesional, nivel asociado, y cursos de nivel especialista, ¿sabes? Esas preguntas son muy complicadas, pero no es tanto por aquí. Así que en realidad no tienes que preocuparte por ello. Voy a cubrir todas estas cosas para ti. Te voy a dar ejemplos del mundo real para que puedas entender esto mucho mejor. ¿Bien? Entonces estos son algunos servicios que utilizan para diferentes fines. Por ejemplo, tomemos 23 servicios y tratemos de entender la relevancia de ese servicio. EC de dos instancias, se llama Elastic Cloud compute. EC dos. Por qué dice dos por aquí Porque hay dos Cs, computación de Elastic Cloud. Entonces por eso lo llaman EC dos. Entonces, ¿qué es la computación de Elastic Cloud? Va a dar a la elasticidad dos inducir potencia de cómputo siempre que la necesites. Entonces ahí es donde se van a crear tus servidores , ¿de acuerdo? Entonces esa es tu razón para estar en AWS, ¿de acuerdo? Ese es el primer servicio, que es, como, que es la única razón por la que deberías estar en AWS porque te brinda infraestructura como servicio. Aquí es donde puedes poblar servidores. Entonces tienes el encargado de costos. El encargado de costos, como su nombre lo explica, te informa sobre el costo. Y también habla de lo que se ha facturado hasta el momento y cuál es su predicción de facturación Entonces, si vas a usar esto o consumir este espacio, ¿verdad? Esta es la cantidad de tiempo, va a ser. Eso es predicción, ¿verdad? Entonces todo empieza. Facturación. ¿Qué hace la facturación? El nombre dice que ahí es donde pagas la factura mensual, lo que sea que tengas, ya sabes, incurrido como costo con AWS. ¿Qué es el balanceador de carga elástico? balanceador de carga elástico le brinda la capacidad de equilibrio de carga para su aplicación, que está alojada en AWS. Tan simple como eso. ¿Verdad? Entonces muchos servicios aquí tiene el razonamiento en su propio nombre. Así que de nuevo, este video es solo un abridor de ojos. No vamos a discutir sobre ninguno de los servicios, así que realmente no tienes que tener ese dolor o gastos generales que Oh, vamos a discutir sobre este servicio ahora. Sólo vamos a, ya sabes, seguir adelante y casualmente mirar estas cosas y ver, ya sabes, qué otros servicios disponibles Así que sólo voy a mostrarte eso por ahí. Tan fácil también, cuando vas a la página principal, bien, verás muchos artículos aquí, lo que es, como, venir de manera modular, ¿bien? Entonces está este servicio de costos que viene por aquí, que me dice cuál es mi pronóstico o predicción de esta factura mensual, qué va a ser al final del mes. Y también me dice, como, cuál es el costo actual, que tengo que pagar en este momento. Entonces, si elimino todos mis servicios, esta sería la cantidad que tengo que pagar. Bien. Entonces ahora, también me habla de algunos asesores de confianza, algunos artículos por aquí. Todo esto viene de un servicio en otro. Bien. Entonces no queremos conocer algunos detalles por aquí en este momento. También puedes agregar más widgets. También puede obtener datos de diferentes servicios. Entonces esas cosas también están disponibles. Este es tu tablero, ¿de acuerdo? Esto es lo que verá cuando, um, cree una cuenta gratuita e inicie sesión en AWS. Así que no te preocupes por la cuenta gratuita, así que te voy a decir cómo crear tu cuenta gratuita e iniciar sesión. Y me aseguraré de que no te cobren por, ya sabes, todas estas cosas a menos que y hasta que hagas algo por ti mismo Pero te voy a dar todos esos preparativos para que no te facturen y estés en el límite de utilización libre Pero entonces recuerda que hay algunos artículos que vamos a hacer, que pueden incurrir en alguna factura, pero en realidad puedes verlo en lugar de hacerlo por ti mismo Entonces eso es algo que te voy a decir. Ahora bien, ¿qué son los servicios? Ahora bien, estos son los servicios. Se puede ver que hay tantos servicios ahí. Estas son solo la apertura de la misma. Cada uno bajo esto tendrá múltiples servicios. Si simplemente da clic en todos los servicios por aquí para que pueda ver el número de servicios que tiene aquí. Ya ves eso. Hay tantos servicios que AWS utiliza directamente. Y también hay servicios indirectos, ¿de acuerdo? Entonces que es como, que no se muestra porque es indirecto y se usa dentro del servicio. Por lo que también hay servicios indirectos, que es muy avanzado, así que no te preocupes por ello. Entonces, lo que puedes hacer aquí es como, estos son algo de ayuda, en realidad, que se da desde AWS para resolver rápidamente las cosas por ti. Entonces si estás aquí para cómputos, entonces ahí va a ECT. Pero si solo haces clic en él, estas son algunas de las opciones o los servicios que se encuentran en cómputos, ¿bien? Entonces, de igual manera, desarrollo web front-end, si estás buscando eso, estos son los servicios que se encuentran bajo él. Entonces estos son catálogos, puede decir, B qué servicios son aglutinantes en él. ¿Bien? Por lo que puede haber múltiples servicios que está relacionado con este catálogo. Por lo que en realidad puedes seleccionar el catálogo y ver lo que realmente hay dentro de este como servicios, los cuales pueden estar relacionados con este catálogo en particular. Bien. Entonces, este es el explorador de servicios que te va a mostrar el catálogo y los servicios, y esta es la forma más fácil de obtener cualquier servicio. Por ejemplo, quieres levantar un ticket de servicio con AWS. Solo di servicio o ticket o algo así, y va a ir al servicio, ya sabes, al soporte del gerente de incidentes. Se puede ver que prácticamente estos son servicios que llegan a través cuando escribes boletos. Entonces, de igual manera, se quiere guardar algo de almacenamiento. Así que simplemente escribe almacenamiento por aquí, y no puede obtener todos los servicios que están relacionados con el almacenamiento, que se usa con frecuencia. Entonces, si me preguntas, Oh, bien, ¿y qué pasa con otros servicios de almacenamiento? Simplemente puedes hacer click en Mostrar más y en realidad puedes ver todos los servicios de almacenamiento aquí porque solo te muestra, ya sabes, los más usados cuando escribes almacenamiento. Si estás buscando una base de datos por aquí, entonces solo escribe database, y primero obtendrás los servicios que están relacionados con la base de datos. Y luego las características que es, ya sabes, parte de los servicios. Las características aseguran que sea como un catálogo de servicios. Entonces estas son las cosas que puedes hacer con un servicio. Bien. Entonces ese es el uno y luego tienes recursos donde realmente puedes abrir recursos y leer sobre ellos y entender sobre ellos. Tienes documentación la cual puedes hacer lo mismo. Y tienes artículos de conocimiento a los que la gente hace preguntas sobre un servicio específico, ya sabes, y cómo hacerlo. Y luego habrá gente respondiendo a ello, y verás que el representante de Amazon también lo responderá . Y luego tienes marketplace por aquí donde realmente puedes ver las personas de terceros que vienen de tu puedes ver eso. Esto es de datos, datos Sunrise, ya sabes, tecnología. Entonces esta es una empresa que vende este tipo de solución. Así que también puedes ver el mercado. También verá soluciones orientadas a Oracle. Entonces, cuando solo buscan el mercado, mucha gente vende cosas para ustedes, bueno, para trabajar con ello. Tienes entrada de blog, por supuesto, donde la gente escribe blogs sobre su experiencia mientras trabaja con ese servicio en particular o migración de bases de datos en particular o algo así. Y luego tienes eventos. Los eventos son muy importantes porque a veces el servicio estará en mantenimiento porque hay algunas personas haciendo algún trabajo alrededor de eso. Entonces esos van a subir, aparecen por aquí para eventos, y luego tienes tutoriales. Los tutoriales son lo mejor. Entonces es como una documentación, pero va paso a paso hacia el logro de un objetivo específico. Entonces, por ejemplo, crear y administrar bases de datos no relacionales por aquí Cómo hacer eso, tiene un paso paso cómo trabajar con eso. Entonces, de igual manera, la búsqueda está llena de mucha información útil. Es solo que tienes que pensar todas estas opciones disponibles para ti cuando estás en la consola. Las opciones están ahí. Sólo hay que pensarlo. ¿Por qué opción debo optar? ¿Bien? Ahora, tienes este servicio de consola a domicilio por aquí, así que también puedes agregar elementos como marcarlos por aquí para que puedas agregar este servicio EC two. Eso lo he hecho porque albergo muchos entrenamientos para eso Entonces tengo ciertos servicios corriendo por aquí, lo cual no es necesariamente para ti. Estaría ahí. Sería una limpia para ustedes. Pero luego hago algo a propósito de entrenamiento, así que consigo todas estas cosas. Entonces mayormente, estoy en la región por aquí, así que esta es la región Entonces EU East North Virginia. Ahora, actualmente estoy ubicado en el Reino Unido, pero ¿por qué seleccionaría algo como North Virginia, que está, como, un poco lejos de mí, no? Porque es la región más barata donde puedo alojar el servicio por, como, realmente menos precio en comparación con, ya sabes, alojarlo en Londres, porque Londres, como sabes, es como, ya sabes, el Reino Unido es como una isla, y el espacio del centro de datos es muy menor. Entonces el costo es mayor para mí. Entonces por eso elijo Virginia del Norte. Entonces, hay cosas estratégicas que realmente puedes usar aquí Eso es lo que vamos a discutir mientras vamos más allá en este programa, así como también en los programas futuros. Entonces voy a compartir con ustedes cómo vamos a hacer el recorte de costos, cómo vamos a ahorrar dinero también cuando empecemos a alojar máquinas como esta. Al igual que estos son como, instancias más grandes de m5x large. Entonces, ¿cómo vamos a ahorrar dinero en eso esas cosas también voy a discutir Entonces esto no es sólo uno de entrenamiento, y entonces no te dejaré nada de eso. Entonces estas capacitaciones van a ser seguidas mi capacitación más adicional porque tengo la experiencia de trabajar con múltiples clientes, y conozco la forma en que trabajan con la gente de atención al cliente de AW Azore también Entonces te voy a contar y compartirte todas esas cosas interesantes y que sea muy interesante para ti en el futuro. Gracias de nuevo por su tiempo y paciencia. Te veré en el siguiente video. Yo chicos volveremos al siguiente video. En este video, vamos a identificar opciones de soporte de AWS para el cliente de AWS. Entonces vamos a hablar de múltiples opciones por aquí o múltiples servicios. Perdón por eso. Entonces vas a hablar de múltiples servicios por aquí, que es hacia la opción de atención al cliente de AWS. Así que ahora vamos a continuar con nuestra presentación por aquí. Por lo tanto, la opción de soporte de AWS viene con servicio al cliente y comunidades. Ahora, aquí en el servicio al cliente y comunidades, por lo que hablamos de brindar soporte básico para todos sus clientes de AWS. No importa si eres un cliente pagado o no. Te brinda cuentas, asistencia de facturación. Le proporciona acceso a foros de la comunidad de AWS, recursos como repost de AWS para soporte basado en la comunidad Ahora es adecuado para preguntas relacionadas con la cuenta y conectarse con otros usuarios de AWS para, ya sabe, orientación general. El siguiente es sobre el soporte al desarrollador. El soporte para desarrolladores de aquí, la opción de soporte va a ser sobre, ya sabes, soporte técnico para desarrolladores que construyen en AWS. Por lo tanto, también ofrece orientación sobre las mejores prácticas, problemas y el uso de los servicios de AWS. Incluye soporte en contacto primario. Lo sentimos, incluye para un contacto principal, lo que significa que ese contacto principal puede plantear preguntas de soporte. Aquí vamos a acceder a Trusted Advisor como recomendación de mejores prácticas, cual es limitada, no completamente disponible para un usuario de desarrollo. Ahora bien, en cuanto al siguiente, que está por aquí, lo siento, me distrajo una llamada Entonces el siguiente es sobre el soporte empresarial. En cuanto al soporte empresarial, es uno pagado. Nuevamente, al igual que Developer, también se paga. Pero el común el básico de aquí, que es el servicio al cliente y la comunidad, eso está abierto para todos. No hace falta que pagues nada. Por lo que actualmente, estoy en ese plan de apoyo, el plan básico de apoyo. Entonces, si eres desarrollador, puedes estar en ese, y luego si eres un usuario de negocios, puedes optar por el soporte empresarial. Ahora, el soporte empresarial le ayuda al soporte técnico para negocios se ejecutan en un entorno de producción. Al igual que si tienes cargas de trabajo de producción, puedes estar en soporte empresarial Ahora, le brinda acceso 24 bar siete a ingenieros de soporte en la nube para problemas técnicos. Esto es directamente de AWS. Le brinda acceso completo a AWS Trust Advisor y al panel de control de salud personal. También es compatible con múltiples contactos múltiples, y también puede usarlo en una guía específica de caso de uso también. Por lo tanto, el soporte de negocios se utiliza para o es adecuado para empresas que requieren soporte las 24 horas del día para la aplicación de producción. Pero si estás planeando eso, en realidad puedes correr con el soporte de AW. No es posible porque el soporte es limitado por aquí, pesar de que es 24 bar siete, pero el tiempo de respuesta es enorme Entonces hablaremos de la arquitectura en el siguiente video. También entenderás el tiempo de respuesta. Así que aquí, el siguiente es el soporte de AWS Enterprise on RAMP. Por lo tanto, esto le brinda la orientación proactiva , soporte técnico y revisiones operativas. Viene en 24 bar siete acceso a ingenieros de soporte en la nube para un tiempo de respuesta rápido. También ayuda a la empresa , también ayuda a la empresa a optimizar el funcionamiento de la nube y también administra la carga de trabajo crítica del negocio. Entonces el último es el soporte empresarial, el soporte completo. Por lo que esto significa que cuenta con un soporte integral para grandes empresas con cargas de trabajo de misión crítica Por lo que también cuenta con un personal DAM dedicado o TAM como técnico o co-gerente para soporte personalizado. También monitoreo proactivo, orientación arquitectónica y recomendación de optimización. También viene con 24 autobuses siete acceso a ingenieros senior de Cloud. Por lo tanto, viene con ingenieros senior en la nube y un tiempo de respuesta más rápido. Nuevamente, hablaremos sobre el tiempo de respuesta en el siguiente video. Por lo tanto, casos de uso para la organización que está profundamente metida en AWS y que necesita compromiso técnico y alta disponibilidad para aplicaciones críticas para el negocio. Entonces, esta es la opción de soporte que atiende diferentes clientes comerciales para, ya sabes, servicio básico al cliente y soporte comunitario para asistencia integral a nivel empresarial para cargas de trabajo de misión crítica Entonces más o menos esto es lo que queremos cubrir en este video. Gracias de nuevo. Te veré en el siguiente video. Oigan, chicos, bienvenidos de nuevo al siguiente video. En este video, vamos a hablar de plan de apoyo. Ahora bien, en realidad debes no estar al tanto del plan de apoyo en este momento porque nunca te has cruzado en un camino por aquí. Por defecto, todos llegan al básico. Entonces tienes que actualizar a, um, desarrollar una empresa de negocios. Ahora bien, estos son como tres cargos diferentes como 29 por mes, 100 por mes y 15,000 por mes. ¿Qué es el plan de soporte? El plan de soporte es donde obtiene soporte de AWS. Ahora, AWS tiene, como, planes diferentes, lo que significa que eres soporte también estará en una situación diferente en este momento. Entonces, si quieres optar por un plan de desarrollador con $29 por mes, obtendrás un sistema de soporte de orientación general con soporte deteriorado que está dentro de las 12 horas, las 24 horas Entonces ese es el predeterminado . Y luego si vas por un plan de negocios, vas a tener un sistema de producción deteriorado, lo que es como dentro de 4 horas, obtendrás una respuesta y un sistema de producción caído, que es como una respuesta de 1 hora. Dentro de una hora, obtendrás una respuesta de 100 por mes. Cuando vas por negocios relacionados, ya sabes, plan de soporte, solo pagando 15 mil por mes, lo cual es muy caro. Y obtendrá un soporte crítico de tiempo de inactividad en 15 minutos. Y también incluye otras cosas también. Entonces ese es el punto total de tener esta explicación de esta manera. Ahora bien, ¿qué otras cosas vas a conseguir? No mucho para desarrolladores. Los desarrolladores se quedan solos en el agua porque el soporte general en sí es, como, más que suficiente. Y cuando opta por un negocio, obtendrá orientación contextual basada en el caso de uso en términos de cómo puede mejorarse en AWS. Y luego un equipo TAM. TAM es como si estuviera el gerente técnico de cuentas. Entonces, ¿quién te puede ayudar a guiarte para obtener tus servicios y ayudarte? Entonces ahí hay un equipo para ustedes. Bien, el equipo directivo estará ahí. Bien. Así que aquí, en términos de soporte empresarial, página de acceso para el autoaprendizaje en línea. Por lo que hay una sesión de capacitación también como parte de este soporte empresarial, el paquete de 15,000 viene con sesiones de laboratorio y capacitaciones a su propio ritmo Y entonces vas a tener un equipo especializado, ya sabes, de apoyo para ti, ¿de acuerdo? Para que ese equipo de soporte te ayude hacia todas tus consultas y esas cosas. Y luego obtendrá una revisión consultiva y orientación basada en su aplicación y solución. Entonces aquí, contextual. Entonces aquí hay una revisión consultiva. Por lo que revisarán tu infraestructura. Te guiarán qué es lo mejor, qué servicios puedes hacer y cuánto puedes ahorrar dinero, todas esas cosas, ellos te pueden guiar. Obtendrá un gerente de TAM dedicado. Por lo que obtendrás un gestor técnico de cuentas solo para tu cuenta y esa persona se dedicará a tu cuenta. Entonces eso es algo. Así que en realidad les pagas por un enfoque mucho más agradable, ya sabes, hacia tu apoyo Así que en realidad te estarán dando entrenamiento. En realidad te estarán dando equipo de soporte, y también tendrán un gerente de cuenta técnico que se dedica, tendrás su número de celular en caso de cualquier tipo de problema. Entonces de igual manera, si quieres unirte a esto, puedes ir por apoyo. Soporte AW. Creo que no creo que ese sea el indicado. Um, sí, así que el plan de apoyo por aquí. Actualmente se encuentra en básico. Entonces, si apoyas planes, puedes verlo por aquí. El plan básico de soporte es no tener mucha característica ni muchas características, así que tienes los otros planes por aquí. El básico ni siquiera viene en esto, ¿de acuerdo? Entonces ya no ves básico. Tienes negocio desarrollador, negocio en rampa y empresa. Entonces todas esas cosas, lo que te dije está por aquí. Así que el desarrollador tiene más o menos dos, tres elementos por aquí, y luego excepto eso, todo lo demás es como principalmente la solución empresarial. Entonces aquí tienes la página de soporte. Entonces aquí es donde realmente estarás planteando casos con AWS. Pero como básico, así que tienes muy menos disponibilidad en hacia ti he elevado el límite del aumento de cuota por aquí, así que esa es la razón por la tengo dos tickets de soporte por aquí. Pero estos son como boletos generales normales que podemos abrir, ¿de acuerdo? Entonces eso es algo que podemos hacer. Bien, eso es todo lo que tengo que contarte sobre el soporte, para que veas que el plan básico de subo incluye todo incluido para todos los clientes de soporte de AD Entonces eso básicamente significa que puedes levantar boletos, pero luego obtendrás una respuesta cuando obtengas una respuesta, como 24 horas en su mayoría. Gracias de nuevo por su paciencia y tiempo. Te veré en el siguiente video. 4. Introducción a AWS Labs: Oigan, chicos, bienvenidos de nuevo al siguiente video. En esta sección, vamos a hablar de un nuevo, ya sabes, nuevo artículo llamado AWS. Ahora, voy a darte dos opciones por aquí para ti. Puedes usar Cloud based, qué estás viendo ahora mismo. Para este ejemplo, tomaremos AWS y crearemos tus instancias en AWS y haremos que estas instancias se ejecuten en la nube. Ahora bien, recuerde que esto le va a estar costando un poco más, lo que necesita para pagarlo en los servicios en la nube por AWS. Entonces eso es una cosa. Lo segundo es que te voy a dar una computadora portátil basada, ya sabes, la tuya propia construyendo tu propia misión de bosón usando artículos gratuitos Entonces esa también es otra opción. Pero recuerda que tu laptop necesita tener al menos 12 GB de memoria para empezar. Ocho GB, sí, se puede hacer con eso, pero aún así le cuesta un poco. Por lo que siempre se recomienda 12 GB. Pero no tienes esa configuración, y tienes algo de dinero de sobra. Al igual que, por ejemplo, puedes ahorrar 50 y cien dólares en base a, ya sabes, tu uso, ¿verdad? Entonces en realidad puedes ir por E W. Así que te estaré diciendo lo caro que va a ser más tarde en el punto del tiempo, pero está por ahí, ya sabes, vamos a tratar de que sea un mínimo Intentaremos hacerlo por debajo de los $50 como gasto para ti. Entonces haremos el cálculo del precio más adelante, y depende los requisitos que vas a tener. Uh, recuerde que hay tres formas diferentes de usar el servicio AWS uberni Puedes optar por una gestionada o no gestionada, pero esta formación quiere que estés enfocada en gestionada Um, quiero decir, no en gestionado. Quiero que sea como, ya sabes, necesitas configurar todo. Entonces deberías optar por algo así como un artículo autogestionado. Entonces lo que significa que necesitas administrar las instancias tú mismo. Entonces estaremos creando EC dos instancias. lugar de las instancias administradas, como en, como, administradas en el sentido de que propia AWS administra la instancia, lo que significa que puede optar por ECS o EKS en ese escenario Pero para este propósito de capacitación, vas a ir por infraestructura autogestionada usando EC two instance para que realmente puedas aprender sobre las operaciones de uberniti Entonces no se trata sólo de Kubernetes, estaremos trabajando en Entonces nuestro entrenamiento será, quiero decir, comenzando desde Docker, así que partiremos desde Docker desde aquí y luego poco a poco construyendo para Así que recuerda que este entrenamiento estará comenzando desde Docker Y así es como puedes construir fácilmente el servidor para Docker y luego hacer todas tus manos y luego agregar otro servidor y luego hacer esta parte de Kubernetes Para que puedas dividir esta sesión en dos sesiones, primero, pocos videos para configurar tu maestro básico, que puedes usar tu instalación de Docker y demás. Y luego más adelante punto del tiempo, puedes agregar otra instancia de EC two, y luego puedes integrar la nota de trabajador para tus uberts o nota de trabajador para tu pantano Doc Entonces ambas integración es posible, establecido punto de tiempo. Entonces te haré saber que, ya sabes, en los videos en sí, que puedes iniciar el programa Docu ahora mismo, y luego puedes iniciar el programa uberts, que puedas regresar y volver a visitar esto y luego tomarlo para uber itis Pero si voy a dividir esto, tengo que crear dos sesiones distintas, así que no quiero hacer eso porque solo crea más confusión. Así que recuerda que esto es add on, así que esto no está diseñado originalmente, pero luego luego voy a agregar esto encima de un programa existente, que ya se está ejecutando con, sabes, tu laptop o servidor gratuito porque mucha gente está solicitando servicios en AWS. Entonces solo estoy tratando de agregar esto encima del programa existente. Recuerda que esto es AWS viene con una llanta gratis, pero es un poco inútil para, ya sabes, para nuestra sesión. Ahora, déjame explicarte por qué la llanta gratis viene con, como, algunas cosas utilizables gratis, que están disponibles por 12 meses gratis. Entonces debes estar emocionado de hacer esto. Pero el sonido 50 horas, que son 12 meses, en realidad. Se da solo para dos de los EC dos, um, ya sabes, máquinas o cómputos, que es tu T dos micro y T tres micro. Así que recuerda que los Gubernats viene con una recomendación predeterminada de que necesitas tener dos CPU y dos GB de ram por nodo con un espacio libre en disco de 20 GB Entonces diskpace no es gran cosa en este momento, pero pero los dos CP y dos GB es un problema para nosotros porque cuando miras el sonido horas libres gratis, verás cuando entres dentro de los precios y etiquetas de AWS y tipo instantáneo, verás que T three Micro viene con dos CPU virtuales y un GB de RAM Y si vas T dos microseri, viene con uno. Mostraremos CPU y un GB de RAM. Entonces, ¿cuál es una especie de pepinillo, no? Entonces, en realidad no puedes ir con nada de esto. Entonces yo recomendaría un medio T dos, que tiene cuatro GB de RAM y dos CPUs Eso se ajusta perfectamente a nuestro requisito. Pero recuerde que el crédito de CPU, ya sabe, por hora es de 34. Es muy bajo, así que no es como realmente alto porque encaja perfectamente en nuestra factura T dos medianos. También estoy buscando otras opciones como tres t tres medianas, así que mira si se ajusta a nuestra factura, pero es casi lo mismo en cuanto a los precios sabios porque tiene la misma configuración similar, excepción de la diferente arquitectura de CPU. Así que solo me quedaré con T dos porque se usa más o menos en muchas situaciones porque tiene una CPU mucho más amplia y es, como, un costo muy bajo en términos del comienzo un nivel de tu cómpusculo como, un costo muy bajo en términos del comienzo un nivel de tu Por lo que va a tener un costo mucho menor cuando lo ejecutes por un periodo de tiempo más largo. Entonces esto es lo que estoy recomendando aquí, lo que vamos a hacer como parte de la capacitación En primer lugar, crearemos dos micro Docker machine como host master para Docker, y posteriormente la convertiremos a Kubernetes master, y luego crearemos un medio AOT two como host master para Docker, y posteriormente la convertiremos a Kubernetes master, y luego crearemos un medio AOT two para el nodo worker. Bien. Entonces esto es completamente comenzaremos con el Docker, y luego iremos a Kubernetes Entonces es más o menos lo que quiero cubrir en este video. Y el siguiente video es en adelante. Como, voy a cubrir la creación de tus cuentas gratuitas. Entonces te voy a decir lo que realmente necesitas hacer para crear una cuenta gratuita, y tú, seguro, necesitas una tarjeta de crédito, así que tenla a mano antes de que vayas a crear una cuenta gratuita. Me puedes preguntar, Oh, es una cuenta gratuita. ¿Por qué necesito una tarjeta de crédito? Sí, así es como funciona. Entonces, aunque diga cuenta gratuita, eso no significa que serás no estarás pagando nada al momento de crear esta cuenta o usar esta cuenta, sino que solo quieren ejecutar una verificación de crédito, no una verificación de crédito, pero luego quieren, ya sabes, verificar si tienes una tarjeta de crédito válida haciendo una transacción de prueba. Y una vez que hacen la transacción y prueban tu tarjeta de crédito y tu verificación, también necesitas verificar tu identificación, tu identificación pública, como una licencia o cualquier tipo de identificación emitida por el gobierno . Es necesario verificar eso. Entonces, una vez que hayas hecho toda la verificación, entonces podrás otorgar acceso y luego poder hacer todos estos otros servicios como crear todas las instancias y cosas así. Sí, por instancia gratuita, también, todavía tienes que hacer la misma verificación antes seguir adelante y hacer todas esas cosas. En el siguiente video, veremos crear una cuenta gratuita, y después de eso, estaremos explorando la configuración predeterminada. Las primeras cosas que debes hacer como la configuración de facturación porque no queremos perdernos ninguna alerta de facturación correctamente. No queremos facturar nada. Entonces queremos hacer la configuración de alertas de facturación. Y luego vamos a seguir adelante y a uh una autenticación de terceros hasta el punto para que no pierdas el acceso a tu cuenta. Entonces haremos, ya sabes, autorización de Google Authenticator también Entonces solo para asegurar tu cuenta, mucho más con terceros, ya sabes, autenticación. Y luego estaremos trabajando con instancia ECT, creando instancia, y luego estaremos instalando softwares que requerimos Y luego iremos aprendiendo que algunas cosas que tenemos que hacer para los kubaits también Gracias de nuevo por su paciencia y tiempo. Te veré en el siguiente video. 5. Labs antes de la creación de la cuenta gratuita: Oigan, chicos, bienvenidos de nuevo al siguiente video. Ahora, en este video, vamos a ver AWS gratis. Entonces en el siguiente video, vamos a hacer la creación de cuenta gratis, pero luego vamos a entender sobre la instancia gratuita y la cuenta gratuita y las operaciones que puedes hacer después de obtener esta cuenta gratis, es lo que vamos a ver en este video. Ahora, solo estoy buscando en Google para AWS gratis. Entonces esto me va a conseguir algunos enlaces hacia AWS, lo que te da el neumático libre. Ahora bien, ¿qué es una llanta libre? El neumático libre es un producto de evaluación, por lo que tiene un tiempo uh, límite de tiempo de lo que puede hacer y cuántos productos realmente puede usarlo forma gratuita en esas líneas de tiempo Entonces, si quieres saber, como, ya sabes, cuáles son los detalles realmente puedes hacer clic en esto y realmente puedes abrir eso, y puedes entender qué es realmente gratis cuando abres una cuenta o creas una cuenta con AWS. Ahora, puedes ver que esta es tu llanta libre de AWS. Llamamos a ese concepto como neumático libre. Aquí es donde obtiene su experiencia práctica en productos y servicios de AWS. Es como una demostración que te dan para que puedas entender y trabajar con AWS antes de que realmente compres alguno de los productos o uses alguno de sus productos. Esa es la razón principal. Obtenga más información sobre las llantas libres de AWS. De hecho, puedes mirar esto ahora mismo. No todo, todos los servicios que hay en AWS son gratuitos. Recuerda que son las pruebas gratuitas, hay los 12 meses gratis y siempre hay artículos gratis infinitamente Estas son tres cosas diferentes que debes saber antes de proceder realmente. No vamos a ver a detalle de estas tres cosas. No va a ser algo que se va a pedir en tu examen. Pero es bueno que si conoces de ellos. Pero si conoces la visión general, eso te va a ser muy útil. Puedes hacer clic en cada uno de este artículo, realidad puedes ver cuáles son las pruebas gratuitas, qué son 12 meses gratis y esas cosas. Pero cuando bajes un poco, así obtienes una visión general de todo. Para que puedas ver los artículos que son, ya sabes, neumáticos mecanografiados por aquí Así que el artículo destacado, 12 meses gratis, prueba siempre gratis. Así que en realidad puedes seleccionar eso y puedes verlo fácilmente. Cuáles son las cosas, que en realidad es a base de juicio. En base a prueba, te dará una buena cantidad de tiempo para que pruebes ese producto. Y aquí, Sagemaker es por dos meses gratis. Pero aquí hay restricciones, que está escrito en letra pequeña por aquí que necesitas estar en ese tipo de instancia ya sabes, tipo de instancia. Entonces tipo de instancia, hablaremos de ello más adelante. Pero es una especie de restricción a algo que le dan a prueba o gratis. Entonces ves 12 meses gratis, tienes EC dos instancias, tienes almacenamiento, tienes base de datos relacional RDS, como la base de datos tradicional como McQLPostGrace SQL, tienes la Maria Abrir búsqueda, puerta de enlace APA. De igual manera, tienes productos por aquí, que es el cual tiene un límite de tiempo de 12 meses aproximadamente 50 horas. Tienes dos restricciones por aquí, ya sea 50 horas al mes o van a ser 12 meses. Del mismo modo, tienes esas dos opciones por aquí las cuales puedes seleccionar realmente. Ahora que eres consciente de que qué productos son en realidad t meses de prueba. Entonces hay algo siempre gratis. Así que siempre gratis es donde aquí, puedes usar 25 GB de DynamoDB, almacenamiento, y aquí tienes 1 millón de transacciones para tu Entonces estos son algo que siempre es gratis, y no viene con límite de tiempo. Bien. Entonces cuando dicen siempre gratis, significa que no significa que va a ser gratis para, gratis para cualquiera que sea el uso que vayas a ser, pero no tiene límite de tiempo. Entonces después de un año también, puedo usar estos 25 GB de un dínamo DV gratis, um, ya sabes, almacenamiento, así como, como, 1 millón Siempre que quiera usarlo, como un año, dos años, no importa. Pero cuando empiece con 1 millón será como gratis para mí. ¿Bien? Entonces igualmente, pero esta congelación de 12 meses básicamente te dice que te restringe que va a ser gratis durante el primer mes desde que te has inscrito para tu cuenta de AWS Entonces la línea de tiempo comienza por aquí. Juicio, de nuevo, sobre la misma base, va a ser así. Entonces, cuando esta oferta está ahí, hay que usarla. La prueba gratuita es básicamente de dos meses de prueba gratuita, pero luego se aplican restricciones. Lo mismo va para EC dos instancias también. Entonces no significa que puedas crear cualquier tipo de instancia cuando creas EC two. Se monta a estas instancias, como se puede ver por aquí Así mismo, tienes el sonido 50 horas al mes en Linux. Por lo que también hay restricciones sobre su sistema operativo, y luego T dos Micro o T dos Micro. Estos son los dos tipos de instancias que puedes usar. Por lo que alguna agencia que lance es modo ilimitado puede incurrir en cargos adicionales Así mismo, por lo que no puedes usar el modo ilimitado por aquí cuando intentas lanzarlo. Entonces hay algunas restricciones que debes seguir. Y voy a agarrarte en todo este proceso, asegurándome de que no te están cobrando por nada de esto ¿Bien? Entonces eso va a ser algo que voy a hacer. Incluso si te están cobrando, te voy a decir cómo restringirte, y cuando te van a cobrar, puedes tener literalmente cuidado al trabajar con él. Entonces te voy a dar algunas instrucciones para eso. Pero de todos modos espacio, gracias nuevo por su tiempo y paciencia. Entonces, pasemos al siguiente video y creemos la cuenta gratuita. 6. Labs Creación de cuentas gratuitas de AWS: Oigan, chicos, aquí vamos a crear una cuenta gratuita. Así que la mayoría de los artículos deben ser llenados por usted porque no quiero dar mi información real aquí. Entonces te recomendaría que lo llenaras la mayoría de los artículos de aquí. Este video es muy corto. Entonces, en primer lugar, cuando haces clic en crear una cuenta gratuita, entonces vas a obtener esta ventana emergente por aquí diciéndote que te registres con AWS, puedas escribir tu dirección de correo electrónico que vas a usar para esta cuenta. Recuerda a esto se le llama como una dirección de correo electrónico raíz, que se utiliza para la recuperación en caso de que algún tipo de, ya sabes, te olvides de tu ya sabes, te olvides de tu contraseña o algo por el estilo. Y esta también es cuenta administrativa, lo que significa que obtendrá 100 por ciento de acceso a la consola de AWS. Entonces lo que significa esa modificación de tu nombre, tu dirección de correo electrónico principal, tu contraseña, tu información de seguridad, tu acceso a la mensajería instantánea. Entonces todo esto está muy disponible solo para la dirección de correo electrónico raíz. Y esos están disponibles solo para esta dirección de correo electrónico. Recuerda dar una dirección de correo electrónico adecuada donde estés, como, tener un control completo sobre ella. Entonces para mí, voy a dar más allá Cloud AI one@gmail.com porque Cloud AI ya está ahí. Entonces gmail.com, y luego voy a dar nombre de cuenta aquí más allá de Cloud AI uno Ahora bien, esto me va a enviar un correo electrónico, y va a verificar mi dirección de correo electrónico, entonces solo necesito dar el, ya sabes, el código de verificación aquí, cualquiera que sea el código de verificación, que tengo de mi correo electrónico, así que solo estoy verificando mi correo ahora mismo para el código de verificación, y lo tengo. Entonces voy a copiar página este número de verificación, es un número de verificación por una vez. Entonces vas a escribir una contraseña por aquí, así que esta va a ser tu contraseña para esta cuenta. Entonces solo voy a dar una contraseña aleatoria aquí, que no voy a decirte qué es, claro. Entonces solo estoy escribiendo la contraseña. Entonces sí, tengo una contraseña grande. Entonces no coincide, en realidad. Así que déjame hacer una pausa en la pantalla. Bien, ingresó la contraseña aquí, simplemente haga clic en siguiente. Ahora, aquí necesitas seleccionar qué tipo de, qué tipo de, ya sabes, uso estás planeando hacer con AWS, como un proyecto personal, sí, porque esto es para el aprendizaje y el desarrollo. Entonces aquí tienes el nombre completo, que está más allá de Cloud AI. Entonces aquí necesitas dar cualquier tipo de número de tu número de teléfono o cualquier tipo de dirección. Entonces te recomendaría dar donde vives actualmente. Entonces si te encuentras en solo digamos que estoy en Reino Unido, y mi número es así que este es mi número, digamos, digamos, por ejemplo, seleccionar de nuevo la región, como Reino Unido y luego dada la línea por aquí, testtest test test Así que solo doy número aleatorio por aquí y hago clic en el siguiente paso. Entonces ahora, esto te va a permitir al número de teléfono no debería saber que no es cartas válidas. Entonces en otro cero por aquí. Sí. Así que vamos a darle un siguiente paso por aquí. Y aquí es donde necesitas dar los de tu tarjeta de crédito. Ahora este detalle de tarjeta de crédito debe ser dado por usted y debe ingresar el detalle de la tarjeta de crédito. Entonces, una vez que hayas hecho este paso, entonces irá a la página web de tu banco. Si hay autenticación que necesita hacerse desde el sitio web de su banco, debe completar la autenticación desde el sitio web del banco. Después de este paso, te estará pidiendo um, te estará pidiendo que te valides, lo que significa que necesitas proporcionar tu nombre real, y necesitas dar una identificación, um, quiero decir, tu licencia de conducir o cédula de votante, algunos países, algunos países tiene esto, um, ya sabes, um, números de impuestos o tarjetas de impuestos, algo así. Entonces necesitas dar esos detalles y luego verificarte. Y una vez hecho eso, recibirás una notificación por correo electrónico diciendo que tu cuenta se ha verificado correctamente. inmediato, lo conseguirás, y luego podrás empezar a hacer o ir a la siguiente pantalla y la siguiente pantalla te llevaría a la consola. Entonces irá a console.aws.com. Entonces así es como se procesa la creación de cuentas. Trato de mostrarte todo lo que puedo. Pero más allá de esto está fuera de mis límites porque ya tengo otra cuenta, así que eso es algo que voy a usar. Yo sí lleno toda la información, pero nada importante en este momento, solo que tu confirmación de crédito y para verificarte como persona o persona. Por lo que puede haber alguna pregunta preguntándote si eres un individuo o una empresa, asegúrate de seleccionar la opción correcta. Si estás aquí solo con fines de aprendizaje, entonces puedes seleccionar individuo porque estás aquí solo para entrenar y, ya sabes, entender propósito. Para que puedas seleccionar como individual, y es para uso personal. Uh, entonces, de igual manera, puedes seleccionarlo y luego verificarlo y luego pasar al siguiente video, que será continuar desde la página de la consola. Gracias de nuevo por ver este video. Te veré en la siguiente. 7. Laboratorios de MFA y presupuesto de AWS: Oigan, chicos. Así que ahora que has creado tu cuenta, y digamos que has desconectado ahora mismo. Por lo que ahora se le darán dos variedades diferentes de acceso. Como, por ejemplo, verás que cuando vas a Google y Type y, como, como, por ejemplo, que estoy usando Bing solo estoy diciendo que la consola inicia sesión en AWS y luego simplemente básicamente me lleva a este sitio web donde dice, crea una cuenta gratuita. Ahora, en lugar de crear una cuenta gratuita, basta con hacer clic en iniciar sesión. Hay dos formas diferentes de iniciar sesión en tu cuenta. Uno es básicamente obtenerlo así donde Google console aws.com O en realidad puedes tener tu propio enlace a aws.com, que te diré en un rato Entonces esa es la segunda forma con tu ID de cuenta. Entonces es algo llamado ID de cuenta, que se crea por defecto, para que puedas usar el ID de cuenta dos, lugar de iniciar sesión en tu correo electrónico raíz, puedes iniciar sesión directamente con el ID de cuenta, y ahí puedes dar el nombre de tu cuenta. Si recuerdas, al crear la cuenta gratuita, pidió el nombre de la cuenta, ¿verdad? Así que le he dado a Beyond Cloud uno porque Beyond Cloud ya existe. Así que puedes usar eso y también puedes iniciar sesión. Entonces ese es un método diferente de registro. Ahora bien, ¿qué método estamos iniciando sesión? Estamos iniciando sesión usando usuario root. Ahora, hay dos usuarios en los que puedes iniciar sesión, ¿verdad? Entonces uno es un usuario root, otro es usuario de IAM La mensajería instantánea no es más que la administración de identidad y acceso, que es parte integral de su servicio de AWS. Ahora, IAM le permite agregar varios usuarios a su cuenta de AWS para que pueda otorgarles diferentes privilegios Digamos, por ejemplo, que soy dueño de una empresa y tengo pocos empleados míos que en realidad están trabajando en la administración en los sitios web o aplicación que está alojada en WS. Así puedo crear inicios de sesión individuales para estos chicos y darles acceso limitado a lo que pueden hacer en términos de privilegios de IAM allá Así que cada vez que hagan alguna actividad, podrán realizar ciertas actividades que les han permitido hacerlo porque IM me permite controlar los permisos de molienda fina hacia lo que realmente pueden lograr usando AWS Entonces ahora mismo, voy a usar Root User ya que ese es el único usuario disponible en este momento porque acabamos de crear la cuenta en este momento, y luego vamos a iniciar sesión en nuestra consola de AWS. Te das seleccionar el usuario root, y luego tecleas el nombre del usuario root, va a ser tu propio cloudai@gmail.com. Entonces este es mi sitio web. No intentes iniciar sesión en este. Usa tu propia dirección de correo electrónico e inicia sesión en la tuya, y luego aquí tienes que escribir una contraseña. Voy a copiar y pegar la contraseña aquí. Yo solo estoy copiándolo pegándolo por aquí y golpeando el letrero y el botón Ahora, nunca digas por este sitio. Perfecto. No creo en guardar la contraseña en el navegador o en Chrome porque siempre se expone, no ahora y luego después. Así que ahora puedes ver que esta es más o menos mi consola por aquí. He visitado dos aplicaciones por aquí, que es parte de sus servicios de AWS, facturación y administración de costos Im. Entonces, en el lado derecho, verá la información de la cuenta por aquí, por lo que tendrá su ID de cuenta única. Ahora así es como puedes crear tu propio sitio web. Entonces te lo contaré en poco tiempo. Pero recuerden que hay alguna, ya sabes, información privada que es como dar por aquí cuando entras en las cuentas. Así que ten cuidado cuando estés compartiendo tu pantalla e ingresando a tus cuentas. Tampoco voy a tener mucho cuidado al compartir mi pantalla mientras voy a entrar en la cuenta. Así que puedes esperar que este video se detenga varias veces si hay algún tipo de exposición de mis datos privados Ahora, lo primero que vas a hacer es, como, habilitar la autenticación de dos factores o habilitar una autenticación de terceros por aquí. Entonces voy a ir a IAM por aquí. Simplemente escriba IM, identidad y administración de acceso. Entonces, bajo administración de identidad y acceso, tiene un dashboard que te dice lo que falta como parte de tu, ya sabes, cuenta en cuanto a seguridad sabia? Entonces esta es una recomendación de seguridad. Ahora, ha encontrado un problema crítico por aquí, por lo que no está habilitado la autenticación multifactor MFA Por lo que puede utilizar un tercero para integrar su autenticación con. Entonces, en lugar de solo usar M y contraseña, también tendrá información de autenticación. Ahora bien, ¿de qué otra manera puedes acceder a tu consola? Como te dije, hay otra forma de acceder a tu consola directamente, derecho, mediante el uso de esta identificación única. También puedes crear un RS, del que hablaré más tarde. Pero esta es la URL de la que estaba hablando. Entonces, usando esta URL, realmente no tienes que dar el nombre de raíz. Entonces, si estás usando esta URN en un navegador diferente, se acercará. Déjame abrir una ventana privada aquí y luego buscar este URO, ¿verdad? Y puedes ver que entres con tu número de confianza, y entonces todo lo que tienes que hacer es como más allá Cloud por aquí como el nombre de IAM y luego la contraseña Ahora, si también has creado otros usuarios, que es parte de tu IAM, puedes ingresar directamente esos nombres de usuario y contraseña e iniciar sesión Así que realmente no tienes que dar ningún tipo de dirección de correo electrónico raíz en ningún lado porque tu ID de cuenta actuará como una dirección de correo electrónico raíz, ¿de acuerdo? que no tengas que exponer tu dirección de correo electrónico raíz a nadie también, que puedas mantener tu dirección de correo raíz, de manera muy segura. ¿Bien? Entonces esa es la razón principal por la que se crea un ID de cuenta en lugar de una dirección de correo electrónico raíz. Para que cualquiera pueda acceder a tu cuenta sin acceder a tu dirección de correo electrónico raíz. Bien, entonces ahora esa es una razón para que tengas esta URN, y puedes hacer circular esta URL a todos tus amigos, lo siento, tus compañeros de trabajo que necesitan acceso a AWS Ahora, entrenando un MFA, así para el usuario root, por lo que es hacer clic en agregar MFA Entonces ahora te va a redirigir a la página de MFA, y va a verse como un usuario root MFA. Entonces eso básicamente es decir que este es tu usuario root MFA Y aquí tienes múltiples opciones. Voy a seleccionar la aplicación de autenticación, y no la he configurado hasta ahora, así que solo voy a hacer eso ahora mismo. Entonces instala esto en la computadora compactable. Voy a pausar este programa un código QR, y luego solo voy a verificar mi cuenta, y luego voy a deshacer esto una vez que esto se complete Entonces para esto muy sencillo, abre tu app Google Authenticator en tu teléfono. Haga clic en esto. Te mostraré un código, escanearé ese código y necesitarás ingresar el código desde tu aplicación virtual. Esa es tu Google Authenticator primera vez y luego después de 30 segundos, una vez más con el siguiente código Y luego haga clic en Agregar MFA. Una vez que hayas hecho eso, lo has configurado. Entonces déjame hacer una pausa en la pantalla, hacerla y mostrarte cómo se ve. Ahí vas. Entonces, una vez que haces clic en eso, y podrás ver que tu ID virtual se ha agregado por aquí, y los datos se agregan en. Entonces esto es bastante muy sencillo de acceder o agregar tu, ya sabes, MFA para el usuario. Entonces eso está terminado. Si solo voy por aquí y refresco esta página, la recomendación se ha vuelto verde ahora mismo. Pero siempre se recomienda crear un usuario y acceder a su AWS a través un usuario en lugar de la cuenta raíz. Entonces eso siempre se recomienda para hacer eso. Hablaremos de eso un poco más tarde. Pero a partir de ahora, lo que haremos es, como, tenemos que ir a la cuenta y configurar nuestros servicios de facturación. Ahora, bajo las cuentas, eres una de las características importantes, que básicamente son tus datos, que puedes ver ahora mismo, que definitivamente lo desenfocaré en la edición de post. Entonces sí, más o menos tus datos son algo que está bajo cuenta. En el lado izquierdo, tendrás, tendrás facturación y gestión de costos Déjame volver a la pantalla de inicio. Um, así que solo vamos a facturación y administración de costos por aquí. Entonces esto es más o menos lo que quería cubrir, en realidad. Accidentalmente hice clic en eso. Entonces ahora tienes la opción de crear tu propio testamento o presupuesto. Dentro de la opción de presupuesto, podrás ver cómo funciona. Entonces, básicamente, creas un presupuesto, y eso es lo que estás haciendo aquí. Y luego cuando suba el 85 por ciento de tu presupuesto, va a activar alerta, lo que significa que vas a recibir correo electrónico. Entonces necesitas asegurarte de monitorear tus correos electrónicos, y luego básicamente consigue, ya sabes, puedes ajustar cuál es exactamente el problema O bien, ya sabes, cancela esa solicitud, que en realidad está incumpliendo más de tu concepción Entonces eso es más o menos lo que queremos hacer. Así que vamos a seguir adelante y crear un presupuesto por aquí. Y entonces íbamos con la plantilla, que es el método simplificado de crear un presupuesto. Y entonces aquí está, como, un nuevo presupuesto que habla de presupuesto de gasto cero. Entonces no quieres gastar nada en AWS, así que quieres hacer todo el trabajo de llantas gratis. Pero el problema es que nuestra aplicación no hace cosas de llantas gratis. Por lo que vas a un presupuesto de costos mensuales. Entonces aquí, voy a dar un máximo de 20 dólares. Entonces lo que significa que vas a recibir un correo electrónico por si estás gastando más de 20 lo siento, 85 porcentaje de $20. Entonces aquí está lo que se mencionó. Se le notificará cuando realmente alcance el límite de gasto ha llegado al 85%. Ese es el primer escenario. Segundo escenario es que cuando realmente estás gastando alcanza el 100 por ciento. Entonces vas a recibir dos alertas, una al 85 y al 100 por ciento. También vas a recibir una alerta si pronosticas gasto, igual que los árabes están pronosticando que si vas en este rango, esta vez puedes llegar al 100 por ciento, entiende que estás en el camino de alcanzar el 100 por ciento, te va a enviar en Entonces estas son tres situaciones diferentes a las que te alertarán, pero el presupuesto nunca detendrá tus gastos Entonces, si pierdes tu correo electrónico, si pierdes reconfigurar tus asignaciones de gastos para tus artículos, no va a parar Bien, entonces puede ir más allá de ese porcentaje de lo asignado, pero el presupuesto básicamente, ya sabes, te avisará cuando algo así suceda, pero nunca pondrá un bloqueo tus gastos o no parará los servicios o algo así Solo te alertará en caso de cualquier tipo de artículos como ese. Bien, procediendo más adelante la línea, haga clic en el correo electrónico Entonces yo diría más allá de la nube uno atmail.com. Y luego si tengo direcciones de correo electrónico adicionales, siempre puedes dar comando, entonces puedes poner varias direcciones de correo electrónico. Luego haz clic en Crear presupuesto. Esto va a crear un presupuesto para ustedes chicos, y va a enviar correo electrónico si como que, como, viene a Son porcentaje de la utilización total. Ahora, para principiantes, puedes ponerlo desde presupuesto de $10 también. Entonces esto te será útil para que, ya sabes, te asegures de que controlas dónde vas y tus montos, dónde gastas fugas, para que yo pueda encontrar esos puntos débiles y luego arreglarlo. Más o menos lo que quiero cubrir en este video, hemos cubierto un par de elementos que permiten la autenticación de dos factores o la autenticación multifactor. Hemos integrado nuestra cuenta de AWS con Google, Google Authenticator Ahora bien, el segundo que has visto es que también hemos visto información de mi cuenta que no se espera que muestre, pero eso va a quedar borroso De todos modos, gracias. El siguiente que has visto es también sobre la facturación y la gestión de costos. Entonces eso es algo así como un presupuesto que hemos visto ahora mismo y que vamos a recibir una alerta por correo electrónico si, ya sabes, el presupuesto incumple nuestra expectativa Gracias de nuevo. En otro video interesante, veremos configurar un usuario en el siguiente video para que podamos acceder a AWS usando nuestros privilegios limitados en lugar de todos los privilegios que tenemos en este momento. Y publícalo eso, estaremos trabajando con, ya sabes, creando AC dos instancias y mirando el presupuesto, cómo va a ser al tener eso funcionando por, como las próximas 4 horas u 8 horas, cuanto costo va a venir por nosotros y estaremos listos para, ya sabes, tomar ese costo o tomar ese golpe? Entonces eso es algo que veremos en los próximos videos. Gracias de nuevo por ver esto. Te veré en la próxima boon. 8. Laboratorio sobre la revisión completa de los servicios incluidos en el Dominio 1: Oigan, chicos. Bienvenidos de nuevo al siguiente video. Aquí en este video, les voy a mostrar un poco de recorrido por todos esos servicios que discutimos. Por lo que hemos discutido sobre muchos servicios. Ahora, solo quería darte una sesión de laboratorio sobre el acceso a estos servicios, solo pasando por algunas de las, ya sabes, las cosas básicas sobre estos servicios y esas cosas. Entonces vamos a pasar por eso y vamos a averiguar o adivinar el pilar real del marco bien diseñado porque estos son servicios que es creo que recordarías mucho mejor si solo te muestro las fotos del mismo Esa es la razón por la que hago esto al final del video. En el anterior este video, hay una hoja de trampa que tiene toda mi carrera sobre todas esas teorías de lo que hablé contigo está por todas partes. También lo he mencionado con ejemplo, así que por favor haga uso de eso e intente prepararse para su examen. Ahora bien, recuerda dejar tus reseñas y todo porque eso hace que este curso sea diferente a otros porque estoy haciendo todo lo posible para asegurarme de que todos pasen por este programa, sesión de teoría así como la sesión de teoría así como la sesión práctica continuamente, y puedan ver los esfuerzos que voy a poner en más adelante. Entonces comencemos este video. Ahora se puede ver eso. Estos son los pilares y algunos de los servicios que lo he abierto porque mi Internet es un poco lento, así que ya lo he mantenido abierto para ustedes chicos. Estoy en el tablero ahora mismo, así que esta es tu consola, región de origen, guión de Estados Unidos East one Desde la propia URL, intenta leer información porque tu URL dice muchas cosas en realidad. Estoy en la región Norte y Virginia por aquí, la del Este de Estados Unidos. Ahora bien, esto es lo primero que quiero mostrarles es EC dos. Esto es más a menudo que usaríamos más tarde punto de tiempo. Aunque hemos administrado servicios, pero EC dos es, como, cuanto más frecuentemente usaremos más adelante punto de tiempo. Se puede ver el balanceador de carga por aquí, que es, de nuevo, una característica que hemos visto Entonces, si tuvieras que adivinarlo, el EC dos es la eficiencia del desempeño. Tenemos escalado automático, que es, nuevo, una característica por aquí, grupos de escalado automático por aquí. Ver balanceador de carga, que es parte de EC dos instancias. Ahora, puedo crear instancia. Puedo empezar a correr lanzando instancia. No voy a hacer eso ahora mismo, pero va a haber un entrenamiento especial para ti más adelante punto de tiempo. Los grupos de autoescalado le permiten crear más servicios escalándolos hacia arriba y hacia abajo en función de alguna trayectoria Entonces, algún tipo de valor de monitoreo daríamos y luego crearíamos algún grupo, y luego lo hermoso de AWS es que, ya sabes, cada característica que vas, cada servicio que vas, ves este tipo de información donde te da esta representación pictótica de lo que puedes lograr con esto Y esta única imagen puede decir mucho, en realidad. Cuenta una gran cantidad de historia por aquí. Entonces esta foto te dará una pista de qué se trata este servicio, ¿no? Entonces puedes ver ese tamaño mínimo, capacidad deseada, tamaño máximo, y esto básicamente está escalando según sea necesario. Entonces esta es una imagen perfecta. Tienes la función de balanceador de carga por aquí, y eso también es algo que vimos en esto Veamos dónde está el balanceador de carga aquí, tiene confiabilidad bajo eso, tiene equilibrador de carga De igual manera, tienes características como esa. Mint es un poco lento, alguien supongo que está descargando algo, así que esa es la razón por la que es un poco lento. Por favor, haga caso omiso de eso. Ahora bien, esto es RDA Este es un servicio gestionado por bases de datos. Puedo decir un clic, puedes crear una base de datos. Realmente no tienes que instalar un sistema operativo, no tienes que instalar el software. Uh, no hace falta configurar firewalls y, ya sabes, los ajustes y todo Simplemente haga clic en él y obtendrá una base de datos. Entonces esto es tan bueno, ¿no? Entonces por eso lo llamamos un sistema administrado por aquí para DS. Y luego tienes el DMS, que es tu servicio de migración de bases de datos por aquí que está migrando efectivamente tu base de datos Impromised a la base de datos en la nube en la nube Esta es la Ruta 53. Como puedes ver por aquí, puedes ingresar un nombre de dominio, y puedes transferir un dominio existente a la Ruta 53, y en realidad puedes registrar dominio. Entonces tienes que pagar alguna cantidad, y básicamente puedes tener tu dominio registrado. Aquí hay dos zonas alojadas, como pueden ver, porque estoy usando turno abierto antes. Entonces um, pero en realidad ha creado dos zonas donde es solo hoja abierta como puedes ver, usa la ruta 53. Entonces estoy pagando por esto hasta que quite estas cosas porque cuando tienes algún tipo de nombre de Dina o cualquier cosa administrada por AWS, vas a pagar por ello. Pero no es un precio enorme. Yo diría, para que pueda ver eso en mi derecho construido? Entonces tienes la clasificación por aquí. Y um no es mucho en términos de, uh, hacer esto. Sí. Se puede ver esa Ruta 53 $1. Entonces no es mucho, ya sabes, dinero. Tuve que pagar por ello. Este es el balance de carga. Actualmente, tengo saldo de carga para turno abierto, así que tú en eso. Aquí tienes el panel de mensajería instantánea por aquí. Esta es tu gestión de identidad y acceso. En la siguiente sección, estaremos tratando con seguridad y compilación Así que aquí estaremos de visita por aquí, y trabajaremos con la organización de AWS, Idntity Center y todas las demás opciones aquí en términos de administración de acceso Entonces pienso en el video de inicio cuando creaste la cuenta, te he dicho cómo usar MFA Para que veas que he habilitado MFA. MFA es muy, muy importante porque en estos días, todo está siendo pirateado Lo único que puede salvarte de hackear es en realidad darte un poco más de tiempo es MFA Entonces eso es muy útil. Y luego tienes KMS. También hemos discutido sobre esto, supongo en seguridad, supongo, sistema de gestión de claves KMS por aquí. Puedo ver por aquí, esta es una forma de crear claves y controlar el cifrado a través de AWS y más allá. Entonces, si estás usando claves en tu empresa con los certificados raíz y esas cosas, así aún puedes almacenarlo por aquí. Por eso digo más allá. Um lo que significa que es un servicio de claves totalmente administrado. Así que normalmente, um, uh, he usado, um, servicio clave previo a proyectos anteriores. Entonces hemos usado hay una empresa Tavat o algo así. Por lo que también tienen este servicio clave. Así que usamos su servicio, y en realidad hemos tenido su sistema como el sistema de administración de claves, es como un servidor. Lo hemos puesto en nuestro centro de datos um, y hemos trabajado en eso. También tengo experiencia trabajando el servicio de KMS. Pero, um, pero esto es mucho más fácil y realmente no es necesario tener la sobrecarga de mantener un servidor o comprar un servidor de cualquier tipo de proveedor. Um, sí, es Talus. Talus es el, ya sabes, el intermedio para esto, que en realidad contactamos a Talis, uh, para el servicio y Entonces ellos son los que hicieron eso. Um, perdón por eso. Me equivoqué el nombre. Um, entonces aquí tienes la administración centralizada de claves. Entonces este es básicamente tu HSM Cloud HSM de aquí, que básicamente contiene todas tus claves y registros y todo lo demás relacionado con tus certificados y cosas así. Así que solo puedes crear y realmente puedes trabajar en ello. Entonces el siguiente es el Servicio de Contenedores Elásticos y EKS, que es el servicio Elastic Cubont Container Service usa más o menos contenedores, y básicamente tiene, ya sabes, puedes crear clústeres en clúster. Esto es de nuevo, servicio gestionado. Y aquí tienes EKS, que de nuevo es, servicio gestionado, que utiliza cobonts por aquí Ahora puedes crear clústeres por aquí. Hablaremos de eso en sesión avanzada, pero es muy interesante. Como tengo turno abierto, tengo buenos conocimientos sobre turno abierto, así que tal vez esté creando una capacitación sobre eso exclusivamente. Tengo otras capacitaciones que están involucradas en turno abierto, pero luego sobre todo en middleware. Entonces así es como es. Um, por aquí, tengo la facturación y gestión de costos, así que solo me habla de la facturación. Tengo malas noticias este mes. Tengo que pagar mucha factura por aquí porque gracias al turno abierto, así que me acaba de crear muchas instancias. Y sí, sí dio una buena experiencia de, ya sabes, trabajar con él. Uh, porque terminé más capacitaciones en turno abierto usando otros productos um, ya sabes, medios Um, por aquí está la herramienta de arquitectura del pozo. Entonces esto es básicamente lo que aprendimos hasta ahora justo los pilares. Se puede ver que eso en sí mismo es un servicio. Ahora, se puede ver así como va a funcionar. Ahora, pones o identificas tu carga de trabajo para revisar. La herramienta de arquitectura de pozos de AWS tendrá en cuenta su excelencia operativa, su seguridad, confiabilidad, eficiencia de rendimiento , sostenibilidad de optimización de costos, y le dará un informe de ello. Entonces ese informe va a ser todo sobre los pilares de AWS, y va a mostrarte en qué tipo de carga de trabajo vas a estar involucrado. Entonces, ¿qué tipo de posiblemente cuánto serían tus ahorros? Todas esas cosas que va a estar mirando. Entonces tienes el panel de facturación aquí. Entonces esto es básicamente, ya sabes, cuánto porcentaje de computadora he usado y todos estos otros artículos, que está por aquí. Entonces me habla de la facturación completa, y ese es otro servicio por ahí, y tienes la calculadora de precios. Esta es una súper herramienta. Siempre uso esta herramienta antes de hacer algo en AWS porque esta herramienta se llama calculadora AWS, así que puedes acceder directamente a eso y venir a la calculadora de precios de AWS por aquí. Simplemente haga clic en la estimación. Básicamente da lo que quieres hacer. Aquí hay tantas sorpresas. No los voy a echar a perder. Pero cuando lleguemos a esta sesión, revisaremos estas cosas de la calculadora de precios antes de configurar EC two instance. Pero aquí hay muchas sorpresas. Aquí eliges la región, aquí eliges el nombre de la región, y aquí encuentras un servicio EC de dos instancias, Lambda o cualquier tipo de servicio que sea ofrecido por AWS. Entonces dices que quiero ver resumen, y luego básicamente te pide más detalles como ¿qué planeas hacer? ¿Cuántas horas planeas usar? Das toda esa información y te dice, um, dos costos por aquí. Costo inicial y costo mensual. Entonces, el costo inicial te dice, como, si pagas por adelantado, ¿cuánto descuento vas a Y esto va a ser un costo mensual, ¿de acuerdo? Entonces aquí, fue un costo total de 12 meses, bien, diciendo que, ya sabes, para los próximos dos meses, vas a estar pagando tanto. Entonces es una herramienta muy útil. Y definitivamente necesitas usar esta herramienta en caso de realizar cualquier tipo de actividad en AWS, realmente puedes entender lo que va a pasar en su, tu ciclo de facturación. El siguiente, que se quiere ver es la formación de nubes. hemos hablado bastante, y esto es parte de tus cosas de automatización. Entonces esta formación de nubes entra por aquí, excelencia operativa. Entonces esta herramienta en particular por aquí donde realmente puedes crear una plantilla de muestra y básicamente comenzar. Entonces lo que hace este día es como la automatización. Así que también tienes un video de YouTube de AWS, y de hecho puedes ver ese video y entender cómo crearlo. Pero no lo hagas ahora mismo. Ahora mismo, te enfocas en obtener tu certificación. Entonces hagámoslo. Vamos uno por uno, porque yo mismo haré un entrenamiento sobre formación de nubes. Y lo discutiremos entonces y allá porque podría estar un largo camino por delante y no queremos esa complicación en este momento. Pero eventualmente llegaremos ahí. Gracias de nuevo por ver este video. Espero que hayas entendido un poco de, ya sabes, manos a lo que hemos visto hasta ahora en el concepto Domain Cloud. Entonces estas son algunas de las cosas que vamos a revisar con mucho detalle más adelante punto de tiempo. Y algunos de estos van a ser como un cambio de juego para ustedes chicos Si eres nuevo en AWS, vas a estar como o esto es algo que debería haber sabido antes. Entonces esto es lo que sentí cuando me metí en AWS y estoy tan feliz de poder enseñarte eso. Gracias de nuevo por su paciencia y la. Y si tienes alguna duda, por favor déjala en la sección de preguntas. Yo principalmente respondo el fin de semana, así que haré todo lo posible para responderte lo antes posible. 9. Automatización de laboratorios (AWS CloudFormation): Chicos bienvenidos de nuevo desde el siguiente video. En este video, vamos a hablar sobre el beneficio de la automatización. En este video, vamos a ver algunas palabras de arquitectura, aprovisionamiento y, ya sabes, cosas de automatización. Bueno como vivir, vamos a ver algunas manos sobre trabajar con la formación de nubes. Ahora, no vamos a crear ninguna formación de nubes, pero luego sólo voy a contarte sobre el formato de la misma. La imagen aquí representa la función de automatización. Ahora bien, recuerda que es muy importante para la economía de la nube es que involucres menos de una actividad manual, más de automatización e innovación en tu proyecto. Ahora, para hacer para implementar la automatización en términos de formación de nubes, es necesario contar con las herramientas adecuadas para ello. Entonces, la primera herramienta que necesitas como servicio de AWS es que tienes algo llamado CloudFront, lo siento, formación en la nube Entonces ahora este servicio en particular te ayudaría a crear un servidor autónomo usando algo llamado formación en la nube. Ahora esto usa una plantilla. Ahora bien, si solo vas a la documentación de esto en la documentación de AWS bajo formación de nubes, puedes ver cómo funciona la formación de nubes. Aquí, tienes que crear o usar una plantilla existente. Hay plantillas de ejemplo disponibles en esta documentación en sí, y básicamente la guardas localmente o en S three bucket. Entonces localmente significa que creas un archivo en tu computadora portátil y luego lo subes a la formación de la nube. O puedes ponerlo en S tres, que es vinculante de costos. Entonces tienes que pagar algo por lo que subes en la S tres. Uh, entonces eso es algo que deberías tener en cuenta. Pero ahorrar localmente no incurrirá en ningún costo. Para que puedas guardar, ejemplo, este archivo JSON, realidad puedes guardarlo en tu escritorio y puedes subirlo cuando estés creando una formación de nube. Para que de esa manera no tengas que incurrir realmente en ningún costo en ese momento Ahora bien, lo que hará es, la formación de nubes utilizará la pila que has creado, y comenzará a construir la pila. Por lo que utilizará una plantilla que está en el formato de archivo JSON o formato de archivo Yama. Como puede ver, se prefieren estos dos formatos de archivo. Uh, cualquiera de los dos, puedes subirlo. Básicamente, reconoce si es un formato JSO o un formato Yamo y luego cargará esa pila en tu formación de nubes, y luego realmente te mostrará la progresión hacia la creación de la Ahora, um, bueno, así que también puedes hacer clic en Ver Primeros pasos. Entonces esto irá a la documentación, nuevamente, la misma página en la que estaba. Entonces esto tiene un video de YouTube para comenzar y luego cómo hacer una formación en la nube, registrarse en AWS y mejores prácticas y trabajar con plantillas y cosas así. Entonces eso es básicamente lo que quiero mostrarte. Y una formación de nubes te ayudará a crear pilas. Ahora bien, ¿qué es stack? Stack es básicamente un conjunto de elementos relacionados con el servicio y el servidor. Por ejemplo, uh, cuando uso el turno abierto para crear, servicio usando AWS, open shift no solo creará EC dos instancias, creará VPCs, creará banners de carga, crearé dirección IP elástica y la asignaré a mi servicio y el servicio está conectado a él que interfaces de red y cosas así La pila implica la construcción de todo el flujo de carga de trabajo, lo que me permitirá trabajar en un proyecto. Bien. Entonces eso es lo que es una pila. Entonces, cuando se crea dicha pila en la formación de la nube, se reduce el trabajo manual de las personas que van y vienen a cada servicio y hacen la creación manual de estas VPC, IPs elásticas y obteniendo todos esos balanceadores de carga creados en todas esas instancias EC dos alojadas Por lo que dentro de 30 a 40 minutos, creará toda la infraestructura y tendrá mi aplicación alojada. Y ese es un poder de formación de nubes. Ahora bien, puedes usar la formación de nubes en ese sentido o puedes usar la terraformación La terraformación es otra herramienta de terceros. Ahora ha sido comprada por IBM. E incluso se puede utilizar la formación de nubes o herramienta de terraformación Estas dos opciones están ahí fuera. Puede utilizar cualquiera de estas opciones para crear dicha infraestructura. Como estamos haciendo la certificación AW, la certificación AAA nos sigue estrictamente para trabajar en la formación de nubes en lugar de terraformación Entonces eso es más o menos lo que es automatización y cuál es el beneficio de misma y cómo incluso lograrlo. Yo también te he mostrado la arquitectura. Entonces eso resume bastante esta sesión en particular. Gracias de nuevo por ver este video. En el siguiente video, verás sobre los servicios gestionados. 10. Servicios de AWS gestionados en laboratorios (Amazon RDS, ECS, EKS, Dynamo DB): Ustedes, bienvenidos de nuevo al siguiente video. En este video, vamos a trabajar sobre este concepto en particular. Por lo tanto, identificar los servicios administrados, los servicios HW administrados, por ejemplo, Amazon RDS, Elastic Container Service, el servicio Elastic Gubernat y Dynamo TV Entonces veremos cada uno de estos servicios, cómo funciona realmente en términos de las manos en. En términos de arquitectura, solo quiero hacerte entender la diferencia entre un servicio autogestionado y un servicio gestionado. puedes llamarlo como un servicio parcialmente administrado o, ya sabes, un servicio no administrado en absoluto. En caso de que esté alojando una aplicación en su centro de datos usando una máquina Worsham, su administrador de Linux realmente crearía, primer lugar, su administrador de PMWare aprovisionaría una instancia de servidor y luego la instalación del sistema operativo la realizará el administrador de Linux Y luego una vez instalado el sistema operativo, los administradores de bases de datos Oracle instalarán el software Oracle en la encuesta una vez que el firewall de red esté completo completo, y luego insertará los y luego insertará la aplicación o los datos sus clientes en la base de datos. Y luego como administrador, podrás acceder a él, como el administrador de la base de datos. Y entonces las aplicaciones se conectarían a la base de datos e iniciarían esa transacción. Entonces así es como se vería un típico, um, ya sabes, servicio autogestionado. Vas por AWS EC dos instancias, hay dos elementos los cuales van a ser quitados de tus manos. Uno es la creación de la máquina virtual así como la instalación del sistema operativo. Estas dos cosas las hará EC dos. EC two te dará el tipo de instancia adecuado y el sistema operativo, y luego te dará un archivo clave y usando ese archivo clave, podrás acceder a él. Directamente, el administrador de Oracle realmente entrará e instalará el software Oracle y luego probará la licencia y cosas así. Y luego insertará los datos del cliente, y tendrá acceso a esa aplicación, y luego las aplicaciones de terceros se conectarían a la base de datos de Racal Entonces esto lo puedes llamar como un servicio autogestionado parcialmente porque parcialmente es administrado por ECT, bien, donde la creación del servidor, la ubicación del servidor, y la instalación del sistema operativo es todo hecho por el propio Amazon. ¿Bien? Ahora, hablamos de algo llamado servicios gestionados. Así que hay estos muchos servicios gestionados disponibles en AWS. ¿Bien? Así que de exhibido por aquí, pero hay una gran cantidad de servicios gestionados disponibles. su vez vamos a entender sobre el RDS en estos momentos, los servicios de bases de datos relacionales Entonces ahora, como tenemos la base de datos Oracle en negrita aquí. Entonces todo lo que tenemos que hacer es ir a RDS, decir que necesito una base de datos, S que necesito base de datos Oracle ¿Bien? Así que la base de datos Oracle viene con auto administrado traer su propia licencia. Entonces hay que administrar esa parte de licencia de la misma, para que, ya sabes, siempre sea contada por AWS al momento de la creación. Y todo lo que tienes que hacer es como, una vez que presionas el botón Crear, tendrás una base de datos Oracle que está lista. Todo lo que tienes que hacer es encontrar la manera de acceder a él, insertar los datos del cliente, usar el administrador para trabajar con él y tener las aplicaciones conectadas a esa base de datos Oracle. Qué fácil y sencillo es, ¿verdad? Entonces, desde la asignación del servidor, la creación del servidor, instalación del sistema operativo, la instalación del software se cuidarán todas esas cosas. Bien, en realidad no tienes que hacer ni preocuparte por eso. Tienes en el momento de, ya sabes, la creación de la base de datos Oracle, es posible que tengas que elegir en qué tipo de instancia quieres que se ejecute esta. Porque en base a la instancia, se le cobrará, y luego en base al software también, la licencia pero de ella se le cobrará de eso. Y lo que básicamente hará es que te dará la potencia de procesamiento y el componente de software viene preinstalado. Todo lo que tienes que hacer es comenzar a insertar los datos del cliente, y la aplicación debe ser redirigida a OraCof para trabajar con ella No hace falta configuraciones de firewall ni nada por el estilo porque ya viene con preconfigurado porque al momento de la instalación y a escondidas habrías dicho si es necesario acceder a esta desde la VPC existente o necesita crear una nueva VPC, o va a tener un acceso público, todas esas cosas, la verás ahora mismo . Entonces hagámoslo. Vamos a crear RDS. Bien. No voy a seguir completamente con ese proceso. Simplemente escriba RDS por aquí. Puedes ver ese servicio de base de datos de relación por aquí. Simplemente haga clic en eso. Siempre hago un tiro medio para que se abra en una nueva pestaña, y como pueden ver aquí, Uh, Aurora IO Optimized es una nueva configuración de almacenamiento en clúster que ofrece precios predecibles para todas las aplicaciones y mejor rendimiento de precios hasta un 40% de ahorro de costos. Entonces hay una nueva introducción a un nuevo servicio por aquí, y eso es básicamente habla de ello. Entonces aquí no tenemos ningún tipo de instancias de base de datos disponibles en este momento. Ahora puedes ver que más o menos esto es lo relacionado con tu base de datos, ¿de acuerdo? Por lo que ahora también puedes tomar snapshot de la base de datos. También puedes crear una instancia inversa para tu base de datos, y luego puedes crear un clúster de base de datos hasta 40. Ahora, vaya a la base de datos, y puede dar clic en Crear nueva base de datos. Ahora, puede crear un estándar create o EC create. Es crear es mucho más fácil. Te hará menos preguntas. La creación estándar es muy recomendable porque te hará algunas buenas preguntas, en realidad, que realmente se requiere para ti. Entonces puedes ir por MariaDB MSQO y luego también puedes ir por Oracle Pero hay ciertas bases de datos que requieren que traigas tu propia licencia. Por lo que puede ver que IBM DV dos dice que las licencias traen las suyas propias o a través del mercado de AWS. Entonces tienes que hacer click en esto si quieres saber cuáles son los cargos para que uses esta licencia DV dos. Eso se puede ver. Cuando vaya aquí, abrirá el mercado DV dos por aquí y realmente podrá comprender el costo del mismo. Entonces el costo es de 1.04 por, supongo, por unidad Perdón por eso. Entonces esta es una licencia dura. Sí, es 1.04. Por hora. Entonces eso va a ser en dos CPU virtuales por aquí en un BPC, que van a ser dos hilos Entonces, si vas a agregar más CPUs virtuales, tienes que pagar más, en realidad, así que porque también se basa en la licencia se basa en base horaria, pero luego se calcula en cualquiera que sea el número de PC que tengas por ahí Entonces, si van a ser cuatro VPC, va a ser 2.08, así va a Entonces aquí ese es el modelo de precios por aquí. También puedes leer alguna descripción sobre de qué se trata esto, qué versión se va a instalar como parte de esto y todas esas cosas, puedes verla. Entonces, por defecto, si vas a decir a través de marketplace y la facturación va a suceder y verás la facturación final por mes de utilización, costo mensual es de 884 USD. Esto incluye la instancia de dos bases de datos, el almacenamiento y el Iopsipposecon aprovisionado Entonces, de igual manera, tienes la opción de elegir algunos de estos artículos y luego deshabilitarlo, pero deberías ver esa provisión Iops por aquí Entonces, si realmente no quieren Iops aprovisionados por aquí, pueden ir para fines generales, SST, lo que, nuevamente, ahorrará una gran cantidad de dinero por aquí para ustedes SST, lo que, nuevamente, ahorrará una gran cantidad de dinero por aquí Pero de acuerdo a la recomendación, deberías tener Iops orientados al rendimiento lo que te dará un mayor rendimiento Otra cosa que verás aquí es el dimensionamiento, la configuración de la instancia, el tipo de instancia. Estas son instancias preconfiguradas precargadas. Lo siento, acabo de perder donde está. Bien, entonces estas son algunas de estas, así que solo tienes algunas instancias, que está configurada a medida para este tipo de configuración de base de datos. El nombre del apellido es SiXi, pero dice DB por aquí al inicio porque es una base de datos hecha a medida para tu RDS para hosting Y es apellido es seis y, y este es un grande. Bien. Entonces tienes ADX Large Tienes seis IDN, y puedes ver que viene con una red de 25,000 MVPs con almacenamiento instantáneo de 1.9 terabytes de Ahora, cuando seleccionas algo como esto, tu costo va a ser alto, literalmente va a alto $6,983 Entonces, igualmente, tienes Oracle Espo y ¿qué vas a conseguir al final del mismo Entonces esta es la única opción por aquí para que Oracle traiga su licencia anterior. ¿Y cuál es el resultado final de esto? Qué sucede cuando selecciono MSCR, y luego presiono un botón de crear Entonces esto es 11,386 USD. Al mes va a ser operaciones provisionales es de aproximadamente 900 y instancia de base de datos es de aproximadamente 10,000 porque he elegido la versión más alta de eso. Esa es la razón. Entonces aquí puedo elegir por algo que es de un tamaño más bajo, así que no me cobran tanto por ello. Entonces esto es 1,400 aún es alto. Es por obs provisionales. Entonces esto es algo que hay que resolver, y se trata de 496. Entonces yo No creo que podamos reducirlo más que eso. Al crear una instancia de base de datos, sin un clúster, en realidad tendremos esto reducido. Voy a ir a la prueba de Devon, DB single. Ahora bien, esto debería llevarnos a 176 dólares. Eso se puede ver. El precio se reduce porque no vamos por clustering, y eso ha reducido el costo al mínimo Entonces esta es la versión de mi SQR. Entonces ahora, lo que pasa es que en estas preguntas, bien, va a haber otra pregunta si vas a acceder a tu base de datos desde el acceso público. Normalmente, decimos que no, pero, ya sabes, en tus situaciones, podría ser como nosotros. Y y también se puede ver la VPC existente se usa por aquí así que la rabia IP pueden ser las existentes. También puede crear un host Bastian y luego acceder a este servidor en particular a través de un host Bastian también Entonces esa también es otra opción si has desactivado el acceso público como no. Entonces aquí en la opción de autenticación de base de datos, puede usar la autenticación de contraseña y la autenticación de la base de datos de IAM con contraseña, puede crear un usuario IAM para ello y también la autenticación de CBO Así mismo, tienes múltiples formas de autenticarte dentro de la base de datos Y luego aquí la actuación dentro te dará siete días de prueba gratis. Solo puedes decir eso si no quieres la actuación dentro, y luego puedes presionar el botón de crear. Entonces, ¿qué va a pasar cuando presione el botón Crear? Vas a tener una base de datos lista, y todo lo que puedes hacer es acceder a esa base de datos directamente y comenzar a trabajar con ella. No voy a hacer eso ahora mismo porque no estamos en la etapa. Haciendo todas esas cosas y tampoco tienes que hacerlo ahora mismo porque es todo costo incurriendo en artículos o parte de la prueba gratuita, por favor ten cuidado mientras haces el botón de crear porque eso va a incurrir en algunos cargos básicos, al menos por cargos por hora, va a entrar en acción Eso es más o menos lo que quiero mostrarles hacia el de RDS en términos de trabajar con RDS Tienes otros servicios ECS, que es servicio continuo Tienes EKS, que es el servicio Cubone T, y luego tienes NynoDB Dynamo Dib otra vez, esta no es una base de datos SQL, esta no es una base de datos SQL, así que eso también Entonces estas son algunas de las cosas que en realidad se nos pide que echemos un vistazo, ya sabes, en nuestro curso. Así que vamos a hacer una comprobación. Por lo tanto, el servicio de contenedores está utilizando el contenedor Docker para crear contenedores y alojar nuestras aplicaciones en el contenedor Bien, entonces creará una infraestructura de contenedor cuando cree el clúster. Entonces aquí especificas qué tipo de contenedor quieres que quieras servir un recipiente grande o fácil de contener. EC two significa que en realidad puedes seleccionar el tipo de instancia. Fargate es un contenedor erlex, que en realidad le da cero gastos de mantenimiento, y no tiene que preocuparse por cero instancias porque va a tener capacidad puntual de Fargate Entonces eso va a hacer eso. Cuando comparas los servicios de Kubernetes, así que aquí es donde tienes los elementos de Kubernetes por aquí para que puedas registrarte o Quiero decir, el cluster existente puede ser registrado en uh, el EKS. Y aquí le das la versión de Kubernts y luego aquí le das los demás detalles sobre la API de Kubernetes, y luego da clic en siguiente y luego está esta especificación de red puede figurar la observabilidad, y luego algunos complementos, luego puedes Entonces estas son diferentes formas de hacerlo. Pero de todos modos, veremos en detalle más adelante. Y aquí en cuanto al Dynamo DB, tenemos el Amazon Dynamo DB Esta es una base de datos NoSQL rápida y flexible, que es muy útil para escalar Así que para crear una tabla de creación muy simple y básicamente dar el nombre de la tabla, lo que quieras insertar como una tabla configuración predeterminada, así puedes hacer eso, y luego puedes crear una tabla. Entonces esta será una base de datos sin SQL, por lo que no es necesario ejecutar ningún tipo de base de datos um, MSC acal debajo de ella. Así también puedes exportar datos a S tres e importar datos de S tres también y formar parte de las tablas que estás creando como parte de Dynamo TV Muy bien, más o menos, eso es lo que queríamos cubrir en este video. Así que también hemos visto todos estos servicios. Um, gracias de nuevo por su paciencia y si tiene alguna duda, pregunta, secciones. No te preocupes porque no voy a adentrarme en ello porque no es necesario que profundice en los conceptos de la nube. Entonces vamos a entender los conceptos de Cloud, y esto es lo que estamos haciendo. Y de esto serían las preguntas que se trata. Te van a estar haciendo preguntas sobre Um, es DynamoDB, servicio gestionado o no servicio gestionado, algo así, va a ser Entonces hay que conocer algunos de estos nombres, algunos de los conceptos aquí para que pueda responder a esas preguntas de manera apropiada. Gracias de nuevo por su paciencia y tiempo. Te veré en la siguiente. 11. Labs Redimensionamiento del tipo de instancia: Es bienvenido de nuevo al siguiente video. En este video, vamos a hablar de dimensionamiento correcto. Es uno de los temas de aquí, que se requiere para su certificación llamado entender el concepto de tamaño de escritura. Cuando miras este video, tengo la imagen creada para el tamaño correcto. Esta imagen implica que hay que tener el tamaño adecuado para el ambiente adecuado. Por ejemplo, si se está ejecutando en un tipo de instancia incorrecto para una aplicación que requiere más o menos, o gasta de más en la infraestructura o gasta menos en la Entender el tamaño adecuado para ti va a ser una clave. Como administrador de AWS, ¿cuáles son las indicaciones clave y cuál es el tipo de instancia y cómo se puede determinar? Todas esas cosas es lo que vamos a ver en este video. En cuanto a cómo determinar, hay que ejecutar algo llamado prueba de carga y esa prueba de carga determinará si esta instancia es la adecuada para usted. Pero entonces, ¿cuáles son los tipos de instancias disponibles? Y ¿cómo puedes entender el tipo de instancia? Porque cuando vas por aquí, vas a EC dos instancias, lo primero que vas a ver es que el nombre y la etiqueta segunda cosa es el sistema operativo. Ahora, aquí, la aplicación del sistema operativo, tú decides el sistema operativo, y eso es algo que has visto en el video anterior. Ahora, el tercer paso va a ser sobre tu tipo de instancia. Ahora, el tipo instantáneo es tan crítico e importante porque puedes gastar menos o sobregastar en este nivel Aquí es donde realmente tienes que tomar una decisión crítica sobre tamaño de tu infraestructura o tu sistema de donde se va a ejecutar tu aplicación. Entonces, antes de decidir esto, tienes que tomar una entrada de tu ingeniero de aplicaciones que tiene, ya sabes, diseñado la aplicación, quién sabe sobre la aplicación, quién ha trabajado en la aplicación, y sabe sobre los uh, ya sabes, cuáles son los requisitos de CPU, cuáles son los requisitos de RAM, si requiere una GPU en ella. Entonces de igual manera, es necesario entender un poco desde el punto de vista de la aplicación para ver si eso se ajusta a la factura Ahora bien, para decidir sobre esto, hay que elegir entre mucha familia de tipos de instancias. Se puede ver que hay algunos, que es seguir pasando por aquí. Perdón por eso. Entonces hay algo que está bloqueado, que es algo que no está habilitado para ti. Hay una razón para ello. Y hay algunos artículos que son tan caros que el precio base de Linux en sí es de 407 USD por hora. Entonces son solo 40 $7 por hora. Um hay los más baratos donde lo consigues 40.52. 0.0 081 USD por hora. Hay algo que también está disponible para prueba gratuita. Entonces um, estas son algunas de las clasificaciones en términos de, ya sabes, lo que está disponible para ti en términos de trabajar con, uh, tu tipo de instancia, lo cual es muy importante en este momento Entonces tienes las generaciones, tienes a las generaciones actuales una también. Entonces esto es todo de la generación actual. Así que puedes ver una lista de muchos tipos de servicio uh disponibles aquí. Toda generación te va a dar más de este tipo de instancia, que incluye también a la vieja generación. La generación actual cae. Entonces, ¿qué son estos? ¿Cómo se utilizan estos? ¿Por qué algunos de ellos están bloqueados? Es lo que vamos a entender en este video, ahora, no vamos a profundizar en esto, pero, ya sabes, algo así como una arquitectura que he diseñado para ustedes chicos les ayudará. Ahora, instancia escriba nombre de instancia como en, digamos, por ejemplo, un micro lo siento, T dos Micro combina dos elementos por aquí. Entonces incluye T dos, que es familia de instancias y micro, que es este tamaño de instancia. Entonces esta es una combinación de dos cosas. Bien. Así que vamos a entender sobre el tamaño porque el tamaño es el camino más fácil que es ancho está en la parte superior. El tamaño determina la cantidad de CPU y memoria. Bien. Entonces un nano es el tamaño inicial, que es el tamaño más pequeño de una instancia. Y va hasta 48 X grande, que he visto recientemente, donde 48 X grande viene ya sea con un tamaño de CPU volado, tamaño de soplador de RAM ya sea de esto basado en a qué categoría o familia pertenece. Ahora, solo tienes que darte una comprensión por aquí, solo escribe nano por aquí. Podemos ver que es 0.5 B de memoria y una CPU virtual por aquí, y tienes un nano aquí en t4g, que viene con dos CPU virtuales y 0.5 GB de memoria por aquí Ahora bien, este es básicamente el tipo nano. Ahora veamos X 48. Esto es X 48 grande. Eso es raro. Lo siento, 48 X grande. Por eso no llegó. Entonces aquí en esta situación, tienes 348 GB de memoria y 192 CPU virtual. En algunas situaciones, obtienes friolera de mil 556 GB de memoria y 192 CPU virtuales Entonces, de igual manera, la edad X 42, ya sabes, pone a partir de 192 CPU es seguro. Lo vas a obtener en todas las instancias, pero luego el tamaño de memoria de esta es de aproximadamente 384 GB hasta aproximadamente 1,356 GB de tamaño de memoria Entonces los cargos por eso también subirán más altos, por lo que puedes ver $12 la hora cuando estés usando este tipo de instancia en tu AWS Ahora, las calculadoras de precios te van a ayudar en eso también para determinar el cálculo del precio de cómo va a ser seleccionando EC dos aquí Y aquí también, tienes el tipo de instancia EC dos por aquí. Entonces, en primer lugar, tienes la selección del sistema operativo y el arrendamiento, ya hablaremos de ello más adelante Y EC dos instancia por aquí, y tienes toda la instancia EC dos por aquí y puedes ordenarla vía familia. Entonces tienes tantas familias por aquí. Entonces vamos a llegar a las familias ahora mismo. Entonces volviendo al diagrama de arquitectura, tienes la familia de instancias por aquí. ¿Cuáles son estas familias de instancias? Por lo tanto, el propósito general de llantas libres es básicamente una familia de instancias Tet. Lo que esto significa, o lo obtienes en una prueba gratuita, llanta gratis, lo siento, y tienes el propósito general. Entonces todo este neumático Tet está diseñado como una familia de instancias de propósito general, um. Entonces lo que sea que esté alineado a él. Entonces máximo, mi vista es T dos medianas, T dos grandes que he usado. No he usado T dos más que grande. Porque entramos en otro propósito general por aquí, que es A uno, cuatro, T tres, T dos po luego T tres A, y luego M seis, M cinco. He usado muchos MPI por aquí, que está todo relacionado con relator de memoria y tiene buena cantidad de memoria en él Así que he usado eso. Entonces tienes computación optimizada. I CPU enfocadas en las que tienes muchas CPU pero menos RAM, como C seis, C cinco, C cuatro Y entonces tienes la memoria optimizada, que básicamente es tener más memoria y menos concentración en la CPU, como Z uno, X, R cuatro, R cinco, R seis. Entonces tienes la computación acelerada, que habla de más sobre tu unidad de procesamiento gráfico, uh, F one, g4g3, luego I N de 1b2b3 Entonces tienes almacenamiento optimizado. Se enfoca en más artículos de almacenamiento por aquí como I D y H. Así que al elegir la familia adecuada para tu tipo de instancia va a ser muy útil para que trabajes con otras cosas. Entonces te he dado alguna teoría la cual puedes tomar una pantalla solo la pondré como parte de la documentación. Así que no te preocupes por ello. Entonces, cómo se crea una instancia combinando la familia y el tamaño de la misma. Entonces una instancia puede comenzar desde el punto de vista inferior. Por ejemplo, si tomas los enfocados gráficos por aquí, así que si solo seleccionas una G por aquí, como, digamos, por ejemplo, G dos por aquí. Y entonces no es capaz de encontrar ninguna coincidencia por aquí. Veamos esto. Lo siento. G dos. Lo siento, por alguna razón, G dos no viene. Déjame ir a G tres. Puedo ver que G three arranca desde XLarge y se pueden ver 30 GB de memoria y cuatro CPU virtuales Y se cobra por Linux alrededor de 0.75. Y entonces tienes un poco más extra. Es cuatro X grandes ocho grandes y 16 X grandes. Así se puede ver la memoria y la CPU sigue aumentando. Entonces tienes X grande como cuatro y cuatro X más grande, 16, Ax más grande, 32, y 16 más grande, 64. Entonces cada pedacito de ella, para que veas que hay un drástico incremento 8-64 en términos de CPU virtual Eso va a recordar hasta 48 X. 48 x, vimos alrededor de 192 CPUs virtuales, ¿verdad Entonces básicamente, esto es hablar de los números de CPU. Entonces la X grande, la Hacha, las cuatro X Adex. Entonces puedes ver a medida que aumenta, entonces obviamente puedes entender la diferencia ahora. La diferencia entre X grande y cuatro X grande, lo que hay en el medio son las dos X grandes, que deberían estar alrededor o doble X o X grande es st lo mismo, y eso va a ser alrededor de ocho CPU virtual. Si puedes calcular eso, puedes conocer las diferencias en ellas. Entonces cuando llegues a 48 X grande, obtendrás 192. Ese es básicamente el cálculo aquí. Pero la RAM aquí aumentará o disminuirá. A veces te darán múltiples opciones de tamaño de ram. Porque está más enfocado en la CPU y la memoria. Entonces lo mismo por aquí, el G dos no viene, sino el G tres de aquí, en realidad verás las diferencias. Para que puedas ver ese potencial costo efectivo de ahorro por hora por porcentaje. Así que puedes haber ahorrado tanto. Bien, así que eso es más o menos lo que quiero mostrarte sobre esto No quiero entrar en detalles. Hay tantas cosas de las que queremos hablar, pero hagámoslo después, porque como esta va a ser la primera sección, no quiero infundir muchas cosas en este video Entonces lo que voy a hacer es volver a la diapositiva que estaba presentando. Voy a terminar ahí. Entonces esta es la comprensión del dimensionamiento correcto. El tamaño de escritura es tan importante que necesitas entender sobre el tipo de instancia. Hay tipo de instancia. Los dos tipos de tipo de instancia. En la instancia el tipo uno es la familia, otra talla única. Por lo que combinar la familia y el tamaño en realidad terminará en el tamaño adecuado para su aplicación. Pero para determinar cuál es el tamaño correcto de su aplicación, puede compararla con el entorno existente, cuál es la CPU y la memoria asignada a ella. O puede consultar con el arquitecto sobre el rendimiento de las aplicaciones y la cantidad de RAM y CPU que se requiere, si se requiere alguna GPU a lo largo del tiempo, y básicamente podemos, ya sabes, tener eso correctamente configurado en AWS Gracias de nuevo por su tiempo y paciencia. Te voy a ver en el siguiente video. 12. Labs BYOL y otras estrategias para licencias: Oigan, chicos. Bienvenidos de nuevo al siguiente video. En este video, vas a entender sobre las estrategias de licenciamiento. Ahora bien, este video va a tener diferencia entre los modelos de licenciamiento. Hay dos modelos de los que vas a hablar es traer tu propia licencia y además incluir, incluir licencia con tu instancia de AWS. Entonces este es el diagrama que quiero mostrarles. Entonces hay estas dos clasificaciones por aquí, trae tu propia licencia cuando ya tengas una licencia contigo y te hayas llevado como de tres a cuatro años de tiempo de licenciamiento con una empresa o una corporativa, cierto, como un sombrero rojo o Microsoft diciendo que, bien, me quedan tres años de licencia Entonces, ¿está bien trasladarse a la Nube? Entonces puedes decir, está muy bien porque puedes traer tu propia licencia, y realmente no tienes que pagar, ya sabes, pagar la licencia inclusive en este AOB O si tu licencia ya ha terminado, estás trayendo un nuevo servicio, estás planeando traer un nuevo servicio con un nuevo modelo de licencia porque tu licencia anterior está a punto caducar en el transcurso de seis a un año. Entonces realmente puede pagar AWS directamente, incluida la tarifa de licencia. Así que realmente no tienes que lidiar con sombrero mojado o IBM o, um, ya sabes, um, cualquier otra compañía, Microsoft o cualquier otra cosa, no tienes que lidiar realmente con ellos. Todo lo que tienes que hacer es como el pago con todo incluido, puedes hacerlo a la base, ya sabes, mensual o anual a AWS, y según el plan que elijas. Ahora, voy a mostrarte algunas manos sobre esto para que puedas entender y mucho mejor. Voy a comparar estas dos cosas. Entonces, si vas por una red t Enterprise Linux, y puedes ver que se trata una suscripción basada en RedHat Enterprise Next por aquí Por lo que se puede ver el autoapoyo un año. Por lo que los medios de autosoporte no incluyen red hat atención al cliente no incluye red hat o, um, host atómico o sistema físico. Entonces esto significa que te apoyas solo eso si vas a tener un acceso legal o uso legal para este red hat, ya sabes, servidor, que puede ser usado para Data Center. Y eso es alrededor de 383 dólares estadounidenses al año. Y entonces si incluyes el haz de satélites, entonces vas a conseguir como siete, 68. Estos son los esta es la cantidad total por aquí. En cuanto al soporte estándar donde es el horario de apoyo de vaca entre las 9:00 A.M. y las 6:00 P.M. Y, um, se puede ver que el horario comercial estándar. Así canales de soporte web o telefónico, casos de soporte ilimitados. Entonces, si ese es el caso, y habilitas como todo tipo de, ya sabes, bundle por aquí, incluyendo alta disponibilidad, resiliencia, almacenamiento y soporte de actualización externa, vas a obtener una versión inferior a 2008 55. Y cuando vas por un soporte premium, que es 247 y puedes levantar una variedad uno y dos casos, en ese caso, va a ser de $3,131 anuales Entonces este es el costo de licencia en términos de sombrero rojo. Ahora, cuando vas a Windows, ¿verdad? Entonces, para un servidor de centro de datos, es muy sencillo. Son 6.000 mil 55 dólares. Cuando vas por, como, un entorno físico o un entorno virtualizado mínimo, que está basado en núcleos Nuevamente, esta es licencia basada en core, y esta es 1006 90.069, como en, como, el pago anual que necesitas para Y luego tienes la pequeña empresa hasta 25 usuarios en 50 dispositivos, aproximadamente 5:01. Entonces en estas situaciones, realidad se puede ver que la división Data Center tiene tanta característica y luego la estandarización no tiene tanto Esa es más o menos la adición del centro de datos por aquí. Esa es la razón por la que cuesta tanto. Ahora, cuando comparas lo mismo, cuando estás usando tu AWS, en realidad puedes comparar esto de dos maneras. Puedes ir a EC two Instancia y realmente puedes lanzar instancia. Y luego a partir de ahí, puedes seleccionar el sistema operativo, y luego podrás comprobarlo. Puedes ir a la anterior, ya sabes, nuestra calculadora de precios por aquí, hacer clic en estimación, y en realidad puedes buscar EC dos instancias y luego hacer clic en Configurar. Y aquí tendrás la, ya sabes, la especificación EC dos en la parte superior misma, y luego tienes sistema operativo. Te da un elemento del sistema operativo muy simple por aquí. Entonces tienes redeye Enterprise x con SQL. No queremos SQ. Solo queremos que el HA esté disponible si selecciona HA, se le facturará $27 por mes, como puede ver aquí Ahora bien, si seleccionas Windows con solo un servidor Windows normal, cuesta alrededor de $3.80 Y se puede ver que también hay una edición empresarial de Windows Server SQR , que es de $1,203.40 Entonces, del mismo modo, tienes diferentes cosas por aquí entre las que puedes seleccionar. Pero si quieres, sistemas operativos reales, en realidad puedes ir a EC two Instance y realmente puedes ver uh, cuánto te va a costar. El costo de esto vendrá cuando en realidad selecciones algo de esto, así que realmente lo verás por aquí Entonces, a partir de ahora, se selecciona libre de AMI elegible. Hay este elegible gratuito donde en el que realmente puedes seleccionarlos, y existe el soporte que viene con el servidor ISQO en Ahora ve con algo como Enterprise o red it Enterprise Linux. Es como empresas de sombrero rojo, vas a conseguir este AMI por aquí. Y aquí hay una empresa reeditada nueve con HVM, que es elegible gratis, y luego hay otras dos que no lo es Uno que SQL otro con alta disponibilidad, y haga clic en él. Ahora, dirá que hay que cambiar la configuración para solo confirmarlo. Y luego cuando se cargue, vas a obtener algunos detalles al respecto hacia qué tipo de artículos va a tener hacia él. Sólo voy a pausar el viento y pausarlo una vez que se complete. No me quedé atascado, pero solo refresco la página en la que funcionó. Entonces esto es alta disponibilidad con la versión Red Enterprise Linux nueve y se puede ver que viene con volumen SSD. Y más o menos esa es la información que vas a obtener. Entonces no voy a cambiar ninguna otra información por aquí. Va a ser como D dos micro. Y luego, cuando miro los cargos por aquí, no está mencionando los cargos aquí, pero esto en realidad se cobrará, ¿de acuerdo? Entonces eso se va a cobrar en este nivel. Entonces no va a ser de necio libre, seguro. Porque te van a cobrar de lo que se menciona aquí cuando selecciones identifica Linux con jaja Vas a cobrar $27 solo por el sistema operativo. Entonces, así mismo, ya sabes, trae tu licencia y la licencia incluida va a ser un cambio de juego para ti porque realmente no tienes que lidiar con nadie De hecho, puedes lidiar con esto la facturación completa. También hay una cosa más que quiero mostrarles son las AMI. AMI básicamente MI está en la imagen de la máquina. Ahora cuando haces clic en la AMI, realidad puedes ir a esa instancia de EC dos solo directamente. Y luego a partir de ahí, basta con hacer clic en Launch Instancia. Si ves eso, aquí habrá nombres de sistemas operativos, justo después de eso, tienes que navegar más AMI. Al hacer clic en él, tienes tres opciones para que navegues. Una es la AMI R que has creado tú mismo usando una plantilla. Y luego tienes la AMI del marketplace. Entonces, Marketplace AMI es algo que está aprobado por, ya sabes, AWS. Y aquí es donde entra tu Oracle Red Hat y luego ponen aquí su imagen oficial. Y como usuario de AWS que lo está usando puede dejar una reseña sobre esa imagen. Y luego tienes AMI comunitarias. Entonces tienes AMI comunitarias, que es imagen comunitaria que es que es pública. Por lo tanto, cualquiera puede publicar esta AMI simplemente, ya sabes, seleccionando el catálogo. Y como puedes ver por aquí, estos son los datos del propietario por aquí o Como nombre. La propia Amazon está haciendo esta imagen. Ahora, todo es base de costos. Hay estas AMI gratuitas que no requieren que pagues nada. También están estos pagados. Solo busquemos algo muy popular por aquí. Entonces, en términos de la lectura del cliente de AWS, simplemente haremos eso. N dos WS backup en recuperación AWS, prueba gratuita, traiga su propia licencia. Esto le dice traer su propia licencia, lo que significa que es posible que deba ingresar su licencia en algún momento. Y luego tienes otros servicios, y luego tienes el negocio de SAP también. Se puede ver que también hay otros servicios. Y ahí está este Microsoft 2019. Entonces, si solo vas a los detalles, verás el resumen aquí y cuánto se supone que debes pagar por una hora. Entonces esto te dice sobre el índice de precios de aquí. Puede hacer clic en precios. En realidad, se puede ver alguna información al respecto. Entonces ahora, el precio difiere en función del volumen uh, lo siento, el tipo de instancia EC dos. Ahora aquí este precio de 3.3 84 Está hablando de cuando estás usando un M four large. Pero si estás usando un T two micro, que es instancia libre, T two micro con este, se va a cargar 0.016/hora Ahora, puedes guardarlo por, te diré los consejos de ahorro más adelante punto de tiempo, así que no hemos llegado a eso, así que hablaremos de ello más adelante punto de tiempo. Um, así que así es más o menos cómo puedes entender sobre un producto específico, y, ya sabes, esta es una versión de prueba. Ahora bien, esto se paga. Entonces aquí, es una C cinco una grande, A dos X grande, perdón. Y en EU East. Entonces ese va a ser el precio por hora por aquí si vas a usar esta imagen particular de AMI o máquina. Entonces, de igual manera, vas a tener diferentes imágenes de máquina las cuales son algunas son gratuitas, algunas son de pago. Se puede ver que esto es incluso más barato, pero esto está usando T tres medio. T tres es como una clase estándar de tipo Fácil de instancia. Tan mediano es usar el tamaño de la instancia. Y se puede ver que es bastante caro, diría yo, de mi opinión para abrir sous. Pero igualmente, vas a tener gente entrando desde el punto de vista de la empresa. Esto es desde el propio sous abierto. Pero, de igual manera, verás um, imágenes, que es aprobado por el vendedor, y esta es una imagen de comunidad abierta. Entonces el precio es de nueve difieren por aquí, así se puede ver que ahí está nombre de esta persona por aquí. Das clic en él, es un proveedor verificado. Entonces, si seleccionas esta imagen, en realidad incurrirás en un poco de costo basado en, ya sabes, sea cual sea el precio que se establezca A veces podría ser gratis. Entonces hay que pagar por la instancia. Y más o menos eso es algo que hay que hacer. Y ahora, cuando vas por la organización, en realidad no estarían recomendando ninguna de las imágenes de la comunidad porque optarían por lo que está disponible en el um existente, ya sabes, imagen de máquina o irían por, ya sabes, una imagen aprobada de AWS y del mercado Por lo que no iban a ir por AMI comunitaria. Entonces, ¿recuerdas eso? Entonces eso es algo que es bastante sólido y, ya sabes, recomendado ir a por ello. Aunque incluye algunas tarifas de licencia, pero aún así valdrá la pena porque obtendrá soporte y mantenimiento del equipo de soporte en caso de que necesite ayuda en algunos de los problemas que se han enfrentado aquí. Ahora, hay otra categoría por aquí llamada AMI de inicio rápido que habla de algunas de las AMI recomendadas por AWS, ya sabes, AMI. Entonces esto es básicamente lo que puedes ver en la instancia de lanzamiento de EC two instance, cuando ves las imágenes predeterminadas, ¿verdad? Ahora bien, de donde viene esto de donde provienen estas imágenes, estas vienen de AMI de inicio rápido. Entonces este es básicamente el sistema operativo base, algunos son gratuitos, algunos son de pago. Pero entonces los artículos más usados están por aquí para que puedas seleccionarlo rápidamente en lugar de, um, ya sabes, ir y navegar por la AMI. Um, las AMI del mercado. Así que esa es la diferencia entre las AMI de inicio rápido y las AMI del mercado. Entonces esto es más o menos lo que quiero mostrarles en este video. Espero que hayas entendido la diferencia entre traer tu antigua licencia y la licencia que es inclusiva en tu, ya sabes, el pago mensual que se supone que debes pagar. Entonces por ejemplo, uh, mi concepción por aquí en los últimos dos meses, también incluye la suscripción de los servicios, que he utilizado como parte de mis dos instancias EC. Entonces eso va a ser incluido como en mi factura mensual. Entonces se va a quedar así. Bien, gracias de nuevo por su tiempo y paciencia. Espero que hayas entendido bastante este tema, y te platicaré en el siguiente video. 13. Calculadora de precios de AWS de Labs de costos fijos vs. costos variables: Oigan, chicos. Bienvenidos de nuevo al siguiente video. En este video, vamos a entender sobre conceptos de la economía de la nube. Ahora, como se puede ver en el documento de aquí, así tenemos el um, ya sabes, tarea quando cuatro, que dice, entender el concepto de economía de la nube Y dentro de eso, tienes múltiples temas. Vas a recibir muchas preguntas de este tema, especialmente relacionadas con traer tu propia licencia, costo fijo y costo variable. Algo sobre los beneficios de la automatización y también algo sobre los servicios gestionados. ¿Cuáles son los Bien? Entonces, aunque discutimos sobre algunos entendimientos aquí sobre los servicios administrados, vamos a entender muy profundamente aquí sobre los servicios administrados. Y esto de nuevo va a ser un panorama general. No vamos a entrar dentro de cada uno de estos servicios gestionados, que realmente no se requiere para esto en este momento, para su certificación en este nivel. Entonces, de cualquier manera entenderemos tendremos una comprensión más profunda sobre ese punto posterior del tiempo Ahora bien, con lo que quiero empezar son estos dos servicios de aquí. Lo siento, estas dos habilidades por aquí, las cuales vamos a entender y vamos a hacer algunas manos en ASPA Entonces esta formación va a ser a vez arquitectura y así como va a tener manos ASBO Entonces, sigamos adelante con eso. Ahora, entender la economía de la nube es básicamente entender cuáles son los gastos en los que se va a incurrir hacia su cliente. Ahora, anteriormente en la arquitectura anterior, hemos identificado el marco de adopción, y hemos trabajado con la forma en que vas a migrar tu, ya sabes, aplicación de on prem a tu centro de datos cloud cloud Ahora bien, ustedes han entendido estos dos aspectos. Ahora bien, aquí es donde el cliente está contento de saber que los pilares, él sabe eso, ya sabes, el framework, y sabe cómo migrarlo. Entonces le has dicho al cliente que lo siguiente que le vas a decir al cliente es, como, ¿de qué se trata la economía? Como, cuánto dinero puedes ahorrar en términos de costo fijo y costo variable. Vas a ahorrar en términos de licencias y migrar a un servicio administrado, cuánto va a ahorrar realmente a tu cliente Entonces estos son algo que es muy importante que usted como ingeniero de AWS, esperaba entregar esto al cliente. Y esa es la razón por la que esto forma parte de tu curso de certificación a nivel fundacional Entonces para hacer esto 100 por ciento sin problemas, ya sabes, entregar esto al cliente, necesitas entender primero sobre el costo fijo y el costo variable. También tengo un pequeño ejemplo para ti en términos de esto práctico. Entonces ahora, estos dos temas están relacionados. Por eso se ve en conjunto como una sección. Ahora, aquí tiene la comprensión del papel del costo fijo en comparación con el costo variable, y tiene comprensión del costo asociado con el entorno de promesas. Ahora, como pueden ver por aquí, costo fijo no es otra cosa que nosotros solo gastamos en, um, ya sabes, cantidad específica de, um, ya sabes, dispositivo , adquisiciones, como un hardware, y como que tienes que pagarlos por adelantado. Y no tienes ese requisito. Como, por ejemplo, um, si vas a buscar en amazon.com y quieres comprar, um, un tamaño de almacenamiento de, ya sabes, un servidor, unidad de disco duro o un tamaño de almacenamiento de dos TB o tres TB o cuatro TV y sientes que ese es el máximo de contenido que necesitas tener Digamos, por ejemplo, una TB de un dato o tres TB de un dato. No podrás personalizarlo. Tendrás un límite específico. Se puede ver que su plus rojo digital occidental es de aproximadamente cuatro televisores. Si estás comprando un disco duro de cuatro TV como este, necesitas comprar otro disco duro, que es cuatro TV también porque lo necesitas para redundancia Lo necesitas para tolerancia a fallas y cosas así, porque así es como se diseñan los sistemas de protección. Por lo que debe tener una copia de seguridad de los datos similares. Entonces necesitas comprar dos de estos cuatro televisores y tanto los cuatro TB estarás usando realmente solo un televisor solo porque no hay nada en el mercado que tenga para un TB, tienes que comprar el mínimo. O vas por dos TV o cuatro TB, pero a partir de ahora, solo cuatro TV están disponibles. Entonces tienes que gastar como 99 dólares para esto, y tienes que gastar otros 99 dólares para tener una replicación para Entonces son como 200 dólares por esto. Y si no tienes opción, ¿verdad? Entonces tienes como ocho GB de datos por aquí, que son alrededor de 200 dólares por aquí. Así se puede ver eso. Esto es bastante bueno, unidad de disco duro porque quieres comprar una unidad de disco duro para tu servidor, que es bastante caro. Pero esto es completamente diferente cuando vas por un dispositivo de almacenamiento de servidor real, eso va a ser completamente diferente. Entonces tenemos diferentes sitios web del proveedor, y en realidad darán en la cotización para eso más adelante ese algo que es muy diferente. Entonces vamos a comparar esto como ejemplo. Entonces Um, para que veas que esto se configura con una tasa. Digamos, por ejemplo, supongamos que son $200 lo que estás dando por ocho TV de datos, pero en realidad estás usando datos de dos televisores. Bien. Así que ahora tenemos una excelente herramienta en su servicio um AWS llamado facturación y gestión de costos. Cuando ingresas facturación y administración de costos, vas a obtener esta herramienta llamada calculadora de precios. También puede acceder a esta calculadora de precios directamente por ruta calculadora AWS. Ahora, cuando accedes a este UR en realidad va a la calculadora de precios de aquí. Entonces ahora esta calculadora de precios te muestra el costo estimado de tu solución de arquitectura. Como, por ejemplo, estamos hablando de almacenamiento en este momento. Entonces ahora lo vas a comprar en prem, y como te dije, el almacenamiento no está disponible en un tamaño personalizado, ¿de acuerdo? Sólo está disponible en dos, cuatro, uh, ocho, 16. De igual manera, tienes lo que está disponible. Y lo segundo es que el proveedor con el que puedes ir, quiere vender un producto más alto por un precio menor. Por lo tanto, siempre se lanzarán para un almacenamiento más grande, a pesar de que en realidad no vas a usar tanto almacenamiento. Entonces tienes que pagar, ya sabes, una oportunidad y en realidad estarás, ya sabes, obteniendo un dispositivo de almacenamiento que tiene, como, un almacenamiento enorme. Pero lo que en realidad vas a estar usando no es tanto. Así que no vas a estar usando el 100 por ciento de eso. Entonces, como que tienes que gastar esa cantidad, y tienes que gastarla temprano también antes de que incluso, ya sabes, pase cualquier otra cosa. Entonces, igualmente, um, ahí hay muchos problemas. Ahí hay muchas complicaciones. Pero cuando trabajas con AWS, ahí es donde entra el costo variable aquí en la computación en la nube. Ahora, usando esta calculadora de precios, en realidad puedes calcularla de acuerdo a tus requerimientos. Entonces, por ejemplo, califiquemos una estimación por aquí, y selecciono a Virginia del Norte como mi región. Hay una razón por la que hago ese momento posterior. Te diré por qué elijo región. Y aquí le doy S tres como nombre de servicio. Entonces aquí solo hago clic en Figura de Kid, y verán que hay tantas clasificaciones bajo ST Entonces para Lambda, tienes, acceso poco frecuente así que ya sabes, tienes Express también por aquí Entonces de igual manera, tienes tantos. Pero lo que por defecto se selecciona es el estándar y la transferencia de datos. Entonces estas son las dos cosas que se usa. Entonces digamos, por ejemplo, al mes, vas a subir como 200 GB de datos. Entonces no es como si realmente estuvieras subiendo ya que estás cating una aplicación, por lo que obtendrás nuevos usuarios que vienen en datos de los usuarios se cargarán en tu base de datos o tu unidad de datos, que estará usando S tres aquí, y aumentará gradualmente dos TV No es que lo vayas a conseguir dentro de un mes. Puede tomar un año para que gradualmente crezca a dos TB. En esas situaciones, se puede decir que 200 GB mensuales es lo que va a hacer. Está esperando que los datos estén disponibles. Qué tipo de cuántos datos se moverán en el estándar ST. El especificar la cantidad de datos que se moverán, sí. Entonces, esta cantidad específica de datos ya está almacenada en los estándares ST, así que eso es más o menos este. Y poner una copia de la lista de correos, que acaba de ejecutar, ya sabes, con frecuencia. Entonces yo diría todo esto. Um, así que tengo que mencionarlo por número. Entonces yo diría como 100 veces obtendrás algo como esto y luego obtendrás lista y todo esto 50 veces o algo así. Entonces aquí, los datos devueltos por S tres selección, el retorno de datos y luego los datos escaneados por S tres selector. Entonces no es mucho. Supongo, como rango de diez GB a 20 GB, tendrás datos escaneados y devueltos por S three select. Así que más o menos eso y luego puedes ver este cálculo por aquí. Entonces tienes el precio de 200 GV y en realidad tienes un gasto mensual de $4. Eso lo veo. Así que en realidad has gastado 200 dólares en unidad ATB, que es a largo plazo y en realidad no vas a estar usando eso eso es algo muy grande Entonces en realidad no vas a estar usando ATV Uh, al inicio de las cosas, en realidad solo estarás tratando con 200 GB de datos y luego gradualmente crece, ¿verdad? Ahora, puedes ver cuánto dinero puedes ahorrar por aquí. Entonces este dinero, los $200, si lo hubieras puesto en vez de ponerlo por adelantado, y pagas como 4 dólares cada mes, como que y pagas como 4 dólares cada mes, ganas los intereses en ese dinero porque en realidad no vas a estar gastando el dinero, realidad estarás teniendo eso contigo, lo que significa que los intereses estarán contigo por ese Podrías haber invertido en otra cosa. Y en realidad los gastos totales de S tres costo estándar es de 4 dólares, incluyendo todos los que ponen y reciben solicitudes y cosas así Pon y G no es mucho como puedes ver por aquí. Y en términos de función de transferencia de datos, puede agregar alguna función de transferencia de datos como Internet gratis, y realmente puede poner en, cuánto de una transferencia de datos espera aquí. Y en realidad se puede ver el cálculo por aquí, solo digamos una TB al mes y una transferencia de datos a Internet nuevamente en la televisión. En realidad se puede ver que es $92 por aquí. Pero se trata de un terabyte de TB de datos transferidos a través de Internet Bien. Entonces ahora aquí, la transferencia de datos de la transferencia de datos entrantes es completamente gratuita Entonces, si no voy a exportar esta gran cantidad de datos fuera a Internet, entonces en realidad no me van a cobrar nada. Por lo que los datos entrantes son completamente gratuitos. Entonces puedo tomar datos a S tres, pero puedo restringir las personas accedan a mis datos desde S tres, y puedo usar servicios internos. Como, por ejemplo, puedo usar otra, um, ya sabes, otra región. Para capturar esos datos. Entonces si solo vas por eso y yo solo voy a acceder a estos 200 GB de datos, y puedes ver que incurro en 4 dólares dentro de toda la región y aunque lo transfiera a través de Internet, no van a ser mucho 18 Ahora bien, este costo de 18 USD, incurriría pase lo que pase, incluso use aunque compre esta unidad de disco duro, aún tiene que pagar los cargos de Internet Internet no es gratuito cuando sale o entrante Este cargo eventualmente se te ocurriría como el cargo de Internet para ti. Entonces esa es la razón por la que las características de datos, la función de transferencia de datos está separada de ST porque esto incluye las tarifas de Internet de usted transfiriendo datos. Pero lo bueno es que Internet es gratis cuando tus datos entrantes, y los datos salientes se cobran porque en realidad los estás cargando a otro lugar Ahora, puedes subirlo a Cloudfrind que de nuevo es, gratis Un Crowdfrind como te dije, es un servidor de caché, y básicamente, ya sabes, caché la información y la envía al cliente que la está navegando para un acceso más rápido, ya sabes, a Ahora con todas estas tarifas, puedes ver un costo mensual total de 22 o 22 USD, que es realmente barato cuando te comparas con este tipo de aquí. Cuando empiezas a consumir más cantidad de datos cuando estás llegando a un nivel en el que realmente estás utilizando dos TB por mes. Digamos solo dos TV al mes. En realidad puedes ver cuánto vas a gastar por mes. En realidad estarás gastando 47 dólares. Ni siquiera te acercas a lo que estás gastando por aquí, pero es un cargo mensual, lo sé, pero seguirá recurrente cada mes. Pero siempre hay una manera de que puedas um archivar los datos que no estás usando y enviarlos para un estado de archivo profundo, hay otros servicios que mantendrán tus uh, ya sabes, datos incluso más baratos que S tres, porque eso será en estado archival D Hablaremos de esos servicios más adelante en el momento, pero también puedes archivar esos servicios. Así mismo, esta herramienta es muy importante para cualquiera que esté iniciando su carrera con AWS, donde quieras entender sobre los servicios, cómo va a impactar vamos a usar mucha de esta herramienta para entender o alojar esto porque como ingeniero, he usado esta herramienta tantas veces cuando estoy trabajando con un cliente y sus necesidades y quiere es todo ahorrar dinero y ahorrar costos y automatizar la mayor parte del proceso. Entonces para hacer eso, esta herramienta es muy buena y voy a enseñarte más sobre este punto del tiempo posterior. Volviendo a este ítem de acción en particular, espero que haya entendido lo que es un costo fijo y lo que es un costo variable, y entienda los gastos que ocurren en el OnPMiseeEnvironment Los gastos incluyen um, compra de compra y mantenimiento de hardware físico, equipo de red, dispositivos de almacenamiento, alimentación y refrigeración, y en términos de mantenimiento y dotación de personal, necesita contratar un equipo de TI que realmente necesita ser dedicado y que realmente deberían estar cuidando su servicio de centro de datos, que en realidad no necesita términos de computación en la nube porque vamos a ver en la responsabilidad compartida más adelante punto del tiempo, pero te sorprenderá saber que AWS se encarga del servicio donde vas a alojar tus servicios Así que realmente no tienes esa sobrecarga de contratar equipo de TI o algo así para administrar tu centro de datos. Y luego tienes costo de recuperación y respaldo de datos que básicamente te dice que realmente puedes recuperar desastres y puedes recuperar tus datos, y viene gratis porque si se dispara una zona T disponible, hay otra zona t disponible que desplazará tus datos y estos datos se transmiten entre estas dos zonas t disponibles. Si optas o no, no importa, pero los datos estarán disponibles en dos zonas t disponibles por defecto de Amazon, así que realmente no tienes que preocuparte por eso Pero cuando estás operando en las instalaciones, como te dije, todo lo que compras, tienes que hacer más uno. Más dos. Si quieres mantener la redundancia en eso, si quieres ir por un nivel de grado diferente, necesitas ir por más dos o más uno por defecto para anillo de espejo Al menos ese espejo debería estar ahí. Esa es la razón por la que tenemos, ya sabes, por qué optamos por el costo variable y la computación en la nube. Gracias de nuevo por ver. Si tienes alguna duda, déjala en la sección de preguntas. Te veré en el siguiente video. 14. Cumplimiento de AWS Labs: Oigan, chicos. Bienvenidos de nuevo al siguiente video. En este video, vamos a hablar de la tarea dos. Entonces, en primer lugar, vamos a entender sobre los conceptos de gobernanza de seguridad en la nube de AWS. Ahora, en esta tarea en particular, íbamos a obtener un conocimiento del concepto de cumplimiento y gobierno de AWS. Va a entender sobre la seguridad en la nube como encriptaciones y pocos otros servicios Vamos a entender sobre la captura, localización de registros usando seguridad en la nube, lo siento, asociados a la seguridad en la nube. Entonces va a haber otro conjunto de servicios que vamos a ver ahí. Entonces ahora aquí, como pueden ver, vamos a tomar en primer lugar estos dos temas porque están más menos relacionados. Entonces vamos a verlo como una sección específica, ya sabes. Y luego voy a ir con otros temas más adelante punto de tiempo. Así que aquí, identificando dónde encontrar la información de cumplimiento de AWS. Por ejemplo, artefactos de AWS. Entonces ahora, el cumplimiento es muy importante para nosotros, y lo sabemos cuando la empresa pasa por sesión de auditoría o cuando usted exhibe todo su cumplimiento en su sitio web. Por lo tanto, debe asegurarse de que necesita encontrar esos certificados de cumplimiento de AWS porque ese es su socio ahora. Ahí es donde estás hospedando, y también hay algún cumplimiento basado en la ubicación geográfica que necesitas mostrar, así como también hay cumplimiento para los estándares de la industria, como atención médica, finanzas, industrias. Entonces de igual manera, tenemos ciertos requisitos, así que vamos a ver más en detalle al respecto. Entonces vamos a mi dibujo aquí. Tengo dos fotos adecuadas para ustedes, y ambas imágenes hablan sobre la información de cumplimiento de AWS, que es el artefacto de AWS y los requisitos de cumplimiento específicos de la industria geográfica requisitos de cumplimiento específicos Entonces ahora, estas son las dos cosas que vamos a ver en este video. Así que en realidad tenemos una demo en cuanto a este servicio en particular, que te voy a mostrar en un momento. Pero, ¿qué se puede obtener de este servicio? Bueno, AWS artefact es un portal de autoservicio para acceder a certificados y acuerdos de informes de cumplimiento de AWS certificados y acuerdos de informes Permite a los consumidores descargar documentos de cumplimiento como informes SOC y también certificados ISO, requisitos PCI y certificados Entonces, del mismo modo, en realidad se puede usar eso para que los consumidores puedan usar el artefacto de AWS para cumplir Lo siento mucho por el ruido de fondo si puede escucharme escuchar el ruido de fondo De veras lo siento mucho por eso. Para cumplir con los requisitos internos de cumplimiento o auditoría. Entonces estos son algunos de los requisitos para los que necesitamos estos informes. Solo vayamos a la demo y luego terminemos con eso. Sólo tienes que ir por aquí y buscar artefacto. Así que ahora solo haz clic en este medio y luego deberías abrirlo en tu ventana. Ya lo abrí porque mi Internet es un poco lento. Ahora, aquí está la sección home. Entonces estas son dos cosas que puedes hacer por aquí, lo cual es muy importante. Puedes ver acuerdos, puedes ver reportes. Ahora, cuando hayas creado la organización, que más o menos ahora mismo, no lo harías. Entonces tus acuerdos van a ser tanto para tu artículo lo siento. Tanto tu cuenta como tu organización. Entonces primero, veamos el acuerdo. Ahora, no hemos acordado ningún acuerdo en este momento, por lo que puede seleccionar un acuerdo, y luego puede aceptar. Pero hay ciertos acuerdos basados en una ubicación geográfica. Por ejemplo, se puede ver Nueva Zelanda Australia. Creo que esto es bastante general, supongo. Para que puedas leer el acuerdo para entenderlo. Pero una vez que hayas creado una organización, vas a tener otra etiqueta por aquí, que va a ser sobre tu acuerdo de organización. Entonces has iniciado sesión en una cuenta de gestión de una organización. Entonces solo tienes que crear reglas de servicio y dar permiso. Entonces verá el acuerdo de organización. Entonces lo haremos más tarde. Pero si alguien te pide que lo descargues o si hay alguna pregunta sobre dónde encontrarás realmente los acuerdos para tu, um, ya sabes, tu informe SOC o certificados ISO o certificados PCI, entonces realmente puedes decirlos en el artefacto de AWS bajo informes o acuerdos Entonces así claramente te preguntarán de dónde sacas los certificados. De hecho, puedes obtener los certificados de los informes y de todo, donde firmarás un acuerdo si te preguntan bajo la sección de acuerdo del artefacto de AWS Entonces ahora aquí, puedes buscar cualquier tipo de reporte. Como, por ejemplo, informe SOC, puedes simplemente buscar SOC por aquí y como que obtienes el reporte. Allá. Entonces ahora, este es el SOC dos, que es el informe tipo dos que evalúa el control de AWS y cumple con los criterios de seguridad, disponibilidad, confidencialidad y privacidad del Instituto Americano de certificado, contadores públicos Entonces, del mismo modo, lo conseguirás, lo seleccionarás y luego descargarás el reporte. Entonces esto es Pi default dice que, um, uh, el periodo del informe es marzo de 2024. Ese es un ejercicio financiero del último ejercicio. Entonces, se puede decir claramente que este informe en particular es básicamente el um, ya sabe, algún informe AOC tipo dos Entonces esto es básicamente lo puedes proporcionar a tus auditores, así como ponerlo en tu sitio web diciendo que eres bastante compatible donde sea que estés alojando tu contenido. Entonces esto es básicamente lo que es el servicio de artefactos de AWS y el servicio que brinda Ahora, cuando hablas del segundo punto por aquí, que es sobre geográfica de tu requisitos de cumplimiento específicos de la industria geográfica de tu industria. Ahora, el cumplimiento geográfico es básicamente diferentes regiones o países tendrán regulatorios específicos, como actos de privacidad y seguridad de datos Por lo que hay que cumplir. Tu socio de hosting debe cumplir con esas cosas. Entonces la pregunta sería como, cómo saber si, ya sabe, tiene un GDPR, que es su regulador general de protección de datos para una Unión Europea o un cliente de California, perdón, Consumer Privacy Act, que es CCPA en Estados Unidos Por lo tanto, estos son algunos de cumplimiento regulatorio que AWS requiere que se proporcione a todos los clientes con fines de auditoría, y estos son algo que es el cumplimiento geográfico. Y hay ciertas cosas como específicas de la industria. Por ejemplo, necesitas HIPAA para atención médica para finanzas, nosotros necesitamos Entonces estos son algo que necesita ser requerido si desea alojar su aplicación en un proveedor en la nube. Entonces, si entra en AWS una aplicación financiera o bancaria, lo primero que harían es verificar si esto es compatible con eso. Para que puedan alojar su aplicación en esta plataforma. ¿Cómo te aseguras de eso? Hay otra herramienta por aquí que en realidad puedes buscar en Google se llama AWS Compliance. Ahora aquí, en realidad puedes ver eso si puedes usar esto para tu requerimiento. Ahora aquí, PCI DSS, que es para finanzas, HIPAA, para tu um sector sanitario, y luego igualmente, tienes GDPR, que es para tu De igual manera, tiene todos esos requisitos de cumplimiento satisfactorios en todo el mundo. Entonces um, AWS los tiene. Por eso lo han sacado aquí. También puedes leer el libro blanco para conocer mucho más sobre eso. También puede ir a la página del sitio web de cumplimiento y realmente puede ver todo el cumplimiento que forma parte. Para que puedas ver de cuántos cumplimientos forma parte. Entonces puedes ver que en las regiones así como en las regiones específicas como América, tienes todos esos certificados que se requieren para que puedas alojar, ya sabes, tus artículos por aquí. Esto es para Asia Pacífico. Tienes ISO 2000 para la India. Tienes um, IRAP para Australia, y luego tienes la certificación Fintech para Japón, y luego tienes esta seguridad de acceso al programa Garmon servicio público hacia fuera para Entonces de igual manera, como que lo renuevan y aseguran de que tengan todas estas cosas antes de que sigas adelante. Entonces tienes que decir eso en el examen que comprobarás todos estos, ya sabes, región sabia yendo a AWS Compliance, portal, y ahí es donde realmente lo obtendrás. Así que para llegar aquí muy simple, solo Google cuatro AWS, uh, cumplimiento de AWS, y en realidad se puede llegar a esta página, y desde aquí, en realidad se puede ver esta página web del programa de cumplimiento. Eso es todo chicos para ti en este video. Espero que te haya sido útil entender estos dos conceptos y cómo navegar por este portal. Gracias de nuevo por su paciencia y tiempo. Te veré en el siguiente video. 15. Labs AWS Detective: Oigan, chicos. Bienvenidos de nuevo al siguiente video. En este video, vamos a hablar del detective detective AWS. Ahora, ¿qué es AWS Dective? Detective le ayuda a investigar problemas de seguridad analizando y visualizando datos de seguridad de servicios de AWS como prueba en la nube, registros de flujo de VPC Hablaremos de todas esas cosas más adelante punto de tiempo. Entonces, la prueba en la nube es básicamente mirar la prueba de cómo el proceso o el proceso que tomó para que llegara. Esa es la prueba de Cloud. Los registros de flujo de VPC hablan sobre cómo, ya sabes, el flujo de conexión se trata en VPC Como sabes, VPC no es más que tu nube privada virtual Entonces es una configuración de red. Así que de todos modos, hablaremos en detalle sobre ese punto posterior del tiempo lo que es VPC y cosas así A partir de ahora, solo tienes que pensar en que estás recopilando datos aquí. ¿Bien? Ahora, qué datos estamos recopilando los datos del servicio, como cómo está fluyendo el servicio, cómo están llegando las conexiones , así que se trata de eso. Detective facilita la identificación de la causa raíz de un problema de servicio o problema de seguridad. Hablemos de un ejemplo por aquí. Supongamos que está recibiendo una alerta del deber de guardia de que la instancia de EC dos ha estado haciendo una llamada sospechosa de la APA. Esto es lo que discutimos en el deber de guardia, derecho, donde detecta todas las llamadas sospechosas de APA y mira tu aplicación y cómo, ya sabes, proteges tu aplicación como. Ahora, en lugar de hacer un cambio manual a través de las cerraduras, puede usar el detective de AWS para compilar y visualizar automáticamente las cerraduras relevantes como eventos de Cloud Rail, registros de flujo de VPC y luego detective le ayuda a rastrear rápidamente la ruta de ataque E identificar el recurso comprometido. Esto es algo que hace el detective de AWS y básicamente lo detecta. Ahora bien, recuerdas esto cuando entra una pregunta hacia el detective de AWS, ¿ese es el propósito de deductivo Ahora, un propósito de Dective es darle datos visualizados. Desde mirar las pruebas en la nube, los flujos de registro de PC, en lugar de hacerlo manualmente, entendemos a partir de estos registros para comprender la ruta del ataque, bien, e identificar qué recursos están comprometidos. Entonces te da el visual, um, ya sabes, diagrama de seguridad o datos, que te dirán sobre esto. Bien. Revisemos esto rápidamente en la sesión práctica y luego veremos las características y beneficios. Entonces deductivo Muy bien, entonces AB es demasiado activo por aquí con estas lupas Entonces eso va a llevar algún tiempo. Bien, veamos las características a medida que se carga. Así que las características son básicamente agregador de registros. Una de las cosas importantes es que básicamente agrega log a partir de lo que es agregación agregación es como caratic de diferentes fuentes y entender y analizar los logs Así que aquí se extrae automáticamente los registros de múltiples fuentes AW para proporcionar contexto para los problemas de seguridad. La investigación interactiva le permite explorar incidentes de seguridad y visualizar el flujo de datos, y también se integra con prueba en la nube de servicio de guardia para una investigación profunda. ¿Y cuáles son los beneficios clave? La investigación simplificada permite correlaciones automáticas y datos de visualización, facilita el seguimiento del incidente y también facilita su comprensión En términos de respuesta a incidentes más rápida , le ayuda a identificar y responder problemas de seguridad más rápido al proporcionar una visión integral de los datos. Vamos a ver esto. Entonces tienes un buen video aquí por aquí de AWS sobre cómo ves a tu detective de AWS. ¿Y cuáles son los cargos por el procesamiento de troncos aquí? Se puede ver que cero, 2000 GV va a ser $2 muy barato Los próximos 4 mil GB van a ser de alrededor de $1 por GB. Entonces es como $2 por GB. Lo siento, dije demasiado barato, ¿ verdad? No creo que diga. Entonces primero cero a 2000 GB es alrededor de $2 el GB, así que quiero decir como mil significa que es como $2,000, supongo, foro mil GB de datos, um análisis Um, y por aquí, puedes ver algunos beneficios por aquí y ¿tenemos una prueba gratuita? Sí, hay una prueba gratuita de 30 días en este detective de Amazon. Eso es increíble. Por lo que es útil para nosotros comenzar. Así que simplemente haga clic en esto y en realidad puede, um, habilitar directiva para esta cuenta. Simplemente vas por aquí, habilitas Directiva para esta cuenta, y luego puedes habilitar Dective para esta cuenta Entonces aquí, el administrador delegado no es necesario. O sea, si estás agregando otro usuario por aquí como estamos en la organización, por eso viene. A menos que no veas eso, así que solo puedes seguir adelante y habilitarlo. Estas son algunas notificaciones sobre esto, así que sólo vamos a cerrarlo por aquí. Bien, entonces esta es la directiva. Utilizando la organización ARB, puedes habilitar el ya sabes, puedes delegar cuenta y realmente puedes habilitarlo para toda la organización, o simplemente puedes hacerlo por ti mismo Entonces eso está más o menos ahí. Por lo que aquí también puedes invitar a otros miembros invitando a esto. Sólo tengo una cuenta por aquí. Esa es la cuenta principal, así que sólo voy a usar eso. Para que puedas ignorarlo. Integración, para que pueda elegir la integración aquí donde los servicios se integrarán con el lago de seguridad este es el registro sin procesar para su fuente de datos, que pueda habilitar el lago de seguridad por aquí. Entonces esto se integra con el lago de seguridad y obtiene los registros. Y luego en términos generales, se puede ver alguna información general al respecto. También puedes ver a ese detective de Amazon deshabilitado por aquí, así que esto va a terminar tus 30 datos si estás deshabilitado eso es muy agradable. Um, por aquí está el servicio. Se puede encontrar en realidad el investigador, los grupos de hallazgo por aquí, y de hecho se puede ver la ubicación geográfica de la investigación Y entonces aquí se puede ver encontrar grupos e investigaciones por aquí, que es la investigación actual, y entonces ¿qué quiere buscar? Entonces, del mismo modo, tienes todas estas opciones por aquí bajo detective. En fin, alabanza, gracias de nuevo por ver este video. Espero que haya entendido cómo trabajar con director y cuál es el uso de directiva y cómo interactuar con Directiva en este caso. Entonces otra vez, ¿no hay preguntas sobre vamos a configurar una directiva o algo así? Entonces va a ser sobre lo que es deductivo y podría tratarse de una de las características de los beneficios dectivos o clave del deductivo o de lo que la directiva detecta Entonces las preguntas estarían en torno a eso. Gracias de nuevo por su paciencia y tiempo. ¿Estás en 16. Laboratorios de AWS GuardDuty: Los chicos dan la bienvenida de nuevo al siguiente pero. En este periodo, vamos a Rock Wams en guardia. Lo que es el deber de guardia es que es un servicio de detección de amenazas que monitorea continuamente su cuenta de AWS para detectar comportamientos maliciosos y no autorizados, incluidas llamadas a la API anbal o instancias comprometidas Entonces entonces el deber de guardia es básicamente un servicio donde puedes recordar. A mí me gusta que haga el deber de resguardar tu instancia. Ahora bien, ¿cuál es la diferencia entre el deber de escudo y guardia? Porque ambos están relacionados en algún lugar. Escudo, se puede considerar como un enfoque reactivo, deber de guardia como un enfoque proactivo. Entonces, um, shield te está protegiendo de los ataques entrantes, ¿de acuerdo? En su mayoría son cosas reactivas. deber de guardia aquí es proactivo que detecta amenazas incluso antes de que ocurra donde busca en su cuenta de AWS por comportamientos maliciosos o no autorizados, incluyendo, um, ya sabe, cualquier tipo de llamadas a la API que ocurre alrededor de su cuenta. Ese tipo de llamadas a la API, que ocurre a través de Amazon, podría decir que el equipo que has estado usando para conectarte a AWS se vería comprometido y ese tipo de llamada de AWS, viene desde ese equipo donde estás accediendo a tu AWS. De igual manera, el deber de guardia es proteger su información existente en su ST, su RDS, IM, sus VPC, bajo VPC EC dos instancias de servidor, cualquier tipo de servicios de contenedor Por lo que todos los servicios son monitoreados usando deber de guardia. Bien. Ahora, hablemos del ejemplo en tiempo real. Imagina que si estás ejecutando una aplicación financiera como un sistema bancario y tu deber de guardia detecta una llamada APA inusual. Como el acceso a datos confidenciales o direcciones IP desconocidas Por lo que el deber de guardia levanta una alerta ayudándote a investigar el posible acceso no autorizado y tomar medidas preventivas contra tales incumplimientos Ahora, el deber de guardia estará buscando principalmente en las llamadas de la APA y cómo, ya sabes, llega la comunicación. Um, entonces esto es más o menos en esa área de seguridad o asegurar su aplicación. Hablemos de un par de características por aquí. Entonces uno es el monitoreo continuo. Por lo tanto, monitorea la prueba en la nube, flujo de VPC y los registros de DNS para detectar actividad sospechosa Normalmente detección, donde se utiliza una misión aprendiendo para detectar anomalías en cuentas y actividades de red Y también las alertas automatizadas es algo que también es una de las características que puede incluir donde enviará una alerta securi procesable cuando se detecte la amenaza Entonces puedes conectar esto con incluso bridge, y luego SMS lo enviará básicamente un MS y un slack y luego también puedes conectarlo con la función Lambda para activar una función ahí. En términos de beneficios clave que existen, por lo que es básicamente una detección proactiva de amenazas dirige la amenaza potencial temprano, como instancias comprometidas o llamadas a API maliciosas. Y así como, como, ninguna gestión de infraestructura. Por lo que es un servicio totalmente administrado, por lo que no es necesario implementar ningún tipo de infraestructura de mantenimiento. Entonces, veamos rápidamente cómo se ve. Entonces Dios Deber. Entonces ese es un servicio por ahí, así que simplemente haga clic en el medio no, y um solo un poco lento. Perdón por eso. Bien, así que ahora acabo de despublicar mi video, así que tardó unos 5 segundos en cargarse Entonces aquí tienes el deber de guardia maison, prevención inteligente de amenazas para cuenta y carga de trabajo. Entonces tanto impide cuentas, como te dije, si alguien está haciendo llamada APA, llamada a línea de comandos o algo así, y lo encuentra sospechoso, va a desencadenar una alerta, alerta de seguridad y eso. Entonces no se trata solo de las cosas de nivel de servicio, sino también de las cosas de tu nivel de cuenta, como cómo la gente está accediendo a ellas. Y luego el deber de guardia, todas las características experimentan capacidades de deducción de amenazas en AA Blaze y Raman guard duty, mal word protection, y en esta solo es S tres Entonces, o vaya por todas las funciones o solo S tres, por lo que su precio dependerá de eso. Ahora, puede ver que las características y los beneficios es una mala protección de palabras para S tres, y luego es fácil de implementar y escalar hasta la fecha la protección de dirección de amenazas, igual manera, solo entra por casualidad escuchar comenzar Ahora, aquí tienes algunos roles de permiso. Hablaremos de esto más adelante. Entonces este es un permiso shat entre otros servicios y este en particular Pero vamos a usar el d41, así que no nos vamos a preocupar por ello. Por lo tanto, el plan de protección de aquí es habilitar el servicio de guardia por primera vez, lo que permite protección de servicio de guardia plus, excepto el monitoreo de tiempo de ejecución y MalwpTection para ST, los cuales pueden habilitarse según la consola Entonces todo lo que tenemos que hacer ahora mismo es permitirte obtener 30 días de prueba gratis, así que esa es una muy buena noticia para nosotros. Entonces vas a conseguir 30 días de juicio por aquí. Si quieres delegar un rol de administrador por aquí, puedes poner en el ID, pero solo voy a ir con habilitar Guard DUT por aquí Voy a usar el ID predeterminado para eso. Así que al pasar por aquí, puedes habilitar con éxito el deber de guardia por aquí. Ahora GuardDuty está habilitado, así que todo lo que hace es dirigir acceso a mi cuenta y ver cómo va a estar funcionando con él Entonces no hay nada de encontrar por aquí porque puede llevar algún tiempo analizar mi información de inicio de sesión, llamadas APA y cosas así. Así que prácticamente nada mucho por aquí para informar en este momento. Por lo que también puede habilitar el monitoreo en tiempo de ejecución. Así que quedan 30 días para FatGate y EKS EC dos instancias también Así que el monitoreo del tiempo de ejecución lo comprobará en el tiempo de ejecución, que significa que cuando el servicio se esté ejecutando , así que va a comprobarlo y , ya sabes, va a funcionar con eso. También puede habilitar el servicio para EKS, que servicio de cuarentena Fargate, que es ECS, que es su servicio de contenedor, tiene el EC dos, que es el servicio de servidor Bien, así que eso es más o menos eso. Y tienes la opción de habilitar la protección contra malware para S tres. Entonces esto va a habilitar la notificación para ti si alguien está subiendo un malware a tu S three, de igual manera, la protección RDS también está ahí como parte de Lamptection también está ahí como parte del deber de guardia. deber de guardia es una de las cosas importantes de seguridad y seguramente puede obtener una pregunta del deber de guardia debido a la importancia que se le ha dado. Así que nuevamente, el servicio de guardia es un servicio de detección de amenazas que monitorea continuamente su cuenta de AWS para comportamientos maliciosos y no autorizados. Y esto es algo que debes recordar cuando vas a por ello. Y este es un servicio proactivo donde lo detecta temprano, la amenaza temprano y es aplicable para todos los servicios en eso en tu caso. Por lo que es aplicable para RDS, que es su servicio de base de datos relacional o podemos llamarlo un servicio administrado Aplica para Lambda, que es básicamente su servicio completamente administrado, y luego tiene la protección para S tres, EC dos y protección de tiempo de ejecución para, otros servicios como EKS, EC two, que es un servicio administrado basado en contenedores. Entonces Fargate para ECS otra vez, um, luego EC Entonces, igualmente, um, tienes protección de para, quiero decir, sí, se puede decir de contenido malicioso y cosas así y acceso a la cuenta también. Entonces eso es algo para lo que realmente puedes usar el deber de guardia. Gracias de nuevo por su paciencia y tiempo. Si tienes alguna duda, déjala en la sección de preguntas. Recuerda referir la hoja de tramposo uh. Si quieres echar un vistazo rápido a todos estos servicios, tiene la 22 lectura sobre todos los servicios para que te consiga los puntos importantes antes de tu examen. Gracias de nuevo. Te veré en la siguiente. 17. Labs AWS Inspector: Oigan, chicos, bienvenidos de nuevo al siguiente video. En este video, vamos a hablar sobre el inspector de AWS. Ahora, hablemos del uso de este inspector, cómo en realidad usamos este inspector. Como este diagrama dice muchas cosas, ahora, inspector es un servicio automatizado de evaluación de seguridad que ayuda a identificar vulnerabilidades y desviaciones de las mejores prácticas en su instancia de EC two o si está ejecutando contenedores en su carga de trabajo de instancia EC two y aplicaciones solo parte de su instancia EC two. No solo la instancia EC dos, sino también lo que se ha alojado en la Instancia EC dos, también lo inspecciona. Ahora bien, ¿cómo recuerdo este nombre? La palabra inspector es en sí misma es una pista muy grande. Te informa al respecto hace la inspección de las vulnerabilidades, tu EC dos instancias y busca tu aplicación para cualquier vulnerabilidad o CVE en esa aplicación en particular Bien, así es como recuerdo la palabra inspector. Entonces cuando veas eso en el examen, verás inspeccionar inspector. Entonces lo que hace, inspecciona. Lo que inspecciona, ¿de acuerdo? Inspecciona EC dos instancias en busca de vulnerabilidades, CVs. Ahora lo que es CV, CV es una vulnerabilidad y exposiciones comunes, donde da oportunidad a los explotadores como hackers que pueden explotar estas vulnerabilidades y luego entrar en tu aplicación, recopilar detalles al respecto y pedirte rescate No queremos meternos en esa situación. No queremos poner a nuestras empresas para las que trabajamos en esa situación. Por lo que siempre es bueno usar el inspector para escanearlo, entender qué vulnerabilidades tienes. Entonces lo que hace es, no solo escanea la instancia EC dos, solo se encarga de Abs, sino que escanea tu aplicación y los contenedores que estás ejecutando. Y básicamente te da el reporte de vulnerabilidad. Busca vulnerabilidades, problemas de seguridad, software sin parchear Entonces esas son las cosas que realmente busca y trata de eliminar. Bien, así que hablemos de beneficios clave por aquí rápidamente monitoreo continuo es uno de los beneficios clave aquí, escaneo continuo que ayuda a garantizar que las nuevas vulnerabilidades son errores de configuración se detectan y a medida que aumentan Entonces no es solo una herramienta gratuita, así que te cobran por ello, sino básicamente lo que hace sigue monitoreando continuamente tu aplicación, y te da cualquier tipo de disparador de alerta en caso de cualquier tipo de problema. Entonces puedes conectar esto con la página par y luego enviarlo a SNS y luego enviarlo por SMS o Slack, o puedes escribir una función Lambda y luego puedes enrutarla a través de Lambda también De igual manera, tienes diferentes características. Y vamos a ver todas estas cosas va a hacer lo mismo a partir del siguiente video, porque estos son algunos servicios relacionados con la seguridad que se ejecutan en segundo plano. Entonces lo que hemos visto antes es el WAF y el escudo, y WAF y escudo es básicamente un archivo de seguridad que te protege de problemas Y esto es lo que vamos a ver es el material de seguridad, que es como inspector de Amazon, que es después o es una medida proactiva para contenerlo, así que se ejecuta en tu sistema y luego, lo contiene de manera proactiva Entonces el escudo y la gráfica son reactivos donde cuando entra el ataque, va a ser algo reactivo en términos de reaccionar al ataque. Pero estas son cosas proactivas lo que estamos viendo ahora mismo. Entonces esto es más o menos lo que quiero mostrarte por aquí. Lo siento por el fondo no es algo que no puedo controlar. Simplemente puedes ir y escribir AWS inspector, y luego vas a conseguir el inspector de Amazon por aquí. Y aquí en el inspector de Amazon, estás en la página de inicio, y puedes ver así como funciona. Así que básicamente el inspector llega a inspeccionar y lo que inspeccionó es tu um, ya sabes, um, aquí, supongo, habilitar al inspector y luego trabajo automatizado, descubrimiento. No estoy seguro si lo puedes ver, pero esto es lo que te dije hace un momento, así que no te preocupes por ello. Así que solo tienes que hacer click en Comenzar. Entonces tienes que darle permisos hacia qué tipo de reglas de administrador de cuentas quieres darle, y luego simplemente puedes hacer clic en activar inspector. Entonces esto se va a activar en la cuenta predeterminada si no se especifica nada aquí como administrador delegado, por lo que va a usar la predeterminada. Así que solo una vez que lo activas, tienes 14 días de prueba, que es gratis, y en realidad puedes ver que no hay nada para estar trabajando en este momento. A lo mejor tengo que iniciar mi EC dos instancias. Tengo mis ubernuts en esta instancia EC dos. Um es un feedback. No lo estoy usando solamente. Entonces, si comienzo la instancia de dos Oriente, tal vez obtendría algunas vulnerabilidades. No lo sé. Entonces hablemos de comenzar o voy a empezar me van a cobrar por ello. Empecemos una de esas instancias. Entonces va a tomar un tiempo iniciarlo. Y entonces vamos a ver esta vulnerabilidad. Si hay algo como vulnerabilidad. Como te dije, um, viene con 14 días de prueba gratuita, y luego después de eso, te van a cobrar por ello. ¿Bien? Así se puede ver el costo mensual de proyección aquí en el uso, y básicamente por el tipo de escaneo se puede ver realmente escaneo EC dos, escaneo ECR para servicio de contenedores, escaneo Lambda Entonces estos son tres elementos por aquí, lo cual es parte de esto, y estoy corriendo en una versión de prueba en este momento por 14 días, lo siento, 15 días por aquí. Así que también puedes hacer clic en precios aquí y aprender más y realmente puedes ver eso. Entonces supongo que una vez que se inicie mi instancia, comenzaría a escanear. Por lo que ya ha encontrado tres instancias por aquí, cero de tres. Entonces tal vez después de un tiempo, voy a tratar de mostrarte si solo estoy haciendo otro video, voy a tratar de incluir esto también. Entonces solo mira si algo surge por aquí como vulnerabilidad. Bien, entonces no veo nada en este momento. Bueno, de todos modos, muchas gracias por su tiempo y paciencia veré en el siguiente video, y sí recuerdo que mantengo esto abierto para ustedes para que si algo surge por aquí, mi instante empezó a correr, así que puede tomar un poco de tiempo. Entonces veamos si surge algo. Gracias. Gracias otra vez, chicos. 18. Labs AWS Security Hub: Oigan, chicos, bienvenidos de nuevo al siguiente video. En este video, vamos a hablar sobre AWS security hub. Hablemos primero de ¿cuál es el uso del centro de seguridad de AWS? El centro de seguridad proporciona una visión completa de las alertas de seguridad verificación de cumplimiento en todas las cuentas de AWS. Agrega organizar y priorizar los hallazgos de seguridad de varios servicios de AWS y herramientas de terceros Ahora, como puedes ver por aquí, una organización. Sé que no hemos hablado de organización. La organización es un servicio en AWS. Déjame mostrarte eso rápidamente. Entonces, cuando escribe organización, puede ver la organización de la base de datos por aquí. Abres la organización por aquí. Entonces, por defecto, no vas a tener una parte de ninguna organización porque habrías creado una cuenta individual. Pero en realidad se puede crear organización. Tendrás una opción allá diciendo que crear organización. Es completamente gratis. Se puede tener organización creada igual que como la he creado yo. Simplemente crea organización no hay muchas preguntas que se hacen por ahí. Entonces solo hay que decir que sí y luego crear la organización. Una vez que hayas creado la organización, deberías estar Lamento ese ruido de fondo. Um, deberías poder ver el nombre de tu cuenta por aquí y podrás ver la información del usuario, la información raíz. Ahora bien, ¿qué es una organización? Hablemos de ello rápidamente. Una organización no es más que cuando estás en una empresa de servicios empresariales o empresariales o incluso en una empresa orientada a negocios, una gran empresa, es posible que tengas múltiples organizaciones dentro de tu empresa. Bien. Cada organización, como Finanzas, tendrá su propia cuenta de AWS. La atención médica tendrá su propia cuenta de AWS. Medios de comunicación. Si hay una sección así, vas a tener una cuenta de AWS separada. Bien. Ahora, van a alojar entorno de producción y pruebas de Dev para su aplicación relacionada con medios, y vas a tener media punto ejemplo bank.com, algunos algo así Puedes tener finanzas punto uh, ya sabes, ejemplo dot Bank. Bien, o como puedas tener atención médica punto ejemplo dot Bank. Así mismo, puedes tener tu propio sitio web. Y cada una de las aplicaciones vendrá bajo una sola organización, que es tu ejemplo Dot Bank. Ese es el nivel más grande o alto de tu organigrama, y eso va a ser así. Entonces, cuando tienes este tipo de característica, cuando tienes este tipo de organización de características, necesitas un hub de seguridad en el que recopile datos de diferentes organizaciones, lo recopile datos de diferentes organizaciones, que significa que incluir todos los servicios parte de tu organización. Por ejemplo, estoy teniendo um esta instancia EC dos, mi instancia EC dos, tengo los servicios como AF y otras cosas, ¿verdad? Entonces tengo todos estos servicios configurados en mi configuración actual por aquí, que está más allá de Cloud AI esto se convierte en una sola cuenta. Bien. Eso lo puedo ver. Puedes agregar otra cuenta con esta organización. Al inscribirse en la misma organización, en realidad puedes invitar a personas a esta organización y luego tener otra cuenta para esa sucursal en particular de tu empresa Podría ser una sucursal, podría ser outlet, podría ser cualquier cosa. Para que los puedas agregar como parte de la organización. Por lo que tendrá que ser cuenta. Pero lo que vas a poder ver la facturación para la organización. Por lo que la organización completa obtendrá una L una facturación que incluye todas las cuentas dentro de esa organización en particular. Ahora, ¿qué hub de seguridad AW lo hace? Recoge todos los temas de cumplimiento relacionados con la seguridad. Recoge toda la vista de las alertas de seguridad y le brinda una vista completa en un tablero. Bien, lo que le brinda una visión integral de todos los problemas de seguridad a través de. Entonces de esta manera, en realidad puedes, um, investigar el problema desde una sola vista, ya sabes. Entonces, por ejemplo, está administrando un entorno de AWS multicuenta y necesita un panel centralizado para ver alertas de seguridad y datos de cumplimiento. El hub de seguridad de AWS agrega alerta de servicios como Amazon Guard Dog que hablaremos más adelante inspector, gerente de fuegos artificiales, de los que hablaremos más adelante Por lo que reúne toda esta información y de hecho la mostrará en un solo lugar Entonces, lo que me gustaría que recordaras en el examen es que cuando escuchas la palabra seguridad hub, así que escucha la palabra seguridad y hub juntos, hub es un lugar donde lo tienes tiene una visión integral de muchas cosas. Así es como lo llamamos como hub. Entonces, cuando escuchas esta palabra, así que te refieres a ella necesita recordarte esta arquitectura que dice que vas a recopilar información, la información relacionada con la seguridad, la información relacionada con el cumplimiento, las alertas de informes de seguridad de seguridad. Vas a conseguir todas esas cosas en un solo lugar en toda tu organización. Entonces eso es algo en lo que realmente deberías pensar cuando escuches este nombre. Ahora, hablemos de las características ahora, el tablero centralizado, que en realidad ve alertas de múltiples cuentas y regiones en un solo lugar. Compila y verifica, accede automáticamente a la compilación de los estándares industriales de CIS y PCI DSS También se integra con otros servicios de AWS como servicio de guardia, uh, inspector, laberinto y otras herramientas de terceros. Así que sólo hemos visto laberinto quiero decir, inspector hasta ahora. Entonces los videos estarán alineados en consecuencia, así que no te preocupes por ello. Entonces vamos a estar trabajando en eso. Entonces el siguiente son los beneficios clave de aquí. Los beneficios clave son que es vista unificada. Como te dije, tiene la consolidación de alertas de seguridad en todos los servicios y en toda la organización. Y también tiene la función de reporte donde va a estar mirando el cumplimiento. Y también cómo es que, ya sabes, está muy bien el cumplimiento está dentro de los estándares de la industria del entorno de AWS Entonces estos son algo que va a buscar en el hub de seguridad. Vamos a tener una visión del centro de seguridad de aquí. Entonces ahora vamos a cerrar la organización. Vamos por la seguridad. Hub, y luego obtendrá el hub de seguridad aquí como un servicio, y luego simplemente haga clic en eso. Y en realidad puedes ir a esto. Tienes que habilitar esta es una prueba gratuita de 30 días para el centro de seguridad. Así que solo tienes que ir al centro de seguridad y luego comienza tu activación. Entonces, el centro de seguridad de aquí se encarga de todo lo demás, como controles de seguridad automatizados, informe consolidado del inspector de guardia May y servicios adicionales y solución integrada de socios. Se lo va a quitar de toda la organización, lo siento, todos los íconos de la organización, te va a mostrar en esto. Para esto, necesitas ir realmente a Security Hub, y luego aquí tienes la configuración de AWS, de la que hablaremos más adelante. Y luego tenemos que habilitar los estándares de seguridad por aquí donde esperas que tu aplicación sea um, como AABSFoundation of security best practices y benchmarks CIS ARABSFoundation Entonces puedes ver que hemos elegido las cosas básicas por defecto, así que también puedes agregar más artículos por aquí para ver si tu um, los artículos son como, lo siento, si tu um, organización tiene los estándares de seguridad de crear todos los servicios y esas cosas, y luego solo habilita el centro de seguridad aquí, que en realidad te va a mostrar, esos artículos por aquí. Entonces aquí, los precios son como después de 30 días de prueba gratuita, por lo que se le puede cobrar por primero uno AC o 100,000 um, cheques de seguridad, vas a cobrar 0.00, um, uno $0 por Entonces esto es bastante barato cuando lo comparas, así podrás ver que va a ser así. Um, así que esa es la facturación de la misma, y prácticamente quería mostrarte esto y mostrarte la interacción en este elemento de acción en particular. También vamos a ver otros servicios de seguridad , en un momento posterior. Gracias de nuevo por su paciencia y tiempo. Te veré en la siguiente. 19. Laboratorios AWS Shield: Oigan, chicos. Bienvenidos de nuevo al siguiente video. En este video, vamos a hablar de una de las encuestas importantes sobre AWS a la hora de la seguridad. Vamos a hablar de escudo AW. Ahora, ¿qué es ese escudo? Hablaremos de la arquitectura más adelante, pero ¿de qué nos está protegiendo? Nos está protegiendo del ataque DoS, ataque de denegación de servicio, y luego ataque DDoS, que verás en un momento Entonces si no estoy seguro, como el mes pasado, que es, supongo, agosto de 2024, donde estaba como, uh, escuchando sobre una noticia, diciendo que había esto, ya sabes, esta presidencia de Trump y Trump estaba renunciando a este discurso en Twitter con Elan Musk ¿Bien? Entonces esta fue una gran noticia para las notas de seguridad, y además, como, mucha gente realmente se enteró de esta noticia. Uh, no estoy apoyando a ningún partido político ni nada de eso. Simplemente se me ocurrió esto porque era una situación real en vivo donde Trump estaba dando, um, entrevista con Elan Musk Y lo que ha pasado es eso en esa entrevista. Se suponía que iba a comenzar a una hora específica, pero luego comenzó 45 minutos tarde. Los retrasos en el relevo de ese vivo en particular que se supone que es en vivo, um, ya sabes, uh, cosas de Twitter realmente sucedieron, 45 minutos tarde. Twitter anteriormente conocido como actualmente conocido como x, ¿verdad? X.com, que comenzó 45 minutos tarde. Ahora, cuando nos preguntamos al respecto, llegamos a saber que hubo un ataque de Dedos Ahora bien, ¿qué es un ataque de Dios? De eso vamos a hablar. Hablemos del ataque DoS. Veamos cómo funcionan los ataques DoS. El ataque DoS funciona de manera muy simple. Se llama flecha de servicio. Entonces vas a estar accediendo como hacker. Estará accediendo al sitio web tantas veces que finalmente, se va a dar por vencido y decir, solo hay, ya sabes, ya no te voy a servir porque actualmente todas mis amenazas están llenas. Entonces esto es lo que la intención del ataque de un Dido. El ataque de Dedos fue muy sencillo. Sigues atacando al servidor accediendo al servidor tantas veces que el servidor se queda sin che. ¿Bien? Eventualmente atropello a amenazas para atender su solicitud. ¿Bien? Entonces, ¿qué es el ataque Dedos? Es una forma distribuida de atacar lo mismo ataque DoS. Así manera distribuidor, lo que significa que usa Internet de las cosas, su computadora portátil, computadora escritorio, y luego sus teléfonos móviles, cualquier forma de dispositivos de Internet por fases Y entonces continuamente golpeas el servicio, bien entonces eventualmente la computadora se va a dar por vencida, a pesar de que el autoescalado está habilitado y todas esas cosas están ahí Pero recuerde que para escalar automáticamente, realidad debería estar pagando más por sus servicios web de Amazon o cualquier proveedor de Cloud cuando vaya a escalar por lo que significa que la pérdida de ingresos para su sistema porque sigue, ya sabe, la gente está accediendo a él Parece que cientos y miles y millones de personas están accediendo a tu sitio web, pero en realidad no sería así. Sería víctima de un ataque. Bien. Entonces ahora, el proceso es muy sencillo. Accede al sitio web a través de tu DNS, pasa por Route 53, si está alojado a través de AWS, y luego ve al balanceador de carga, podría ser aplicación, red, lo que sea, y luego ir al servidor Obtener ese contenido del servidor. Ahora el servidor podría tener una aplicación web y luego un servicio de base de datos, podría ir a los servicios de mensajería también podría ir a los servicios de mensajería y luego subir los datos. Así que cada vez que trae los datos, el atacante ataca de nuevo y te pide que obtengas más datos. Entonces de esta manera, ocurre una denegación de servicio distribuida , ¿de acuerdo? Entonces este ejemplo, lo que te dije de Twitter o X es lo real. Y si le pasa a un sitio web tan grande, quiero decir, las empresas para las que trabajamos no son propensas a ello. Si no sucede, no es porque haya habilitado muy buena seguridad. No te ha pasado , hasta ahora, significa que en realidad nadie ha pirateado tu sitio web Así que eso es lo que significa, ¿de acuerdo? Entonces ahora, ¿cómo proteges tu sitio web de tal ataque ¿Cómo te aseguras de que al menos la probabilidad estándar contra este tipo de ataques? al menos la probabilidad estándar contra este tipo de ataques Entonces hablemos de AW Shield. Ahora, AW Shield te da dos ofrendas por aquí. El escudo estándar que está habilitado por defecto y que es libre, y existe este escudo avanzado. Ahora bien, ¿qué quiere decir con escudo estándar? Standard Shield te proporciona, um, ya sabes, es una forma común de escudo que da organizaciones grandes ataques de dedos a gran escala. Entonces más o menos por qué es gratis. Hay que pensar en eso. Amazon quiere proteger su servicio, ¿de acuerdo? Entonces, incluso cuando hablamos de pruebas de penetración, ¿verdad? Entonces, en las pruebas de penetración, nunca obtendrá una aprobación para Didsatac para fines de prueba ¿Bien? Porque simplemente no es tu contenido lo que están tratando de proteger. Se trata de todos sus clientes. Entonces, si un sitio cae, no solo su aplicación se ve afectada, sino que toda la aplicación recién alojada en el sitio se ve afectada, entonces tienen que cambiar a DR, lo que es, nuevamente, un costo adicional para ellos. Así que recuerden que querían habilitar este producto por defecto porque odian el ataque de dedos, ¿de acuerdo? Entonces esa es la razón por la que está ahí gratis, ¿de acuerdo? Y ahí está esta versión avanzada de ésta, que es una versión de pago. Y en esta versión, obtendrá protección mejorada, ataque en tiempo real, visibilidad y protección financiera contra grandes costos relacionados con Dids ¿Bien? Entonces estos son algo que se proporciona como parte de la opción avanzada, ya sabes, que está disponible para ti. Te voy a mostrar eso en la sesión práctica en algún tiempo. Pero recordar que esta es una protección que viene por defecto y no se puede desactivar esto, porque nadie quiere detosattack en su plataforma, así que eso es algo que debes Hablemos de algunos de sus beneficios clave. Beneficios clave es la protección automática. Ahora bien, ¿qué quiere decir con protección automática? El escudo estándar aquí está habilitado por defecto, lo que no es necesario tener la opción de deshabilitarlo o habilitarlo El segundo es la protección avanzada contra amenazas donde Shield Advance ofrece un informe detallado sobre respuesta rápida durante ataques a gran escala en su sistema, su sitio web o su aplicación. Bien, solo para echar un vistazo a esto, que puedas ir a WAF y Shield, así solo puedes escribir WAF por aquí, y obtendrás BAF Y bajo el WAF y escudo, tendrás el AF como en el primero, y luego el segundo va a ser Escudo Ahora, cuando empiezas con escudo como te dije, esta es una capa de protección Dios de aplicación automática. Y eso es, ya sabes, eso está habilitado por defecto. Ahora bien, ¿cuál es esta lista de precios? 3 mil al mes. Eso es para el avanzado Shield Advanced. Entonces, si quieres ir por Shield Advanced, en realidad puedes ir por eso. Pero, yo no diría que hay nada especial ahí dentro a menos que y hasta que quieras tener alguna característica avanzada como mirar el reporte de ataque y cosas así. Y, um, hasta entonces, ya sabes, no tiene sentido llegar ahí. Entonces puedes ver que estas no son más que tus infraestructuras de AWS, tus regiones de AWS y sus zonas de disponibilidad, que está bajo ataque. Entonces se puede ver que el rojo indica que cuanto más ataque y se puede ver más ataque en el lado de los Emiratos Árabes Unidos de las cosas y se puede ver el Creo que ese es el lado de Nueva York de las cosas. Entonces ahí se puede ver que hay un ataque enorme y hay una gran cantidad de actividades dirigidas y prevenidas por AWS Shield. Así se puede ver que el resumen de las dos últimas semanas, apenas el resumen de las dos últimas semanas, ataque de paquetes más grande fue de 221 MBBS y se puede ver que la mordida más grande se transfirió fue 636 GBBS Y luego el vector más común SYN inundación. Esto es básicamente un tipo de ataque por aquí, nivel de amenaza, normal, número de ataques es de 66,540 Así que fue capaz de detectar tanto ataque que viene en, uh, y esto es básicamente acceder constantemente a sus sitios y aplicación que está alojada en AWS. Y fue capaz de detectar estos ataques y detener los ataques. Ahora, se puede ver que en su en mi cuenta, esto no hay evento porque yo principalmente lo uso internamente para turno abierto y otras cosas. Pero de todos modos, eso es gracioso. Para que puedas comparar la llanta escudo. este momento, tenemos la llanta estándar, cual está habilitada por defecto y es gratuita. Puede ver el monitoreo de flujo de red, puede ver la protección estándar para los servicios AW subyacentes. Pero entonces si quieres el monitoreo del tráfico del servidor de capa, hablaremos del punto de tiempo de capa siete capas. Yo solo te doy una rápida introducción a ella, y luego tienes migración de capa tres y cuatro, normalmente dirección. Entonces todas esas otras cosas con 247 apoyos del equipo de escudo. Con el costo efectivo donde la protección de costos de escalamiento debido a los ataques de Dido. Esto es algo hermoso. Si crees que tu aplicación o tu sitio web están pasando por un ataque frecuente y debido a lo cual, ya sabes, ocurre el escalado fuera del escalado, en realidad puedes tomar estos 13000 al mes y realmente puedes ahorrar este dinero donde se escala, y como que tienes esta protección diciendo que no se te cobrará por el escalado del servicio Y luego AWS five manager, sin costo adicional, y luego AW, lo siento, WAF solicita recursos protegidos sin costo adicional De igual manera, tienes algunas ventajas por aquí al pasar a la avanzada. Pero depende completamente de tu situación, depende completamente tu elección y de tu elección del cliente, cómo te gustaría. Pero es tu responsabilidad proyectar todas estas cosas, todas estas ventajas a tu cliente, diciendo que um, ya sabes, estas son algunas de las ventajas por las que optarías por, ya sabes, el servicio de pago mensual. Si eso es algo que el cliente requiere, entonces iremos por ello. También puedes ver el hilo global un dashboard por aquí, así que básicamente te dice todos los días, y puedes ver el número de ataques frecuentes um, que simplemente sigue aumentando. Por lo que en realidad se puede verificar por los últimos tres días, el último día, del mismo modo. Entonces solo te da la amenaza global por aquí, lo que te muestra las cosas completas de todo el mundo. También puedes consultar eventos que están relacionados con tus cosas. También puedes ver algunos recursos protegidos por aquí. No tienes nada como recurso protector, y luego puedes ver la visión general de las cosas. Suscríbete a Shield Advance para tener realmente los beneficios en protege, así que esto está incompleto y puedes comenzar por ahí. Todos hablaremos de este punto de tiempo posterior en los profesionales. Pero aquí, no vamos a preocuparnos mucho por esto. Aquí solo vamos a estar entendiendo y viendo y reuniendo experiencia sobre cómo se ve este tipo, cómo se ve cada servicio y por qué hay tantos servicios. Ahora bien, cuando se trata de escudo, dice muy claramente que aquí no hay acrónimo, aquí no hay forma corta, dice escudo AW. Y cuando escuchas la palabra palabra AW shield, significa que te está protegiendo de los ataques. Esto es lo que debes recordar. Te está protegiendo de los ataques. Qué ataca, Dios ataca. Cualquier tipo de ataque consistente a tu sitio web, va a proteger a tus pandillas Esto es lo que se supone que debes recordar cuando te hacen preguntas sobre escudo. Entonces te voy a dar una hoja de trampa, así que no te preocupes por ello, que tiene 20 segundos de introducción, así que solo habla de estos artículos, y solo puedes ver esa hoja de trampa y luego puedes ir sobre ella. Gracias de nuevo por su paciencia y tiempo. Te veré en el siguiente video. 20. Descripción de certificados de laboratorio: Oigan, chicos, bienvenidos de nuevo para el siguiente video. Y este video, sólo vamos a ver una pequeña arquitectura en cuanto a introducción de certificados. Um, solo quiero darte el enfoque minimalista hacia ello, porque no vamos a ver, como, exposición de TLS en nuestras manos en sesión Vamos a hacerlo, pero luego no extender donde vamos a configurar aplicaciones en TLS, porque eso no es parte de tu programa de certificación Pero a pesar de que voy a tratar de hacer los máximos laboratorios en esto, te voy a mostrar el máximo de artículos, ¿de acuerdo? Esa es una promesa de mi parte. Entonces aquí está la introducción a la certificación. Entonces aquí, están estos tres. Entonces tienes que separar estos tres como separados, ¿de acuerdo? Entonces estos son tres conceptos diferentes por aquí. Intenta alinearlo y simplificarlo tanto como pueda. Aquí hay tres tipos de certificados. Entonces tienes certificado demo, certificado autofirmado, certificado de firma de terceros. Ahora bien, estos tres tipos de certificados actuarán de manera muy diferente en tu navegador, ¿bien? Déjame decirte eso en primer lugar. Entonces, si navego por un certificado de demostración o Internet Explorer, Internet Explorer simplemente me dirá directamente que este sitio no es confiable y los certificados de demostración no están permitidos Puedes navegar por el certificado de demostración en Chrome o cualquier otro navegador, pero dirá una gran advertencia. Lo mismo va para el certificado de autociencia. El certificado de autociencia es algo que recibirás una advertencia al borde. Internet Explorer, recibirás una advertencia en el Chrome y en cada navegador, diciendo que este certificado parece estar autofirmado, y ¿aún quieres continuar? Haga clic aquí abajo, y luego tiene que hacer clic hacia abajo y luego proceder al sitio web. Por lo que hay que consentir manualmente y proceder al sitio web. ¿Por qué? Porque es autofirmado. Entonces certificado de autociencia no es nada, pero estoy diciendo que soy un buen tipo. Entonces cualquiera confiaría en eso porque no puedo decir que soy un buen tipo. Si alguien dice que soy un buen tipo, entonces obviamente pueden confiar en mí, ¿verdad? Entonces, si digo que soy un buen tipo, nadie puede confiar. Eso es lo que pasa con el certificado autofirmado. Certificado autofirmado es gratuito. Cualquiera puede crear un certificado autofirmado. Cualquiera puede ponerlo en su sitio web para obtener un certificado autofirmado. El segundo es tu tercero lo siento, el tercero, que es tu certificado de firma de terceros. Ahora bien, ¿qué quiere decir con certificado de firma de terceros? El ejemplo de la cosa que te dije, ¿verdad? Alguien está diciendo que soy un buen tipo. Entonces obtienes el estampado de alguien de que soy un buen tipo, ¿verdad? Entonces eso es lo que significa. Entonces es algo así como un certificado de AWS. Ves el certificado por aquí, ves este letrero de registro, ¿verdad? Entonces, cuando haces clic en el letrero de registro, dice que la conexión es segura. ¿Bien? Si es un certificado autofirmado, no diría eso, ¿de acuerdo? Porque hay un par de tres o cuatro cosas que verás para decir que la conexión es segura, y dirá que este es un certificado válido. ¿Bien? Dice seguro porque es un certificado válido. Si no es un certificado válido, no diría que la conexión es segura. Entonces puedes ver que este sitio es válido, tiene un certificado válido, debes comprar una autoridad de confianza. Ahora bien, ¿qué quiere decir con autoridad de confianza, verdad? Esa es otra pregunta que vas a tener. Ahora bien, si ve eso, esto es emitido dos y emitido por. En ocasiones se emitirá dos y se emitirá desde también. ¿Bien? Entonces no importa. Es como de o comprar. Es la persona que lo ha emitido. Ahora, ¿quién lo ha emitido? Es la Amazon RSA 204803. ¿Bien? Este es el detalle del certificado raíz o podría ser certificado intermedio al por menor también. Por lo que el certificado intermedio irá a un certificado raíz. Entonces hay algo que se llama cadena de certificado. ¿Ahora ves eso? Esto es intermedio Este es su certificado personal, certificado intermedio, certificado raíz. Por lo que actualmente está encadenado. Entonces, si cierro esto, todo viene debajo de él. Entonces lo que esto significa es que si voy a la arquitectura, tienes el segundo que vengo aquí. Certificado personal, certificado de terminación , certificado raíz. Ahora bien, por qué se cambia, perdón, por qué está encadenado y cuál es el uso del certificado encadenado Ahora, en términos de certificado autofirmado, mayoría de las veces verás certificado de persona única. Sólo habrá un certificado. Eso es autosigno. ¿Bien? A veces tendrás ese certificado de persona encadenado Bien. Y en esa situación, aún así, se trata de un certificado autofirmado. ¿Por qué? Porque no confía en este certificado raíz. Ahora, intentemos entender cuál es el concepto, por qué lo estamos construyendo así. ¿Bien? Entonces este es un ejemplo perfecto. Por qué es así. Por qué el certificado raíz comprende de certificado intermedio y comprende de certificado personal. Al crear cualquier certificado, derecho, se crea como un certificado autofirmado únicamente. Bien. Um, esa es toda la razón. Entonces, cuando creas una raíz cuando creas un certificado, ingresas todos los detalles sobre el certificado, ¿de acuerdo? Eso es lo que haces. Lo siento mucho. Yo sólo, como, fastidiando esto. Entonces, cuando creas un certificado, ingresas el detalle, y lo que obtendrás como salida por aquí sería, um lo siento, solo un segundo. Um, sí. Sería lo siento, podría ser un archivo JKS, archivo clave, archivo KDB, archivo Betwll Así mismo, hay tantas extensiones por ahí. Así mismo, crearás este tipo de archivo. Entonces lo que haces es ir a una autoridad certificadora, como CA, ¿bien? Y firma ese certificado por la CA, ¿de acuerdo? Entonces cuando lo vincula con la CA, entonces vas a obtener este formato. Usted CA tendrá un certificado raíz y un certificado intermedio. Por lo que agrupará este certificado en un solo archivo, que son los tres certificados, y tú lo pones en el servidor. ¿Bien? Ahora, vas a conseguir una clave privada por aquí. Vas a conseguir una clave privada. Nunca se debe compartir esto con nadie. Esa clave privada no debe compartirse ni siquiera con una CA también. Recuerde que la clave privada debe mantenerse con eso. Entonces este archivo en particular que obtendrá como salida después de crear el certificado, que es una clave privada. Entonces lo que hacemos es, usamos la clave privada y vamos a generar algo llamado CSR Bien. Um, entonces hay varios otros formatos ahí, pero sigamos con CSR ahora mismo CSR se llama solicitud de firma de certificado. Por lo que enviará este archivo CSR a la CA, no a la clave privada en sí Si envía la clave privada a la CA, entonces no la emitirán. Dirán, recrear el certificado y enviarme la CSR, porque nadie envía una clave privada, Entonces cuando recrea el certificado, viene otro número generador aleatorio. Entonces eso es lo que se llama el tamaño de la clave. Ahora bien, si ves eso, en esta misma página web, dice 2048 Entonces este es el tamaño de la llave. Por lo que normalmente, encontrarás el tamaño de la clave solo en este detalle. Um. En algún lugar de aquí, encontrarás el tamaño de la llave, sí, aquí, 2048 Entonces ese es básicamente el tamaño del tamaño de tu archivo clave. El tamaño Keyf habla de encriptación. Este es el número generador aleatorio. Y usando solo este número generador aleatorio, verás que se trata de certificado público, por lo que no puedes hacer nada con él. Entonces ahí es donde viene otra terminología certificado público, un certificado privado, ¿verdad? Un certificado público es como yo diría normalmente como ejemplo, tienes dos llaves de tu casa, ¿de acuerdo? Una llave es básicamente para bloquear, otra llave es para bloquear. Entonces cuando un ladrón te ve en el camino y conoce tu casa, así dice, dame la llave de la casa. ¿Qué llave darías? Así que tómate un segundo, piénsalo. Si le das la clave privada, eso es para desbloquear, ¿de acuerdo? Clave de desbloqueo de clave privada. Y la clave pública es la llave de bloqueo, ¿de acuerdo? Para que puedas bloquear cualquier cantidad de contenido o cualquier cantidad de cerraduras usando la llave de bloqueo. Pero la única llave que puede desbloquear es la llave de desbloqueo, pero él no sabe que tienes esta llave de bloqueo y llave de desbloqueo Entonces le darás la llave de bloqueo. Entonces todo lo que puedes hacer con la llave de bloqueo son cosas de bloqueo. Pero quién puede desbloquearlo, la clave privada que está sentada en su servidor. Entonces las cosas, las cerraduras con llave de bloqueo, derecho, solo pueden ser desbloqueadas por la llave de desbloqueo porque la llave de desbloqueo solo sabe de la lógica, cómo se hace el candado, porque ¿quién está haciendo el La llave de desbloqueo lo está haciendo. Entonces a través de esto, en realidad estarás cifrando todo desde el lado del cliente Y lo que sucede una vez que se transfieren los datos, los datos se transfieren en formato cifrado que en realidad no se puede leer. No tiene sentido, aunque lo leas. ¿Bien? Entonces, una vez que se reciben los datos, comienza el proceso de desbloqueo donde la clave privada desbloqueará las cosas. Gracias chicos por el tiempo y la paciencia. Te veré en el siguiente video ahora que entendiste el certificado, así que seguiremos adelante y miraremos al encargado de certificados. 21. Cifrado de datos Labs Rest: Hola, chicos. Bienvenidos de nuevo al siguiente video. En este video, vamos a hablar del resto de encriptación de datos. Ahora, donde vamos a implementar el resto de encriptación de datos ahora que hemos visto cómo implementar el cifrado en términos de su encriptación HTDPS para el tránsito de ¿Vamos a hablar del método del resto, como cómo podemos cifrar estos datos por aquí Así que tenemos los tres tipos diferentes de almacenamiento por aquí, ST EBS y RDS Entonces vamos a ver cómo cifrarlo cuando los creamos. Vayamos a nuestra consola y abramos todas estas cosas. Lo he mantenido abierto para ustedes porque mi Internet, como saben, es un poco lento. Todo bien. Ahora estoy en tres y cuando haga clic en Crear Bucket por aquí, una de las opciones que me va a preguntar es el nombre del bucket. Lo pones usado para, y luego la configuración de elegir tu prefijo de bucket y luego algunas opciones sobre si quieres tener este acceso a public y luego bucket versioning debe estar habilitado para tu bucket y luego el cifrado De forma predeterminada, el lado de cifrado tipo sorry, cifrado con claves administradas por AWS. Por lo tanto, también puede seleccionar el cifrado del lado del servidor con la clave de AWS Manage, y en realidad puede seleccionar Clusom Managkey que puede crear Por lo tanto, puede usar la clave para acceder al paquete ST. Pero recomendaría usar el predeterminado. Y luego aquí hay otra opción donde se puede habilitar el cifrado del lado del servidor de doble capa para el servicio de administración de esquemas de AWS. Ahora, la clave de doble nivel incurre en costos adicionales por aquí, puedes ver que la pestaña de precios puede informarte sobre eso Entonces iremos con el predeterminado, que es el cifrado del lado del servidor, y la clave de bucket se va a habilitar donde se puede acceder a la clave de bucket para acceder a las cosas USE. Ahora así es como necesitas crear encriptación en términos de S tres y hacer clic en Crear Bucket. No me dan ningún detalle. No estoy planeando crear ningún bucket en este momento, así que sólo voy a saltarme esa parte y voy a proceder con los volúmenes. Ahora volúmenes es EBS, almacenamiento de bloques elásticos. Ahora, lo que es el almacenamiento de Elastic Box es un almacenamiento predeterminado que se crea con cada instancia de EC dos. Se ven tres volúmenes por aquí. Verás tres instancias por aquí. Por lo que cada una de estas instancias tendrá sus volúmenes alojados por defecto en esta. Entonces estoy copiando el ID de instancia por aquí. Voy a volúmenes, y solo estoy como seleccionar eso y voy a ver el ID de instancia por aquí. Se puede ver el recurso adjunto. Entonces este es el indicado. Entonces verán que esa instancia de allá está adherida a este volumen en particular. Por lo tanto, las unidades IBS se mantienen separadas de, ya sabes, las instancias. Por lo tanto, se adjunta cuando inicia la instancia y se desconecta cuando no está como sus instancias apagadas. Entonces se cobra el mantenimiento de este volumen de EBS, ¿de acuerdo? Entonces, si no estás usando tu instancia, muy bien, no te van a cobrar por la instancia que no estás usando. Pero todavía se le va a cobrar por los volúmenes que está operando o almacenando en un sistema. Pero recuerden, EBS es menos costoso que el propio S three, porque S three es un servicio, es un software como servicio, por eso es poco costoso y los volúmenes no se pueden usar a menos que se adjunte a instancia propia o si se adjunta a cualquier otra instancia Entonces eso es algo así, no se puede usar desde Internet o no se puede hacer nada con volúmenes. Esa es otra diferencia si solo se pregunta por qué ST cuesta más y EBS cuesta menos Ahora, el disco existente, realidad puedes hacer clic en eso y realmente puedes ver los detalles del disco existente. También puedes ver el cifrado aquí. Por lo que dice no encriptado, lo que significa que cualquiera puede acceder a los datos montándolo a cualquier instancia y puede ver los datos que están en esa. Eso no es algo bueno, ¿no? Así que sólo tienes que ir volúmenes y luego crear un volumen. Y luego cuando creas un volumen, diste todos los detalles por aquí y aquí hay una opción para cifrar este volumen Para que pueda elegir la clave predeterminada, clave de AWS EBS, y luego realmente puede crear un volumen De esta manera, se creará el volumen y se cifrará también utilizando un archivo clave. Ahora bien, si quieres administrar todas estas claves, en realidad puedes ir a KMS para administrar esta clave. Pero estas son claves predeterminadas que normalmente no son creadas por ti mismo, sino por AWS para que las cosas por defecto funcionen. Ahora, eso son cuatro volúmenes. En cuanto a base de datos o RDS, ¿verdad? Entonces, cuando estás creando una instancia RDS, es una instancia administrada Acabo de base de datos concreta. Solo lleva un poco de tiempo, así que lo he tenido abierto. Debajo de la base de datos create, tienes el estándar create y luego seleccionas la base de datos y haces algunas modificaciones aquí, y luego seleccionas la clave de cifrado aquí. Aquí está el cifrado, y, um, gerente secreto por aquí. No estoy seguro si esta credencial. Este no es el cifrado del que estábamos hablando. Se trata de cómo vas a cifrar la base de datos con qué clave? Eso es hablar de eso. Si quieres el cifrado real de los datos, necesitas bajar, ir a configuración adicional. Y luego en la parte inferior, vas a ver el cifrado por aquí. De forma predeterminada, está habilitando el cifrado por aquí, lo ves, luego está usando la clave KMS de cifrado predeterminada de AWS RDS Después podrás ver el ID de cuenta y la clave, y luego simplemente haces clic en Crear. Se va a crear RDS con cifrado en él. Entonces estas son las pocas cosas que debes entender antes de continuar con esto. Y esto puede no estar en detalle así. Te van a pedir un examen, pero pueden preguntarte el Oo, solo te estoy dando unas manos porque deberías saber esto porque va a ser muy útil cuando vayas a la siguiente certificación o si realmente vas a trabajar en AWS. Entonces viene con todo tipo de manos en las que quiero enseñarte. Gracias de nuevo por su paciencia y tiempo, voy a ver en el siguiente video. 22. Cifrado de datos Labs Transist (ACM): Hola chicos bienvenidos de nuevo desde el siguiente video. En este video, vamos a ver algunas manos sobre tu encargado de certificados. utiliza un administrador de certificados para cifrar sus datos, los cuales están en tránsito Entonces vas a cambiar toda tu comunicación a HTTPS, tanto mientras te conectas a tu S tres como a tu RDS Mientras te conectas a S three o RDS o ESP, en realidad estarás usando un canal llamado balanceador de carga elástico ELB o estarás usando CloudFront Entonces ahora, sigamos adelante y configuremos esto como parte de esta, ya sabes, sesión de demostración. Lo que voy a hacer es que voy a acceder al encargado de certificados. Entonces ese es un servicio diferente que está ahí fuera. Entonces haz clic en eso, y podrás ver que el encargado de certificados actualmente no tiene certificados en tu cuenta. Así que más o menos eso. Y aquí tienes la opción de crear un certificado privado. Ahora, puedes usar esta opción de crear un certificado privado en el que realmente puedes crear un certificado privado por aquí. Si acaba de hacer clic en él, en realidad puede seleccionar qué tipo de certificado privado necesita. Ahora bien, ¿qué es un certificado privado? Un certificado privado no es más que éste, el certificado raíz que está por aquí. que puedas crear tu certificación ya eres tú mismo y en realidad puedes nombrar tu organización y todos esos detalles sobre un nombre común para tu, ya sabes, sitio web y todo lo demás Y luego puedes seleccionar el tamaño de la misma y dar click en lo reconozco y luego creo CA. Entonces, una vez que se crea tu CA, entonces realmente puedes volver al administrador de certificados y puedes solicitar un certificado por aquí. Entonces habrá opción por aquí, que está deshabilitada en este momento, pero en realidad puedes seleccionarla y crear un certificado privado. Ahora, no hay CA privada disponible para su emisión, lo que significa que actualmente no hay ningún certificado privado disponible, por lo que esta opción está deshabilitada. Una vez hecho eso, puedes seguir este proceso y puedes crear un certificado. Ahora, prácticamente crear un certificado público tiene el mismo proceso que crear un certificado privado, pero habrá una opción extra. Esa única opción consiste en seleccionar su privacidad que acaba de crear aquí. Esa es la opción extra. Pero en realidad, el mismo proceso se puede presenciar aquí también en el certificado público. Certificado público es solicitar un certificado TLS SSL público por MOI Zone confían en los certificados públicos de bit cuatro navegadores y el sistema operativo confían en los certificados públicos de bit cuatro. Ahora bien, si estás planeando crear aplicaciones que se navega por Internet, siempre se recomienda crear un certificado público Pero si planea crear un certificado dentro de usted mismo a partir de su solicitud para navegar dentro, su inscripción en AWS, puede optar por un certificado privado. Por lo que recomendaría ir por un certificado público en este caso. Uno de los pasos importantes que tenemos que hacer aquí es dar el nombre de dominio completo. Ahora bien, ¿cuál es el problema dar un nombre de dominio completamente calificado? Necesitas tener un registro de nombre de dominio a tu nombre. Digamos, por ejemplo, quieres registrar un nombre de dominio, quieres ver cuánto es el precio antes de seguir adelante y registrarte. Por lo que el registro de dominio se realiza todo en la Ruta 53. Selecciona la Ruta 53 por aquí. Y solo puedes hacer click modal en la Ruta 53. Ya he abierto la fila 53 por aquí. Cuando estés en la fila 53, por defecto, serás redirigido a dominios registrados Ahora estás encontrando que no hay mucho registro Domins disponibles en este momento Tengo mi sitio web llamado beyondcloud.ai, y eso está registrado con otro proveedor, ya sabes, que no es AWS, claro. Ahora, verás que actualmente, tienes las opciones por aquí. O puedes transferir la señal N o múltiples dominios desde otro proveedor de servicios de dominio o puedes registrar el dominio aquí. Ahora, mi sitio web en el que me he registrado está más allá de cloud.ai. Cuando busques este sitio web y veas si está disponible, por lo que el TLD no es compatible ¿Qué quiere decir con eso? que la IA no es compatible con obs. Entonces puedes ver que el precio del dominio varía en el TLD de dominio de nivel superior Ese es el significado de TLD, com.com.org. Ahora, lo que está disponible es.mobi.net dottv.com punto M. Pero Tienes Blow Cloud buena beyoncloud.com. O algo así, pero no más allá del reloj. ¿Bien? Entonces ahora el precio no es mucho, como puedes ver por aquí, solo 14 USD. Ahora puedes seleccionar esto y en realidad puedes ir por el pago y proceder a la salida. Entonces esto es, creo que es por un año de vigencia, ¿verdad? Por lo que procedemos al check out. Así auto renovación de este dominio. Entonces esto es válido por un año, sí. Pero también puedes cambiarlo a diez años también, um, así que eso depende completamente ti cómo quieres hacer eso. Bien. Entonces ahora, una vez hecho eso, puedes hacer clic en siguiente y luego puedes hacer las opciones de pago y luego puedes poner tus datos de contacto , revisar y enviar. Entonces de esta manera, puedes registrar dominio y tener ese dominio registrado a tu nombre. Una vez registrado este dominio, puedes copiar el nombre de dominio y entrar aquí en el certificado público. Ahora aquí es donde vas a dar nombre de dominio. Ahora, también puedes agregar otro nombre por aquí con un nombre crónico por aquí llamado pub blocloud.com Por lo que este certificado se utilizará no sólo con éste, sino también con éste. También agregas otro y luego pones stardt Lo siento. Lo siento otra vez. Star.blowcloud.com. Ahora bien, ¿qué pasa si te gusta eso? Muy sencillo. Um, vas a conseguir nombres SN. Nombres SN no es más que nombres alternativos de sujeto. ¿Qué quiere decir con nombres alternativos de sujeto? Anteriormente, cuando se desea agregar otro nombre de dominio al sitio web existente, por ejemplo, mail.belowcloud.com o chat.belowcloud.com o news.belowcloud.com mail.belowcloud.com o chat.belowcloud.com o news.belowcloud.com. Solíamos crear certificados, diferentes certificados para cada nombre de dominio, pero ya no. Entonces lo que llamamos es un nombre SAN que empezó a existir y se hizo tan popular. Y lo que normalmente hacemos es pondremos un Nombre SAN en el que tendrás otras múltiples formas de navegar por tu um, nombre de dominio. Entonces cuando tengo este inicio beloclod.com, realidad puedo quitar esto porque no necesito esto porque star.belowcloud.com Entonces um, verás esa validación de Den aquí a través de, um, validación de dens. Entonces lo que vas a hacer es usar esta opción, estarás autorizando que este dominio en particular sea tuyo y lo que estarás haciendo para autorizarlo es ingresando un Cname en tu registro A. Entonces, sea cual sea el registro A que tengas en el DNS, estarás agregando un Cname en él. Ahora, para hacer eso, necesitas tener una dirección de correo registrada. Estoy con otro proveedor y puedo ir a preguntar a ese proveedor, y tengo la interfaz de inicio de sesión donde puedo agregar el Cename y puedo autorizarlo Entonces esa es la manera de autorizarlo. Otra forma de autorizar es, uh, la validez del correo electrónico. Si no tienes permiso o no puedes obtener permiso para modificar el nombre DNS, puedes usar el correo electrónico y realmente puedes darle validez al nombre de dominio. Quiero decir, dominio válido opcional, dominio válido opcional. Entonces este es básicamente el nombre de dominio de aquí, y puedes usar la validez del correo electrónico por aquí. Entonces aquí, si vas, necesitas actualizar el Cname Aquí si vas, ma se requiere validación de correo electrónico Entonces, cualquiera de las opciones que no podemos hacer porque no somos dueños de ese nombre de dominio. Y entonces aquí está el algoritmo clave. Así que quédate con 2048. Simplemente haga clic en la solicitud. Ahora, esto nos ha creado un certificado, certificado público, pero está pendiente de validación. ¿Por qué está pendiente de validación? Porque es necesario. Um, necesitas actualizar el nombre C. ¿Bien? Entonces necesitas entrar en tu um, proveedor de servicios o si no, tu Ruta 53. Entonces um, aquí mismo, hay opción por aquí, crear ruta en esta. Entonces básicamente, creará el registro DNS en Route 53 si has registrado ese Bmin, con Amazon. Voy a venir aquí. Seleccione el dominio, cree registros. Automáticamente, creará los registros sin tu intervención, así que realmente no tienes que hacer nada. Pero si estás registrado con algún otro proveedor, necesitas ir allí, actualizar el Came, ir a tu registro, verificar el nombre C y actualizar el nombre C, hacer coincidir el nombre de dominio de acuerdo con eso, y eso realmente vendrá aquí como validación. ¿Bien? Así se puede ver eso. Sname luego Ssam valor. Entonces esto debería ser un sname y el valor del sname. Así que de esta manera, um, como que autenticas a Amazon que este dominio te pertenece, y lo que Amazon va a, ya sabes, uh, crear el certificado es para tu dominio ¿Bien? Y una vez que lo hayas hecho, una vez que lo hayas completado, Um, entonces tienes que implementar esto en otro lugar, ¿verdad? Tienes que implementar este certificado que es una parte L en alguna parte. Entonces vayamos al balanceador de carga. Entonces ese es el lugar donde vamos a hacer eso. Así que solo escribe Load Balancer. Es una característica, no un servicio. Entonces es una característica bajo ZT. Así que solo puedes abrir esta función directamente. Entonces va a ser bajo CE dos. Y debajo de eso, va a venir en equilibrio de carga por aquí. Ahora, crea tu balanceador de carga. El balanceador de carga de aplicaciones es mucho más simple. Hay incluso uno más simple sobre esconderse por aquí, o balanceador de carga clásico, pero no lo usamos tanto porque es de la generación anterior y, sabes, es bastante viejo Por lo tanto, el balanceador de carga de aplicaciones funciona a la perfección. Y la carga de red Bancer es más nicho, pero luego es para ultra proceso, ya sabes, cosas de ultra alto rendimiento. Equilibrador de carga de aplicaciones Suplicon. También puede ver cómo funciona el balanceador de carga de la aplicación. Hablaremos de aplicación del equilibrio en un momento posterior. Pero aquí, justo aquí por debajo de la Nube. Sólo voy a copiar el nombre de la misma debajo de Cloud es el nombre de esto. Quiero que sea de cara a Internet porque hemos creado nuestro certificado público, y aquí está la PC por aquí, es la VPC Tienes que seleccionar al menos dos asientos de zona de disponibilidad que puedas ver y una subred por zona Entonces, al seleccionar solo AZ, en realidad obtendrás una subred por zona ¿Por qué? Porque necesita tener una capacidad de equilibrio de carga en su balanceador de carga para que tenga que seleccionar dos AZ Bien. Ahora en el grupo de seguridad, vamos a ir con el SG por defecto no va a modificar. En cuanto a la escucha o enrutamiento donde necesita enrutar. Es necesario seleccionar el grupo objetivo aquí. No lo tenemos porque no estamos creados nada, pero estamos aquí por SSL, así que no te preocupes por esto, hacia dónde va a apuntar. Cambie esto de STDP a HTTPS. Ahora, HTTPS es el método de comunicación para nosotros, así que vamos a usar HTTPS por aquí con el número de puerto 443. Y cuando selecciones esto, va a haber una nueva opción por aquí. Entonces tienes la política de seguridad para SSL y luego tienes la política SSL por aquí. Entonces esta política SSL habla de dónde vas a obtener el certificado de ACM que es tu administrador de certificados de AWS, ACM, O de IAM. También puede tener certificado de carga en IAM, administración de acceso de identidad, certificado de entrada Entonces, si quieres subir la configuración BEM, basada en COVID, o um, ya sabes, tienes el cuerpo del certificado o puedes cambiar las cadenas de certificados de certificado también puedes ponerlo a través Entonces voy a cargarlo desde ACM. ¿Bien? Por lo que ACM tendrá su certificado aquí. Entonces, cuando actualices esto, verás el certificado aquí. Una vez que hayas logrado, ya sabes, validado tu certificado, entonces ese certificado validado vendría por aquí, seleccionarlo y luego dar clic en crear Bedensa De esta manera, lo que sucede es tus marcas de carga se crearán usando SSL, usando HTTPS y utilizará la ruta de comunicación usando el certificado, el cheque de certificado público calificado. Ahora cuando creas certificado público, entonces debes preguntarme, ¿dónde está mi certificado privado? En realidad, lo que has calificado es un certificado privado. Del certificado privado, obtienes el certificado público exportado y enviado por aquí, y eso es solo el certificado privado estaría en el lado del servidor, lo que verás aquí o lo que se envía al navegador es todo el certificado público. Bien. Entonces, no lo llamamos certificado privado necesita ser creado, sino que llamamos certificados públicos enfatizando en la palabra público porque va a estar teniendo acceso a la red pública. Pero lo que no enfatizamos o lo que sucede en segundo plano es como, habrá un certificado privado creado, y que será usado y guardado en el servidor. Para descifrado. ¿Bien? Entonces esa es la razón por la que dicen certificado por aquí. No decían certificado público por aquí, selecciona el certificado que has creado. Pero cuando lo creas, lo llamamos el certificado público. Pero, ya sabes, aquí, encuesta pública. Pero lo que están tratando de enfatizar es que, va a estar conectado al público, pero este es un certificado que estás creando. ¿Bien? Entonces eso es lo que están enfatizando y nada más. Bien, entonces has visto las manos puestas, y no tengo nada más que mostrarte como hoy Espero que te hayas divertido en esta sesión manos a mano. Si tienes alguna duda, por favor déjala en la sección de preguntas. Estaré encantado de ayudarte. Sólo voy a eliminar lo que he creado ahora mismo. Voy a dar opción de borrar por aquí. Da clic en Delit y eso debería haber desaparecido. Perfecto. Gracias de nuevo. Te veré en el siguiente video. 23. Labs AWS Audit Manager: Oigan, chicos. Bienvenidos de nuevo al siguiente video. En este video, vamos a ver sobre gerente de auditoría. Entonces para que te hagas una idea de esto, Auditoría, Gerente de Auditoría AW. Ahora haga clic medio en el gerente de auditoría. Ahora ve que el gerente de auditoría abrió por aquí. Ahora es para auditar continuamente su uso de AWS simplificar la forma en que accede al riesgo y al cumplimiento normativo. Ahora, recuerde que esta es una característica que necesita habilitar. Las primeras 35,000 evaluaciones son completamente gratuitas, lo que significa que puede continuar y hacer clic en crear una nueva evaluación o configurar un administrador de AWS Ahora, puede configurar el permiso o rol vinculado al servicio de IAM para esto Puedes saltarte eso ahora mismo. También puedes dedicar este acceso a else, algún otro ID porque estas son opciones como parte de tu organización y está apareciendo. Si no tienes organización creadora, no verías esto. Entonces puede ver que AWS Config, para que pueda permitir el administrador de auditoría recopile datos de su configuración de AWS. Por lo tanto, puede permitir que el administrador de auditoría recopile información de configuración de AWS para generar evidencia para sus reglas de configuración. Ahora bien, esto es en términos de, si tiene un requisito personalizado para su empresa eso, se producirá la auditoría, y la auditoría capturará todos estos requisitos personalizados, que es usar el administrador de AWS, que se captura usando el administrador de ATos. Lo siento, AW Config. Entonces puede ser capturado por el gerente de auditoría de AWS. Y entonces realmente puedes ir por allí y luego hacer esta parte del administrador de auditoría de AWS. También puedes recopilar datos de Security Hub, hub de seguridad que ya hemos visto. Recopila datos o información de seguridad de diferentes fuentes de tus cuentas para que tengas acceso a una consola que en realidad tiene toda la información relacionada con la seguridad ahí para que también puedas recopilar datos desde allí. Ahora, al hacer clic en Configuración completa, puede ver que el gerente de auditoría la ha configurado. Ahora bien, la función básica del gerente de auditoría es recopilar informes de diferentes marcos y uh y ya sabes, ítems, que es algo que servicios, lo siento no artículos, servicios de los que hablamos antes, y va a descargar estas evaluaciones y en realidad puedes ir al tablero para cada uno de estos ítem y luego puedes verificar realmente lo que ha sido hecho hasta el momento. Ahora, también puedes crear evaluación por aquí y solo puedes especificar el nombre y dónde va a ser el destino del informe de evaluación para que puedas quedarte esas evaluaciones por ti. Ahora puede seleccionar cuáles son las evaluaciones estandarizadas que disponibles y realmente puede seleccionar eso y luego puede crear una evaluación. Estas son las plantillas por defecto de estas evaluaciones para la organización internacional de la estandarización De igual manera, se tienen evaluaciones en las que básicamente va y captura toda esta información. Entonces, la mayor parte es información de AWS, diciendo que tu aplicación es estándar ISO, y mientras califica esta aplicación, también puedes ponerla en un bucket de historial que podrás exportar en un momento posterior a quien quieras. Gracias de nuevo por su tiempo y paciencia. Así es como el gerente de auditoría trabaja en las manos 24. Laboratorios AWS Cloud Watch: Oigan, chicos, bienvenidos de nuevo al siguiente video. En este video, vamos a hablar del reloj Amazon Cloud manos a la obra. Así que vamos a entrar en la instancia EC dos que acabas de crear. Entonces ahora si vas por aquí, vas a ver las instancias en ejecución. Ahora cuando hagas clic en él, te va a mostrar con el filtro de correr. Así instancia estado igual a correr. Entonces esto significa que solo podrás ver aquellas instancias que están en estado de ejecución. Entonces vas a conseguir esto. Entonces, si quieres ver todas las instancias, simplemente cierra esto o borra el filtro. Ambos te ayudarán a mostrarte todas las instancias restantes que tienes en tu región. Entonces ahora, ¿qué es eso que vamos a hacer? Vamos a mirar CloudWatch. Para que veas Cloud watch, BT fault El reloj Cloud es parte de tu instancia um EC two. Por lo que basta con hacer clic en eso y se resaltará y seleccionará la instancia de EC two. Debajo de eso, verás detalles por aquí. Puedes expandir esto y realmente puedes ver el resumen de la instancia. Hablaremos de esto en detalle más adelante en el momento, pero revisaremos una de sus características que está relacionada con Cloud watch, que es el monitoreo. Como el nombre Cloud watch implica la nube que está viendo tus instancias, tus aplicaciones, todas esas cosas que estás haciendo como parte de tus servicios web de Amazon, lo está viendo. Eso es básicamente un sistema de monitoreo, así que lo vas a encontrar bajo monitoreo por aquí. ¿Qué es lo que está viendo? El agente de vigilancia en la nube es métrica de agente. En realidad está recopilando los datos. Ahora, en realidad puedes ver más detalles aquí haciendo clic en Monitoreo de detalle administrado y puedes habilitar el monitoreo detallado aquí. Después de habilitar el monitoreo de detalles, por ejemplo, los datos de monitoreo estarán disponibles en un período de 1 minuto. Estos son los detalles de los que está hablando. Actualmente, si ve esta información por aquí, por lo que se recibe cada 5 minutos. Pero si quieres tener detalles de 1 minuto, puedes habilitar esto. Pero aplican cargos adicionales. Recuerda antes de hacer un cambio. Entonces, cuando hagas clic en eso, irás a CloudWatch y verás la calculadora de precios, puedes ir a la aplicación Calculadora de precios O simplemente puedes ver esto claramente desde aquí. Aquí se habla de pagar neumático en cuanto a troncos. Entonces, si estás recopilando los datos en solo, vas a obtener un estándar de 0.5 por GB para monitoreo. En cuanto al acceso infrecuente, 0.2 el acceso infrecuente no es acceder a él con frecuencia De igual manera, tienes los cargos por aquí. Así que no nos preocupemos eso en este momento porque eso no es parte de tu certificación, ni es necesario mirar de cerca como cada 1 minuto. Vamos con el predeterminado con cada 5 minutos, y realmente puede ver la utilización de CP, la utilización red en términos de entrada, salida, parches en lo siento, paquetes en paquetes hacia fuera y puede ver el uso de crédito de CPU por aquí, que habla sobre el uso de crédito de la CPU y saldo de crédito de la CPU. Esto realmente te dará información completa al respecto. Si quieres más información sobre esto, en realidad puedes ir al propio CloudWatch Ahora sobre el tipo de búsqueda Cloud watch, y verás un servicio por aquí, solo haz clic en el botón central y se abrirá en una nueva pestaña. Ahora, puedes ver que tienes el tablero vacío. No hay tablero por aquí. Entonces, lo que puede hacer es que puede optar por el tablero automático sobre su instancia EC dos cargar este tablero EC dos por aquí. Ahora bien, lo que te va a mostrar son los existentes todos tus servicios EC dos que tienes por aquí, lo que sea que esté funcionando. Entonces básicamente, te muestra que dos servicios se están ejecutando para mí en el EC dos, así que muestra esos gráficos. Los otros están apagados, así que simplemente no te está mostrando como parte de esto. Entonces, como que obtienes más información. Por lo que anteriormente en el CE de dos niveles, solo pudimos encontrar la información de la CPU, la información red y la información de crédito de la CPU. Pero aquí, si ves eso, obtienes una utilización promedio, información de lectura de disco, información de escritura de disco, información de red, y luego puedes ver el check in alguna información por aquí. Ahora bien, estos son algunos de los artículos que verás. Y también puedes personalizar este panel por, ya sabes, datos en vivo, y luego puedes agregar esto como parte de tu panel predeterminado. También puede seleccionar algún otro tablero también sobre S tres función también. Tengo unas S tres cubetas. Entonces básicamente, solo cambio a S tres por aquí. Entonces, así mismo, puedes crear o usar el tablero automático. También puedes introducir el dashboard así. Aquí estás viendo estos datos, ¿verdad? Por lo tanto, también puede agregar al panel de control por aquí, que en realidad va al tablero de aquí y agrega ese tablero en su reloj de Cloud. Ahora, agregando un tablero, lo que significa que tendrá una vista rápida de esos recursos que es importante para usted. De hecho, puedes configurar un panel yendo por aquí, haciendo clic en Dashboard y crea un dashboard. Ahora mientras crea un tablero, necesita un nombre de tu tablero, que estoy dando prueba. Y luego puedes ingresar cada ítem aquí. Así que en realidad puedes crear un datasocia que esté usando prometes o S three bucket, o puedes usar CloudWatch para que hagas Puede iniciar sesión en métricas, registros, alarmas. Entonces, si vas por esto, puedes agregar uno por uno parámetro aquí y puedes seleccionar qué elementos quieres agregar como parte de este dashboard. Entonces estoy seleccionando EC dos. Hay 317 métricas que vienen de EC dos instancias. Entonces, si haces clic en eso, verás más de esto es una métrica previa a la instancia por aquí con solo 256 en todas las instancias que tengas. ¿Bien? Entonces, si digo sobre métrica de pre instancia, vamos a verlo. Ahora, ves que hay tantos nombres de instancias por aquí con el ID de instancia, ¿verdad? Entonces no hay nombres específicos por aquí, y se puede ver que hay paquete de entrada. Entonces, lo que es importante para ti, puedes seleccionar ese ID de instancia. Estoy copiando el ID de instancia. Estoy por aquí, estoy buscando este nombre de instancia. Entonces solo aquellos artículos relacionados con instancias que vienen por aquí. Ahora, seleccionando ese nombre de instancia, y estoy creando un asistente. Ahora puedes ver que prácticamente todos estos artículos están entrando en un mago por aquí, lo que puede ser un poco confuso porque tiene muchos artículos dentro de un elemento. Por lo que también puedes crear otro dashboard. Para que puedas seleccionar un artículo por separado. Entonces haciendo clic en el siguiente y haciendo lo mismo por aquí y puedes seleccionar ese nombre de instancia. Y luego puedes seleccionar en lugar de seleccionar todo el artículo, puedes seleccionar un artículo. Y crear un mago. Ahora aquí, solo habla de CPU, disco no CPU, bytes de ancho de disco por aquí. Así mismo, puedes crear para cada uno y crear tu propio dashboard. Entonces, cuando vengas a Dashboard, verás el nombre del tablero. Al hacer clic en el tablero, realmente verá el rendimiento de esa instancia en particular, ya sabe. Para que puedas eliminar el tablero de aquí. Y se retira el tablero. Entonces así es más o menos cómo crear un tablero. Aquí está la alarma. Así también puedes crear alarum. Entonces ahora mismo no hay alarum. No veo ninguna alarma por aquí. También hay edificio alarum por aquí, que manda edificio Ahora que no tienes ningún alarum aquí, puedes crear Larum, crear una Esto en realidad no es parte de su certificación. Sólo te estoy mostrando porque tengo experiencia en esto. Por lo tanto, puede establecer esta búsqueda de instancias de EC dos por este nombre de servidor, y en realidad puede tomar en la utilización de la CPU. Entonces CPUtilization está por aquí. Establecer matriz. Ahora aquí puede configurar la alarma para esta utilización en particular. La gráfica de Alarum aquí por aquí será mucho una gráfica en vivo De hecho, te mostrará la visión dinámica de lo que estás configurando. Aquí, usted está diciendo que si quiero que este alarum se active cuando la utilización de CP es mayor de lo que puedo ver eso por aquí Por lo que puedes dar en el porcentaje de aquí, 80 por ciento. Para que veas que se establece en 80 por ciento. Ahora mismo, es mucho quiero decir, es baja utilización en este momento. Entonces, si solo dices 20 por ciento, en realidad puedes ver alguna diferencia, no mucha. Es 0.1. Entonces, del mismo modo, se puede establecer un alarum y de hecho se puede ver el alarum en esta gráfica en particular sí, y luego hacer clic en Y qué quieres hacer cuando esta alarma se active, puedes crear el tema de SNS por aquí, y este es el tema de SNS no es más y este es el tema de SNS no es que un simple servicio de notificación, y esto se activará Entonces lo he hecho para otra aplicación, para que puedas ignorarlo. Y luego también puedes activar la función Lambda. También puede activar el escalado automático. Puede seleccionar el grupo de autoescalado aquí. También puede seleccionar una acción EC two ya que podría ser un reinicio del servidor o shalwn de un servidor o algo así Eso se puede hacer. Da clic en el siguiente ícono, y luego podrás, ya sabes, crear esto pero necesita tema de SNS por aquí Así que aquí, agrega nombre y descripción y vista previa y crea alarma. Así que eso es bastante sencillo y crear alarum. Entonces estas son las dos cosas que queremos cubrir en este video. Gracias de nuevo por ver. Entonces ahora ya sabes cómo monitorear tu aplicación con CloudWatch Hay otras cosas que cubres más adelante en el momento, así que no te preocupes por ello. 25. Laboratorios de AWS CloudTrail: Oigan, chicos, bienvenidos de nuevo al siguiente video. En este video, vamos a ver la versión de prueba de Cloud. Ahora, para la prueba de Cloud, es posible que tengamos que ir por aquí y luego escribir el nombre del servicio como Prueba. Entonces esto debería, bien. No está funcionando. Prueba en la nube. Sí, ahí tienes. Entonces haz clic en eso y deberías abrir como una nueva ventana. Y dentro de esta ventana, deberías ver la versión de prueba de Cloud por aquí. Perfecto. Entonces ahora, recuerde que la versión de prueba de Cloud tiene un precio en ella. Así que en realidad puedes crear tu propio juicio. Entonces, en el video anterior en la arquitectura, descubrimos que en realidad puedes crear tu propia prueba de Cloud y luego mirar un servicio específico, y luego puedes rastrear ese servicio específico. Alternativamente, para este propósito de demostración, ¿verdad? Entonces tienes algo llamado historia de eventos. Entonces, en lo que estamos ahora mismo es la página de introducción a la prueba de Cloud donde puedes crear tu propia versión de prueba de Cloud. Entonces eso equivale a ir a Dashboard, crear una prueba. Entonces, al crear una prueba, en realidad estarás creando un nombre de prueba, habilitar para toda mi organización, lo que significa que realmente puedes habilitar para todas las cuentas de tu organización, crear un nuevo bucket, ST bucket. Este bucket ST contendrá el registro de su prueba de Cloud, los registros de auditoría y luego registrará esto, cifrado, habilitando el cifrado en este registro. Y entonces aquí está creando una nueva clave KMS para el cifrado por aquí. Y luego aquí estamos habilitando CloudWatch como parte del registro Cloud Watch realmente verá los registros de aquí, pero eso es opcional y se aplican cargos porque estará leyendo los registros. Entonces cuando vayas al siguiente diagrama, elegirás los eventos de registro, lo cual es muy importante. Te voy a mostrar eso. Entonces prueba eso es una prueba. Sólo quiero llegar a la siguiente página. Entonces aquí, ¿qué estamos buscando? ¿Bien? ¿Qué registros de auditoría estamos buscando? Quieres capturar el flujo de gestión. Como por ejemplo, el flujo de administración como en operación se realiza en recursos de AWS como crear, um, o modificar términos de eventos de datos como la transferencia de datos dentro de un recurso y cosas así. Dentro de los eventos como en las actividades, errores y comportamientos de tus servicios. Todas esas cosas van a ser realmente, muchos datos. Recuerden eso. Um una vez que captas todos estos datos, ¿ qué quieres que haga el evento de gestión EM? Muestra el rendimiento de la operación como leer y escribir, excluir eventos KMS, excluir RDS, datos, eventos API Estos son algo que en realidad puede desencadenar muchos registros. Entonces puedes excluirlos y también puedes ignorar la lectura porque no quieres que nadie logre eventos, que es una actividad de lectura. Quieres registrar solo la actividad correcta. Alguien está escribiendo algo hacia los cambios de gestión. Eso podría ser muy importante. Por lo que también puede habilitar esto porque no hay cargos adicionales por eventos de administración de registros en esta prueba porque esta es su primera copia del evento de administración. Entonces a pesar de que no hay cargos, pero aún así se te cobrará por el próximo evento. Por lo que siempre se recomienda ir con cualquiera que sea el requisito actual de la organización. Y luego si tienes alguna necesidad de datos, como, por ejemplo, dónde los estás capturando, puedes poner en el nombre de la aplicación, el nombre del servicio. Y entonces puedes crear los eventos internos bien. Esto en realidad será seleccionar la actividad inusual en función de la línea base de días de sonido con respecto a las tasas de llamadas de API y las tasas de error. De esta manera, puedes crear tu propio evento en tu prueba de Cloud. Ahora bien, esto está incurriendo en costos porque va a capturar muchos datos y va a ya sabes, tu Cloud watch va a monitorear este registro también si eliges esa función en la que CloudWatch lo analizará y podrás tener una representación gráfica en Cloud Pero recuerde que no es parte de su programa ni de su certificación. Entonces no te van a preguntar cuáles son las opciones aquí, mientras la crean, todas esas cosas. Quieren que sepas qué es un reloj Cloud. Y prueba en la nube. Así que no te preocupes por todo esto en detalle, ¿de acuerdo? Entonces, cuando vas al historial de eventos, ahora, esto es algo gratuito que viene por defecto es el historial de eventos. Ahora bien, si recuerdas que el último entrenamiento lo hicimos, creamos un dashboard, borramos el dashboard, si recuerdas, estábamos mirando Cloud watch y creamos un dashboard. Puedo ver eso lo mismo. Entonces borramos un tablero. Empezamos, ya sabes, artículos por aquí. Hubo algún tipo de actividad de fondo continuó. Ponemos dashboard por aquí, borramos dashboard, así que lo hemos hecho. Y luego anteriormente, creamos una instancia EC dos, ¿verdad? Así que hice una consola de inicio de sesión, stop instance. Yo hice eso, y luego hicimos aminate también hice una instancia de terminación Y luego um, sí. Así mismo, hicimos muchas actividades por aquí. Por ejemplo, no sé de estas cosas. A lo mejor lo hubiera hecho algún tiempo antes, porque es todo hace 2 horas Entonces lo habría hecho como hace un rato. Pero hagamos una actividad ahora mismo. Demostremos que esto funciona. Aquí, vamos a la S tres. Almacenamiento escalable en la nube. Entonces aquí, voy a crear un cubo por aquí. Así que prueba guión bucket, guión mi número de cuenta Mira, tiene que ser único, así que no tengo otra opción. Entonces tengo que dar mi número de cuenta en todas partes para que sea único. Y entonces, obviamente, nadie habría usado mi número de cuenta porque mi cuenta IU sería única. Entonces es básicamente ACL, así que voy a ir con las cosas predeterminadas por aquí y crear un bucket Ahora bien esto va a crear este bucket por aquí sin ningún tipo de excepción o error porque este nombre es lo suficientemente único. Ahora, cuando vas por aquí a tu um, incluso la historia y haces una actualización por aquí, deberías ver poner cifrado de bucket. Entonces ves que por aquí hay actividad. Al hacer clic en la actividad, realidad puedes ver el resumen de esta actividad. Entonces el usenym era root y, ya sabes, la clave de acceso y todo lo demás, que se requiere Y luego también se puede ver que S tres puso cifrado de bucket, y en realidad se pueden ver los detalles por aquí. Entonces esto es básicamente te dice que hubo un evento, y eso se trataba de crear un bucket. Entonces, de igual manera, si borro este bucket, así que eso también va a conseguir logueado por ahí. Así que solo voy a copiar y pegar esto mucho más fácil que escribirlo. Entonces ahora verás refrescar esto y puedes ver que puede tardar un tiempo. Entonces déjame hacer una pausa en pausar el video. Ahí vas. Entonces tienes el cubo de crear, Cifrado de cubo de madera, eliminar cubo. Entonces los tres artículos han llegado. No sé por qué este no vino antes, pero cuando solo, ya sabes, refresco toda esta página, entró. Entonces Delit Bucket de aquí te da toda la, ya sabes, información al respecto, usuario lo eliminó y cuál es el ID de evento para ello Entonces de igual manera, nos ha dado toda la información aquí. Así que este es más o menos el uso de la versión de prueba de Cloud. La prueba en la nube le permite ver toda su información de auditoría en AWS para ver las actividades que esté realizando como parte de los servicios de AWS, ya sabe, los datos relacionados en sí. Por defecto, lo mira. Pero recuerden que no contiene tantos datos porque este es el servicio predeterminado aquí dentro. Por lo que conservará como datos de unos 90 días. Pero más allá de eso, si necesita que los datos estén retenidos, entonces puede que tenga que optar por algún tipo de, uh, su propio tablero en el que los datos se almacenarían realmente en sus registros S tres, y eso realmente contendrá los datos en los registros S tres Así que recuerda que esa es la mayor diferencia entre el historial de eventos que viene por defecto y el tablero, prueba en la nube dentro del cual estás creando. Entonces Um, así que esto es algo que debes recordar cuando trabajas con AWS Cloud Trial. Gracias de nuevo por ver este video. Te veré en la siguiente. 26. Labs AWS Config: Oigan, chicos. Bienvenidos de nuevo al siguiente video. En este video, vamos a hablar sobre las manos en sesión de AWS Config. Ahora bien, ¿recuerda que AWS Config en la teoría, dijimos acerca de monitorear su infraestructura existente con algunas reglas. Entonces um, no podemos hacer eso. Así que sigamos adelante y busquemos AWS Config. Ahora bien, esto rastrea los inventarios de recursos y los cambios. Ese es el uso de config. Por aquí, tienes el tablero. Aquí están las métricas de configuración por aquí, que está rastreando los registros. Entonces aquí está el estado de cumplimiento. Entonces aquí dice cero reglas de incumplimiento y cero recursos de incumplimiento porque no creo que tengamos nada. En cuanto al inventario de recursos, tenemos 110 recursos por aquí. Estos son algunos de los recursos que tenemos. Bien, entonces ahora el paquete de confirmación es básicamente, ya sabes, una especie de plantilla que realmente puedes usar uh para las mejores prácticas. Por ejemplo, las mejores prácticas de S tres, Amazon S tres. De hecho, puedes usar este paquete, y luego puedes nombrar este paquete y luego puedes agregar un parámetro aquí. Como múltiples parámetros. ¿Qué es lo que estás buscando? Y entonces básicamente puedes desplegar este pack. Entonces esto es básicamente como si tienes un requisito, en una serie de requisitos que deben habilitarse, para realmente puedas implementar un paquete de confirmación. O bien puedes ir por reglas. Las reglas son mucho más simples y es muy útil para nuestra demo porque útil para nuestra demo porque no vamos a estar preguntando no van a estar haciendo preguntas sobre cómo configuras esto y cuáles las diferentes formas de configurar AWS config. Y esa no es la pregunta que van a hacer. Van a preguntar sobre la configuración de AWS en sí. Entonces, cuando haces clic en Regla, tienes la regla administrada de AWS, la regla Lambda personalizada y luego la regla personalizada de Guard. ¿Bien? Así mismo, así que vamos con la regla administrada de AWS y luego escriba S tres versión no. Simplemente no me llames adorar. Tengo tantos, ya sabes, resultado. Bien, versionado Cuando escribo versionado, ves que tengo una opción por aquí, S tres bucket versioning habilitado. Entonces ahora solo abrimos estos dos cubetas por separado. Acabo de hacer un clic central sobre eso. Y abrí las propiedades de este particular bucket de registros de prueba en la nube. Y se puede ver que el versionado de bucket está suspendido. Y para éste, también suspendido. Así que vamos a crear este cubo por aquí. Lo siento, esta regla en particular por aquí, que dice que va a detectar si el versionado está habilitado en tu bucket ¿Bien? Así que haz clic en siguiente. Esa es tu regla. ¿Bien? Eso es algo que no puedes cambiar. Aquí está el nombre de esta regla en particular. Y entonces tienes el alcance del cambio por aquí, todos los cambios recursos etiquetas. Voy a ir con recursos donde puedas seleccionarlo porque quieres que el recurso coincida con el tipo específico, que es S tres, queremos que coincida con los tipos existentes. Hemos seleccionado ST aquí como nombre de recurso. Así que aquí los parámetros pueden ser es MFA D enable, y entonces realmente se puede dar el valor de aquí No vamos a usar eso, así solo vamos a ir con el siguiente y luego realmente puedes ver esto y verificar qué va a hacer esto. Y luego haga clic en el botón Guardar. Ahora damos click en él. Ahora cuando entres a esta regla en particular por aquí bajo AWSknfak y luego clic en Refresh, dale un minuto Verán que los dos cubos que hay no son conformes, y ese mensaje va a venir por aquí MFA DLT está habilitado para su cucharón S three. Este es otro parámetro de aquí. En realidad no estamos usando esto y lo que estamos usando en este momento es esta regla de aquí. Entonces así es como hay que dar parámetro en el paquete de confirmación. Entonces, cuando estés haciendo el paquete de confirmación, necesitas identificar la clave y luego darle la cadena ya sea dos o caídas. Entonces aquí está habilitada la desactivación de MFA. Entonces, si entramos en esto, aquí hay una autenticación multifactor Creo que debería estar en torno a la seguridad, supongo, el permiso debe ser. Entonces aquí MFA. No está aquí. Entonces, de igual manera, eso necesita ser habilitado. Entonces eso es lo que está buscando. Volvamos y comprobemos esto si esta regla se ha ejecutado con éxito. Bien, para que veas que ambos no cumplen. Por lo que ambos servicios son inconformes. Si voy a crear otro cubo con lo mismo, va a entrar también, así que voy a crear un cubo de prueba por aquí. Y luego estoy deshabilitando el versionado. Así que solo crea Así que solo haz clic en Crear ahora. Ahora que he creado este bucket y luego voy al registro de AWS Cloud Trial, y voy al permiso, perdón, propiedades. Entonces a partir de ahí estoy bien, esta es la autenticación multiflector Estaba buscando permiso, así que estaba justo aquí. Haga clic en Editar, y luego aquí he habilitado el versionado por aquí Para MFA, es necesario modificar los ajustes en otro lugar, por lo que hablaremos de eso más adelante Sí, he habilitado el versionado por aquí. Entonces si solo voy a refrescar esto en pocos minutos, tal vez 60 1 minuto a 1.5 minutos, creo que así deberías ver el nuevo entrando. Así que revisa para todos. Entonces, a veces sabes lo que el compatible no se mostrará aquí porque solo buscaba recursos no conformes. Entonces, hemos hecho que este en particular sea compatible, así que solo esperamos que eso se vea ahora mismo en cualquier momento. Voy a pausar este video y pausarlo una vez que aparezca. Bien, ahora se puede ver que este servicio en particular, que lo hemos encendido el culto es compilingt y el resto de ellos, que es uno de nueva creación no es compent No cumple. Perdón por eso. Entonces, um, puedes ver que esta es más o menos la demo que quería mostrarte. Ahora puede entender que la configuración de AWS es para comprender y analizar su configuración y establecer sus propias reglas, que se requieren para su propia comunicación con AWS. Así que gracias de nuevo por su tiempo y paciencia. Espero que hayas entendido lo que es AWS config en términos de handshone. Te voy a ver en el siguiente video. 27. Laboratorios AWS XRAY: Oigan, chicos. Bienvenidos de nuevo al siguiente video. En este video, vamos a hablar de rayos X de AWS. Ahora ya hemos visto la explicación teórica para las cosas de los rayos X. Solo para darle una vista rápida, los escaneos de rayos X, el funcionamiento interno de su aplicación, su flujo de solicitudes, sus depuraciones su aplicación, su flujo de solicitudes, de viento, improvisación, optimización, conocimientos de rendimiento y todo lo demás, realmente puede ver como parte del interior de AWS Así que he creado, lo siento, no AW por dentro. De veras lo siento. Es AWS Xray Entonces, si buscas Xray, entonces es una característica que es un servicio separado, que es parte de otro servicio por aquí, um, que es CloudWatch Entonces anteriormente, Xray solía ser un servicio separado, pero luego pasó a formar parte de CloudWatch Ahora puedo ver que el rastro está por aquí. Ahora, por defecto, no tendrás ninguna aplicación para que puedas rastrear. Así que puedes hacer es que habrá opción por aquí llamada crear aplicación, crear una aplicación de muestra. Algo así. Si vas a Trace Map, verás configurar una aplicación demo. No se cobra mucho solo $1 por día. Día completo lo he estado ejecutando solo $1, se le cobra. Simplemente puedes encenderlo y luego tener esta aplicación, apagarlo. Ahora, puedes ver que puedes ver la tasa de lo que está rastreando por aquí ya que esta es una aplicación sencilla que estamos rastreando, tenemos al cliente y luego el guardián de puntaje es básicamente tu contenedor ECS, ECS es tu servicio Cloud servicio Elastic Cloud, y puedes ver que hay 100 porcentaje de tasa de error porque el cliente no puede acceder a la la tasa de lo que está rastreando por aquí ya que esta es una aplicación sencilla que estamos rastreando, tenemos al cliente y luego el guardián de puntaje es básicamente tu contenedor ECS, ECS es tu servicio Cloud servicio Elastic Cloud, y puedes ver que hay 100 porcentaje de tasa de error porque el cliente no puede acceder a la aplicación porque es la aplicación demo. También puedes ver el tráfico por aquí. Cuando haces clic en la flecha de aquí, realmente puedes ver el filtro de distribución del tiempo de respuesta. Aquí también puedes hacer clic en ver seguimiento y puedes ejecutar una consulta. Esto le informa sobre cuál es la velocidad del nodo y los métodos HDDP también está ahí como parte del rastreo De igual manera, en realidad puedes ver el rendimiento de tu aplicación. Puedes um, mira el número de solicitudes que vienen en las caídas, los segundos que está manejando la latencia. De igual manera, podrás ver un rastro completo de tu solicitud. Si tienes una aplicación, puedes usarla a través de rastreo y puedes rastrear la aplicación, qué tan rápida es la aplicación, qué tan frecuente es la actualización. De igual manera, se pueden ver todas esas cosas. También puede hacer clic en ver el panel de control por aquí, esto le brinda información completa sobre la aplicación del guardián de puntaje, que es parte del rastreo, que le brinda los informes de latencia , errores, los aceleradores Toda la información, en realidad viene a través. También se puede consultar por un periodo de 6 horas. Eso lo puedo ver. Ha habido algunos picos por aquí ya que esta no es una aplicación en vivo o algo así. No estás esquiando mucho detalle. Pero entonces esta es la huella. No es obligatorio o es realmente necesario para que sepas cómo configurar el rastreo como parte de la certificación. La certificación solo te da una idea. Lo que es rastro y algunas de las características es lo que hay que recordar y qué función de ello es muy importante porque vendrían preguntas como, Oh, un cliente o cliente está buscando la manera de, ya sabes, afinar o averiguar el rendimiento de la aplicación con su arquitectura. Qué servicio sería apropiado elegir. Te pedirán tantos servicios que están tan estrechamente relacionados como CloudTrail, Cloud watch o X ray Hay que entender y lo que están pidiendo. Buscan rendimiento en su interior y buscan la arquitectura y el flujo de la aplicación. La Xray es la correcta. De igual manera, tendrán estos complicados servicios apegados a tu pregunta existente y te estarían preguntando de manera complicada. Deberías entender, leer la pregunta dos y tres veces y luego solo responder a esa pregunta Gracias de nuevo por su tiempo y paciencia. Espero que te haya sido útil entender cómo configurar Xray Hablaremos en detalle cómo hacer ese punto de tiempo más adelante en diferentes entrenamientos, pero eso requiere mucho conocimiento de AWS. Volveremos a eso. Te voy a dar todos los conocimientos que tengo. Gracias de nuevo. Te veré en la siguiente. 28. Labs First para la creación de instancias de EC2: Oigan, chicos, bienvenidos de nuevo al siguiente video. En este video, vamos a crear un instante. Entonces déjame cerrar el VPC e ir a EC dos. Ahora lo estoy ordenando a través de instancia en ejecución, y la cierro. Se pueden ver todas esas cosas que tengo en el estado de parada también. Ahora, normalmente detengo la instancia después, ya sabes, después de que se complete el propósito de la instancia, porque los cargos, que va hacia la CPU y la RAM también se detendrán. No habrá cargos para mí hasta que vuelva a comenzar la instancia porque esa CPU y RAM, que he estado usando se le darán a otra persona si alguien más lo solicita. Entonces, um, no me van a pagar por ello. Si estás pensando que si solo estoy dejando salir o rentar mi carnero CPN, que se dedica a esto, no, no estaría pagando por ello No me pagarían por ello, ni tampoco estaría pagando por ello. Por lo que ese recurso se destinará a otra persona, o no se destinará a nadie más. Estará inactivo. Entonces esa es la razón por la que no me pagan o estoy pagando por alguien. Entonces esa es la razón simple. Para crear instancia, solo cosas para ir a la instancia de lanzamiento, o puedes ir al tablero, y desde allí también, puedes lanzar instancia. Pero recuerde, el tablero le brinda la visión general completa de la región actual. Entonces, si tienes un servidor funcionando en la región de Mumbai o en la región CO, entonces no podrás verlo por aquí porque esto solo habla de Virginia del Norte aquí, USC Pne Y puedes simplemente hacer clic en la vista global de aquí, yo solo hago clic central en ella, y me dará las instancias que ejecutan en todas las regiones de aquí. Entonces se puede ver que cinco instancias en una región. Entonces, igualmente, me da todas esas cosas. Así VPC 18 en 17 región. Entonces eso es algo de lo que no tengo que preocuparme realmente porque es una cosa predeterminada. Pero 17 y 17 es una buena noticia. Pero ¿por qué 18 y 17? Porque he creado dos VPC en esta región. Por eso digo del 18 al 17. De igual manera, en realidad se pueden ver los surcos de seguridad y todas esas cosas en un ángulo mucho mayor. Entonces vamos a cerrar esto. Vamos a lanzar una instancia. Ahora bien, esta va a ser una instancia de prueba. Entonces solo lo voy a nombrar como prueba y ya que voy a ejecutar el sistema operativo predeterminado. Ni siquiera voy a iniciar sesión en esta máquina. Es decir, a través de Put o cualquier MobikStem o cliente. ¿Bien? Así que voy a usar esto y usuario en realidad se muestra por aquí, fácil de usar. Si elijo rojo en el sistema operativo, realidad puedes ver los cambios de nombre de usuario aquí a fácil de. Hablemos de U Bundu Bundu tiene un nombre de usuario diferente. A ver. Veamos sobre eso. Bien, está tomando tanto tiempo. Cambiemos el sistema operativo a otro, que es como. Entonces está cambiando el nivel de volumen, así que por eso te está pidiendo que confirmes. Oh, Banda. Sí, así podrás ver que el nombre de usuario es ubuntu. Entonces, si estás buscando el nombre de usuario para averiguar el nombre de usuario, qué es y cosas así. Así que elige el sistema operativo de tu elección. Asegúrese de estar dentro del servidor elegible para llantas gratuitas. Entonces el único servidor es elegible en este momento. Es este es T dos Micro. Entonces ese es el que he seleccionado. Ahora, keypare es tan importante. Sin teclado no podrá iniciar sesión. Pero en esta situación, ya que estamos haciendo esto con fines de demostración, por lo que realmente no tiene que preocuparse por solo crear un nuevo teclado llamado Test KeypareTest par de teclas de guión Ya lo he creado, así que simplemente haz clic en crear keypare y se descargará un archivo PEM Ahora usando el archivo PEM, podrás iniciar sesión con este nombre de usuario que viene aquí Ahora, ¿puedes iniciar sesión sin contraseña? Bueno, no puedes. La contraseña está deshabilitada en Aula, por lo que hay que usar la clave privada para iniciar sesión en el servidor. Entonces esa es la única forma de comunicarse. Pero no te preocupes por ello, no vamos a iniciar sesión aquí, pero cuando llegue el momento, te mostraré cómo hacerlo, así que no te preocupes por ello. En términos de configuración de red, realidad puedes editar y cambiar tu VPC, cambiar tu subred, habilitar automáticamente la dirección IP pública asignada automáticamente Puede habilitar alguna otra característica, como la dirección IP elástica. Nuevamente, cargue el suministro. Recuerda eso. Entonces eso es algo a lo que deberías, uh adherirte, y luego tienes que permitir el tráfico SSH desde cualquier lugar Entonces esto te dará permiso para navegar por el SSH hasta el servidor usando tu PemKey Entonces, si deshabilitas esto, entonces no puedes conectarte a SSSCh, recuerda esto Pero de todos modos, no vamos a usar SSSuch no importa Entonces AGB, estoy bien con eso. Así que simplemente haz clic en Launch Instance. Um, sí, proceda con el guardián TTS existente. Lo siento, creo que cuando lo creas, automáticamente cambió ahí, pero como no lo he creado porque ya existe, ¿verdad? Así que en realidad los cambios vuelven a la instancia que se inicializa con éxito Para que no lo veas en este momento, solo haz clic en refrescar. Puede llegar en cualquier momento. Se puede ver que está en el estado pendiente ahora mismo, así que esto se está creando ahora mismo. W significa que tu servidor se está creando en este momento. Entonces ahora todavía está pendiente, así que vamos a refrescarlo debería estar funcionando ahora. Sí, ahí tienes. Está funcionando ahora mismo tienes la dirección IP pública. Para que puedas hacer SSSarc a través de esta dirección IP pública. Si lo has hecho si estás deshabilitado SSSaro si quieres permitir alguna política de seguridad más adelante, puedes hacer clic en CoTA Seguridad Lo siento, C Networking, y entonces realmente puedes cambiar algunos de los realmente malos en este Hyundai Entonces no lo tienes en el networking. De hecho vas a la red por aquí y puedes ver la um, interfaz de red por aquí, y luego está el grupo de servicio es un grupo de seguridad. Bien, entonces este es un grupo de seguridad, en realidad puedes cambiar el grupo de seguridad y permitir artículos por aquí. Está bajo seguridad. Perdón por eso. Entonces, en el grupo de seguridad, en realidad estarás agregando más solicitudes entrantes Entonces en este momento 22 poner número, que es SSSCh se está agregando por aquí Entonces de igual manera, estarás agregando eso. También puedes acceder a esto yendo a seguridad desde aquí y cambiando de grupo de seguridad, ¿verdad? Entonces eso básicamente va a tu grupo de seguridad por aquí. Así mismo, puedes hacer eso. Pero hablaremos a detalle. No estoy realmente interesado en hablar de todas estas cosas, pero luego sigamos adelante y, uh, um, ya sabes, en este video, esto es más o menos lo que queríamos hacer. Tenemos una prueba en sentido ahora mismo. Puede que no tengas estas cosas, así que no te preocupes por ello. Esto es mayor para otro proyecto para mi, um, ya sabes, para mi trabajo ubunitis y trabajo de turno abierto y cosas así Así que no te molestes con estos. Bien. Entonces de todos modos, sabio, gracias de nuevo por su paciencia y tiempo. Perdón por la información extra si es, como, dándote mucha información, así que lo siento por eso. Veo el siguiente video con más, más, más información. Gracias. 29. Introducción a Labs VPC: Oigan, chicos. Bienvenidos de nuevo al siguiente video. Y este video, vamos a hablar de Nube privada virtual. Ahora, VPC, en breve lo llamamos como es un conjunto de servicios que se va a ejecutar en todas las regiones Entonces, si tienes una región que quieres planear ejecutar tu instancia de EC two, primero tienes seleccionar la región donde quieres ejecutar, y luego crear una instancia EC two en esa región. Este no es un parámetro opcional. Este es un parámetro obligatorio. A veces ahora mismo, no vamos a estar molestando con toda esta configuración de VPC cuando creamos la instancia EC two Pero más adelante punto de tiempo en el esfuerzo en sí mismo, nos va a preocupar por ello porque ese es algún tema que vamos a cubrir seguro Ahora esto va a ser un aviso para ti. Por qué lo estamos viendo ahora mismo es porque para este ejemplo que vamos a usar, necesitamos alguna instancia EC dos en nuestro servicio que necesita ejecutarse. Esa es la razón por la que estamos buscando o entendiendo VPC y lo que es EC dos instancias y cómo las creamos. A pesar de que no vamos a acceder a la EC se crearon dos instancias, pero aún así solo queremos verlo como introducción. Ahora, por aquí, tienes la VPC en el diagrama de arquitectura bajo una región Entonces eso significa que cada región va a tener configurada tu VPC Entonces solo tecleamos VPC por aquí, obtienes la VPC. Entonces dice recurso Cloud aislado, y esa es la categoría en la que está entrando. Bien, así que voy a etiquetar eso por ahí. Y entonces como puedes ver por aquí, tienes que um, EVPC en la región del USD Este Ahora bien, si quieres ver todas las instancias de VPC en todas las regiones, habrá una cada una Entonces habrá, por supuesto, uh, ya sabes, un PBC en particular en todas las regiones Pero hay algo que dice que no a menudo. Entonces hay algunas regiones discapacitadas para mí, como pueden ver por aquí, estoy en Virginia del Norte. Tengo 17 habilitados y hay algunos deshabilitados para mi 13 alrededor de 13 regiones están deshabilitadas porque ya no lo estoy usando. Entonces no hay propósito por defecto. Uh, Amazon los desactiva, pero podemos habilitarlos más tarde en el momento si lo necesitas. Pero eso no me preocupa. Estoy contento con Virginia del Norte porque esa es la región más barata. Y con los recursos que creas hay mucho más barato que cualquier otra, sabes, áreas alrededor de esto porque tiene muchas zonas de avaldia. Um, bueno, entonces ese es mi secreto. Entonces sí, por eso creo mi servicio aquí. Um, entonces por aquí, tengo dos VPCs, así que puedes tener más de una VPC Entonces una VPC es predeterminada porque le permite configurar rápidamente instancia de EC dos sin ningún tipo de, ya sabe, necesito gobernar estos requisitos previos de configuración y cosas así Entonces esa es la razón por la que cada región tiene una VPC. Entonces me hace mucho más fácil. Puedo cambiar a cualquier región en este momento, y luego puedo simplemente hacer girar EC dos instancias, solo la configuración predeterminada, bien, en la red. Así que no tengo que hacer mucho. Eso lo veremos en el siguiente video. Esa es la razón por la que hay una VPC en todas partes, ¿de acuerdo? Otra razón es, como, VPC es realmente necesaria para la configuración de la red Podría ser una comunicación de región a región o podría ser una comunicación de aplicación por fases de Internet a través de Internet Pero definitivamente necesitas tener una VPC. Ahora, cuando ingresas a esto, hay dos VPC por aquí, ¿verdad Cuando ingresa una VPC, entonces tendrá subredes asignadas a ella Entonces se puede ver que se trata de subredes. Ahora bien, ¿de dónde vienen estas subredes? Ahora, las subredes son la configuración predeterminada de una VPC. Cuántas zonas o zonas T disponibles tiene la VPC, que tantas materias lo siento, que muchas subredes deberían estar disponibles para esa ¿Puedes tener um, ya sabes, puede haber múltiples preguntas ¿Puedes tener varias subredes, puedes tener varias VPC? Entonces esas preguntas serán atendidas en ese momento, así que no te preocupes por eso. Entonces, como puede ver, las subredes se conectan a una tabla de rutas. La tabla de rutas va a una configuración de red. Entonces no nos preocupa esto en este momento sobre la arquitectura del mapa de recursos, ahora conocemos las cosas por defecto. Ahora bien, cuando se crea cualquier instancia de EC dos, lo que voy a hacer en el siguiente video, realidad verá la relevancia entre la subred y la VPC Entonces verá la instancia de ejecución de EC two que se está ejecutando actualmente. Entonces, si solo seleccionas eso, tendrás esta instancia de EC dos alojada en alguna VPC, bien, porque puedes ver la zona t disponible, está alojada en US east una A. Dice A, lo que significa que está alojada en US East una A usando la subred Entonces así es más o menos como se define. Entonces es anfitrión uno A. Entonces ¿podemos seleccionarlo? A la hora de EC dos instancia, ¿podemos seleccionar una subred? Sí, puede seleccionar una subred al crear una instancia de EC two Cuando vas a la subred por aquí, entonces tienes muchas subredes por aquí Entonces hay muchas subredes Sama creadas por mí mismo. Sí, puede crear varias subredes. Así que he creado subredes adicionales por aquí. Se puede ver eso por aquí. Entonces puedes ver que dice Se trata grupo fronterizo de red este uno este, uno al este porque ese es básicamente el EU East uno es el nombre de la región, entonces este es el nombre de la región. Pero aquí en la zona disponiabt, tienes oriente uno A, este uno B, este uno, C, si solo lo ordenas por esto, Tiene dos oriente uno A y dos oriente uno B. Ahora, ¿por qué? Porque he creado una subred para mí. Así se puede ver eso. Entonces esto se crea para la aplicación extra lo siento, extra. Entonces eso es algo en lo que hablaremos alguna vez. Bien. En esta sección solamente, vamos a hablar de ello. Bien. Asimismo, hemos creado múltiples subredes Entonces sí, para responder a tu pregunta, es posible crear múltiples subredes también es posible crear múltiples subredes en menos de una zona de disponibilidad Y sí, es posible elegir tu instancia EC two, uh, para ser alojada en una subred específica por aquí Pero no es posible elegir tu ubicación de copia de seguridad. Entonces solo por ejemplo, si estoy alojando en E dos, la copia de seguridad puede estar en cualquier lugar. Entonces, si este servidor falla desde el punto de vista AW, se puede migrar a cualquiera de los hosts, por lo que es algo que no podemos elegir Pero obviamente habrá refuerzos entrando. Y también se puede ver la disponibilidad de la dirección IP para la sidra Por lo que cada subred específica tendrá una información de sidra. Entonces ese es el criterio base para que asignes direcciones IP. En los servidores alojados bajo la SDU. Bien. Así que ese es el rango del lado de allá arriba. Entonces, así mismo, tienes toda esta información hacia esto. En el siguiente video, crearemos una instancia EC two. Espero que haya entendido los principios básicos de VPC. ¿Qué es VCP lo siento, qué es VPC y qué hace, qué son las cosas bajo la Entonces la superposición básica que entiendes en este caso. En el siguiente video, entenderemos la superposición básica de crear EC dos instancias y acceder a esa. Gracias de nuevo por su paciencia y tiempo, los veo en el siguiente video. 30. Claves de acceso a Labs: Hola chicos, bienvenidos de nuevo al siguiente video. En este video, hablaremos sobre este tema en particular aquí primero entendiendo la clave de acceso, las políticas de contraseña, el almacenamiento de credenciales, así como trabajar en estos dos servicios como parte del almacenamiento de credenciales El almacenamiento de credenciales es básicamente donde vas a guardar el almacenamiento. Entonces vamos a hacer esto en un video y luego lo vamos a hacer en otros dos videos en términos de clave de acceso y política de contraseña. Comenzaremos con Access Key en este video y luego iremos con la política de contraseñas en el siguiente video. Ahora, recuerden que los siguientes videos que voy a mostrarles, en realidad, hemos completado una sección por aquí. Entonces aquí estaremos realmente creando un usuario en términos de manos en y en realidad estaremos asignando las políticas al usuario y cosas así Ahora, cuando te esté mostrando manos a la hora de explicar estos aspectos, te estaré mostrando el usuario ya creado. Así que no te preocupes por ello. Esto es solo un poco extra propio. Estoy poniendo esfuerzo por aquí para mostrarles cómo se ve realmente esto, pero no habrá práctica práctica para esta certificación, así que no se preocupe por ello. Es solo el esfuerzo extra que voy a poner para mostrarte um, artículo por aquí. Entonces si te apetece, Oh, no estoy creado ese usuario, está bien. De todos modos lo vas a crear. Después de tres o cuatro videos, vas a hacer eso de todos modos. Pero sólo te voy a mostrar porque esto realmente no requiere de manos, así que sólo voy a mostrarte eso. Entonces para desatender todas esas cosas que el usuario ya es, lo tengo porque vas a crearlo todos modos más adelante en la línea Entonces veamos este diagrama. En primer lugar, en este video, veremos sobre la clave de acceso. Las claves de acceso son un par de credenciales, implica una clave de acceso secreta de ID de clave, que se utilizan para asignar solicitudes programáticas para usar API a través de AWS CLI, SDK, STAPIs Ahora bien, ¿qué son estos? Um, estas son básicamente un tipo de formas de acceder a su AWS. ¿Bien? Ahora, para que pueda acceder a AWS a través AWS CLI, que es el software que necesita descargar de AWS Kit de desarrollo de software SDK, nuevamente, descárguelo de AWS e instálelo en su sistema. Las APIs de descanso son, ya sabes, son como programas que se ejecutan desde cliente y en realidad van a ir a su AWS. Por ejemplo, puedes decir, cuando accedes a open shift en Openshift desde tu sitio web de red hat a AWS, tienes que crear este ID de acceso y clave, crear un usuario, darle el permiso necesario, y luego crear este ID de clave y acceso secreto y dárselo en turno abierto Lo que Openshift va a hacer es que usará el um, ID de clave y el nombre de acceso, y usará el nombre de usuario que has especificado, ¿verdad Um el que en realidad tiene las políticas para los ases correctos para que cree recursos. Y luego accederá a la API de AWS, que por supuesto la habría dado como parte del usuario, y accederá a AWS usando esas credenciales. Allr? Eso es llamar Clave de acceso. Entonces mayormente, mayormente la pregunta sería como um, bueno, tienes una empresa y los terceros quieren acceder a tu servicio usando acceso o solicitud programática a través de uno de tus servicios que se ejecuta en la API de Cuál de los servicios en el siguiente sería el correcto. Entonces te estarán pidiendo clave SSSech. Es posible que te estén pidiendo nombre de usuario y contraseña, y te estarán pidiendo clave de acceso. Por lo tanto, debe seleccionar en qué situación necesita seleccionar Clave de acceso. Sólo te voy a mostrar que mucho tiene mucho sentido cuando te muestro. Estoy buscando IAM, Al medio clic en IAM Por aquí, tienes al usuario, tienes al usuario dev. Normalmente, todo como el acceso programático donde una API está llamando, uh, los proveedores externos están llamando usando el protocolo rest o algo así Tienes que dar realmente el nombre de usuario del usuario que has creado. Normalmente un usuario tendría políticas. No te preocupes por ello, estaremos creando este punto de tiempo posterior. Entonces estarás asignando política. Entonces en esta política, dice que este usuario en particular tiene acceso completo sobre EC dos, S tres eje completo, ases completos Lambda. Entonces hemos dado acceso completo a solo estos tres servicios para este usuario llamado Dev, ¿de acuerdo? Ahora bien, ¿cómo puede una persona acceder a este artículo de podgula? Como te dije antes, en realidad puedes acceder a este de usuario usando la consola porque está habilitada. Puedes ver el enlace de la consola por aquí para puedas copiar ese acceso a este usuario. En la sección donde realmente estaremos creando el usuario, realmente estaremos accediendo al usuario usando la consola. Esa es una forma de acceder. Pero entonces no todos estarán contentos de acceder a la consola. Como por ejemplo, sus programas, que se ejecutan desde turno abierto hasta AWS, todos se ejecutarán a través de terraformación Ahora cuando quieres ejecutar un servicio desde terraforming, realidad no puedes ejecutarlo con la consola GI Entonces es posible que tenga que um ejecutarlo a través de llamadas a la API ST o algo que esté usando programa para conectarse con otro programa. Eso es lo que normalmente lo llamamos como programa de acceso médico. Ahora hablemos de otra forma de acceder. Entonces, como sabes, autenticación multifactor no es más que agregar otra capa de autenticación encima de tu contraseña existente a la que realmente puedes acceder a tu consola, y no está prácticamente relacionada con nuestro tema Ahora vengamos a acceder a la clave por aquí. Tengo llave de acceso por aquí. Déjame desactivar y recrear esta clave de acceso. Lo siento mucho, lo volví a activar. Entonces voy a hacerlo éste. Tengo que escribir el nombre de la clave de acceso para dele. Ahora esa clave de acceso está desactivada. Ahora bien, ¿qué es la clave de acceso? Usar la clave de acceso para enviar llamadas programáticas a AWS desde las herramientas de AWS CLI de AWS, Power Shell, lo siento, la herramienta de AWS como en Power Shell, SDK o directamente a través de llamadas APA de AWS o llamadas SPA Puede tener un máximo de dos llaves adjuntas. Una es, o puedes tenerla activa o inactiva a la vez. Ahora lo que esto significa es que si su programa quiere conectarse con el programa que se está ejecutando en AWS, necesita una gran clave de acceso. Ahora tienes otros métodos de comunicación como SS tales, se usa para el commit de código de AWS, pero no se usa para llamadas programáticas por Puedes ver la descripción aquí. Puede usar HTTP get credenciales, pero esto se usa para autenticar la conexión HGTBX, que es code commit nuevamente para el repositorio de commit de código Puedes usar Amazon keypass aquí para Cassandra para Apache Cassandra Bien. Y luego puedes usar x509 para protocolos SOP . Todo bien. Entonces cada uno de estos métodos de autenticación es para un servicio dedicado o una forma diferente de conectarse a este usuario en particular desde elementos de terceros. Pero si tu pregunta dice específicamente llamadas programáticas, entonces necesitas pensar en la clave de acceso Cuando tu pregunta dice que se trata de comentarios de código entonces tienes que pensar SSH o G. Cuando tu pregunta dice que quieres usar a través de key pass o, uh, para Cassandra, entonces tienes que pensar en la credencial del pase de claves de Amazon, um, lo siento, espacio clave um, lo siento, espacio Y luego si dice sobre, um, el protocolo de jabón y cosas así, entonces X cinco certificado en línea. Pero no te preocupes, esto es todo no vendrá como parte de tu pregunta. Lo más importante será la clave de acceso. Ahora, cree la clave de acceso, simplemente haga clic en ella, y podrá ver diferentes claves de acceso, que puede crear para su interfaz de línea de comandos. Código local cuando está ejecutando un kit de desarrollo de software, entonces puede ver, cuando está ejecutando un EC para dar servicio a Lambda o desea acceder a un servicio AW a otro servicio de AWS, puede usar la aplicación que ejecuta servicio informático de AWS o un tercero, por ejemplo, si está utilizando OpenShift para ese ejemplo, puede usar terceros, y luego aplicación corriendo fuera de AWS. Del mismo modo, también tienes otros, como Nevers para acceder a un tipo clave de información importante por aquí De cualquier manera creas algo de esto, va a pedir valor de descripción, y luego va a crear un secreto por aquí. Ahora, la clave de acceso va a tener dos elementos por aquí. Una es la clave de acceso, otra es la clave de acceso como lo siento, secreta. Va a ser tu contraseña real. Entonces este es el usuario. Estarás usando lo que darás para un ejemplo, si estás usando turno abierto en la otra mano. Open shift dirás, usa este nombre de usuario Dev para la autenticación, te preguntará, dame la clave de acceso, dame la clave de acceso secreta. Tienes que copiar y pegar ambos a OpenShift, y también tienes que dar tu ID de cuenta Por lo que utilizará todas estas combinaciones, por lo que usará ID de cuenta. El nombre de usuario, la clave de acceso, la clave acceso secreta y, a continuación, se conecta a AWS. Ahora bien, recuerde que OpenShift tendrá su propio requisito de las políticas, que necesita ser parte del usuario dev que pueda realizar ítems por ejemplo, Openshift ejecutará mucho código de terraformación En tu EC dos instancias o tus artículos así. Open shift dirá, necesito privilegio administrativo porque lo que va a hacer para ejecutar scripts terraforming, para crear VPCs, para crear balances de carga, va a crear un montón de cosas para tener tu turno abierto instalado en AWS Entonces para eso, requiere acceso administrativo. No quiere impuestos de raíz. No se debe dar acceso root a Access Key, a cualquiera que lo solicite. ¿Bien? Entonces solo debes crear un usuario, dar las políticas específicas que solicita, y luego crear la Clave de Acceso y dársela a esa API. Todo bien. Esto es más o menos lo que quiero mostrarte en términos de manos. Um, así que recuerde que el caso de uso esta clave de acceso es utilizado por usuario de IAM y las aplicaciones de IM para interactuar con los servicios AW programáticamente Ahora bien, esta palabra programáticamente debería recordar. Cuando escuchas la palabra programáticamente, la respuesta debe ser clave de acceso Por lo tanto, debe asegurarse de que necesita rotar la clave de acceso regularmente para garantizar la seguridad. Evite incrustar la clave de acceso en el código fuente. Esto es asegurarse de que, ya sabes, yo IAM gobierna, ya sabes, creado como parte de esto Hablaremos de eso más adelante. Así mismo, estas son algunas de las mejores prácticas que puedes usar en palabras Clave de acceso. No creo que tenga nada más que añadir aquí. Entonces, si tienes alguna duda, déjala en la sección de preguntas. En su mayoría responderé a todas tus preguntas durante el fin de semana. Gracias de nuevo por su tiempo y paciencia. Te veré en el siguiente video. 31. Almacenamiento de credenciales de Labs: Ustedes, bienvenidos de nuevo al siguiente video. En este video, vamos a ver el último tramo sobre este tema en particular que es su administrador secreto y administrador de sistemas. Y vamos a recuperar el almacenamiento de credenciales. Ahora bien, ¿qué quiere decir con almacenamiento de credenciales? Un almacenamiento de credenciales es una ubicación donde realmente puedes almacenar tus credenciales Para que puedas almacenar tus credenciales de dos maneras, un administrador secreto y el almacén de parámetros del administrador del sistema. Ahora bien, ¿qué son estos dos artículos? Por qué estamos hablando de dos ítems. Hay dos razones para esto hablando estos dos elementos en términos de almacenamiento de credenciales. En cuanto a credenciales para llegar, existe un servicio dedicado llamado Secret Manager. Ahora bien, si sólo voy aquí al secreto, consigo al Gerente Secreto por aquí. Otro es el administrador de sistemas. Estoy abriendo los dos, así que es fácil para mí mostrártelo. Ahora bien, ¿qué es un gerente secreto? El administrador secreto gira, administra y recupera secretos fácilmente a lo largo de su ciclo de vida. Entonces si creo un secreto, como token API, que he creado en ese usuario justo en el video anterior que hemos visto. Ahora puedo almacenar la clave API y la clave de acceso en la tienda secreta. Pero el problema de la niebla tiene 30 días de prueba gratuita, pero luego por secreto, vas a pagar 0.4 por mes. No es tan caro, pero aún así algo a considerar. También puedes usar llamadas API y enrutar contraseña CNM a través del administrador secreto dando el nombre del secreto En lugar de proporcionar explícitamente la clave y el secreto directamente a cualquiera de los APS, en realidad puede enrutarlo a través del administrador secreto con los privilegios adecuados. Ahora el administrador secreto tendrá su propio UsenmPassword, y el cifrado de este gestor secreto formará parte Tienes que pagar el servicio KMS también porque el acceso a este secreto en particular se cifrará a través de uh, tu servicio de administración de almacén de claves de AWS. ¿Bien? Entonces ahora este es uno por defecto que tienes por aquí como administrador secreto, y eso se crea como parte de tu KMS. Ahora tienes opciones por aquí. De hecho, puede contener la información clave hacia su base de datos RDS También puede almacenar la base de datos de Amazon Document DB. También puede almacenar, um, almacén de datos de turno al rojo. También puede almacenar credenciales de otras bases de datos donde puede seleccionar el servidor MSQolPostsq, y luego realmente puede dar la dirección del servidor, el nombre de la base de datos, el número de puerto Por lo que el servicio nos contactará directamente con el administrador secreto para recuperar el secreto, cual se va a configurar en el siguiente paso, paso dos, u otro tipo de claves API, la que estás creando para un usuario. Para que también puedas poner esa clave por aquí con el valor de clave clave, y luego puedes um ir al siguiente paso y configurar el secreto. Y configurar la rotación. Así que vamos a ir con esta prueba de prueba, y luego pasar a la siguiente. Y aquí en realidad le das el nombre secreto por aquí. Entonces, cualquiera que sea el nombre secreto va a venir por aquí. Y luego cuando vas al siguiente, en realidad puedes ver si quieres rotar esto. Ahora puedes tener el generador de rotación aquí cada 23 horas o cada dos meses una vez que puedas rotar. Ahora, lo hermoso de esto es que cada vez que haces eso, también puedes llamar a una función Lambda por aquí, y luego puedes simplemente revisar el artículo y terminarlo. Ahora, no te van a preguntar cómo hacer esto con las manos o las opciones cuando haces las manos en. Entonces solo te estoy dando información extra sobre cómo trabajar con un gerente secreto. Ahora, ¿qué es un gerente secreto? Un gerente secreto almacena tu secreto de forma segura y administra y recupera el secreto Y también gira el secreto. ¿Bien? Entonces esa es la primera cosa primaria al respecto. ¿Bien? Ahora, principalmente se utiliza para tener credenciales de base de datos Entonces viste que mucha base de datos entraba en el elemento de acción. Entonces, si surge una pregunta, cuál de los siguientes elementos se prefiere almacenar en AWS secret manager? Y pueden tener muchas preguntas que pueden estar relacionadas con ella, pero una de ellas destacará será creditis de base Busca esa información. Claves API también podemos almacenarla e información sensible. Cualquiera que considere información sensible. Bien, o de lo contrario harán pregunta como esta donde tengo una credencial de base de datos y mis clientes pidiéndome que la almacene de forma segura ¿Cuál de los servicios te gustaría utilizar? Uno de esos servicios sería gerente secreto. Bien. Así que recuerda esta palabra. Todo bien. Ahora, hablemos del siguiente, que es sobre la característica del gerente secreto. Gira tu secreto. Utiliza el servicio KMS para rotación. Lo siento, por sostener la llave de forma segura usando KMS. Y luego tiene acceso bien ointed vía IAM. Bien. Así que respondiendo muy directo hacia ella. Entonces, en términos de administrador de sistemas, el administrador de sistemas se usa para muchas cosas. ¿Bien? Como por ejemplo, puedes ver Op Center por aquí, Cloud watch, en realidad puedes configurar administradores de aplicaciones por aquí. También se puede ver la gestión de cambios como parte del administrador del sistema. También puede ver parchear también gran parte de su administrador de sistemas Pero una cosa para almacenar tu credencial es tu almacén de parámetros Ahora bien, ¿recuerda que el almacén de parámetros es parte de su administrador de sistemas, y qué es el almacén de parámetros? Ahora, el almacén de parámetros es un almacenamiento centralizado y administración de secretos y datos de configuración como contraseñas, cadenas de bases de datos y códigos de licencia. Puedes cifrar valores o almacenarlos en texto plano y acceder a secreto a nivel de entrada, como te gustaría hacerlo Ahora, hay una característica más del almacén de parámetros es que puedes crear un nuevo almacén de parámetros, especificar el tipo de parámetro y el valor. Y refiera el parámetro en su código o comando. También puedes referirlo fácilmente. Ahora, para hacer clic en Crear un parámetro, modo que realmente pueda dar el nombre del parámetro aquí, descripción, si desea almacenar hasta 2000 parámetros estándar hasta un valor de hasta cuatro KB de un tamaño de archivo, y la política de parámetros se comparte con otras cuentas de AWS. Puede compartir esto como parte de las otras cuentas de AWS que tenga. O simplemente puedes ir por uno Avanzado donde tienes 100,000 parámetros avanzados, que alrededor de ocho KB, eso va a ser un cargo extra para ti. Ahora en cuanto al valor que planeas almacenar, puedes poner en tu base de datos valores, tus claves de licencia y todo lo demás. Y también puedes, ya sabes, crear una cadena segura, usando KMS. Puedes cifrarlo a través una cadena segura o puedes usar un tipo de datos como texto y luego puedes poner el valor aquí Y esto creará un parámetro en el que realmente estarás sosteniendo el valor del mismo. Ahora, el propósito del almacén de parámetros es que otro servicio de almacenamiento de datos de configuración y archivos secretos se pueda retener por aquí Ahora la característica de esto es admitir tanto texto plano como valores cifrados, integrándose con AWS KMS para el cifrado. Yo diría que un caso de uso ideal de esto es almacenar valores de configuración de aplicaciones como valores de entorno v o cadenas de base de datos que quieras guardarla o pequeños secretos que tienes por aquí, puedes guardarla. Entonces, el propósito principal o la mejor práctica es usar el almacén de parámetros para administrar datos configuracionales no sensibles o secretos que no requieren rotación frecuente Así que el almacén de parámetros es básicamente para almacenar parámetros y valores secretos no críticos como su información de licencia y otras cosas. Cómo se destaca del administrador secreto, el administrador secreto estará utilizando la autenticación o encriptación de KMS. Entonces no hay opción, um para que la guardes sin KMS. Hemos visto múltiples opciones por aquí, puedes ver que tenemos el texto plano o el valor clave. Pero cualquier cosa que ingreses por aquí requiere un cifrado KMS por aquí, puedes verlo. Este no es un parámetro opcional. Esto es obligatorio. Todo lo que almacene como parte de esto requerirá autenticación KMS o lo siento, cifrado, donde se cifrará el valor. Ahora en este, es opcional donde puedes asegurarlo usando um, KMS. Tan seguro como encriptar usando el valor usando KMS. Bien Pero hay opción de no hacer eso también, porque básicamente almacena parámetros. Bien. Entonces habrá preguntas que surgirán. Muy confuso. Dirán, quiero guardar algún secreto que básicamente no es así, um, ya sabes, no tan frecuentemente requiere rotación, y no es tan seguro. Son solo los datos de licencia. ¿Cuáles son los servicios que utilizaría para, um, ya sabes, almacenar este valor? Podría ser uno de los servicios sería administrador seguro, otro servicio será parámetro, almacén de parámetros, y luego hay que elegir almacén de parámetros porque no requiere rotación, no requiere cifrado. En esa situación, cuando el cifrado es una opción, opta por el almacén de parámetros. Si el cifrado es obligatorio, opta por el administrador secreto. Las preguntas serán un poco torcidas, lee las preguntas dos veces y dos veces para entender la diferencia de lo que realmente nos estamos metiendo y luego responder a la pregunta, deberías estar bien. Gracias nuevamente por ver este video si tienes alguna duda, déjalo en la sección de preguntas. 32. Laboratorios: identificación de métodos de autenticación en AWS: Oigan, chicos. Bienvenidos de nuevo al siguiente video, y esto vamos a hablar sobre identificación de métodos de autenticación en AWS. Una de las preguntas importantes aquí como parte de esta tarea en particular dos o tres, estamos identificando las capacidades de administración de acceso AAWS es sobre los métodos de autenticación en um identificando eso Intentaremos hacer algunas manos, pero si buscas leer a los usuarios o algo así, lo vamos a hacer más tarde en el momento. A lo mejor en un par de videos estaremos trabajando en las manos hacia él. Entonces en este video, vamos a identificar una arquitectura por aquí, que va a hablar identificar métodos de autenticación en AWS. Este es un solo video que cubriremos estos tres elementos, y esto es algo que hemos visto una y otra vez, así que va a ser mucho más fácil para nosotros pasar por esto. Ahora, identificando métodos de autenticación en AWS, es decir, esa forma de identificar diferentes métodos de autenticación. Una es tu autenticación multifactor que no puedes negar, que es muy necesaria y agrega una capa extra de seguridad solicitar al usuario que proporcione dos formas de autenticación Una es tu contraseña, otra es un código, que genera cada minuto, y gira cada minuto y obtendrás un nuevo código, ya sea usando un dispositivo token de hardware o usando una aplicación móvil. Ahora, un caso de uso es básicamente habilitar el MFA en usuario de IAM, que ya hemos visto suficiente para los videos anteriores, así como también lo vas a ver en el siguiente video Quiero decir, siguiente manos en cuanto a la creación de usuarios. Por lo que esto asegura que el usuario root o el usuario al que está habilitando esto sea aún más seguro. E incluso si la contraseña se ve comprometida, gente no podrá entrar porque el código de cinco dígitos sigue rotando y cambiando cada minuto. El siguiente es Iidentity center de IAM. Formalmente llamado como AWS single sign on, ese es el nombre anterior a él, pero recientemente llamado como Iidentity Center Ahora, Identity and Access Management Iidentity center permite la administración centralizada de acceder a múltiples cuentas y aplicaciones de AWS utilizando credenciales corporativas existentes para, um, ya sabes, active directory directo, si tu corporativo usa active directory, realmente no tienes que saber, importar todos esos usuarios en active directory a AWS De hecho puedes, um, ya sabes, ya sabes, agregar esos directorio activo como parte del centro de identidad. Por lo que puede usar un proveedor de identidad externo usando SAMO 2.0. Las preguntas aquí serían sobre ¿cómo integras tu empresa? Por lo que hará la pregunta será formalmente, como su empresa ya tiene un servicio EDAP el cual se está ejecutando con muchos usuarios y contraseñas Nombre de usuario y contraseñas. Ahora bien, ¿cómo integras eso? ¿Qué servicio usarías para integrarlo con AWS? Ese es tu centro de identidad. ¿Bien? Entonces así será como se enmarcará la pregunta. Básicamente, lo que significa es como el caso de uso típico de este centro de identidad. Simplifica la autenticación y administración de acceso para grandes organizaciones con múltiples cuentas de AWS, permitiendo a los usuarios autenticar una y acceder a todos los recursos asignados Ahora, también puede usar Federation para acceder a la autenticación basada en SAML, que permite a los usuarios iniciar sesión con sus credenciales existentes, cual está configurada en su cuenta Si vas a IMR, solo quiero darte algo de, um, ya sabes, vista Se puede ver que las consolas relacionadas IM configuración de identidad. Esto solía ser SSO anteriormente, un solo signo encendido, Uh, pero ha cambiado a centro de identidad Ahora en realidad se puede habilitar el centro de identidad. Entonces, cuando lo habilitas, conecta tu directorio o crea grupos de usuarios a través de Quiero decir, para su uso en AWS. Entonces, si ve que se administra a través de la fuerza de trabajo a través cuenta de AWS y accede a las aplicaciones de integración de workf, de igual manera , si tiene varias cuentas, realmente puede usar esto, habilitarlo y luego usarlo para crear y trabajar con múltiples cuentas de usuario Todo bien. Entonces ahora hablemos del siguiente ítem, que es tu regla de mensajería instantánea de cuentas cruzadas. La IMO de cuentas cruzadas es básicamente una regla que permite al usuario o servicio en una cuenta de AWS asumir temporalmente un rol de IAM en otra cuenta de AWS sin compartir credenciales a largo plazo Ahora, cuando un equipo de varias cuentas de AWS necesita acceder a recursos a otra cuenta, por ejemplo, si tienes una organización y hay esta organización llamada organización tiene esta cuenta llamada ANB Como, por ejemplo, por aquí, una de esas son las organizaciones que ves eso. Entonces, por defecto, no habrías habilitado la organización. También puedes habilitarlo es gratis. Entonces habrá opción por aquí llamada habilitar organización solo haz eso. Debería habilitarse muy rápidamente. Así que ahora tienes varias cuentas por aquí, y quieres acceder a los usuarios a través de la red cruzada de usuarios de cuentas cruzadas. Eso es lo que llamamos regla de IAM de cuentas cruzadas. En este caso, los desarrolladores en la cuenta A para acceder al S tres bucket en la cuenta B, pueden asumir una regla que es apropiada la cual tiene el permiso apropiado para ello. Eso se llama básicamente reglas de IAM de cuentas cruzadas. Las preguntas serían normalmente como en mi entorno, tengo un desarrollador, donde un desarrollador en la cuenta A requiere acceso a S three bucket para escribirlo en la cuenta B. Qué tipo de servicio debo usar o qué tipo de característica necesito usar para habilitar el acceso para este desarrollador y darle acceso a múltiples, um, ya sabes, múltiples cuentas bajo mi organización. Si viene este tipo de preguntas, reglas de IAM de cuentas cruzadas. Piénsalo en eso. Necesita tener acceso en ambos extremos, así que tenemos que hablar de reglas de IAM de cuentas cruzadas Bien, chicos, gracias de nuevo por ver este video. Veo en la siguiente. Si tienes alguna duda, déjala en la sección de preguntas. Voy a poder atenderte entonces. 33. Políticas de contraseñas de Labs: Oigan, chicos, bienvenidos de nuevo al siguiente video. Esto, vamos a hablar de políticas de contraseña. Ahora en términos de política de contraseñas, vamos a hablar de la definición de las reglas o los requisitos que el usuario de IAM debe seguir al crear la política de contraseñas Ahora para las claves de acceso, que discutimos anteriormente, ahora la contraseña no la configura usted, bien se genera automáticamente. Pero cuando se habla de las contraseñas que se crea para un usuario, cuando él o ella está iniciando sesión en la consola, eso es establecido por usted. ¿Bien? Entonces esto es establecido por, puedes ir a restablecer la contraseña Puede seleccionar autogenerador o la contraseña personalizada Bien. Entonces, cualquiera de las formas en las que realmente usarás la contraseña uh. Contraseña de generador automático significa que tendrás una contraseña estricta sin que tú, um, ya sabes, crear una contraseña más estricta Pero cuando vas por una contraseña personalizada, aquí es donde el requisito es ser , um, requisitos específicos. Entonces, en cierto modo, realidad no puedo crear una contraseña llamada contraseña. Si creo algo así, se puede ver que la política de contraseñas no se entiende. Lo que dice la política de contraseñas es que debe tener al menos ocho caracteres de largo, y debe tener mayúsculas, números en minúscula, símbolos. Yo debería tener al menos mezcla de estos tres siguientes, al menos tres, ya sea de esos rubros. Lo que vamos a hacer es P al ritmo. SSW, cero RD, a tasa 123. Ahora bien, esto tiene una letra mayúscula , letra minúscula, al ritmo, que es un símbolo, y luego cero, que es un número, y luego tiene ocho letras de largo. Realmente no necesitas una tarifa uno, dos, tres también porque esto realmente debería satisfacer contraseña compleja. También podemos habilitar el usuario debe crear una nueva contraseña cuando inicie sesión y además usted puede habilitar revocar toda la consulta Si alguien hubiera iniciado sesión en este usuario en este momento, esas personas se desconectarían al hacer clic en Restablecer contraseña. Ahora, una vez que hayas restablecido la contraseña, estarás informando al cliente y en realidad estarán trabajando con una nueva contraseña una vez que te hayas comunicado de forma segura con ellos. Una cosa más que se recomienda como parte de la política de contraseñas es una autenticación multifactor. Ahora, basta con hacer clic en Asignar autenticación multifactor y aquí podrás ver los diferentes tipos de autenticación multifactor por aquí, lo que habla de una clave de seguridad, una clave de paso, una clave física o un dispositivo, aplicación Authenticator usando tu móvil y realmente puedes instalar esta aplicación de autenticación, o puedes tener un token de hardware que es TotptKen que es de nuevo, dispositivo de hardware por Todo bien. Entonces, al usar la autenticación multifactor, su usuario estará incluso mucho más seguro que antes Gracias de nuevo por ver este video. Te veré x 34. Tipos de gestión de identidad de laboratorio: Oigan, chicos, bienvenidos de nuevo al siguiente periodo. Y este video, podemos entender los tipos de gestión de identidad. Ahora, ya hemos hablado del centro de identidad por aquí y las reglas de la AM de cuentas cruzadas. Lo que entendimos sobre el centro de identidad es que no solo creas sname y contraseñas en AWS, sino también si ya hay un um, LDAP o algún tipo LDAP o algún tipo de autenticación en tu empresa, puedes integrarlo a través de Idntity Ahora podemos entender sobre los tipos de gestión de identidad, por ejemplo, la identidad federada Una Federación significa básicamente adición a la infraestructura existente. Hablemos de los diferentes tipos de identidad que se utilizan en AWS. Ahora primero es un usuario local de IAM y grupos. Ahora bien esto es básicamente significa que voy a IAM, creo un nombre de usuario lo siento, la sesión ha caducado. Sólo dame un segundo. Perdón por eso. Volví. Entonces creo que tengo que cerrar todos los navegadores y solo reabrirlos. Ahora aquí, como pueden ver, tengo los usuarios creados por aquí, los grupos creados por aquí. Esto se llama básicamente como el grupo de usuarios de IAM local donde se crea a nivel local dentro de su propia AWS Lo estamos creando manualmente. El siguiente es el Gestor de Identidad Federada. Ahora bien, lo que quiere decir con administrador de identidad federado es que el administrador de identidades federado permite al usuario de un proveedor de identidad externo o DAP acceder a los recursos de AWS sin crear un usuario de IAM separado en Esta federación de identidad desde directorios corporativos como directorio activo o DAP de terceros como Google, autenticación Todo esto se llama básicamente federados. Básicamente te federaste usando un formato estandarizado como SAML 2.00 o open ID connect, así mismo, puedes usar eso Básicamente cómo funciona, AWS integra los DAP externos para autenticar a los usuarios. Autenticar usuario asume roles temporales en IAM con el permiso definido en la política de AWS IAM De igual manera, puedes usar esto. Entonces, en un caso de uso típico, puede usarlo en una organización empresarial más grande que ya tiene credenciales corporativas en su directorio activo, donde realmente no tiene que recrearlas en su punto de vista de AWS Eso es lo que discutimos antes también. Ahora, hablemos de la siguiente, que son las reglas de cuentas cruzadas, que, de nuevo, es algo de lo que hablamos antes en nuestra sesión. Ahora, las reglas de cuentas cruzadas son básicamente reglas que tienen múltiples, um, ya sabes, que pueden funcionar en múltiples cuentas dentro de nuestra organización. ¿Bien? Estas reglas de acco cruzado permiten que los usuarios o servicios se ejecuten en una cuenta de AWS con una organización para asumir roles en otra Bien. Así que esto es básicamente una gestión de identidad que simplifica el acceso a través de múltiples cuentas de AWS sin necesidad de duplicar usuarios o credenciales Entonces esto es algo que se llama reglas de cuentas cruzadas, y esto es lo que discutimos anteriormente también. Entonces ahora el siguiente tipo diferente de gestión de identidad son las reglas de enlace de servicio. Ahora bien, ¿qué son las reglas de enlace servicio? Las rutas de enlace de servicio son un tipo único de reglas que enlaza directamente con los críticos al servicio de AWS. Estas reglas permiten que AWS Service realice acciones en su nombre. Por ejemplo, si vas al usuario de IAM y vas a rollos, ¿verdad Tienes tantos papeles por aquí. Si ves eso, tomemos este papel de ejemplo. AW es el rol de servicio para el escalado automático. Ahora, cuando abres esto, puedes ver ese rol vinculado al servicio de escalado automático. Ahora cuando haces clic en esto, realmente puedes ver la política y también tienes la explicación por aquí. rol vinculado al servicio predeterminado permite el acceso al servicio AW y a los recursos utilizados o administrados mediante escalado automático. Entonces, todo lo que es parte de su servicio AW, que es utilizado y administrado por auto scaling es parte de la regla de enlace de servicio de aquí. De acuerdo con esta regla, está vinculada a la política de auto escalamiento de la política de rol de servicio. Ahora que expandimos, en realidad obtendrás más detalles de lo que realmente es la acción, y permite todas estas acciones por aquí, que se trata de autoescalado y habilitación y cosas así Así se puede ver que todo el escalado automático entra en imagen de un hlastic bandas o nube viendo, todas esas cosas por aquí Entonces esto se llama básicamente una regla de enlace de servicio. Ahora, cómo funciona, el rol es creado y administrado automáticamente por el servicio de AWS. Ahora bien, esto es algo que hasta ahora no has sido creado, ¿verdad? Debido a que estos se crean automáticamente llamados rol de ejecución de servicio. Siempre que cree un servicio, ese servicio vinculará un rol específico a él y es entonces cuando se asocia con un permiso específico que se necesita para que el servicio se ejecute correctamente. Por lo que una regla de servicio para el escalado automático tendrá permisos para el escalado automático, como puede ver aquí. Eso se llama regla de pista de servicio. Ahora la siguiente de la que vamos a hablar es la identidad proporcionada para la web y la aplicación móvil cognitiva. Ahora hay otra aplicación o servicio llamado Amazon Cognito Se utiliza para administrar la autenticación y la identidad de usuario para aplicaciones web y móviles. Cuando llega una pregunta para proveedor de identidad para aplicaciones web y móviles, entonces toda tu mente debería ir por Amazon Cognito Ahora, Amazon Cognito admite la federación de identidades a través terceros como Google Facebook y el directorio Enterprise a Samo 2.0 Ahora bien, lo que eso significa es que cuando inicias sesión en, um, um, cualquier sitio web a veces, cierto, verás que tendrás opción de crear un usuario para ese sitio web, o bien puedes iniciar sesión directamente desde tu ID de Google o ID de Facebook, ¿verdad? Ahora bien, cómo se vincula esto utilizando este proveedor de identidad particular de Amazon Cognito Entonces, usando este proveedor de identidad de Amazon Cognito, puede usar sus opciones de habilitar la creación de usuarios basada en Google Creación de usuarios de la página de Facebook e inicio de sesión directamente en el usuario usando Amazon Cognito Cognitive permite al usuario iniciar sesión en un DAP externo con su propia combinación de nombre de usuario y contraseña. Una vez autenticados, crearán temporalmente una credencial a través de grupos de identidades cognitivas para acceder a los servicios de AWS Ahora, esto se está complicando más, pero no te preocupes por ello. En realidad no van estar haciéndote tantas preguntas en torno a esto. Lo que te preguntarán es como cuando estoy configurando una aplicación para mi aplicación web y móvil, quiero dar mi autenticación de Google. En esta situación, qué tipo de autenticación o para qué tipo de servicio utilizaría. Entonces habrá una pregunta como Amazon Cognito. Cuando veas eso, esa es tu respuesta. Bien. Por lo que de igual manera, se harán preguntas. Pero en términos de gestión de identidad, estos son algunos de los conceptos. Esto es algo que debes recordar. Estos son los nombres que seguramente debes recordar. Voy a adjuntar todos los documentos de los que solo estoy hablando en un video diferente, tema diferente para que realmente puedas referir eso y, ya sabes, entender todo sobre eso. Gracias de nuevo por su paciencia y tiempo. Te voy a ver en el siguiente video. 35. Grupos y políticas de usuarios de Labs: Oigan, chicos, bienvenidos de nuevo al siguiente video. En este video, vamos a hacer sesión práctica para grupo de usuarios, roles, políticas. Todos estos elementos de acción no podemos hacer manos en. Sigamos adelante y hagamos las manos. Para eso, para que puedas crear un usuario con éxito, necesitas llegar a IAM Entonces hay un servicio llamado IdentityNAccess Management Para que puedas ver eso por aquí, haz clic en eso central. Ahora ves que has abierto una nueva pestaña por aquí con toda la información. Ahora actualmente eres un usuario root con MFA, que está habilitado, así que eso es un tick Pero existe esta señal de advertencia que dice que desactiva o elimina la clave de acceso para el usuario root Parece que hay alguna clave de acceso, así que nos está pidiendo que desactivemos o eliminemos la clave de acceso Vamos al usuario. Usuarios no hay ninguno, y luego está este grupo de usuarios, y está este rol. Hay tantos roles por aquí y políticas. Ahora como te dije por aquí en el video de interacción anterior. Ahora las políticas son bastante importantes, así que ese es el punto final. Políticas tiene el archivo JSON formateado. Ahora si haces clic en él, realmente verás el um, permisos de política por aquí, realmente puedes verlo a través del formato JSON por aquí. Ahora la política tiene cierto tipo de acciones por aquí. Estos son los permisos. Ahora eso se da como parte de esta política. Esta política llamada Access Analyze política de regla de servicio tiene estos muchos um, elementos debajo de ella. ¿Bien? Estas son las políticas predefinidas, que viene por defecto con AW, lo que esta no es personalizada. También puede crear su propia política personalizada, de la que hablaremos más adelante en el momento, que puede tener su propio conjunto de permisos de sus aplicaciones o servicios que tenga como parte de AWS. Entonces hablaremos de eso más adelante. Ahora repasando las reglas, ahora, como te dije, es para proporcionar permisos temporales a tus servicios, usuarios o electrodomésticos. Ahora un nombre de rol tendrá una política adherida a él. Cada nombre de rol vendrá con una política. Para aquí en este rol en particular llamado EC two Spot fleet tagging Role, se puede ver ese nombre similar para la política también, Amazon EC dos spot tagging Esto es sólo para identificar lo que es. Más o menos, la mayoría de las políticas que vas a tener, vas a tener roles asociados a eso también, y esos roles tendrán las políticas adjuntas a eso. Ahora, en términos de usuarios, vas a tener usuarios creados, lo que haremos en un momento, y luego tienes grupos de usuarios por aquí. Se trata básicamente de grupos que es usuarios van a formar parte de él. Haga clic en usuario, haga clic en Createser y podrá especificar el nombre de usuario igual que en este caso, voy a crear un usuario de desarrollo y proporcionar acceso a Esto asegura que brindes acceso para administrar. Consola. Ahora aquí, ¿le estás dando consola a una persona? Aquí hay un tipo de usuario es un usuario específico en el centro de identidad recomendado. Quiero crear un usuario de IAM. Ahora, también puedes crear I usuario en este caso mismo donde en el que realmente puedes crear una contraseña de este. Puede crear contraseña de autogenerador o contraseña personalizada. Entonces voy a dar d123 como contraseña por aquí. Puedo ver que se especifica la contraseña. Para recordar que la única vez se mostrará la contraseña cuando la estés configurando en el momento de la próxima vez, no hay forma de que puedas recuperar la contraseña desde la pestaña de usuario. Puedes ver que el usuario debe crear una nueva contraseña al iniciar sesión solo desactiva ese palo con la misma contraseña. Y luego D a la tasa a razón de 12345678 es Lo he copiado en mi portapapeles, así puedo pegarlo. Aquí puede crear cualquier tipo de políticas que pueda agregar a un grupo que tenga una política establecida en él, o puede adjuntar directamente una política al usuario uh existente. este momento no tiene ninguna política configurarlo, así que solo lo voy a dejar como predeterminado, así que solo voy a ir con la siguiente pantalla. Ahora, después de que vaya a la última pantalla por aquí, se puede ver la reseña. Puedes ver la reseña aquí. Puedes revisar eso sea lo que sea que estés haciendo. Entonces, a partir de ahora, no se nos da ningún tipo de permiso por aquí. Entonces restablecer la contraseña es ahora, se establece la contraseña personalizada, luego vamos a crear usuario. Ahora esto ha creado el usuario y en realidad puedes ver la contraseña por aquí. Ahora regresa a la lista de usuarios. Ahora recuerda si saltas este paso al siguiente paso, entonces ya no podrás recuperar la contraseña más tiempo. Entonces puedes ver eso más o menos cuando haces clic en esto, ¿verdad? Vas a credencial de seguridad, um no hay forma de que puedas recuperar una contraseña, así que puedes ver eso por aquí Dice que este usuario nunca ha iniciado sesión en la consola porque nunca iniciamos sesión. Entonces al hacer clic en Managed Console Ax, puedes revocar Consolex, puedes restablecer la contraseña, pero no hay opción de obtener la contraseña desde No hay manera, no sólo desde aquí. La única manera que puedes hacer es que deberías haber descargado ese archivo que te estaba pidiendo antes. Entonces aparte de eso, no puedes hacerlo. Pero lo otro que puedes hacer es reenviar la contraseña, puedes crear una contraseña personalizada y luego poner la contraseña por aquí Esa es otra opción allá para ti. Ahora, también puede establecer una autenticación multifactor para este usuario haciendo clic en Autenticación multifactor ASI De esta manera, puedes usar una aplicación Authenticator por aquí como la aplicación Google Authenticator y puedes configurar tu autenticación para tu debut Entonces ahora eso realmente depende de ellos si quieren tener una autenticación multifactor capaz de ese uso o no. A partir de ahora, permítanme darle una oportunidad por aquí. Déjame abrir una nueva pestaña. Déjame ir a aws dot es on.com. Ahora, sólo tienes que hacer clic en Iniciar sesión. Algunas cosas que se requieren aquí para que inicies sesión con éxito. No puedes usar el usuario root, por lo que necesitas dar el ID de cuenta por aquí, que puedes tomarlo desde esta ubicación. Ponlo aquí, Dev. Contraseña es Dev a razón de uno, dos, tres, cuatro, cinco, seis, siete, ocho. Entonces simplemente haz clic en iniciar sesión, deberías poder acceder a tu A disconso Pero recuerda, no puedes acceder a nada por aquí porque no has dado ningún tipo de políticas que te permitan hacer nada, en realidad no puedes, ya sabes, crear con éxito ningún bucket o algo así. No tienes permiso para obtener un ID de cuenta de iphon. Ves que se requiere permiso. Entonces no puedes hacer nada por aquí. ¿Bien? Así que en realidad puedes mirar el concepto. Eso es lo único que puedes hacer. Pero esos artículos relacionados con el rendimiento, todos esos artículos relacionados con el costo, sean cuales sean las dos instancias de EC que tengas por ahí, no podrás verlo, porque este es solo un usuario ficticio que creaste Así que no podrás ver nada por aquí, obtendrás colores rojos por todas partes. Ahora bien, ¿cómo doy permiso? Hay dos formas en las que puedes dar permiso a este usuario. En realidad, puede asignar el permiso directamente bajo el permiso bajo agregar permiso y luego crear un permiso de agregar aquí. Hablaremos de permiso en línea más adelante punto de tiempo. Por lo que en realidad se puede adjuntar el permiso de esto. Por lo que puedes dar acceso administrativo si quieres ese acceso administrativo para tu este usuario en particular. Entonces te va a dar todo recurso, colon, todo así que lo siento, estrella astérix, lo que significa que ¿Bien? Todo la acción es estrella, la acción puede ser todo. Por lo que el administrador tendrá permiso exclusivo en cada aspecto de sus cosas. Pero luego hay algo que está reservado para el usuario root. Ese ni siquiera administrador puede acceder para recordarlo. Bien. Entonces no es como si tuvieras un control total como usuario root. Por lo que el usuario administrativo no es igual al usuario root. Por lo que el usuario root estará teniendo diferentes privilegios. Hablaremos en la clase posterior e intentaremos entender que cómo usuario root va a ser único en comparación con el acceso administrativo. Entonces, para el desarrollador, por lo que debe elegir la aplicación. Para que puedas seleccionar ST. ¿Qué quieres hacer? Si quiere tener acceso completo en S tres, usted puede dar. Se ve si este desarrollador está hacia la S tres administración o tareas alrededor de eso. Si este desarrollador necesita EC dos instancias también, así que he seleccionado esa opción, no estoy deshabilitado. Entonces, si solo selecciono EC dos, también puedo darle a EC dos acceso completo. Puedo combinar múltiples roles al desarrollador y darle eso. Entonces si necesita acceso a Lambda también, Lo siento, me equivoqué esta ortografía. Nosotros queremos Lambda también, en realidad puedes darle un acceso completo a Lambda también, así puedo ver eso por allá. Entonces, si este tipo va a ser solo un analista, solo está buscando datos. Entonces puedes dar a todos estos opción con opción de solo lectura. Tienes múltiples opciones por aquí. Quiero decir, no tener un método simplificado, quiero decir, no agruparlo sumarlo o, sabes, complicado porque tienes acceso a cada segmento por aquí de los recursos de aquí, tienes rol de Lambda Replicación, MSK, que es tu Kafka, y luego tienes De igual manera, tienes partes más pequeñas servicio de Awamda por Pero no para complicarlo demasiado, solo tener el eje completo y solo leer el eje Tienes las opciones de aquí entre las que puedes elegir. Si no, realmente puedes volver al usuario del grupo y realmente puedes crear un grupo por aquí. Aquí voy a crear un grupo para desarrolladores. Desarrolladores. Ahora bien, este grupo va a tener este nombre de uso particular que he seleccionado y luego voy a tener que buscar Lambda full Access, EC two full access para que puedan crear servicio para sus JVM y luego puedan tener acceso completo en el servicio S three también Entonces tendrán acceso para crear buckets y cosas así porque pueden poner sus datos ahí dentro He creado un grupo, he agregado usuario mientras creaba el grupo en sí. Ahora bien, si tienes al usuario desarrollador haciendo todas esas actividades, déjame refrescar ahora esta página. Ahora, verá que tiene acceso limitado sobre lo siento acceso completo sobre EC dos instancias. Ahora puedes lanzar instancia. No hubo problemas. Nunca antes aparecía. Y cuando está tratando crear una aplicación S three por aquí, también debería funcionar para él. Entonces anteriormente, no era capaz de ver estos artículos, ¿verdad? Entonces ahora, se puede ver eso. También puedes meterte dentro de algunos de los cubos para ver su contenido también También puedes crear cubos por aquí para agregar algunos artículos aquí De igual manera, se pueden hacer todas las opciones que le prohibieron antes. Entonces de esto se trata los usuarios y las reglas, las políticas. Las políticas básicamente están hechas de los recursos y las acciones que puedes realizar para los recursos y eso realmente define un servicio o, um, ya sabes, quien esté tratando de acceder a los servicios de AW. Entonces el usuario es básicamente una herramienta. Entonces, si quieres crear un usuario para un servicio, por ejemplo, como te dije en el ejemplo anterior sobre turno abierto, ¿verdad? Ahora bien, si crea un usuario de este tipo para turno abierto, entonces voy a crear turno abierto, um, acceso al servicio. Entonces aquí, no proporcione la consola de administración porque open shift no requiere consola de administración. Así que las versiones anteriores de la misma herramienta IM tenían opción por aquí donde se puede seleccionar el eje programático Pero dice por aquí si estás creando un eje gramatical, pasa por clave de acceso o credenciales de servicio específicas Entonces tenemos que pasar por otro paso. Eso te lo diré. Entonces aquí tengo a este grupo por aquí. No voy a ir con el grupo. Ahora aquí, me estaba diciendo que necesita acceso administrativo y necesita acceso a todos los servicios. No requiere acceso de usuario root. Nadie ninguno de los servicios requeriría que tuvieras el acceso root. Así que recuerda que no le des a tu root acceso a nadie. No cree esto. Te diré cómo hacerlo en un momento. Haga clic en Crear, y luego verá que el usuario ha creado. Ahora este usuario es básicamente un usuario administrativo porque tiene una política administrativa adherida a él. Ahora no lo estoy haciendo parte de un grupo porque quiero tener esto por separado de mis ya existentes um, sabes, grupos que estoy creando para los usuarios. Entonces ahora, este usuario en particular llamado acceso al servicio de turno abierto es para acceder. Entonces ahora, ¿cómo le doy este nombre de usuario? Ahora sé el nombre de usuario. ¿Qué es una contraseña? Necesito dar esta información para abrir turno a la derecha del otro lado. Este ejemplo va con cualquier aplicación de terceros no tiene que ser sobre solo turno abierto. Entonces ahora, la autenticación multivctor, no es para turno abierto, porque ese es un segundo nivel de autenticación para tu usuario Entonces no es eso. Clave de acceso, muy importante. Este es el indicado. Entonces puedes ver que usa esta clave de acceso para enviar llamadas programáticas a AWS desde la CLI de AWS Pero este es el uso de la misma. Entonces, cuando otra herramienta se esté conectando a AWS, en realidad usará la clave de acceso de aquí. Así que haz clic en Crear clave de acceso. Y de aquí, ¿es para Commanda Interface? No. ¿Es para código local? No. Es para ejecutar una aplicación en el servicio de cómputos de AWS. No, esto no es entre servicio y servicio también. Ver que el usuario puede ser creado para servicio a servicio así como dentro para servicio al servicio ECS o al servicio Lambda Entonces servicio a terceros, sí. Entonces esto es turno abierto, que es un servicio de terceros, y estoy seleccionando a terceros. Hay otras opciones como aplicación ejecutándose fuera de Ara Blaier, como en su propia infraestructura, derecho, en su propio centro de datos o no listado Entonces servicio a terceros, entiendo. Entonces dice que es la mejor práctica crear un acceso temporal como la regla de IAM en lugar de claves de acceso a largo plazo y cosas así Pero esto es muy recomendable para turno abierto. Así etiqueta el valor y crea la clave. Ahora bien, esta es la única vez que te va a mostrar la clave de acceso y la contraseña de acceso por aquí. Estos son los dos elementos de acción que necesitas. Cuando hagas clic en hecho, esto se va a cargar por aquí. Verás para este impuesto de turno abierto, has creado esta clave y la contraseña no se mostrará de nuevo. Tienes que eliminar, desactivar, eliminar y luego volver a crear si olvidaste la contraseña No hay opción alguna. Todo bien. Ahora voy a borrar esto porque no lo necesito. Entonces aquí está tengo que copiarlo y pegarlo. Entonces aquí, primero desactivado, pasado y eliminado. Entonces así es como lo borras. Entonces aquí, voy a eliminar a este usuario también, y no hay cargos por el número de usuarios que vas a tener en AWS. Para que puedas tener cualquier número de usuarios. Ahora mismo así es más o menos como puedes usar esto. Ahora en otro video, hablaremos de proveedores de identidad porque este video va largo. Gracias de nuevo. Espero que hayas entendido la sección práctica sobre cómo crear reglas de usuarios, y hayas podido relacionar y reconectar el tema anterior lo cual es muy importante para nosotros hacia nuestro examen porque habrá al menos de tres a cuatro preguntas provenientes de este particular uh grupo de actividades Gracias de nuevo. Te veré en la próxima. 36. Laboratorios AWS Knowledge Center: Doy la bienvenida de nuevo a la siguiente sección. En esta sección, vamos a hablar de identificar dónde realmente obtienes mucho apoyo en cuanto a la información de seguridad de AW, y vamos a mirar hacia las múltiples formas de obtener esta información. Entonces, en primer lugar, vamos a hablar AWS Knowledge Center. Ahora, solo vuelve a documentar aquí en términos de nuestro practicante en la nube o guía de examen. Entonces aquí es muy importante para nosotros explorar estos servicios o características de AWS. Parte de ella habla de la comprensión sobre dónde se puede recopilar más información sobre la AW información segura como registros, seguridad, centros de conocimiento. Vamos a ver cada uno de ellos en unos videos separados y luego vamos a cubrir todo esto como parte de esta capacitación. Entonces ahora vamos a comenzar con el Centro de Conocimiento. Ahora, Knowledge Center no está dentro de su consola de AWS, pero luego necesita ir a Google y escribir AWS Knlege Center Este es el repost de AWS, y uno de ellos es sobre Knowledge Center También puedes obtener alguna información sobre esta información rápida. Como por ejemplo, quieres saber más sobre seguridad. Más información sobre seguridad. Entonces cuando escribes esto, lo siento, yo era un errata aquí Quiero saber sobre seguridad, uno de esos sería sobre documentación y artículos de conocimiento. Esto básicamente va al Knowledge Center, que en realidad tiene una redirección para volver a publicar AWS y va a Kledge Una especie de pregunta que vas a hacer en el chat será redirigida ya sea a documentación, que va a dost aws dot Uh, amazon.com, o va al repost Leg Center va a responder a la mayoría de las preguntas, por lo que frecuentemente haz preguntas justo a tu disposición. Esto va a hacerte la vida más fácil en términos de seguir algunas cosas. Entonces el Centro de Conocimiento, puedes acceder directamente y luego buscarlo exactamente así. O también puedes hacerlo desde tu consola. Te he mostrado ambas opciones. Vamos a entender algo sobre Knowledge Center, una colección completa de artículos y preguntas frecuentes que cubren una amplia gama de servicios y temas de AW , incluidas las mejores prácticas de seguridad, problemas comunes y consejos para la solución de problemas. Ahora, lo útil que es, le proporciona la respuesta detallada a preguntas frecuentes sobre la configuración de seguridad, la problemas y el cumplimiento. Ahora bien, recuerde que el Knowledge Center no se trata solo de cosas de seguridad, sino que involucra en general, todas esas cosas que hace normalmente en AWS. Y como puedes ver por aquí, todo esto es parte de lo que normalmente haces en AWS. Por lo que te da la información completa paso a paso sobre cómo puedes trabajar realmente con un problema y resolverlo, así como algún tipo de forma más fácil de abordarlo, por ejemplo, escribiendo un comando CLI Entonces definitivamente vale la pena darle una oportunidad si quieres saberlo. Por ejemplo, cómo asegurar EC dos instancias. Entonces, cuando escribes una pregunta como esta, obtienes los artículos relacionados que se dieron anteriormente. Entonces, por ejemplo, asegurando mi EC dos instancias. Ahora, se puede ver que hay una respuesta, y hay 444 vistas, y se puede ver que esto es preguntado por esta persona o esa dirección de correo electrónico. Lo siento, esa identificación. Ahora bien, dice, Hola, soy bastante nuevo en AWS. Tengo acceso completo de administrador a la Consola. Tengo cuatro EC de dos instancias DB Proxy, UI y API, y te está preguntando, ¿cómo puedo asegurarlo Entonces ahora puedes ver que la gente está respondiendo por aquí y prácticamente puedes ver las formas de hacerlo. Entonces las preguntas están por aquí. Ahora bien, si voy a hacer lo mismo en Knowledge Center, ahora en realidad puedes preguntar esto como parte del Centro de Conocimiento. Entonces cuando lo vuelvo a buscar, por aquí en este C cuatro en lugar de todo el contenido, voy al Centro de Conocimiento, en realidad se pueden ver algunas opciones que está disponible desde Knowledge Center. Y uno de esto sería sobre asegurar la conexión con EC dos. Para que veas que éste. Entonces tienes sección de preguntas donde es respondida por gente como nosotros. Hay Knowledge Center, que AWS escribe un artículo al respecto y diferentes formas de hacerlo. Y en realidad puedes escribir un comando sobre esto, por ejemplo, sea cual sea el comando que quieras escribir sobre el post, AWS sería siempre que estén disponibles estaría respondiendo a eso, o los compañeros también vendrán por aquí. Se puede ver que la gente ha comentado por aquí también. Entonces como se puede ver eso. Así que más o menos, este es el Centro de Conocimiento, y así es como puedes usarlo. Y sí, así que en realidad puedes conseguir algo de la vida real también porque hay gente entrando y haciendo preguntas como, ya sabes, algún tipo de foro. Entonces de eso se trata la sección de preguntas. Gracias de nuevo, chicos, por ver este video. En el siguiente video, hablaremos del segundo, que es AW Security Center. 37. Laboratorios AWS Security Center: Hola, chicos. Bienvenidos de nuevo a la siguiente. En esta idea, vamos a hablar de AWS Security Center. Ahora bien, lo que no podemos discutir sobre el Centro de Seguridad es que es un centro central para la información relacionada con la seguridad de AW, incluyendo reporte de cumplimiento, guías de protección de datos y boletines de seguridad Ahora, la forma en que ayuda es básicamente le proporciona documentación de recursos sobre protección de datos, informes de incidentes y cumplimiento estándares de la industria como PCI, HIPAA y GDPR Ahora pongamos en las manos parte de este centro en particular. Ahora bien, esto, de nuevo, no forma parte de sus servicios existentes. Va a estar fuera de los, ya sabes, servicios, que de nuevo es, algo que puedes buscar en Google, o puedes escribir awtotmason.com Ahora bien, el nombre, el Security Center ha cambiado a AWS Cloud security, así que eso es básicamente lo que es. Ahora bien, todas las características de las que hablamos son todas iguales, así se puede ver la seguridad estratégica por aquí o identificar la prevención lo siento, identificar, prevenir, detectar, responder, remediar Entonces estas son algunas de las opciones que tienes por aquí en cuanto a trabajar con ellas. Ahora, también se puede ver lo siento, sobre el ruido de fondo. Entonces puedes ver por aquí que tienes múltiples servicios de seguridad por aquí, lo que habla de las diferentes pruebas de seguridad libres de seguridad de Abs Cloud, que puedes hacer clic, que en realidad llegarán a la versión de prueba, pero no sé. Las URL no funcionan por alguna razón, así que ignora eso. Así que en realidad puedes ver otras opciones por aquí en términos de identificación del cumplimiento de seguridad. Solo estoy intentando volver a abrir la URL, pero parece que no está funcionando. Para que veas que tienes la gestión de acceso a la identidad como parte de ella. Amazon Cognito, Idnity Center, servicio de directorio, otras aplicaciones, que forma parte de su servicio de seguridad e identidad , está por todas partes Ahora, también puedes ver la solución destacada en AWS, y puedes ver las aplicaciones que a veces algunas aplicaciones son algo que ya hemos visto como WAF y cómo AWS automatiza responde para tu seguridad y cosas así También puede ver a los clientes de aquí que han estado usando la seguridad de AWS. También puedes ver el cumplimiento aquí, que habla de las auditorías de cumplimiento aquí. De hecho, puede tomar un curso para comprender estos requisitos de cumplimiento y también puede ir sobre protección de datos aquí para comprender sobre la protección de datos. También tienes un blog por aquí que te dice cómo trabajar con algunos de los uh, artículos complicados por aquí, artículos complicados por aquí, ya que puedes ver que el último blog trata sobre la implementación control de acceso basado en relaciones con permiso verificado de Amazon y Neptuno Así mismo, tienes muchos artículos que en realidad te ayudarán paso a paso para trabajar hacia tu objetivo. Así que ahora, al hacer clic en el artículo, realmente puedes ver la información completa, cómo te va a ayudar algunos diagramas de arquitectura, así como algunos de los elementos de acción de aquí, que va a ser parte de ese blog en particular. Así mismo, tienes blogs, y en realidad puedes ver a los socios por aquí y también puedes ver recursos adicionales. Entonces este es su centro de seguridad. Ahora, quiero cubrir un elemento más que va a ser el blog de seguridad de aquí, que es lo mismo que acabamos ver sobre el blog de seguridad de AWS, que es una situación real en la que los empleados de AWS estarían escribiendo los blogs hacia soluciones y la arquitectura de eso. También puedes ver los productos relacionados, nivel de aprendizaje de estos bloques y el tipo de publicación tiene una segregación por aquí Así que hemos cubierto dos artículos por aquí. Una es la descripción general del Centro de seguridad de AWS. También cubrimos el blog de seguridad de AW. Las preguntas serían, ya sabes, venir por aquí en términos de que te van a estar preguntando, ¿ cómo recolectas la información más reciente sobre la seguridad de AW? Entonces esta podría ser una de las opciones que verás. Security Center, blog de seguridad es donde recoges la información más reciente sobre seguridad en términos de cumplimiento, protección de datos, y luego tienes otros recursos así como mejores prácticas de seguridad, boletines de seguridad De igual manera, tiene todas esas opciones por aquí en la seguridad de la nube de AWS, que se llama Security Center. Gracias de nuevo por ver este video. Te veré en la siguiente. 38. Laboratorios de AWS WAF: Hola, chicos. Bienvenidos de nuevo al siguiente video. En este video, vamos a hablar de BAF. Entonces hay un servicio llamado Amazon WAF, que también se llama como WAF y es un firewall de aplicaciones web Ahora, hablemos del ataque de inyección SQL antes de entender sobre el firewall WAF Bueno, entonces ahora aquí el señor Hacker aquí tratando de, ya sabes, inyectar un SQL, ya sabes, consulta en nuestro sitio web. Tratando de manipular el servidor para darle la respuesta. Ahora bien, como ustedes saben eso, el SQL se basa en algo llamado una base de datos relacional Lo que es una base de datos relacional es que una cosa está relacionada con otra, y así es como se han capturado los datos y también se han liberado Ahora bien, si ves este grupo particular de registros de mesa por aquí, puedes ver que cuando un cliente se registra en un banco, tiene que dar su nombre, apellido, dirección de correo electrónico, contraseña, dirección, código postal, dirección completa, luego el número de cuenta bancaria, ¿verdad? Entonces vas a obtener un número de cuenta bancaria temporal, que vuelve a estar relacionado con tu número de cuenta bancaria, tu cuenta de ahorros, ¿cuál es la cantidad actual que tienes? ¿Cuáles son las transacciones pendientes? ¿Cuál es tu número de tarjeta de crédito? Luego a través del número de tarjeta de crédito, tienes número de tarjeta de crédito, um, qué hay disponible, uso de crédito y cualquier préstamo en tu tarjeta de crédito. Así mismo, cada transacción de aquí irá a otra sucursal que se relacionará con esa información en particular. Si alguien quiere conocer los detalles del nombre, cuál es el apellido, dirección de correo electrónico, contraseña y todo, todo se almacenará en la base de datos así. Entonces la contraseña debería estar en alguna parte, necesita estar descifrada, ¿verdad Entonces por ejemplo, sí, final se almacenará una contraseña cifrada, ¿verdad? Entonces ahí es cuando en realidad compara la contraseña y luego ve que estás autenticado o no Entonces, lo que la gente intenta hacer es lo que los hacks intentan hacer es que inyecten el método post, e intentarán enviar una consulta a la base de datos, que en realidad termina en la base de datos de todos modos. Entonces tienes servidores de aplicaciones, servidores web, balanceadores de carga y todos los cortafuegos Pero el resultado final en realidad irá a la base de datos. Por lo que inyectarán una declaración XQ a través un archivo e intentarán empujarla a través de su sitio web Ahora, eso será si tu sitio web es vulnerable, va a salir con el resultado final real o tu contraseña final o cualquier tipo de información personal es una victoria para ellos porque van a llegar a conocer algunos datos personales esa persona que tiene una cuenta con banco. Entonces no solo SQL, hay XSS, A hay algunos otros formatos además también se van a usar por aquí Ahora, WAF va a proteger su sistema. Ahora tengo una arquitectura detallada sobre WAF así que esto te va a explicar mucho mejor Vas a ver la demo de la sesión práctica en AWS en este mismo video. Lo que voy a hacer es en primer lugar voy a explicar esta arquitectura cómo va a estar lidiando con esto tu WAF va a estar lidiando con esto Ahora, ya habría entendido estándar de AWS Shield hasta ahora y lo que WAF le va a dar funcionalidad adicional por aquí Ahora, uh, ABS Web es un firewall de aplicaciones web que ayuda a proteger su aplicación web de vulnerabilidades y vulnerabilidades web comunes Y que en realidad podría afectar la disponibilidad de tu aplicación, y también que podría comprometer tu seguridad más o menos al, ya sabes, estas personas, estos hackers, obtener la información personal, luego tratar de regatear contigo por un rescate Entonces esa es la razón por la que, ya sabes, tu aplicación web debe ser segura. Por lo tanto, AWS WAF le da control sobre el tráfico que llega a su aplicación al permitirle configurar reglas que filtran o bloquean tipos específicos de tráfico Ahora bien, en términos de caso de uso típico, qué caso de uso realmente puedes usar este VAF es proteger contra ataques comunes como, ya sabes, puede bloquear hilos web comunes, como inyección SQL, uh, scripting entre sitios, como exceso Y dedos ataca. Entonces Dedos ataca, tienes protección adicional llamada estándares de escudo AW, así que eso también te protegerá contra el ataque de dedos, pero WAF también puede hacer eso también Ahora también te puede dar protección adicional. Como sabrás que el escudo de AWS no se va a cobrar y está habilitado de forma predeterminada. Entonces esto es para proteger la infraestructura de AWS. Esa es la razón por la que el escudo es uno estandarizado. Entonces de todos modos hemos visto la explicación para ello. Um, entonces también hace algo llamado limitación de velocidad. Entonces, cuando usas AWS WAF, se usa para limitar el número de solicitudes que un solo IPDdress puede hacer a Entonces esto es muy importante porque a veces los DIR atacan o podría ser cualquier tipo de inyección escule puede venir de un mismo IPDdress así que um, OSPF va a monitorear eso y es asegurarse de que, ya sabes, envía una captura o algo así para evitar que la gente navegue por lo mismo Entonces, si vas a algún sitio web hoy en día, si vas a google.com como BW e intentas buscar un tema específico como diez, 15 veces, entonces simplemente te mostrará inmediatamente una captura pidiéndote que ingreses a la captura Entonces, lo que está pasando es que cuando la gente está accediendo a un sitio web frecuentemente en un transcurso de 10 minutos o algo así, entonces el sitio web es consciente de que, bien, he sido constante la presión de esta dirección IP, así que esta vez voy a pasar por un firewall. Voy a bloquear esto y enviarlo a una página de Cap Shop en lugar de acceder realmente a ella. Entonces ese tipo de redirección ocurre cuando se trabaja con este tipo de firewall Esto se llama Web Application Firewall. Vamos a hablar de muchos relacionados con la secularidad Es muy vital. Debes entender el nombre del mismo y entender de qué va a tratarse este elemento de acción en particular va a tratarse este elemento de acción Te voy a dar una pista sobre esto. Entonces cuando escuches la palabra F, A W W AF. W en su mayoría significa web en términos de todas sus cosas relacionadas con la computadora, W en su mayoría significa web. Entonces, cuando escuchas el WAF, lo primero que debes venir a la mente, ¿podría ser web Siguiente, A mayormente significa aplicación. Entonces donde quiera que veas A como acrónimo, en su mayoría significa aplicación. Y luego cuando se está hablando de seguridad y hay una palabra llamada F, entonces debe ser firewall. Así que trata de relacionarlo y tratar de entender y tratar de familiarizarse con estos acrónimos porque um, ya sabes, cuando AWS creó estos acrónimos, tenían este tipo de mentalidad cuando los crearon porque querían asegurarse de que estos acrónimos son prácticamente utilizables y reutilizables y la gente puede pensar en estas cosas cuando se trata estas cosas cuando Entonces, ¿recuerdas que es un consejo que te voy a dar por cada sesión de seguridad para que puedas entender y cómo puedes inmediatamente, um, relacionarte con este segmento en particular Entonces por aquí, tienes otro caso de uso por aquí del que quiero hablar son las reglas personalizadas. Como puedes ver por aquí, tenemos reglas administradas, lista blanca, lista negra Entonces, ¿cuál es el uso de la regla personalizada es que puedes crear tu propia regla personalizada y permitirte bloquear un patrón específico de tráfico web porque hay otras herramientas de las que vamos a hablar más adelante, y esa herramienta en realidad puede, ya sabes, mirar tus registros, ver el patrón, ver la frecuencia que viene del rango de direcciones IP. Cuando conozcas el rango de los DPI, sabrás por el aspecto de los DPI públicos, sabes de qué región proviene En estos días, se está volviendo muy, muy difícil de identificar debido a que todos los servicios VPN se están volviendo muy buenos. Entonces, um, sí, hay muchas complicaciones y va a ser más desafiante en el futuro. Y, sí, siempre hay una manera de identificar y, ya sabes, olfatear el error o cualquier tipo de problema antes de que ocurra algo Pero aún así, la tecnología está mejorando tanto. Entonces, aquí hay reglas personalizadas que puedes permitir o denegar, desde una ubicación geográfica específica para, ya sabes, mirando también la información de tu encabezado HTTP. Entonces puedes mirar la información del encabezado HTTP y decir, Bien, este tipo de información de encabezado no es parte de mi um, um, mi programación, así que en realidad puedes, uh Denegar esa información de encabezado también. Por lo que esto impedirá que las personas ejecuten cualquier tipo de inyección de SQUL, de igual manera En términos de integración, existe esta hermosa integración con, um, ya sabes, otros servicios como Cloud friend. También puede integrarlo con el equilibrio de carga a nivel de aplicación. Entonces eso es algo que ya te he enseñado por aquí. Para que pueda colocarlo en CloudFront. CloudFrind va a ser un servicio de caché para nosotros, pero va a almacenar en caché nuestra información, y solo va a ser un frente de La forma más fácil de identificar esto es básicamente por su nombre, CloudFront Así que va a estar en la parte frontal de tu Cloud y va a almacenar en caché toda la información y enviar la información almacenada en caché a través Entonces Route 53 es donde está tu DNS y CloudFront es donde va a almacenar en caché la información AWS PAF va a estar entre el enrutamiento y el almacenamiento en caché De modo que, ya sabes, incluso la información en caché no irá a las que se accede con frecuencia. Entonces esa es la razón por la que es justo después de la Ruta 53, modo que incluso CloudFront no se utilizará cuando haya ataque Todo bien. Entonces ahora vamos al ejemplo en tiempo real. Entonces uno de los ejemplos en tiempo real que me he enfrentado cuando trabajaba para un gigante del comercio electrónico allá por la India. Así que solía alojar para Amazon CloudFront. Solía tener estos servicios alojados en eso. Y es un poco vulnerable para la inyección SQL y el scripting cruzado Entonces lo que hice fue como, al habilitar esta aplicación web de servicio WAF FR WOL, en realidad puedes, um, ya sabes, mirar los registros y ver qué IP es frecuentemente, ya sabes, accediendo a nuestro Uh, y en realidad podemos, ya sabes, bloquearlos. ¿Bien? De hecho, podemos bloquearlos como parte de este listado de carencias. Así que lo he hecho, y eso en realidad ha impedido que esas series de direcciones iPad accedan a nuestro sitio web. Y nos enteramos por las páginas a las que acceden, ¿no? Llegamos a saber si realmente van a comprar esa dirección IP realmente va a pagar, o simplemente quiere estar en la página de inicio navegando por ahí. Ahí estamos haciendo este escaparate, ¿verdad? Así mismo, alguna dirección IP hace el um, vuelta a los productos y luego selecciona productos al azar. Y luego solo seguirá refrescando múltiples productos donde, ya sabes, cada vez que refresques tu producto, en realidad tiene que obtener la información de la base de datos debido a los precios del producto, disponibilidad del producto, todo esto necesita ser revisado, ¿verdad? Entonces, um, significa esa presión extra en la base de datos para conseguirte esa información. Entonces, por esta medida de listas negras, esas Rs IPAR, cierto, pude, ya sabes, ahorrar muchos recursos en mi base de datos um, ya sabes, lo que en realidad resultó en una que en realidad resultó en factura menor porque más el recurso que gastas, mayor será la cantidad que vas a pagar por AWS Entonces esa es la razón por la que porque hay tarifas de transferencia, hay tarifas de Internet, y todas esas cosas están entrando en imágenes y de igual manera, realidad puedes guardar la facturación si um en realidad, ya sabes, tienes un menor rendimiento en tu aplicación. Pero un desempeño significativo es lo que estoy pidiendo. Eso es todo lo que estoy pidiendo. Entonces aquí, hablemos de beneficios clave. Uh, es fácil de desplegar. Es rentable, es altamente personalizable. Entonces lo que significa que cuando hablo de altamente personalizable, puedo crear mis propias reglas y de hecho puedo tener mi lista blanca y lista negra de direcciones IP. Rentable. Solo pagas por lo que usas en función del número de solicitudes de aplicaciones web, reglas aplicadas, así que eso te va a costar tanto. Y luego fácil de implementar ya que solo puedes implementarlo muy fácilmente. Te voy a mostrar en las manos. Así que pongamos en manos de este artículo en particular, así que lo siento, acabo de abrir algo más por aquí. Así que vamos a escribir WAF AF y blindar. Así que AF viene con escudo. Así que también hemos visto esto en el tema del escudo. Entonces el escudo y VF, ya sabes, comparte el mismo servicio um overlay Entonces tendrás el AF en la parte superior y el escudo en la parte inferior. Entonces sí, para que veas que iniciando con WAF. Así que en realidad puede nuevo AWS Wabashboard está disponible, así que esa es una Y también puedes tener la página web de la lista de control de acceso ACL Bien, así que eso es más o menos cosa. Ahora puede personalizar su comportamiento de captura implementando API de captura. Entonces Java API se usa en la captura ahora, lo que significa que um, como te dije, ¿verdad? Entonces, si un número frecuente de personas de la misma dirección IP estarán en acceso, realidad puedes leerlo para capturarlo. Entonces eso también es parte de ello. Entonces puedes ver que en WAF derecho, tienes web ACR, tablero de control de tablero Oh, estas son algunas de las características de la misma. Creo que nos faltaron las botas malas. Sí. Entonces aquí tienes inundaciones HTTP, enlatadores y probs, lista de reputación de IP, y luego bots malos Entonces estas son algunas de las características de la misma, y eso es lo que realmente te están mostrando aquí. Así tablero de paneles de control, y luego tiene conjuntos de IP de integración de aplicaciones para que pueda crear una regla aquí sobre los conjuntos de IP Y luego puedes crear una lista de conjuntos de p blancos por aquí. Entonces no importa si lo bloqueas o lo permites, pero solo lo creas con el nombre de Lista negra o lista blanca, y luego puedes ponerlo como regla. Entonces en la regla, en realidad puedes crear un grupo de reglas y puedes especificar, ya sabes, lo que tiene que hacer para este grupo. Por lo tanto, solo ingresa los detalles del grupo y luego establece las reglas y la capacidad y la prioridad de la regla y luego revisa y crea la regla. Nuevamente, no vamos a adentrarnos en la configuración porque esta capacitación o esta certificación no se trata de que vayas dentro cada componente y hagas cosas que vienen en el nivel profesional, así que no te preocupes por ello. Entonces este es un nivel de fundación, así que no te estarán preguntando cómo crear una regla. ¿Cuáles son las opciones a la hora de crear una regla? No te estarían preguntando esas cosas. Bien, entonces AWS marketplace, administra reglas. Así que estos son algunos de los mercados que se utilizan con frecuencia, uh, se puede ver esa protección anónima IB. Entonces esto es de Cloud Brick y esta es una regla administrada por um, el personal de AWS. Por lo que esto básicamente le brinda protección de identificación anónima brindando seguridad integrada contra la organización anónima de IP desde diversas fuentes de VPNs, centros de datos, proxies DNS, Troy Network, relés y red PNP Entonces, si solo haces clic en él, va a ir al mercado, y te va a mostrar el detalle del producto por aquí. Entonces, ¿de qué es esto um ya sabes, regla del mercado y puedo usar esta regla por mí mismo para mejorar mi organización? Porque esto se aplica al nivel de organización, lo que significa que todas sus VPC realmente obtendrán el uso, el uso de la misma Pero esto implica precios. Puedo ver los cargos por aquí. Cargo por costo de uso por mes para cada región. Pro rated by Horas es de $35 por región. Um aquí puedes ver que el cargo por millón de solicitud en cada zona de disponibilidad es de 0.2. Bien, así que eso es más o menos es un no reembolsable. Es de vendedor. Entonces de lo que se trata esto es, te da, um, la lista de amenazas que ya se detectó y ya se ha marcado Así que realmente no tienes que ir desde el cero de buscar dirección IP que está penetrando en tu red puede no sea algo si no eres como una gran empresa, realmente no necesitas esto y puedes hacerlo monitoreándolo y mirándolo, no tienes que pagar esa cantidad al mes. Si piensas que tu empresa no es tan grande y no te gusta tener tanta amenaza. Pero si estás trabajando en una organización más grande, puedes sugerir para algo como esto, solo $35 nada para la gran organización Pero esto te da protección allá. Entonces tienes protección APA, reglas de seguridad APA, conjunto de protección de junta. Entonces esto es algo que puedes comprar y, ya sabes, pagar mensualmente con tu factura. Y lo que esto va a hacer es que va a agregar más, ya sabes, seguridad, reglas adicionales en tu WAF, y va a asegurarse de que, ya sabes, haga algún tipo de control en términos de controlar tus placas malas, tus, ya sabes, direcciones IP desconocidas, direcciones IP anónimas, y cosas así Entonces eso depende completamente de ti si quieres usarlo. ¿Todo bien? Entonces ahora esta es una nueva URL. El viejo clásico se ha ido. Entonces puedes cambiarlo a eso, pero yo preferiría empezar a usar el nuevo porque, ya sabes, va a estar ahí por un tiempo. Entonces porque los nuevos siempre van a pasar el rato como dos o tres años, al menos, así que vas a tener eso, um, ya sabes, practicado en eso. Así que tienes tantas categorías por aquí, control de acceso web, conjuntos de IP, grupos de reglas y reglas de mercado para acceso más rápido y fácil a una regla existente para ser importada en tu caso. Y estos son todos, ya sabes, aprobados y verificados por la propia AWS Entonces esos son los que están en el mercado. Gracias de nuevo por ver este video entendiste lo que es WAF y entendiste la arquitectura Si tienes alguna duda, déjala en la sección de preguntas. Tu opinión realmente importa. Si tienes alguna sugerencia, siempre puedes hacerla en la revisión. Puedes contactarme por mensajes. Puedes unirte a mi comunidad y llegar a través de mí desde la comunidad también. Hay tantas maneras de llegar a mí y hacer que este curso sea mejor. Todo depende de ti. Gracias de nuevo por su paciencia. Te veré en el 39. Labs Network ACL: Yo chicos volveré al próximo DF y solo PDO hablamos de lista de control de acceso a la red Ahora, las ACL son uno de los temas importantes en su AWS caia Ahora lo que podemos entender es un poco de teoría, así como un poco de manos sobre ACL Ahora bien, para entender primero la ACL de la red, es necesario entender las siglas de la misma ACL se llama lista de control de acceso. Entonces esto es incluso en un nivel superior que hemos comentado en el grupo de seguridad. Ahora, como puedes ver en este diagrama de arquitectura, por favor ignora todos los errores tipográficos aquí porque se trata de una imagen generada por IA Entonces um, no hay mucho de un tipografía por aquí. Entonces, um, quiero decir, incluso si los errores tipográficos ahí, por favor ignórelo solo por los, um, los derechos de autor de IA y cosas así Entonces como puedes ver aquí, así el grupo de seguridad en esta jerarquía está muy cerca de la instancia de ECT, pero no en un nivel superior. Pero cuando se habla de la ACL, la red ACL, está en un nivel superior como en es hacia la nube privada virtual de VPC donde en la que está mucho a un nivel superior cerca Ya hemos entendido lo que básicamente es una VPC anteriormente, pero no te preocupes, iremos en profundidad más adelante punto del tiempo cuando estemos hablando de VPC con mucho más detalle Pero a partir de ahora, lo que hay que entender es que la VPC es el punto de entrada de cualquier tipo de comunicación y la VPC está encima de todos los servicios AW ahora se puede ver que todos los servicios AW están rodeados y VPC en la parte superior de la misma Ahora, lo que vas a hacer a nivel de VPC es configurar las ACL de red Ahora bien, recuerde que ACL es un firewall sin estado. Como cuando comparas esto con tu grupo de seguridad. Ahora, el grupo de seguridad es un firewall con estado, donde donde hemos visto algunas de las actividades como cuando permites el tráfico dentro, automáticamente permitirá el mismo tráfico afuera también porque tiene estado porque monitorea el ¿Bien? Pero cuando comparas lo mismo con la ACL de red, es como un método sin estado, um, de firewall en que no monitorea la conexión Por lo que es vital que especifiques la conexión entrante. Y también es necesario especificar la conexión de salida también Entonces, si no especificas la conexión saliente, ya que esto no es monitorear la transacción enter o la sesión, no permitirá que las conexiones salgan al exterior Entonces, si está permitiendo las conexiones a través del grupo de seguridad y no lo está permitiendo a través de ACL, su red eventualmente no funcionaría No vas a obtener una respuesta del servidor, aunque seas capaz enviar la solicitud al servidor, no vas a estar recibiendo respuesta porque la ACL de red no te permite um, salir de la información del servidor porque está configurada en el nivel superior, ¿bien? Porque está configurado bajo la VPC. ¿Bien? Así podrás acceder a eso usando ACL de red, y verás que va a la VPC y es una de las características de VPC es tu Entonces, cuando entres a tu panel de control de VPC, verás en el nivel de seguridad, verás grupo de seguridad y verás ACL de red Nuevamente, el grupo de seguridad también entra en este nivel, pero luego se está asignando directamente a tu EC dos instancias, que nuevamente, solo informa a VPC, pero es mucho más una sesión con estado y las ACL de red este momento, tiene dos ACL de red configuradas por aquí Uno es para la aplicación de muestra de rayos X, que puede ignorar. El otro es el predeterminado, que viene por mucho defecto. Ahora esto tiene seis subnts conectados, por lo que anteriormente, hemos visto que las subredes son básicamente la red que está configurada para cada una de sus zonas T disponibles, que es parte de Entonces estoy en el norte de Virginia. Tengo seis regiones lo siento. Tengo seis zonas disponibles en la región Norte de Virginia, así que tengo seis subredes asignadas Ahora como esta aplicación extra, también puedes especificar la subred donde quieres alojar tu contenido, y así mismo, puedes ser muy específico en eso, pero no lo recomendaríamos porque puedes alojar cualquiera de las instancias de EC two en cualquiera de las seis zonas t disponibles Por lo que todos sus artículos deben ser parte de una red ACL, eso debería ser parte de ella. Esta es una aplicación muy específica y por favor no tome ningún ejemplo de esto. Por favor, use el ejemplo que está configurado y esto definitivamente también estaría ahí para usted cuando mire su ACL de red Porque sin esto, si borras esto, tu tráfico de red no funcionará. Incluso tu SS tal no podrás usar. ¿Por qué? Debido a que esto en realidad permite esas comunicaciones, pesar de que está permitido a nivel de grupo de seguridad, la ACL de red debe estar habilitada para que su comunicación funcione Ahora cuando se mira esta red en particular ACL, usted tendrá la regla por aquí, que es permitir y negar Como esto es apátrida, necesita especificar lo que necesita permitir, necesita especificar lo que necesita negar La ACL de red es un firewall sin estado que opera a nivel de subred, controlando el tráfico entrante y saliente hacia y desde las Ahora recuerda, cuando aplicas un tráfico cuando aplicas una regla entrante o una regla de salida, y luego realmente dices que quiero asociarme con todas las subredes que están disponibles, lo que significa todas las zonas de disponibilidad capaces bajo Entonces, lo que significa que todas las sidras están entrando por aquí, recién asignadas para cada una de esta zona de disponibilidad, lo que significa que estas reglas de entrada y salida serán aplicables para todas Pero por defecto, la regla entrante será la primera que esté por aquí, que es a y la segunda que se menciona como estrella ST Nueve Entonces, lo que esto significa es que el que tenga el número más alto tendrá más prioridad, ya que se puede ver que 100 es más alto que la estrella, ¿verdad? Por lo que tomaría esta regla en particular y permitiría todo el tráfico dentro de todas las fuentes. Y en términos de regla de salida, lo mismo aquí Permite todo el tráfico en su interior, que tiene un número mayor, que es el sistema de clasificación, por lo que permitirá todo el tráfico dentro. Entonces, si editas esto y lo cambias a éste a star y éste a 100, entonces negará toda la petición que sea saliente. Y va a tener esto permitir, pero luego la negación irá primero. Ahora se puede ver que yo hice dos reglas por aquí. He dado 100 como en negar y 101 como en permitir. Ahora bien, si ves eso por defecto, puedes ver cuál elige primero. Obviamente voy a negar toda la solicitud, y va a permitir todas estas peticiones, pero el problema es como que viene justo al lado. Entonces básicamente negará todo lo que está entrando porque tomará en orden de clasificación. Si tienes otro rango por aquí, que en realidad agrega otra regla y solo nos pones uno y dices todo el tráfico y dices permitir. Puedes ver que cuando dices y sales, si vas regla de salida, puedes ver que la regla número uno va ahí y permitirá todas las solicitudes Lo que significa que es una base clasificada. Entonces vas a poner otro rango frente a ella. No hay otro rango antes que uno. Uno es el inicio del rango, lo que significa que este es el primer rango que va a estar permitiendo. Aquí estamos hablando de todo el tráfico. También puedes personalizar tu tráfico de acuerdo a lo que sea tu requerimiento y hacerlo de acuerdo a eso. Vamos a hacer retroceder esto. Solo hay que quitar esto y esto y luego solo hacer que este centenar lo permita. Y guarda los cambios y ese debería ser tu artículo de retroceso aquí en la regla de salida Perfecto. Ahora bien, esto funciona como el predeterminado. Esta estrella no es algo que configurarías, entraría por defecto. Entonces, si no tienes ninguna de esta regla mencionada, irá con la predeterminada, que es denegar. Pero recuerda, necesitamos especificar deny cuando estás negando conexiones a tu servidor Eso es lo que está implicando ahora mismo. Está implicando que hay que negarlo, tenemos que bajarlo. No es como por defecto, se le niega como nuestro grupo de seguridad, grupo de seguridad. Si no permites nada, será denegado por defecto, pero no en ACL Por eso tienes por aquí esta sección inencomiable o inamovible sección inencomiable o inamovible que dice, Esta es una especie de ayudante. Si eliminas esta regla, negará todas las conexiones que entren. que significa que ninguno de tus servicios como el servicio Lambda, sea cual sea el servicio que estés hospedando como parte de esta región, no podrás acceder a él desde Internet. Porque estás negando todo a nivel de VPC. Bien. A menos que tenga otra VPC configurada y tenga esa otra VPC apuntando a otra Entonces puedes ver que este es otro nombre de VPC. Eso se puede ver. Entonces esa es una VPC completamente diferente. Entonces eso aplica en una regla diferente, y eso realmente está avanzado ahora mismo, así que no te preocupes por ello. Gracias de nuevo por ver este video. Te veré en la siguiente. 40. Grupo de seguridad de laboratorios, parte 1: Oigan, chicos. Bienvenidos de nuevo al siguiente video. En este video, necesitamos hablar sobre el tema que va a ser describir las características y servicios de seguridad de AWS. Por ejemplo, podemos ver tres de los um, ya sabe, servicios o características en su AWS. Ahora bien, una es en primer lugar, vamos a concentrarnos en el grupo de seguridad y luego vamos a hacer ACL y F. En primer lugar, vamos a entender sobre el grupo de seguridad de aquí Ahora, ¿qué es el grupo de seguridad? En realidad estamos configurando este grupo de seguridad como una característica de firewall para EC two instance, que en realidad permite el tráfico entrante desde Internet y el tráfico saliente desde el servidor a Entonces, hay tráfico de dos vías, pero siempre hay tráfico de dos vías que es tráfico entrante y tráfico saliente Entonces, si tomas una carretera por ejemplo, una carretera es normalmente una carretera se desciende como una carretera de dos vías Pero a veces un camino también puede ser de una manera. Por lo que normalmente no decimos camino de dos vías. Y que no tenemos la costumbre de decir que es un camino de dos vías porque un camino va a ser um, ya sabes, diseñado para dos vías. Por lo que habrá un carril para el tráfico en curso, otro para su tráfico entrante. Entonces, cuando decides que la carretera debe ser de una sola vía, entonces decimos específicamente que esta es una carretera de un solo sentido, diciendo que habrá tráfico en curso o tráfico entrante. ¿Bien? Así mismo, cuando creas EC dos instancias tienes configurado de manera predeterminada este grupo de seguridad, permitiendo tu conexión SSH, tienes el shell seguro Para que esa conexión se permita desde cualquier lugar. Entonces esto es algo que hemos visto cuando creamos una instancia de ECT, ¿verdad? Entonces este es un tráfico entrante. Así que cualquier persona en todo el mundo puede conectarse con su servidor usando SSH Eso es lo que estamos diciendo. Entonces, veamos, ya sabes, la sesión práctica. No estoy seguro de si se ha desconectado. Sí. Sólo dame un segundo. Bien, he iniciado sesión en un servidor. Entonces si voy a EC dos Instancias ahí mismo, entonces debería poder ver esta red y seguridad dentro de que tienes este grupo de seguridad por aquí. Ahora, cuando haces clic en el grupo de seguridad, ves varios grupos de seguridad por aquí. Entonces hemos puesto en marcha EC two Instancia, ¿no? Entonces si ves que es ver los corriendo, debería ver el T dos micro. Esta instancia tendría un grupo de seguridad en ella. Entonces, si solo voy a seguridad, voy a tener un grupo de seguridad por aquí, puedan ver que este es el nombre del grupo de seguridad por aquí y pueden ver que el grupo de seguridad está asignado por aquí para el tráfico entrante y saliente Ahora bien, no creo que este sea el que usamos para crear. No estoy seguro. Creo que podría ser cualquiera de las instancias no importa. Entonces te voy a mostrar por defecto uno que está por aquí, que se crea como predeterminado. Y esto permite todo el tráfico como regla entrante, y esto es todo el tráfico saliente Este es un ejemplo clásico de un grupo de seguridad predeterminado, y el grupo de seguridad siempre comenzará con la palabra SG Ipind ID único del ID de grupo de su grupo de seguridad Quiero mostrarles uno complejo también en cuanto a grupo de seguridad. Por defecto, el grupo de seguridad niega todo el tráfico. Así que recuerda eso. Tienes que habilitar el tráfico en función del requerimiento. Entonces cuando se habla de grupo de seguridad, hablamos de uno de los complejos que configuramos para nuestro servicio de ubernty. Nuevamente, esto no forma parte de tu examen. Esto es solo para asegurar que cuando pasas al siguiente nivel, sea mucho más fácil porque en lugar de solo aprender para la certificación, siempre es bueno aprender para el futuro también porque eso me gusta mucho. Entonces tenemos algo llamado avión de control y Cuberts y computar uberts planos. De hecho puedo ver que tengo instancias configuradas para los Kubernetes, y quiero comunicación entre el También, el eje Cubont de mi sistema, así como el eje de consola para el Cubernt Necesito habilitar todas estas cosas, ¿verdad? Entonces como te dije, por defecto, todo está deshabilitado. Necesitas abrir los números de puerto. Es como si los grupos de seguridad fueran más o menos como un firewall, lo que ocurre dentro de tus instancias. Entonces, si solo nos fijamos en la configuración del grupo de seguridad para el plano de la computadora , plano incontrolado, verá una configuración específica la cual han hecho Vamos uno por uno. Hablemos del plano de cómputos porque eso es lo siento, hablemos del plano de control, que en realidad es el nodo maestro. Al mirar esto, hay ocho entradas de permiso por aquí, cuales se configuran como parte de este plano de control. Ahora cuando se habla de reglas de entrada, ahora reglas de entrada habla de la solicitud entrante servidor al que está asignado este grupo de seguridad de plano de control Si he asignado esta instancia, déjenme abrirla en otra pestaña. Estoy asignando este control particular um, ya sabes, grupo de control, grupo de seguridad, y si vas a seguridad, puedes ver que he asignado el grupo de control para mi controlador de co garantías, que es el servidor Maestro En esta situación, estoy permitiendo o aceptando solicitudes que llegan al servidor. Uno es el puerto número 22. Esto es obligatorio, o de lo contrario no podré hacer SSSCh desde mi sistema Windows al servidor AW y acceder a ese servidor Entonces aquí puedes ver el rango de IP aquí. Entonces esto te dice que cualquiera, esto significa que todos los rangos de IP como fuente están aceptando conexión a este grupo de seguridad en particular, que está listado por aquí, solo el número de puerto 22. Tan muy importante que um, no se trata solo de la dirección IP, sino que también es el rango de puertos por aquí. Lo cual es más o menos lo que necesitas para cruzar. A veces cuando eliges servicios predeterminados como SSSH, ¿bien? No tienes que dar número de puerto porque por defecto, SSSH buscaría 22 Entonces está este 02024, que en realidad tiene un protocolo asignado a un número de puerto Entonces llamaremos a esto como protocolo, y lo llamaremos como número de puerto. Así que vamos a asignar esto y vamos a poner una IP a través diciendo que este es el rango de direcciones IP que quiero aceptar. Bien. Ahora, hablemos de estos de aquí. Primero, terminemos todo el todo en cualquier parte, y luego vamos a llegar allí. Ahora tengo dos artículos más por aquí, apenas 6443. 6443 es el puerto de comunicación de tu clúster, y eso también está escuchando en todas partes 30,000 a 32,000 es un número de puerto de nodo. Entonces, cuando Cbonnts se ejecuta en el sistema y quiere navegar por la aplicación que se está ejecutando en el nodo de lazos Cubone, los expondremos a Internet utilizando este rango de números de puerto llamado 30,000 Esto se llama NodePort. Cuando usamos este tipo de puerto, quiero ver o navegar por la aplicación que se ejecuta en esta nota particular de Kubernetes Para eso, para lo navegue desde mi escritorio desde mi computadora portátil, necesito tener este número de puerto expuesto para poder navegar por el servicio que navegar por el servicio se está ejecutando en Kubernetes Voy a tener que exponer esto en el plano de control de notas, así como también en el plano de cómputos porque mis notas de trabajador en realidad estarán funcionando en plano de cómputos. Que las notas esclava que en realidad ejecuta mi Cubertpot se estén ejecutando en esta. Necesito exponer eso. Pero a veces por ahí, no hay que exponerlo al mundo entero, ¿verdad? Como por ejemplo, por aquí. Entonces, lo que esto significa es que esta dirección IP está estrechamente enmarcada dentro de la red de AWS. Cualquier cosa dentro de la red de AWS porque AWS tiene este rango de direcciones IP asignado a todos los servidores internos. Entonces aquí lo que estoy haciendo es que estoy dando algunos números de puerto personalizados por aquí, como ICMP que hará ping a otros servidores entre sí Y nuevamente, necesitas habilitar ICMP o de lo contrario no podrás hacer ping aunque sería accesible, pero el pin no funcionará Bien, porque ICMP está deshabilitado. Así mismo, hay que habilitar tales números de puerto como por ejemplo, aquí, estoy habilitando los números de puerto UDP por aquí, y esto digo, debería estar dentro de la red de AWS y esto digo, debería estar dentro de la red de AWS dando la dirección IP local, la dirección IP privada para la AWS. Entonces, lo que esto significa es que puedes configurarlo para todo el mundo. Puedes configurarlo para la red local, lo que está sucediendo con tu subred También puede configurarlo para cualquier tipo de rango o fuente de dirección IP. En realidad puedes configurarlo para tu dirección IP portátil porque cuando haces clic en um elemento Nu CLKONedit, y tratas de agregar una regla por Te lo diré. Entonces, si solo seleccionas SSH, bien, te lo dirá por aquí, dirección MyIPA también vendrá Entonces, si solo lo buscas. Um, porque mi IP, se puede ver que mi IP. Entonces esta es mi dirección IP que actualmente estoy usando en el sistema, y puedes ver que IPdress se da por aquí Pero desafortunadamente, tengo una dirección IP dinámica, lo que significa que cada vez que reinicio mi módem o reinicio el sistema, o me conecto a VPN, mi dirección IP cambiaría. Por lo que realmente no se recomienda dar dirección IP porque es una dirección IP pública y cualquier cosa puede cambiar. Entonces solo hay que seguir modificando. Esa es la razón por la que hacemos punto cero punto cero punto cero slash cero Entonces significa en cualquier lugar. Entonces eso básicamente significa en cualquier lugar. Entonces tendrás una opción como esta y seleccionas esa y básicamente significa en cualquier lugar IP versión cuatro o en cualquier lugar IP versión seis. Entonces, del mismo modo, tú eliges esto. Espero que esta información extra haya sido útil para que entiendas un poco más en detalle sobre esto. Si tienes alguna duda, déjala en la sección de preguntas. Te veré en la siguiente. 41. Grupo de seguridad de laboratorios, parte 2: Hola chicos, bienvenidos de nuevo al siguiente video. Entonces aquí seguimos en el grupo de seguridad por aquí. Entonces lo que hemos hecho anteriormente es permitir una conexión. Ahora, naturalmente la pregunta sería sobre si quieres negar una conexión, ¿qué vas a hacer al respecto? Entonces, si planeas negar la conexión, solo necesitas hacer de tu permiso una regla muy estricta. Entonces por ejemplo, aquí estoy agregando uno personalizado, y aquí solo estoy diciendo que necesito un protocolo, que también es protocolo personalizado. Entonces solo di protocolo TCP. Y entonces puedo lo siento, digamos protocolo TCP. Y aquí estoy dando un número de puerto llamado número de puerto 2525 Entonces quiero negar conexiones a un grupo específico de personas y quiero habilitar la conexión con un grupo específico de personas. Entonces como te dije antes, en realidad puedes hacerlo como parte de tu grupo de seguridad. No hay forma explícita de negar a la gente. No hay opción de que niegues explícitamente a las personas el acceso a tu servicio Pero lo que puedes hacer es especificar quién puede acceder a él el resto de ellos serán denegados por defecto. Entonces realmente no tienes que mencionar una lista de negación por aquí porque si esas personas no forman parte de tu lista particular de direcciones IP de aquí, serán denegadas por defecto Entonces puede haber una pregunta complicada. Entonces, ¿es posible que niegues a ciertos usuarios como parte de tu grupo de seguridad? A pesar de que no existe una opción específica como denegar en grupo de seguridad, pero por defecto, es negar, entonces sí. En realidad, solo puede especificar quien sea probable que acceda a su número de puerto en particular a sus instancias que tiene el grupo de seguridad aplicado encima de él. Por lo que el resto de la gente será naturalmente negado. Entonces esta es la respuesta. ¿Bien? Entonces así es como te pueden preguntar en términos de pregunta. Entonces define una regla que permita o deniegue rangos de puertos específicos de protocolos de direcciones IP, ¿de acuerdo? Los grupos de seguridad tienen estado, es decir, se permite la entrada del tráfico, automáticamente el tráfico saliente correspondiente se Entonces eso es lo que básicamente es el estado. Entonces, lo que esto significa, permítame reformular esto una vez más Si está permitiendo un tráfico dentro, eso realmente afectará su salida también, y básicamente sintonizará su salida para permitir que el saliente de forma natural permita ese tráfico fuera dirección IP específica o la serie de direcciones IP que haya especificado Por defecto, las reglas de salida van a estar en cualquier lugar. El servidor puede comunicarse a cualquier lugar. Pueden ver que la regla de salida predeterminada es permitir conexiones en cualquier lugar La conexión que sale de tu servidor estará por defecto en cualquier lugar. Pero incluso si deshabilita esto, las reglas de entrada en realidad obtendrán soporte de las reglas de salida Entonces es bastante natural que realmente no tengas que especificarlo porque esto es estatal Bien. Entonces en un caso de uso típico, en qué escenarios puedes usar este tipo de grupo de seguridad es si estás configurando un grupo de seguridad para restringirlo solo a una determinada dirección IP, como ejemplo, la dirección VPN de tu empresa, como ejemplo, la dirección VPN de tu empresa, solo permite tráfico como HTTP y HTTPS, y también puedes ser específico al respecto. Por lo que sólo se puede permitir HTTP y HTTPS. Eso también es algo que puedes hacer aquí. Entonces, cuando añades regla por aquí, también puedes tener una búsqueda de HTTP. Y HTTPS. Tienes que dar dos reglas por aquí. Entonces uno para HTTP, 15 HTTPS. Por defecto, puede ver los números de puerto se eligen aquí. Por lo que en realidad no se pueden modificar estos números de puerto y luego permitir desde cualquier lugar. De hecho, puedes tener estos solo configurados para permitir en cualquier lugar y resto de, ya sabes, todo TCP, y puedes poner el rango de VPN iPadDRSS de tu compañía VPN iPadDRSS Entonces su administrador de red tendría el rango de direcciones IP de su empresa, y en realidad puede poner ese rango de direcciones IP aquí. Así que cualquier persona de tu empresa puede acceder realmente a este grupo de seguridad de servicios en particular, lo siento. Entonces esto es más o menos que quiero cubrir en este video. Gracias de nuevo por ver esto. Si tienes alguna duda, déjala en la sección de preguntas. 42. Productos de seguridad de terceros de Labs: Un tipo spocme de vuelta a la siguiente DOP. En esta DOP, vamos a hablar de algo llamado entender los productos de seguridad de terceros, que están disponibles como parte del mercado de AWS Ahora vamos a entender los diferentes tipos de disponibilidad o los productos de seguridad de terceros que se pueden usar junto con su seguridad de AWS, la seguridad incorporada Ahora, por qué vamos a utilizar terceros mejora la seguridad de su seguridad de AWS existente que ya está en su lugar. Ahora puede usarlo para, um, monitorear extra en términos de prevención de datos de aplicaciones de red, así como cumplimiento de identidad y detección y respuesta de amenazas de terceros. Esto viene con años de experiencia en los que el proveedor externo ha trabajado con productos de diferentes tipos y sus productos se exhibirán como parte de la seguridad de terceros en el mercado de AWS Estaremos hablando de la demostración en la parte final de este video, solo una rápida demostración sobre dónde encontrar los productos de seguridad de terceros en el mercado de AWS. Te voy a mostrar eso a tu alrededor. Pero entonces más o menos, vamos a hablar de esto cada concepto, y vamos a hablar de los productos, más o menos como algunos ejemplos, también, te voy a estar dando eso. Hablemos de la seguridad de la red. Entonces como sabes que tenemos varios conceptos de seguridad en cuanto a tu AWS, que viene por defecto. Además de eso, también puedes comprar seguridad AW en el mercado de Amazon como productos como firewalls, sistemas de detección de intrusiones, sistemas prevención de intrusiones para monitorear y controlar el tráfico de tu red Ahora esto te dará un poco una visión general experimentada los productos que de los fabricantes como Checkpoint, um, tienes Palo a las redes De igual manera, tienes muchos, um, ya sabes, uh, softwares que te ayudarán para IDS e IPS en términos de sistema de detección de intrusiones y protección Así mismo, tienes otros productos de seguridad de red. Además, lo comprobaremos en la demo, que vas a formar parte de este video. El siguiente es sobre la seguridad de las aplicaciones. Herramientas que protegen la aplicación de vulnerabilidades como firewall de aplicaciones web VAF que ya forma parte de él, protección DDoS, seguridad de aplicaciones únicas La mayor parte ya está ahí como parte de AWS, pero aún así existe la opción de habilitar también productos de seguridad de terceros. Como por ejemplo, Trend Micro Deep security como otro producto, señal de pecados VAF que es otro producto de terceros y luego puedes usar FI big IP Advanced WAF Combina los años de experiencia que tienen estos propietarios de productos, y luego arman un producto para que lo uses. Nuevamente, la licencia y el costo serían separados y es posible que deba pagar un poco más por eso porque estará comprando directamente este producto al proveedor. Y para activar estos productos, es necesario tener el usuario root porque sea cual sea la activación de un producto en un marketplace o la habilitación de suscripción, debe hacerse desde un usuario root. Ahora hablemos de productos de protección de datos. Ahora, las soluciones de cifrado, prevención de pérdida de datos, administración de claves y almacenamiento de seguridad ya forman parte de sus servicios AW. Hemos comentado algunos de los que se encuentran en nuestra formación. Y también puedes optar por un proveedor de seguridad externo externo también en esta situación donde puedes configurarlo como parte de AWS. Y estos son algunos ejemplos que les puedo dar sobre prevención de pérdida de datos semánticos, Talus cyber Trust. Entonces esa es otra compañía. Prevención de pérdida de datos de McCafe. De igual manera, tienes empresas que realmente pueden darte protección de datos aparte de lo que AWS ya tiene para ello. En cuanto a la gestión de identidad y acceso, contamos con un solo signo de autenticación multifactor, gestión de acceso privilegiado, así mismo También puedes usar los proveedores de terceros como OCTA, identidad ping, así mismo, puedes usar el software de terceros y luego su producto proveedor en asociación con lo que tienes en términos de tu gestión de acceso de identidad existente en AOBS En términos de compilaciones y gobernanza aquí. Entonces, herramientas que ayudan a administrar los requisitos de compilación como GDPR, HIPAA, SOC dos y más, lo que le permite trabajar con el o ayudar con la También puede trabajar con plunk Cloud, junta de auditoría, trajes de cumplimiento de calidad De igual manera, también están disponibles los productos de terceros, los cuales puedes recogerlos en el mercado de AWS. Ahora cómo va a funcionar esto, eso va a estar a la altura de los productos. Por lo que cada producto tendrá una forma diferente de trabajar y una forma diferente de rodearlo con sus opciones y cosas, que cambia para cada producto, que además tocaría rápidamente pegar en la sesión de demostración. El último que va a ser lo que estamos viendo como parte del producto de seguridad de terceros en toda una escala es su detección y respuesta a amenazas. Ahora, productos de seguridad para detectar y responder a amenazas potenciales como software antivirus, detección y respuesta de endpoints y soluciones SIEM, lo que permite una seguridad más avanzada en términos de detección de una amenaza y respuesta a una amenaza, tanto a nivel de servidor como a nivel de servicio en W. Ahora puedes usar um, productos de terceros como CrowdStrike Puedes usar Splunk Enterprise Security. De igual manera, tiene múltiples productos con los que realmente puede usar y dirigir la amenaza y tener una respuesta a la amenaza. Ahora en términos de beneficios de usar productos de seguridad de terceros es que tiene una solución de implementación rápida que está preconfigurada optimizada para ABS, ya que estos productos están diseñados para AWS, que está en el mercado, y es confiable y aprobado por AWS Esa es la razón por la que está ahí. Luego, tiene una integración perfecta con sus productos existentes en AWS, como Cloud Trial, Cloud Watch, servicio de guardia y centro de seguridad para que pueda tener una visión general de todos los productos de terceros del centro de seguridad, lo que le dará una descripción general del mismo. Entonces tienes el modelo como paga a medida que avanzas. Como significa que hay algunos productos que vienen con un preperiodo de prueba de 30 días también, te lo mostraré. Y también lo hará, donde tienes que usar el plan mensual por hora, o incluso puedes optar por suscripción AVO en función del producto que estés seleccionando. También tendrás un soporte de proveedor. Entonces, para este productos de terceros, que puedas comunicarte con ellos a través del correo electrónico o su canal de chat de soporte. Entonces, básicamente, ofrecen un soporte integral para uh los productos que te lo están vendiendo porque estás pagando por el producto, que incluye su soporte también. Esto es más o menos quiero hablar de ello. Vamos a hacer un poco de mercado por aquí. Así que AWS marketplace es donde puedes encontrar comprar Deploy software. Entonces ahora por aquí, he gestionado la suscripción por aquí. No tengo ninguna suscripción como pueden ver. Ahora puedo ir por Descubre productos y puedo descubrir productos por aquí y luego buscar diferentes tipos de productos por aquí. Entonces tienes el catálogo por aquí, que habla de diferentes tipos de productos availlab por aquí y conoces los editores y el método de entrega por aquí Tienes los modelos de precios. Tienes algún software que es gratuito, lo que significa que se da un propósito de demostración o algo así. Entonces, comienzas como gratis y luego finalmente te pagan. Entonces algunos se basan en el uso, y puedes ver la unidad de precios en función de los usuarios, host, unidades personalizadas, llantas, y luego tienes al proveedor dentro de los perfiles de seguridad por aquí. Entonces en términos de certificados, tienes los certificados por aquí donde es un certificado de cumplimiento o podría ser sobre las especialidades en AWS, por ejemplo, la especialidad de seguridad de aquí, que en realidad te muestra cosas relacionadas con la seguridad de las que acabamos de hablar Ya ves aquí está la tendencia Cloud, que es básicamente la APP CN capaz de proteger en todo el entorno de nube. Esta es una seguridad que también está integrada con las herramientas D Wop Tienes otro tipo de plataforma de seguridad por aquí llamada Cloud Infrastructure Security, que correlaciona una gran cantidad de señales de seguridad para rastrear infiltración real en términos de atacantes que ingresan o irrumpieron en su sistema También tienes Datadog Pro. plataforma de seguridad y observabilidad unificada basada en SAS está completa con visibilidad y salud También tienes seguridad ACA. Del mismo modo, tienes tantas características de seguridad disponibles por aquí. Palo Alto, entonces esto es algo que discutimos antes. Entonces puedes ver que viene con 30 días de prueba gratuita para Paige, y puedes ver que este es un firewall de próxima generación en la nube, que es el mejor en seguridad de red de su clase Que es usar inteligencia artificial y aprendizaje automático para detener cero exploits de datos y todas esas cosas. Tiene una opinión de AW nuevo usuario, supongo, cliente no contento, supongo. De igual manera, tienes cosas de seguridad, lo que habla de ello. Así es como puedes comprobarlo y también puedes ver algunas especializaciones de servicios de seguridad gestionados por aquí Hay cuatro de este por aquí, el Deep Watch. Así mismo, tienes tantas aplicaciones interesantes de seguridad, de terceros. Pero si me lo preguntaras, ¿de verdad debería ir por un tercero? Depende completamente de tu aplicación. Si no está satisfecho con seguridad predeterminada que ha sido dada por AWS, siempre puede optar por una de terceros que además le dará más aspectos de seguridad y beneficios cuando vaya por ellos. Gracias de nuevo por ver este video. Espero que te haya sido útil entenderlo. Entonces, si tienes alguna duda de esto, ya sabes cómo responderla. En su mayoría las preguntas serían todo sobre. Te estarán preguntando por los productos de seguridad de terceros, ¿verdad, quiero tener este poco extra de seguridad? ¿Es posible que AWS integre un proveedor de terceros? Para que te pregunten algo así como O V de ello. No profundizarían sobre cada uno de estos, pero pueden preguntarte aunque no te preguntarán por los ejemplos, pero te estarán preguntando sobre, um, ya sabes, un servicio específico y decir, quiero un producto de seguridad personalizado, um, ya sabes, personalizado de terceros, algo nuevamente habilitar. De igual manera, obtendrás preguntas sobre este tema en particular. Gracias de nuevo por ver este video. Te veré en la próxima. 43. Asesor de confianza de Labs: Oigan, chicos, bienvenidos de nuevo al siguiente video. En este video, vamos a hablar sobre AWS trust advisor. Ahora bien, es importante que lo entiendas un poco. Un servicio de asesor de confianza en tiempo real que le ayuda a optimizar entorno de AWS al brindarle seguridad y recomendaciones de rendimiento de costos. El asesor de confianza te va a dar todo este tipo de recomendaciones en tiempo real, um, hacia tus servicios que estás utilizando actualmente. Ahora, si comprende cómo funciona, el monitor supervisa su entorno de AWS y proporciona orientación sobre cómo mejorar la seguridad, incluidas recomendaciones para habilitar la autenticación multifactor, los grupos de habilitar la autenticación multifactor, seguridad y las políticas de IAM Es como una herramienta que se utiliza como servicio. Para que puedas ver en esta arquitectura misma, el asesor de confianza oxidado aquí accederá a todos tus servicios y te una imagen general de tus servicios y te da um, la sugerencia para eso o recomendación para ello Entonces es un servicio, así que solo tienes que ir y buscar asesor de confianza. Ahora bien, esto debería entrar como un servicio como puedes ver allá. Entonces ya lo abrí para tu conveniencia. Ahora, en términos de recomendación, puedes ver que recomendación de confianza es que está recomendando cero acciones para ti Se ha investigado cero, y básicamente está excluido, no, ya sabes, incluido excluido quiero decir, ni siquiera he hecho ninguna comprobación. Así que ahora realmente puedes seguir adelante y descargar todos los cheques, lo que hará que bajen todos los cheques que se requieran. Ahora, puedes ver que actualiza tu plan de soporte AW para obtener toda la verificación de asesor de confianza. Entonces actualmente, estoy en el plan gratuito, por lo que actualmente no hay nada de cheque por hacer. Y para ello, necesito actualizar el plan a un nivel donde haya un asesor de confianza. Entonces ahora, esto es para asesor de confianza. Se puede ver que el plan básico estoy en recomendación de asesoría de confianza, solo códigos de servicio y verificación de seguridad del curso. Pero cuando vas por un desarrollador o un negocio o empresa, tienes un conjunto completo de cheques y solo servicios más o menos iguales para desarrollador básico por aquí. Ahora que he descargado todos los cheques, pero cuando actualice los cheques, veamos si surge algo de esto. Actualmente, no hay ninguna acción. Vamos a hacer clic en Info. No veo nada por aquí. Hablemos solo sobre el rendimiento de costos. Ahora aquí, el desempeño de costos es una de esas recomendaciones. Ahora, de nuevo, ves que esto requiere actualización, por lo que no está disponible para nosotros. Entonces, lo que hace es verificar tu capacidad de uso de tu costo para cada uno de los servicios y te asesora en base a eso Por lo tanto, el asesor de confianza podría recomendarle eliminar los recursos inactivos no utilizados o reservar capacidad en caso de que detecte que no se está utilizando de manera efectiva. En cuanto a comprobación de desempeño, nuevamente, lo mismo. Va a verificar el rendimiento de su aplicación como el rendimiento de aprovisionamiento, monitorear para instancias EC dos sobreutilizadas, instancias subutilizadas hasta ahora y solo le va a dar que creo que el optimizador de costos le dará los recursos no utilizados, y el rendimiento le dará los recursos y el rendimiento le dará sobreutilizados diciéndole que aumente la diciéndole CPU o el espacio en disco duro. Um, en términos de seguridad por aquí, así que ahora esto es algo que está disponible o nosotros. Ahora se puede ver que esto es algo que es gratuito. Entonces ahora aquí, grupo de seguridad, se está acercando con una excepción por aquí. Entonces está diciendo como, 12 de 27 grupo de seguridad permite actores irrestrictos a números de puerto específicos Entonces eso es un riesgo para la seguridad, y de hecho te da esa información. Entonces por ejemplo, 80, 25, 443 y 465. Entonces esto es algo que es verde, que está bien. Y aquí está el rojo que dice que el grupo de seguridad está unido a los recursos que se proporcionan acceso sin restricciones para los puertos 2021 22, que es su número de puerto SSH, supongo, este es Y hay otros números de puerto que hemos habilitado. Esto ha abordado y nos ha dado, que se trata de una alerta de seguridad roja que esto puede ser un problema. Ahora también te está dando la lista de regiones por aquí donde estos números de puerto están habilitados ahora. Esto es raro. Nunca he usado AP South. Ahora se puede ver que me ha dado este grupo de seguridad en particular tiene este 22 abierto en este caso. Esto es un riesgo para la seguridad aquí para mí porque nunca he usado esta región en particular. Ahora puedes ver que otros grupos de seguridad por aquí, que surge y dice que deberías puedes dar 22, pero luego quiere que seas específico sobre los IPs, pero luego se vuelve caótico para mí sacar los IPs de mi sistema porque no estoy usando de Si estoy usando de organización eso tendría un derecho de propiedad intelectual específico porque me voy a unir a la organización Usar una VPN o algo así. Entonces a partir de ahí, estaré accediendo al servidor de AWS. Pero entonces no hago eso, así que se vuelve caótico para mí si tuviera que dar mi dirección IP codificada duro cada vez Entonces eso es algo que no es una gran cosa para mí. Ahora de nuevo, hay otras cosas que también comprueba como EBS, RDS, S tres buckets, MFA, que es la autenticación multifactor Ahí está. Hay otras cosas que realmente requieren una actualización por aquí para que verifiques estos elementos de acción por aquí, hay muchas comprobaciones que hace. En términos de tolerancia a fallas, de nuevo, no creo que eso esté disponible para nosotros así que tienes eso. Ahí. Ahora están los límites de servicio por aquí como la configuración de lanzamiento de escalado automático, no hemos hecho ningún escalado automático. No hemos hecho ninguna dinamo DV por aquí. Entonces todo esto es verificar tus límites de servicio, ya sea que estés alcanzando la cuota que se le asigna para ello. Ahora bien, la cuota es básicamente una cantidad específica de umbral que estarías asignando para cada uno de los servicios Por defecto, es de 80 por ciento. Entonces estás usando más que eso, que está comprobando. Y una cosa está fuera de ella es el uso de almacenamiento de código Lambda. Entonces eso no está incluido en nuestro plan. En términos de excelencia operativa, esta comprobación busca recomendaciones para mejorar la preparación operativa de sus recursos de AWS. Entonces eso básicamente te da que estos son uno de los recursos. Nuevamente, no es parte de nuestro plan particular. Todo bien. Entonces este es más o menos tu asesor de confianza por aquí. Ahora puedes ver que hemos habilitado al asesor de confianza. También puedes configurar la notificación por aquí creo que está usando SNS para la notificación Entonces puedes agregar contactos por aquí, y luego básicamente el destinatario recibirá alerta de cualquiera de los asesores de confianza. Eso es más o menos lo que quiero cubrir en este video. Gracias, chicos, por su tiempo y paciencia. Ahora, puedes ver que la recomendación ha entrado en imagen cuando simplemente damos click aleatoriamente alrededor de cada uno de estos, y puedes ver esta recomendación sobre nuestro grupo de seguridad por aquí. Gracias de nuevo por su paciencia y tiempo. Te veré en la próxima. 44. Laboratorios: operación de CLI de AWS con múltiples comandos: Oigan, chicos, volveremos al siguiente video. Y este video, vamos a hablar de creación de usuarios, para que puedas acceder desde cualquiera de tus modos CLI de tu AWS, necesitas acceder a un usuario para hacerlo Te contaré sobre el comando que necesitas usar para acceder al usuario, pero primero, necesitamos crear un usuario. Y dale la clave de acceso. Ahora, la clave de acceso es la forma en que va a acceder desde su CLI a su servicio de AWS que se está ejecutando aquí Entonces para eso, necesitas crear usuario de IAM, así que solo abre IAM por aquí Ya tengo un usuario llamado Dev por aquí, que voy a no voy a estar usando este usuario. Ahora, aquí hay dos opciones, puedes crear un usuario, y luego puedes, ya sabes, crear una clave de acceso para ese usuario, y puedes proporcionarla al AWCLI Pero si hay un requisito que necesitas darle um la clave de acceso de tu usuario root. Entonces en esa situación, cuando estás haciendo algún tipo de script orientado a la administración donde necesites la clave de acceso de usuarios root, también puedes hacerlo, pero no es recomendable en altamente recomendable no estar usando clave de acceso root, pero aún así para ocasiones como cuando quieres hacer mucho de línea de comandos y quieres hacer adiciones de cuentas de organización, cuando estás haciendo algún tipo de script orientado a la administración donde necesites la clave de acceso de usuarios root, también puedes hacerlo, pero no es recomendable en altamente recomendable no estar usando clave de acceso root, pero aún así para ocasiones como cuando quieres hacer mucho script de línea de comandos y quieres hacer adiciones de cuentas de organización, y quieres hacer algún tipo de actividades relacionadas con el usuario o algo más allá de lo que el usuario root solo puede hacer. En esas situaciones, es posible que tengas que crear una clave de acceso para tu cuenta raíz. En esa situación, puedes ir a tu nombre de usuario y hacer clic medio en tus credenciales de seguridad. Entonces, una vez que se cargue tu credencial de seguridad, vas a tener una opción ahí Ahora usando esta opción, realmente puedes crear la clave de acceso haciendo clic aquí. Ahora, esta opción vendría directamente dentro de tu cuenta de usuario root. Por eso vas por aquí y haces clic en las credenciales de seguridad. Ahora, recuerden, he iniciado sesión en mi cuenta root y ahí es cuando tengo que usar esta opción. Si inicia sesión en una cuenta normal, entonces no podrá generar la clave de acceso para el usuario root. Para eso, en primer lugar, necesitas iniciar sesión en la cuenta de usuario root, y luego debes ir al nombre de tu cuenta y luego ir a las credenciales de seguridad desde ahí. Entonces una vez que haces clic en esto, el proceso es el mismo, lo que voy a hacer para un usuario normal. Ahora aquí voy a crear un usuario por aquí llamado AWS Iphone CLI Entonces esto es para acceder exclusivamente a la interfaz CLI. Aquí, no tiene que darle acceso a Admin, um consola de administración, así que simplemente puede dejarlo sin habilitarlo. Da clic en siguiente, y en realidad puedes agregarlo parte de un grupo existente o puedes agregar políticas directamente a él. Bien. Al igual que necesito acceso a la administración porque quiero hacer acceso administrativo sobre eso. Entonces seleccionaría eso y pasaría a la siguiente pantalla. Ahora, basta con hacer clic en Crea. Esto debería terminar creando un usuario. no ha creado ningún tipo de Hasta el momento no ha creado ningún tipo de acceso a este usuario. Así que ahora pulsamos sobre ese nombre de usuario y luego crearemos el acceso al usuario. Ahora, el acceso al usuario puede ser a través de Admin Console. Al habilitar Admin Console, puede habilitar la contraseña para Admin Console. Eso es algo que no vamos a utilizar para este usuario porque este usuario se genera para el acceso a la línea de comandos. Entonces para eso, hay que crear una clave de acceso. Por lo tanto, puede ver que la clave de acceso es para llamadas programáticas como AWS desde la CLI de AWS Por lo que CLI también forma parte de ello. SDK también es parte de él. Power Shell también es parte de él. Por lo que las llamadas API también son parte de ello. De igual manera, tienes estos artículos. Si está utilizando alguno de estos métodos para comunicarse con AWS, debe crear una clave de acceso. Cuando estés creando una clave de acceso, habrá opción por aquí. ¿Cuál es el uso para esto? Voy a usar CLI, así que he seleccionado ese caso de uso particular en este escenario, acepto la licencia, lo siento, acepto la recomendación, y luego voy al siguiente y luego haga clic en Crear clave, y luego debería tener la clave de acceso Ahora tienes múltiples formas de hacerlo. Configuración de AWS. Ahora configure es la opción para que AWS configure a una clave de acceso específica. Ahora, cuando golpees Enter, estarás pidiendo un ID de clave de acceso. Así que ahora copio y pegue el ID de clave de acceso por aquí, y luego accedo a la contraseña por aquí. Y entonces región es la del Este de Estados Unidos. Entonces, si no estás seguro de en qué región estás trabajando, ve a tu página de inicio. Verá Virginia del Norte por aquí, y verá el guión de Estados Unidos el guión Este guión uno Entonces lo mismo es lo que estoy dando por aquí, guión estadounidense, guión este uno Y el formato de salida predeterminado es JSON. Para que puedas dar JCN así como simplemente dar Enter. Bien. Entonces, por defecto, no te va a estar preguntando a estos dos, ni va a venir. Ya he probado esto. Por eso viene. Dirá que no, no, ninguno así. Yo diré. Entonces aquí le das uno a US Iphone Diphen Aquí le das a Jason. Y luego OC, uh, en realidad empezarás a ver los artículos, quiero decir, apareciendo. Entonces aquí no tienes que dar ningún tipo de identificación o algo así porque tu clave ID es lo suficientemente única. Sabrá que tiene código de autenticación para esta cuenta en particular en sí, así que realmente no tienes que preocuparte por ello. Entonces ahora, lo que puedes hacer es que realmente hayas iniciado sesión en este usuario, que acabas de crear. Usando IM, tienes si haces clic en hecho, esta contraseña desaparecerá. ¿Bien? Así que déjalo como está. Simplemente vaya a este nombre de usuario haga clic en ese nombre de usuario. Entonces verás qué tipo de permiso tienes para este usuario. Ese es administrador es la política que hemos seleccionado. Entonces está cargando la política. Dale un acceso de nuevo. Bien, déjalo cargar. Bien, se puede ver el acceso administrativo. Entonces ahora que tienes acceso administrativo, vamos a hacer alguna acción en S three bucket. Entonces primero, abramos S three bucket. Eso es lo más fácil que podemos hacer a este nivel. ¿Bien? Entonces, subiremos un archivo, creamos un archivo y lo subiremos a uno de los buckets. Entonces tienes las tres cubetas por aquí, cubeta de prueba. Ahora bien, si no tienes un cubo, solo crea un cubo. Simplemente cree un cubo llamado cubo de prueba con su identificación. Y una vez que tengas la cubeta de prueba, verás que no hay ningún archivo por aquí. Entonces puedes usar comandos como comandos simples, como, um, like to list is the buckets on your S three Entonces tienes tres buckets por aquí, así puedes hacer AWS S tres, el nombre del servicio LS Entonces esto simplemente enumerará los cubos que forman parte de su Amazon S three Ahora tienes tres cubos por aquí. Ahora bien, ¿qué hace estos tres cubos vamos a tomar Cubo de prueba para este ejemplo Vamos a crear un archivo por aquí llamado demo, así que cat Demo. Lo siento. Demo, esto escribirá elementos en este archivo. Este es un archivo de demostración. Control D, después de presionar Enter, solo dale Control D. O también puedes hacer VI demo y luego escribir este contenido y también guardar con el archivo. Entonces eso depende de ti. Ahora puedes hacer un sencillo AWSs tres copias de este archivo en particular, archivo demo, dos un latigazo Contras Cubeta de prueba. Entonces esto básicamente copiará el archivo desde esta ubicación desde la ubicación de su sistema a su S three bucket. Las características hacen una actualización por aquí, verás el archivo de demostración. Bien. Por lo que el archivo de demostración se ha transferido a este cubo de prueba en particular. Si quieres eliminar esta, puedes usar la demo como en el nombre. Y luego puedes hacer RM, y luego puedes seleccionar ese hule en particular Ahora bien, esto debería ser removido. Bien. Comando muy sencillo para asegurar que tus funcionalidades estén funcionando desde tu CLI También puede hacerlo desde este arranque de prueba del símbolo del sistema. Estoy abriendo un símbolo del sistema en Windows. Así que este es mi símbolo del sistema de Windows por aquí. Entonces sólo un segundo. Así que abrí un símbolo del sistema de Windows por aquí. Así que ahora en este símbolo del sistema de Windows también, puedo hacer esto configurar. Entonces ahora le pego a Configurar, va a durar así, así vuelves a esta cosa, copia la clave de acceso. Pégalo o una clave secreta, pégalo, y luego aquí escribe US phone typh one Confirmemos guión uno de Estados Unidos. Ese es el indicado. Después JSON. Ahora he iniciado sesión en ese artículo. Ahora voy a estar usando AWS s3s. Entonces me sale esa lista. Entonces ahora puedes influenciarlo. Ahora el motivo por el que me conecté a este sistema es porque voy a apagar esta máquina virtual. Ves que la máquina fácil de virtual se está ejecutando por aquí. Así que vamos a donde sea fácil. Así que sí, entonces ves que este servidor se está ejecutando, y ahí es donde estamos ahora mismo. En realidad estamos en ese servidor. Entonces vamos a apagar este servidor. ¿Bien? Entonces eso es lo que vamos a hacer. Entonces primero, vamos a entender la descripción de las instancias. Entonces AW es fácil de describir instancias de I phonce, perdón, describir instancias de Iphon Esto te va a dar la salida de, ya sabes, los detalles de las instancias por aquí. Solo dale un parque espacial y llega al fondo de este uh, detalle. Ahora, una vez que llegas al fondo de la misma, el fondo tiene información muy importante. Tu dirección IP pública, comparemos si esta es la dirección IP pública. Si solo vas por aquí, edita la sesión, puedes ver 52, 55, 22, 203, y eso es lo mismo por aquí, la dirección IP interna. ¿Qué es importante esta ID de instancia? Esto es lo que es importante. Ahora, ¿qué es esto? Este es básicamente tu ID de instancia. Entonces este es el indicado. Entonces ves este ID de instancia, entonces es el indicado. Entonces, si quieres controlar la detención de la instancia, entonces tienes que usar el ID de instancia para ello. Veamos qué sucede cuando ejecuto AWS EC two, detengo la instancia de Iphon con el ID de instancia Necesito dar el ID de instancia, que es Iphone Iphonstceiphon Y luego pego el ID por aquí y golpeo Enter. Ahora, um, lo siento. Vamos a instancia S. Así que ahora deberías ver esto apagándose. Se puede ver que este sistema se apagará. Y pudiste cerrar la instancia desde aquí. Entonces hay tantas opciones puedes ejecutar como parte de tu EC dos. Al igual que, puedes crear instancia. Puedes crear muchas otras cosas, opciones, ya sabes, qué parte de tu EC dos instancias. Entonces, de igual manera, puedes hacer tantas otras opciones. Y si quieres saber sobre la ayuda específica del servicio, siempre puedes escribir EC two help. Entonces esto te dará todas las opciones que puedes escribir para ECT. Bien. De igual manera, solo puedes darle espacio y te da todas las opciones por aquí. De igual manera, puedes controlarlo. También puedes poner en marcha la instancia que has cerrado, así que sólo tienes que dar eso por aquí. Ahora bien, esto no utilizará la misma dirección IP. Una vez que hayas iniciado, así podrás ir a describir instancia y podrás obtener la descripción de esa dirección IP pública. Para que veas que la dirección IP pública ha cambiado. Así que copia esta dirección IP pública, edítela y pégala por aquí. Nuevamente, la dirección IP pública es básicamente una dirección IP que viene dada, uh, por, ya sabes, automáticamente de forma autónoma sin tu intervención porque dirección IP pública sigue cambiando porque no tienes una dirección IP estática o la llamamos dirección IP elástica Elastic IPS es un material de costo vinculante. Entonces lo que significa que si tomas dirección IP elástica, tienes que pagar algo de dinero para que tengas una dirección IP estática en tu sistema. Cada vez que su sistema se reinicie, obtendrá una nueva dirección IP pública pero su dirección IP privada será la misma Desafortunadamente, no podemos conectarlo a una dirección IP privada. ¿Bien? Entonces esta es información extra, que no se requiere tanto para ustedes en este momento. Pero prácticamente pudiste hacer algunas actividades en tu CLI Hay tantos comandos por ahí. Te acabo de dar ni siquiera un porcentaje de lo que te he mostrado ni siquiera era un porcentaje porque hay tantas cosas que puedes hacer usando CLI Gracias de nuevo por ver este video. Espero que esta demo te haya sido útil para, ya sabes, relajarte un poco entre sesiones de teoría. Gracias de nuevo. Cuídate. 45. Laboratorios IAC de formación en la nube de AWS: Hola chicos, bienvenidos de nuevo al siguiente video. Ahora recuerda que en tu página de Git, tendrás los detalles de configuración por aquí, cuáles son los comandos que he ejecutado hasta ahora. Lo he puesto por aquí para ustedes, para su referencia. Ahora, el contenido de aquí también se da para tu video anterior. Así que recuerda referir esto en la página de GitHub y obtener esto. Puedes copiarlo y pegarlo mucho más fácil. Recuerde que WQ es básicamente para guardar y dejar de fumar. Entonces esto lo pongo normalmente cada vez que, ya sabes, ves un archivo por aquí como un Pifive donde abro esto para editar alguna información Ahora hablemos de formación de nubes. Ahora en esta situación, vamos a utilizar la plantilla de CloudFormation para conectarnos y trabajar con nuestra aplicación Ahora usaríamos el mismo nombre de usuario porque tiene acceso administrativo. Entonces en el mismo archivo de configuración de aquí, la credencial ya está cargada Así que realmente no tengo que trabajar con ninguna configuración por separado. Ahora bien, lo que tengo que hacer es diseñar un archivo Yama que tenga información de formación de nubes. La formación de subrayado de nubes es de tres. Por favor, ignore los errores ortográficos aquí, y luego voy a crear esto como un archivo Yamal, que va a contener instrucciones que deberían crear un cubo S three Ahora recuerda hacer que esta cubeta ST sea única. Voy a dar mi ID de cuenta para que se vuelva único porque estoy bastante seguro de que es algo que ya existe. Este nombre ya existiría seguro. Entonces solo voy a seguir adelante y dar el número de cuenta para que básicamente cree este cubo S tres en particular. Ahora, la formación de flujos es una herramienta de automatización donde en la que es un servicio predeterminado de AWS. Usando la formación de nubes, puedo crear infraestructura tan simple como crear un bucket S three o crear instancia de EC two o puedes hacer cualquier cosa con esto, no hay límite para ello. Ahora voy a ejecutar un comando por aquí que me permite crear una pila. Entonces se llama pila CloudFormation. Cada pila se crea y dentro de la pila, en realidad tienes ciertas cosas funcionando. Por ejemplo, este contenido de archivo en particular se estará ejecutando realmente. Antes de eso, se puede ver que el cuerpo de la plantilla es recogido de S three bucket por aquí. Entonces, para tener este archivo, debe corregir el nombre final de aquí al nombre de archivo que hemos creado en esta situación. Entonces vamos a crear un bucket, ST bucket, y este nombre final necesita ser cambiado. ¿Cuál es el nombre final que hemos creado ahora mismo? Bien, la región es usadaUna, esa es una región preferida para nosotros, y el nombre de pila es MS tres Ahora, permítame darle rápidamente la vista de consola para la formación de nubes. Entonces, cuando tecleas formación de nubes por ahí, vas a llevarla a un servicio diferente. Y actualmente, he ejecutado, creo que una plantilla de CloudFormation temprano punto de tiempo Entonces tal vez veas algunas referencias hacia ella, por favor ignórela. Bien, ahora puedes ver que actualmente hay una pila de muestras de rayos X que se usó para crear cierta aplicación. Y esa creación está terminada. Ahora, cuando ejecute este comando, verá que esta pila MS tres aparecería por aquí y comenzará a funcionar. Ahora bien, como este objetivo de este particular, sabes, archivo es tan sencillo, bien puede llegar como exitoso o fracaso en términos de, como, hay algún problema con el nombre del archivo o algún tipo de otros temas, entonces puede llegar como un fracaso. Y sobre todo, creo que terminaría en éxito. Ahora para desplegar esto, solo tienes que presionar Enter al final. Esto asegurará que despliega la pila de Cloud mediante el uso este comando CLI que va a implementar la formación de la nube Ahora usando este método también puedes influir en los cambios en tu AWS. Solo estamos buscando diferentes formas de influir en AWS, no solo por tu consola de administración, no solo por tu consola de administración, sino también usando la interfaz de línea de comandos, también usando la formación de nubes Si quiero crear la opción S tres y la línea de comandos, hay una opción para crearla. AWS S tres y luego le das la opción de crear y lo que quieras. Ese es un método de línea de comandos para crear lo mismo que lo hicimos en el video anterior que es SDK usando SDK, lo creamos como B Ahora por último, vamos a usar la formación de nubes escribiendo la definición de archivo Yama que la formación escribiendo la definición de archivo Yama de nubes entiende y ejecutándola a través del servicio CloudFormation Ahora en realidad puedes ejecutar esto. Ahora puedes ver que ha creado un ID por aquí. Puede usar este comando para verificar, información sobre él. Puedo ver que por aquí, está en progreso, parece. Entonces en progreso. Ahora en realidad se puede ver esto también aquí. Ahora, deberías ver dos de esto. Se puede ver crear completo. Entonces ha creado con éxito, parece. Ahora puedes ver crear completo. Puedes ver alguna información sobre esto en la salida por aquí. No hay salida. También puedes consultar los eventos aquí. Bien, entonces en el evento está en progreso progreso completo. Ahora si voy a S tres por aquí, debería ver el nuevo cubo. Bien, también puedes obtener esta información desde aquí también. S tres Ls para que veas que mi ejemplo es de tres cubetas, lo puedes ver aquí también. Mi ejemplo es de tres cubetas. Ahora ese cubo que hemos mencionado aquí en este archivo que es la formación de nubes. Puedes ver mi ejemplo es de tres cubo, que se ha creado con éxito. Ahora has entendido el cuarto método de acceso. Ahora en el siguiente video, te mostraré el quinto método del mismo. Gracias de nuevo por ver esto. Te veré en la siguiente. 46. Laboratorios AWS Cloud Shell: Hola, chicos. Bienvenidos de nuevo a la próxima PDO En esta PDO, vamos a mirar Cloud Shell. Este es el quinto método para acceder a su servicio de AWS. Ahora, para Cloud Shell, debe asegurarse de estar dentro la consola de administración de AWS. Pero en lugar de tener un shell abierto ya sea desde instalar la utilidad de comandos en su servidor Windows, hacer que su símbolo del sistema parezca, capaz de servir sus servicios AW, o crear un servidor Linux e instalar la misma utilidad de comandos. Si tienes otra opción de lidiar con esto usando Cloud Shell. Ahora, Cloud Shell es este ícono de aquí en la parte superior, y este ícono realmente creará un entorno para que trabajes. La característica, yo diría es que tiene la herramienta preinstalada en este Cloud Shell. Este Cloud Shell en sí es un sistema Linux donde viene con las herramientas preinstaladas como AW o CLI, Python, Git No JS, y más Así podrás instalar otras herramientas según necesites. Ahora recuerde que se ejecuta en almacenamiento persistente ya que en un GB de un almacenamiento de persistencia para cada región se da. Este almacenamiento recuerda a través de las sesiones, lo que significa que los archivos y script que guardarás podrás verlo allí cuando lo devuelvas. Esto lo tendrás cuando en realidad tengas Cloud Shel Tendrás un acceso más rápido por aquí en lugar de crear un servidor y luego ejecutarlo como lo hicimos nosotros, puedes ver que esto ya lo tiene. Ahora si hago Ss, ahora mismo pueden ver que está mostrando todos mis S tres cubos los cuales tengo por aquí Ahora bien, ¿cómo se muestra siquiera? No he iniciado sesión con AWS configure. Bueno, no tienes que hacerlo porque ya iniciaste sesión en esta consola de administración. Entonces, a través de Management Console, estás invocando un Cloud Shell, lo que significa que vas a tener este archivo Así que vamos a crear un archivo por aquí. Lo siento. Así que crear un archivo por aquí llamado archivo A, derecho. Entonces ahora que cierro este y lo abro de nuevo. Entonces, si solo, ya sabes, si básicamente eliminas este Cloud Shell, en realidad puedes restaurarlo de nuevo desde aquí. Por lo que seguirá viendo el archivo incluso después de cerrar la sesión e iniciar sesión. Entonces este va a ser un GB dado para ti. Ahora, Cloud Shell ya está integrado con su credencial y entorno de AWS, por lo que no necesita ejecutar ningún tipo de configuración especial para ello Entonces más o menos esto es lo que quería decirte en términos de otra forma de acceder a tus recursos de AWS es usando Cloud Shell. Pero desafortunadamente, Cloud Shell para que lo habilites, primero necesitas acceder a la consola de administración. Y a través de Management Console, estarás invocando el Cloud Shell desde dentro de eso Gracias de nuevo por ver este video. Te veré en la siguiente. 47. Laboratorios AWS Direct Connect: Oye, Is, vuelve a este video. En este video, vamos a hablar de AWS Direct Connect. Ahora en esta conexión directa, vamos a entender en qué se diferencia de VPN y en qué se diferencia de la HPO pública de Internet Sigamos con este video. Ahora tenemos estos tres ítems que estás comparando del último video, entendimos lo que es VPN. Ahora podemos entender qué es conexión directa y luego en qué se diferencia de la VPN y en qué se diferencia de Internet pública. La diversión primero entiende en qué se diferencia de Internet pública porque se trata de una intranet. Cuando estás accediendo a él desde la compañía y quieres restringir tu VPCV para que se acceda desde Internet, entonces la única forma de acceder a él es básicamente a través de él es básicamente a través Internet tiene un elemento más por aquí llamado Direcconnect. Ahora, Direct Connect proporciona una conexión de red privada dedicada entre su centro de datos on Promise. Oficina desde donde trabaja y AWS. A diferencia de VPN no atraviesa Internet público. VPN requiere, como dije, en el video anterior, VPN Internet para que te conectes a los servicios VPN o endpoints, ¿verdad Pero en cuanto a una conexión directa, no funciona con Internet público ofreciendo un alto rendimiento, baja latencia y una conexión más confiable. Ese es el principal punto de venta de direct connect. Como la palabra conexión directa significa que va a conectarse directamente a su centro de datos Onpromises Para que pueda ver la red dedicada que viene de AWS a su centro de datos y luego vuelve a AWS nuevamente. Esto significa que su centro de datos se va a conectar directamente usando una red privada, y es de baja latencia. Algo que se puede entender a partir de esta imagen misma. Ahora bien, ¿cuáles son las características clave? Las características clave incluyen una conexión física privada a AWS sin pasar por Internet pública Por lo tanto, Direct Connects ofrece baja latencia y rendimiento más consistente en comparación con la conexión basada en Internet. También es que puedes elegir entre varias opciones de ancho de banda, por ejemplo, 50 MBBS a 100 GBBs de una transferencia de datos que puedas tener entre uh, tu centro de datos y tu AWS Ahora bien, ¿cuál es el caso de uso aquí? W situaciones que puedes usar esto? Puede usarlo para empresas que frecuentemente transfieren gran cantidad de datos entre promesas a AWS. Por lo que esto se sugiere principalmente o se usa para una solución de nube híbrida o modelo de nube híbrida Y la actuación aquí. La aplicación requiere una conexión de red de alto rendimiento de baja latencia. Entonces esta es la mejor solución para eso. Empresas que utilizan recursos tanto en las instalaciones como en la nube, lo que necesita una conexión estable entre ellos. O están conectando una base de datos en las instalaciones que tiene los datos del cliente y su aplicación es alojada en AWS, lo que realmente requiere que los datos se transmitan en formato cifrado y se sirvan al cliente. Entonces en esa situación o en ese proceso, necesitas una conexión altamente um, ya sabes, estable entre ellos. Este es uno de los métodos con los que puedes crear la conexión estable, y esta conexión no requiere Internet, lo que significa que tus datos no van a quedar comprometidos en ningún momento. Entonces eso es algo que debes recordar. Muy bien, prácticamente he cubierto esto en términos de las cosas teóricas y ya sabes la diferencia entre una VPN y Direct Connect también. Así que vamos a hacer las manos. Entonces, en términos de Direct Connect, viene como, ya sabes, servicio separado en sí mismo en AWS llamado Direct Connect. Ahora, cuando vas a Direct Connect, en realidad puedes ver esa documentación. Por lo tanto, es para facilitarle el establecimiento de una conexión de red dedicada a partir de sus propias promesas a AWS. Entonces, lo que significa que su oficina, su centro de datos o, ya sabe, inscripción de co-ubicación puede tener una conexión directa con AWS, y puede ser una conexión privada Lo siento, puede serlo. Se trata de una conexión privada entre ellos. Por lo tanto, puede ver las características de aquí, como un costo de ancho de banda reducido , un rendimiento de red consistente , una conexión privada a AWS, y también es elástica porque puede girar de 50 MBS a 100 MBS. Bien, esa es la conexión máxima, pero aquí puedes ver que el proveedor de conexión uno GBBs a diez GBBs De igual manera, se puede escalar esto. Como puedes ver por aquí, para crear una conexión, simplemente haz clic en Crear una conexión. Aquí dices qué tipo de nivel de resiliencia necesitas. Máxima resiliencia, tienes alta resiliencia, tienes desarrollo y pruebas. Esta es la carga de trabajo no crítica más baja con menor resiliencia aquí. Entonces dale siguiente y luego puedes seleccionar la velocidad por aquí, que es de un GBB a 400 GBb por aquí, y la ubicación que quieres que sea Entonces aquí está la ubicación de sus centros de datos por aquí. Entonces este es su sitio AW, la ubicación a la que desea encuentra la ubicación a la que desea conectar la conexión. Entonces ese es un sitio AW por aquí. Por lo que se puede ver que es en esta ubicación en particular y el proveedor de servicios. Así que el proveedor de servicios te ayuda a dar la conexión al centro de datos, y también hay una configuración adicional y hacia algunas configuraciones adicionales por aquí. Luego está este resumen de conexión para que puedas ver el ocho proveedor. Hay dos conexiones que vienen desde su ubicación y revisar y crear creará esto. Pero ves esto esto cuesta alrededor de 0.6/hora, aproximadamente 4:39 de uso mensual para el uso del puerto y transferencia de datos adicionales, puedes hacer Para la transferencia de datos, de nuevo, apenas se cobra y se va a crear dos conexiones. Entonces aquí, esto proporcionará la resiliencia ante el fracaso. Si va a ser una conexión más grande, en realidad se puede ver la máxima resiliencia por aquí. En realidad tenemos una información más grande. Primera ubicación, tienes este proveedor, la segunda ubicación es una ubicación de respaldo por aquí. Y luego tienes otro proveedor. AT y TF, ya hemos seleccionado, así que seleccionemos Verizon Aquí tengo cuatro conexiones dando aquí, $90 por hora, alrededor de 65,880 mensuales y los cargos por transferencia de datos son separados, lo que significa que se puede ver que la facturación comienza una vez que se establece la conexión entre el router AWS y la ruta y entre el router AWS y la ruta y su router o 90 días a partir del pedido Lo que ocurra primero. Entonces de igual manera, tienes la opción de crear esto, y esto permitirá la conexión directa. La conexión directa es mucho más cara que la propia VPN porque utiliza la red privada para conectarse con ella. Entonces esto es más o menos quiero mostrarte en el lado demo de las cosas para que obtengas la mesita de lo que realmente estamos haciendo por aquí Gracias de nuevo por ver este video. Te veré en la siguiente. 48. Labs SDK de AWS con Python: Hablé de nuevo al siguiente video en este video, vamos a hablar de SDK. Uno de los temas que tenemos, que está aquí como parte de su programa es usar SDK también. Ahora, vamos a ver rápidamente una demostración aquí hacia SDK. Entonces esto es API es SDK CLI. Así que hemos completado la CLI, así que es hora de que exploremos SDK Nuevamente, esto no va a ser parte de tu examen, así que muy bien puedes saltarte esto. Solo voy a mostrarte una cosa simple, um, orientada a SDK por aquí, que puedes usarla en tu AWS. Ahora recuerda eso, déjame volver a iniciar sesión una vez más. Acabo de iniciar sesión en el sistema. Entonces aquí vamos a hablar de SDK. Voy a usar un lenguaje por aquí, que se usa frecuentemente, que es Python. Voy a hacer las manos en sesión usando Python. Para eso, debes asegurarte tener Python instalado en tu sistema. Hacer un pseudo um lo siento, hay un retraso en el sistema Pseudo yum instalar Python tres Iphone Y, ver si lo recoge. Python tres ya está instalado. Así que vamos a instalar Python P PIP iPhony. Se requiere Python PIP para que puedas instalar el Boto tres Boto three es tu controlador Python para tu kit SDK, que es básicamente para tu configuración de AWS SDK Ahora puedes usar el comando PIP three por aquí, y luego puedes instalar Boto Esta es básicamente tu configuración de Python para, um, ya sabes, tu AWS. Esto le ayudará a conectarse a AWS y ejecutar SDK desde Boto. Entonces puedes ver que por aquí, se está instalando ese 40 clo Boto tres root uno. Uh, versión. Lo siento, boto tres, versión 11235, Boto core, y además está instalando una transferencia Ahora esto va a asegurar que tienes el STK por aquí Ahora cuando ejecutas cualquier Python, um, ya sabes, comandos o scripts de Python, que va a tener la llamada de AWS, esto realmente va a obtener los elementos de, ya sabes, AWS del back end. Ahora ahora anteriormente, hemos configurado AWS, por lo que solo puedes verificar si sigue ahí, solo marcar tres. Todavía está conectado con el servicio IS. Ahora, también tienes una forma alternativa, así que puedes simplemente abrir este archivo, que está en tu carpeta de inicio. Llame a la carpeta de AWS. Y en esto, tienes un archivo llamado credenciales. Así que en realidad puedes guardar tus credenciales por aquí. Ahora, puedes mirar eso. La credencial en realidad se guarda por aquí. Así es como inicias sesión. Entonces, incluso antes de hacer esto, puedes poner estas credenciales ahí mismo, y luego puedes acceder a ellas. Para que no tenga que ejecutar AWS config con los detalles de las credenciales ahí Ahora que pones ahí las credenciales y está ahí por defecto, así que realmente no tienes que preocuparte por ello. Ahora voy a crear un archivo por aquí, que es un archivo Python, y este archivo Python listará los S tres buckets Entonces ahora este archivo Python, vamos a copiar y pegar el código, que lo pondré ahí para ti. Esta es una configuración de Python donde estás importando b23, que es tu caso SD de un kit de desarrollo que usa AWS en segundo plano Aquí, crea un cliente S three que es básicamente tu S three bucket. Y aquí, esta respuesta es S tres lista de respuesta bucket. Entonces aquí estamos imprimiendo valor diciendo existente S three bucket, y está imprimiendo uno por uno cubos que es parte de su respuesta por aquí Digamos que uno rápido este archivo. Y luego ejecutemos Python. Y entonces realmente puedes ejecutar, uh, el Python tres, que es uno que está en la tienda con la PUI y en realidad te ha mostrado la salida por aquí Entonces cubetas existentes, tienes tres cubetas. Así que esto es básicamente, um, ya sabes, ejecutar esto a través un kit de desarrollo de software SDK Entonces, este es otro método para acceder a su infraestructura existente en su AWS. Entonces hemos hablado de, ya sabes, consola de administración, perdón, consola de administración, hemos hablado de CLI Hemos hablado sobre el uh, usando Python a través de SDK también. Ahora, recuerde que no tiene que ejecutar AWS Config. Entonces, si te estás conectando con una nueva sesión, realmente no tienes que ejecutar AWS Config por aquí en este escenario porque en realidad estarás cargando el USM y la contraseña, lo siento, el ID de clave y código de acceso a la clave directamente en el archivo que mencioné anteriormente Así que este archivo realmente lo recogerá, así que en realidad no tienes que ejecutar la configuración de AWS en este escenario. Y este archivo Python se ejecutará porque irá a Boto Boto, irá a estos archivos de credenciales en particular y luego se conectará a cualquiera que sea la cuenta a la que esté mapeada Después ejecutará la lógica dentro del script Python. Así es como básicamente funciona. Gracias de nuevo por ver este video. Te veré en la siguiente. 49. Introducción a Labs CLI: Oigan, chicos. Bienvenidos de nuevo a los próximos s vamos a hablar sobre la línea de comandos de AWS. Ahora en nuestra capacitación, vamos a discutir sobre una de las características aquí, que es básicamente para su acceso programático Entonces necesitamos crear un usuario para que éste pueda acceder, así que lo haremos en algún tiempo. Pero a partir de ahora, lo que voy a hacer es que voy a tener la interfaz de línea de comandos iniciada para nosotros. Y para eso, necesitamos tenerla descargada para diferentes sistemas operativos. Para acceder a Command Line Interface, solo Google AWS descarga la CLI, y podrás acceder a esta página de Command L Interface, que es aws.amazon.com Ahora bien, esto debería llevarte a esta página en que tienes documentación de ejecutar esta herramienta. Así como otras herramientas también, que forma parte de ella. Entonces aquí tienes pasos que involucrando hacia esta versión que estás usando como ALI two, que ofrece nuevas características como instalador mejorado, nuevas opciones de configuración y centro de identidad también, que es un sucesor de AWSSo Diversas características están ahí. También está AWS S, que es una revisión de desarrollador. Entonces ese es otro programa de estantería de línea de comandos que le brinda las características de conveniencia y productividad. Así que parte del uso de aquí, cómo se pueden ejecutar algunos comandos básicos usando la interfaz de línea de comandos. Entonces estas son cosas de aquí. También puede ver acerca ayuda de escaneo automático y crear grupo de esquí automático. De igual manera, tienes tantas opciones por aquí que puedes usar. hay referencias completas Aquí hay referencias completas en términos de trabajar con, um, ya sabes, más referencias hacia las opciones de línea de comandos, que también se da como parte de esto. Bueno, vamos a explorar algunos de los aspectos básicos, como ustedes saben, que esto es, quiero decir, necesitamos saber sobre la interfaz Kamana, pero no operada completamente, así que eso no es parte de tu certificación Pero solo para su comprensión, en realidad estaremos trabajando con la instalación de la misma. Estaremos trabajando con um, ya sabes, algunos de los comandos predeterminados que vamos a ver también en términos de CLI ¿Bien? Entonces eso es algo que voy a hacer como parte de este video. Gracias de nuevo por ver esto. En el siguiente video, veremos la instalación de Windows, la instalación MCO, la instalación de Linux, y también te informaremos sobre la instalación de Amazon Linux, también Gracias de nuevo. Te veré en el siguiente video. 50. Instalación de la CLI de Labs Linux Actualización de AWS Linux: Oigan, chicos, bienvenidos de nuevo al siguiente video. En este video, vamos a, ya sabes, apagar este servidor, el servidor anterior, que usamos antes y luego terminarlo en realidad. Es mejor que apagar. Y luego crear el de Amazon Linux. Entonces Amazon Linux uno, ya lo hemos hecho, para que puedas seguir de nuevo ese video. Ahora es solo un cambio en la selección del sistema operativo. Para que veas que el sistema se está apagando, así que está bien. Entonces abre esto, edita este existente, y cuando lo edites, simplemente cambia la dirección IP. Todo lo demás es igual excepto el nombre de usuario, iphone use EC two, Phonue Ese es el nombre de usuario Así que simplemente haz clic en Bien, luego haz doble clic en él. Entonces, si lo conectas. Está tomando un poco de tiempo. Ahí vas. Ahora estamos conectados a EC de dos instancias. Perfecto. Ahora, una vez que estés conectado a la instancia Easy two, todo lo que tenemos que hacer es um usar el comando curl para descargarlo. Las mismas cosas. Um recuerda, en esta situación, tendrás ya instalada la CLI de AWS Veamos eso. Vamos a descargar primero este rizo. Bien, este archivo está descargado. Bien. Ahora vamos a ejecutar AWS y luego escribir la versión phoniphon Entonces mira si ya está instalado. Ahora, puedo ver que la versión antigua está en almacenada, que es 215. Ahora, necesitamos actualizarlo a la última versión. ¿Bien? Entonces este video, puedes considerarlo como ejecutando esa actualización que hemos planeado hacer. Comprima este archivo. Zip también es variable en Abs Linux, así que esto es algo bueno. No es necesario instalar este paquete por separado. Ahora que has descomprimido, entra en AWS y ejecuta sudo Es mejor. Copio basado. Copia más allá del comando desde aquí. No estoy escribiendo ningún tipo de comando diferente. Sólo estoy escribiendo el mismo comando. Dot slash instala la ubicación predeterminada. Si no está seguro de la ubicación, siempre puede escribir qué AWS. Eso te lo dirá. Bien, entonces está en una ubicación diferente. Se puede ver que el usuario bin AWS. Así que solo tienes que escribir la ubicación de la casa de AWS. Um usuario solo estoy buscando la carpeta de inicio de AWS. No lo veo aquí abajo, así que veamos que es un local lo tiene. No, ahí no tiene la carpeta home. Bien, entonces sí busqué alguna documentación, pero no hay nada de eso. Entonces procedemos con el mismo comando. Sólo vamos a copiar este comando para actualizarlo. Entonces ahí está la carpeta home está en una ubicación diferente, ¿verdad? Entonces ahora, si escribe la carpeta Bin va a estar en esta ubicación, use una carpeta Bin. La ubicación de la instalación, lo que encontré hasta el momento no estaba en esta ubicación. Entonces el que he encontrado está en el OPT AWS. Entonces ubicación es así que voy a probar con este directorio, a ver si acepta. Así se puede ver eso. Ahora puedes ejecutar esto. Veamos si funciona ahora mismo con la última versión. Ahí vas. Entonces se actualiza con 218 ahora mismo, he dado OPTAWS porque encontré esta carpeta en Es muy raro encontrarlo en este directorio, pero como este sistema operativo es un poco viejo, entonces esa es la razón por la que está ahí. Entonces ahora tienes el V dos océano como parte de los Optaws. Entonces así es como hay que hacerlo. Voy a copiar todos esos comandos personalizados que ejecuté en el uh, tu página de GitHub llamada AWS, voy a poner el enlace de la página Github por ahí. Entonces esto se compromete directamente Github el Bloc de notas más uno Entonces voy a copiarlo y pegarlo por ahí así lo llamaré como calificar tu CLI AW Entonces lo que hemos cubierto hasta ahora es básicamente instalar la instalación de AWS CLI Entonces eso es algo que hemos hecho, y no tenemos el comando, así que solo copiaré el comando de aquí Y también hemos visto cómo actualizar con éxito su CLI de AWS, y sobre todo este comando debería funcionar, pero en caso de que su AWS se encuentre en una carpeta diferente, entonces puede que tenga que cambiarlo a esa carpeta Entonces te he mostrado cómo hacerlo también en términos de un directorio diferente, yo también te he mostrado. Entonces eso es más o menos lo que queremos cubrir en la parte CLI de las cosas. Gracias de nuevo. En el siguiente video, veremos algunos comandos que podemos ejecutar como parte de CLI, y los veré en el siguiente video 51. Labs de Instalación de CLI de Linux: creación de instancias de Ec2: Hola, chicos bienvenidos de nuevo al siguiente video. En este video, vamos a ver cómo hacer la instalación de Linux. Pero voy a dividir esto en múltiples partes para que, ya sabes, te resulte fácil hacerlo porque la instalación de Linux es mucho más larga, y como estamos planeando hacerlo en la máquina EC two. Ahora, no te he dado información sobre cómo crear una máquina Z dos, así que solo voy a hacer eso así como parte de este video. Bueno, hemos creado una instancia EC dos, pero nunca la hemos lanzado ni hemos trabajado con ella, así que solo voy a recrear eso completamente de nuevo Entonces para eso, tenemos que entender en primer lugar la CLI, hay ciertos requisitos previos para que la instale realidad hay toda una página de instalación, si estás buscando, ¿qué es esto otra vez? Um, aquí, tendrás los pasos completos de instalación en términos de trabajar con la instalación de Windows, instalación de macOS, como puedes ver aquí y la instalación de Linux. Desde la página anterior, hemos visto la instalación EC como paquete ExCfle MCO, que es exactamente como Si está buscando el paquete MCO, el paquete de Windows también es exactamente el mismo que el paquete MCO, así que no hay mucha diferencia Ahora, para la instalación de Linux, la instrucción es bastante larga, como puedes ver, simplemente sigue bajando porque hay muchos componentes en ella. Ahora, primero entendamos los requisitos previos aquí. Esto es decir que necesitas tener Zip como parte de tu paquete Linux para tener esta instalación. Necesitas tener, GLPsy, GRO así como s como parte de tu paquete Linux si quieres instalarlo con tu CLI Y la CLI es compatible con sento Fedora, Ubantu y Amazon Linux, así mismo, y también basado en Linux mismo, y también Entonces, debido a que AWS no admite repositorios de terceros que no sean SNAP, por lo que SNAP es una herramienta que se instala en el sistema LinxOperting, que es administrador de repositorios al igual que AWS solo admite SNAP aquí. Por lo que también encontrarás instrucciones para eso. Ahora recuerda que si estás trabajando con Amazon Linux y tienes la CLI de AWS, la cual está preinstalada Entonces, si puedes ver por aquí, imagen de Amazon Linux viene con AWS CLI preinstalada Ahora bien, si buscas actualizar tu CLI AW, primero tienes que eliminarla. Así que solo tienes el comando para eliminarlo. Te han dado el mando para quitarlo. Y una vez que lo hayas eliminado con éxito, entonces podrás, ya sabes, instalar usando los tres métodos diferentes. El primer método es básicamente descargar el archivo desde el Amazon AWCali amazon aws.com Entonces este es el sitio web oficial donde estarás descargando tu paquete desde el archivo zip para que lo instales en Linux. Entonces nuevamente, se requiere ZIP porque estarás descargando un formato de archivo Zip para Linux. Así que descomprimir es un paquete separado que necesitas instalar si no está ya instalado Y tienes AW CLI. En realidad estamos renombrando este nombre de archivo a AW CLI V archivo zip de dos puntos, y lo estamos comprimiendo usando el Y luego lo estamos instalando usando sudo la carpeta de descomprimir Tendrás una carpeta de AWS y luego vamos a ejecutar el comando install dentro de esa, y eso va a instalar tu CLI de AWS en ese sistema operativo La ventaja de esto es que básicamente estarás descargando la última versión porque no tiene ninguna versión, por lo que habría vinculado a la última versión. Entonces, a diferencia de esto, no tendrá la versión predeterminada cuando el sistema de putting esté listo. Entonces tienes a Amazon el próximo 2023, pero no hay 2024, pero la CLI tendría la última versión por aquí, lo que significa que no tendrás esa última versión por aquí Para ustedes, que está instalando esto como parte de eso, primero deben quitarlo y luego seguir las instrucciones. Te diré cómo hacerlo paso a paso. Entonces estaremos creando dos videos separados, uno para el defol Linux, sabor bond Y también crearemos uno para tu, ya sabes, Amazon Linux también. Todo bien. Suena bien. Entonces, sigamos adelante y hagamos esto en las manos. Lo que tenemos que hacer primero antes de comenzar nuestras manos es que necesitamos llegar a la CE dos instancias por aquí y crear una nueva instancia. Entonces, si ya tienes una instancia creada, simplemente elimínala y toma instancia de Clunch Ahora, voy a usar la instancia con el nombre de AWS CLI ya que estamos probando CLI por aquí Entonces una instancia, puedes crearla con Amazon Linux, otra con UpantF vamos a crear instancia de Ubundu Seleccione la llanta libre habilitada, y debería poder ver que está eligiendo la arquitectura de 64 bits X 86 Y luego T dos Micro, eso es suficiente para nosotros. Entonces en términos de Kepare, voy a usar el teclado existente por aquí Si no tienes teclado existente, es buen momento para crearlo en realidad. Te recomendaría crear altamente un archivo PPK a partir de esto Haga clic en Crear y luego haga clic en el nombre dado aquí, que es algo que puede repetir y guardar ese archivo. Selecciona PPK aquí porque usaremos Put as in through mobile system Así que asegúrate de dar PPK porque cuando edites la sesión por aquí, ¿verdad También he dado PPK aquí. Se puede ver ese PPK. Entonces esto es básicamente usar Putty para que lo conectemos desde el término móviles Entonces usas PPK y luego haces clic en Crear un par. Entonces, una vez que crees un par, este se descargará a tu barra de descargas que realmente puedas proporcionarlo cuando te estés conectando a la instancia, más tarde punto de tiempo usando móvil móvil exterm, puedes descargarlo Es mucho más fácil y también tienes la versión no pagada. Entonces esta es una versión de prueba o una versión gratuita o prueba, en la que puedes usarla para fines no oficiales, y puedes ver los cambios de red, LOS tal desde cualquier lugar, así que asegúrate de que esta esté habilitada. No tiene que habilitar nada más. Y luego tienes configurado el EGB y luego haces clic en Launch Instance Esto debería tomar alrededor de un par de minutos y esto debería ordenar la, ya sabes, la máquina Amazon. Lo siento, abres Do machine para tu AW CLI, y luego puedes lanzar otra instancia por aquí o puedes esperar a que eso termine y luego recrear esto o como quieras, lo haré en un tramo Aw CLI, Amazon Dinux así que recuerda que solo puedes tener una instancia como gratuita, así que la haces una por una Así que no me importa si cobra por mí, así que solo lo estoy haciendo de todos modos. Estoy eligiendo Amazon Linux por aquí ya el nombre también implica que es Amazon Linux. Estoy seleccionando la misma instancia. Dando la información sobre mi keypare la que estoy usando por defecto Y entonces aquí estoy dando información sobre SSA no cambiando ninguna información, va a ser la información por defecto sobre instancia de lanzamiento. Esto lanzará una máquina AMI. Imagen de la máquina Amazon, por lo que también utilizará el sistema operativo Amazon. Parte de ella. Tienen dos instancias ejecutando una es un CI árabe para ustedes chicos, será sólo una instancia. Puedes hacer esto más tarde. El único cambio entre estos dos es el sistema operativo. Y cuando cambies el sistema operativo, recuerda que el nombre de usuario también cambia. Para Ubundu va a ser U Bundu como nombre de usuario. Para la imagen de la máquina de Amazon, va a ser fácil de Iphen usuario Ese va a ser el nombre de usuario. También puedes comprobarlo cuando estés creando en ese proceso de creación. Yo lo sé, así que por eso no lo he comprobado. También puedes validarlo haciendo clic derecho en Conectar, y de hecho puedes ver el nombre de usuario aquí. Esa es otra forma de verificarlo. Entonces, um, hasta el momento hemos completado el ítem. ¿Lo cerré? Supongo que la he cerrado. Perdón por eso. Sí, así que lo siento por eso. Creo que lo cerré. Bueno, entonces ahora que has completado el primer tramo, hemos completado la creación de instancias aquí en la CLI En el siguiente método, vamos a acceder a esto usando MobikStem estos dos servicios usando mobitem y luego vamos a instalar Gracias de nuevo por ver esto voy a ver en la siguiente. 52. Método de instalación fuera de línea de la CLI de Labs Linux: Oigan, chicos, bienvenidos de nuevo en el siguiente video de este. Veremos los diferentes métodos para descargar el paquete e instalarlo, y también se le llama como método offline. Entonces, por ejemplo, tienes servidores dentro de una infraestructura que no es accesible a Internet. ¿Cómo usarías nap para instalar? Bueno, en realidad no se puede. Así que en realidad estarás descargando este archivo, enviándolo a través y luego instalándolo a través del método de línea de comandos. Esto es básicamente un material libre de Internet donde tendrás Internet en tu servidor de salto. O en el que harás esta operación en un servidor de salto y una vez que completes la operación, desplazas este paquete al servidor real y luego lo instalas. Ahora, sólo voy a copiar este comando. Anteriormente, vas a instalar, creo que la versión 218 de AWS CLI Veamos qué versión se instala esta. Este es un comando curl. Por defecto, cada sistema operativo tendrá el comando curl. comando Curl dice que el archivo de salida debe estar en un nombre de archivo personalizado, verá ese archivo descargado. Ahora voy a usar el comando unzip. Bien. Un Zip no está ahí. Así puedo instalar con Snap en sí mismo, Snap instalar Unzip. Entonces bien, no es capaz de conseguirlo. Déjame probar APK. Por lo que la APT debería descargarla. Lo siento, si antes dije APK, me refería a APT. Así que probemos sudo APT, Instalar. Lo siento. Instalar nz. Entonces está descargando el paquete de NZP. Así que ahora vamos a usar este archivo NZP para descomprimir este archivo picular El sistema es un poco rezagado debido a, sabes, la menor cantidad de configuración que tenemos en el sistema, así que es un poco rezagado La red también está en grado, supongo. Puedo ver que está descomprimiendo este archivo en particular. Ahora bien, este archivo, básicamente puedes descomprimirlo en un sistema y puedes crearlo como un tarball Simplemente puedes usar star Iphone CV de y luego crear el tarball así Y entonces esto debería ir con cualquiera de sus sistemas. Puede que tengas alguna duda, si no puedo instalar o descargar este paquete, entonces cómo lo voy a enviar. Ahora tienes un tarball. Ahora puede enviarlo a través de múltiples sistemas y luego um tener eso instalado. Mira el tamaño de un archivo por aquí. Es una bola estrella 223 MBT. También puedes disparar esta bola de alquitrán, lo que incluso la reducirá más. Lo siento, Gs, el Tarpl que lo reducirá aún más para que puedas enviarlo a través dos sistemas que no tienen Internet ont Entonces porque este salto boox estará diseñado para conectarse a esos servidores, ¿verdad? Así se puede ver eso. Es incluso menos que el propio archivo Zip. Entonces, ¿cuál es el siguiente paso? El siguiente paso es que puedes acceder a la carpeta de AWS y ejecutar el comando de instalación de Doslash Ahora bien, este comando de instalación, creo que necesitas un usuario root. Entonces necesitas hacer psudo y luego dot slash Instalar. Así que esto debería tener todas las cosas de AWS localizadas. Y como esto está en uso de local entonces puedes escribir la versión de iPhone de AWS. Bien, entonces está diciendo que va a chasquear. Mandíbulas. Ahora, puede ver qué AWS le dará la ruta completa donde está instalado AWS. Si quieres una versión más reciente de la misma, también, puedes actualizarla. Eso es algo. Ahora, ¿cómo sabes qué posición o qué ubicación está instalada ?, puedes usar qué comando de AWS te indicará la ubicación del mismo. Si nos fijamos en este comando, le está diciendo que actualice una instalación existente. Tienes versión anterior de esto y has descargado este archivo zip, todo lo que puedes hacer es ejecutar este comando con la ubicación. Ahora, se puede ver que está instalado en el usuario Curva local. Obtuviste esa salida, así que pones este uso local bind, que es la ubicación predeterminada, por supuesto. Hasta y a menos que no uses Snap SNAP está creando en una ubicación diferente como puedes ver. Va a cortar SNAP y luego está metiendo todos esos archivos ahí Pero si lo estás usando a través de la instalación normal, entonces realmente puedes usar este comando. Para actualizar tu versión de tu ub CLI. Es la ubicación actual es la misma. Tenemos que revisar el directorio de instalación si este es el mismo. Entonces hagamos el LS I y LTR. Sí, se puede ver que existe el directorio de instalación , ¿no? Entonces esto es más o menos eso. Entonces podemos ejecutar este comando. Si tiene una versión posterior o la última versión después del 29, puede ejecutar este comando. Y lo que hará este comando es como tú ya en la carpeta ApS, derecho. Entonces solo necesitas quitar esto. Entonces es solo que se queda mucho rezagado. Entonces para instalar. Lot slash Instalar Ahora puedes ver que saltando en tienda porque ha detectado la misma versión que intentas actualizar Este tipo de actualización también lo puedes hacer si tienes una versión anterior instalar y si estás planeando actualizarla. En el siguiente video, veremos sobre Amazon Linux y lo actualizaremos a la última versión ahí. Gracias de nuevo por ver este video. Nos vemos en la siguiente. 53. Instalación de la CLI de Labs Linux mediante Snap: Oigan, chicos, volveremos al siguiente video. En este video, vamos a ver cómo utilizar esta máquina en particular y conectarla con MBiXtem Ahora bien, este es uno de los videos. No lo he hecho hasta ahora, así que puedes instalar este extem móvil el cual es gratuito Y entonces en realidad puedes crear carpetas como esta. Lo siento, carpetas como esta nueva carpeta, y luego seleccione la CLI de AWS Ese es el nombre de la carpeta, y luego dentro eso puedes hacer clic en tu sesión. Entonces realmente puedes ir a tu CLI de AWS y copiar el IPR público desde allí, ponerlo aquí, tomar el nombre de usuario del conector, hacer clic derecho y conectar y el nombre de uso de aquí Entonces puedes especificar el nombre de usuario y luego colocar ese nombre de usuario por aquí y luego darle ese AWS CLI Open también como apodo para ello para que desaparezca aparecerá aquí Y luego no olvides dar Good Advance y luego usar Private K y dar el nombre del archivo de la carpeta por aquí. Para mí, tengo un nombre de archivo ya aquí como parte de esto. Sólo voy a copiar esta ubicación por mí. No es dejarme copiar. Déjame solo editarlo y luego hojearlo. Simplemente haga clic aquí y podrá navegar por la ubicación y luego podrá precisar la ubicación Todo bien. He localizado la ubicación como pueden ver por aquí, esto debería ser lo suficientemente bueno para mí. Así que haz clic en Bien. Y luego solo haz doble clic en él. Te preguntaré si quieres aceptar la autenticación. Um, bien, eso es raro. Diciendo no apoyar formulario de autenticación. Vamos a intentar esto otra vez. Parece que no ha tomado esa ubicación, así que vamos a intentarlo de nuevo. Bien, entonces dice que has alcanzado el número máximo sección de guardar. Bien, lo tengo. Tengo que contarle algunas sesiones por aquí porque estoy en la versión de prueba, bien, dejándome guardar más sesiones por aquí. Vamos a hacer clic en esto ahora mismo. Entonces va a estar haciéndote una pregunta por aquí. ¿Aceptas, aceptas compartir el fideicomitente y algo así? Entonces solo tienes que decir que sí, y entonces deberías poder entrar en él. Ahora estoy en el sistema operativo U Bundu, como puedes ver por aquí, y el comando de AWS es, ya sabes, no funciona Entonces hay múltiples formas de instalar la versión de AWS DS, y se puede ver que la aplicación instala AW CLI, tiene SNAP instala AW CLI Por lo que este es uno de los temas apoyados por aquí como discutimos en este documento. Entonces, cuando estás haciendo clic en instalar múltiples métodos, derecho, así tienes descargar e instalar, que es este. Tienes ARM para ARM Linux, cómo quieres instalarlo. Tienes solo un paquete de arquitectura diferente por aquí, y tienes el paquete Snap. Entonces para Snap, solo tienes que usar este comando. Así que solo tienes que instalar AWS CLI y luego obtener eso instalado. Entonces si solo ves eso, um, pudo sudo, supongo Entonces sólo vamos a escribir sudo. Instala a presión AWS CLI classic. Ahora bien, esto va a descargar este paquete y va a instalar no solo este paquete, sino también su dependencia. Aquí podrás ver la versión de iPhone de AWS para iPhone. Entonces ahora esto debería llegar a AWS CLI, 218. Cuando escriba AWS, ahora verá ese mismo comando de ayuda que hemos visto antes. Este es uno de los métodos fáciles de instalarlo. Entonces, si quieres hacer el otro método de instalarlo, también, te voy a mostrar en el siguiente video. Para eliminar esto, creo que el comando remove debería ser eliminado por aquí, esto debería quitar el paquete. Bien, ya se puede ver que eso se quita ahora. Cuando tecleo tíos tengo versión Iphone, se puede ver BDS no encontrado Así que método más o menos simple de instalar usando Snap. Entonces, en el siguiente video, te mostraré el otro método de instalación porque a veces Snap no será parte de tu sistema operativo. Como, por ejemplo, si vas a los sentos o a cualquier tipo de otro sistema operativo, no tendrás Snap, entonces se convierte en una complicación para ti Entonces te voy a mostrar el otro método que es usado predominantemente por personas mayores, así te veré en el siguiente video. 54. Instalación de la CLI de Labs para Windows: Oigan, chicos. Bienvenidos de nuevo al siguiente video. Y este video, vamos a instalar la CLI de Windows. Entonces, si solo haces clic en él, esto debería obtener tu CLI de Windows descargada a tu sistema Si haces clic en el macOS, se va a descargar eso, igual manera, primero completaremos la instalación de Windows. Entonces para que conozcas la instalación de Windows, va a estar ahí aquí. Nosotros solo vamos a opciones, vas a encontrar descarga por aquí que debería tener. Entonces como pueden ver por aquí, ya lo he descargado varias veces, como pueden ver. Voy a abrir este archivo. Ahora bien, esto viene con la información de lo que vas a configurar. Entonces esta es una versión dos de su interfaz de línea de comandos de AWS. Así que solo haz clic en siguiente. Acepte los términos y condiciones aquí. Simplemente haga clic en siguiente nuevamente después de estar de acuerdo. Aquí está seleccionando la ruta en la que va a instalar su CLI versión dos Haga clic en siguiente. Y luego haga clic en e instale. Bueno, el sistema operativo Mac es exactamente el mismo. No tengo un sistema operativo Mac. Entonces, si descargas el sistema operativo Mac, ábrelo, así te va a decir o te mostrará los mismos pasos exactos que acabamos de seguir. Entonces ahora solo necesitamos instalar esto, y luego solo tenemos que dar click en Finalizar una vez finalizada esta instalación. Ahora lo que pasa es como que va a estar en compilación con nuestra línea de comandos, así que va a ser utilizada como parte de nuestra línea de comandos de Windows. Solo estoy esperando a que se instale el producto. Bien, entonces ahora que la instalación está terminada, haga clic en el botón de acabado. Ahora ve a abrir una ventana de línea de comandos, así que voy a mi prompt de ejecución. Estoy escribiendo CMD en mi solicitud de ejecución y luego haciendo clic en Bien. Entonces me voy a otro colon por aquí. Otro símbolo del sistema está abierto. Ahora puedes ver que esto es solo un símbolo del sistema ordinario. También puedes hacer lo mismo por Macos. Abra su símbolo del sistema escriba AWS. Anteriormente, si estuvieras tipo AWS, habría dicho comando no encontrado. Pero esta vez después de instalar la CLI, se puede ver que este comando en particular está funcionando Así que AWS ayuda, y obtendrá todos los temas de ayuda disponibles aquí. Así que solo le das una barra espaciadora por aquí, así que mostrará todas las opciones disponibles por aquí. Puedes ver lo que sea que puedas hacer desde la consola, en realidad también puedes hacerlo desde AWS. Lo siento, AWS CLI también. Así mismo, tienes todos los comandos por aquí los cuales puedes usar. Entonces estos son los artículos. Entonces, básicamente, estos son los servicios que ofrece AWS, y estas son las diferentes formas de acceder a ellos. Veremos en detalle más adelante momento así entenderemos una sesión separada sobre cómo trabajar con sus servicios AW en el futuro. Te voy a dar algunos artículos en SS tres, además de fácil control de instancia también. Entonces solo te voy a enseñar sobre eso. Solo para comenzar con AW CLI, para que en la próxima capacitación o la siguiente certificación, no lo encontraras desafiante Entonces esto es más o menos lo que quiero cubrir en este video. Gracias de nuevo por su tiempo y paciencia. Te veré en el siguiente video. 55. Zonas de disponibilidad de los laboratorios: Ahora que entendimos lo que es una región, entendamos qué son las zonas T disponibles. Las zonas T disponibles son básicamente centros de datos, que está disponible. Ahora bien, dentro de una región, puede tener al menos dos zonas T disponibles o puede tener actualmente, veo un máximo de seis zonas T disponibles en la región Este de Estados Unidos una región, que es Northland Virginia Entonces en esta región, se ven seis AZ, lo que significa que estos son seis centros Theta Ahora, este centro de seis Theta tendrá subnt asignado a ellos, clasificando cada uno un nombre de subred asignado a cada una de las zonas de disponibilidad Lo que es una subred de subred es un grupo de direcciones IP que se pueden asignar para los servicios que está alojando en cada una de estas zonas de disponibilidad Ahora, eso está configurado bajo VPC, bien, Nube Privada Virtual Entonces VPC toma muchas subredes, las cuales se clasifican a cada zona de disponibilidad, y esas se configurarán como parte de todos los servicios que vas a Entonces, si estás configurando una instancia EC two, en realidad estarás configurando, um, serás realmente lo que estarías configurando según la instancia EC two, estarás configurando lo que se llama una subred De igual manera, lo harás lo siento, estarás configurando VPC como parte de tu instancia EC two En ese escenario, estarás mapeando tu nube privada virtual que tiene una subred y cada subred tendrá cada una de las zonas de disponibilidad, y luego estarás creando un servicio en esa zona de disponibilidad en particular También hemos visto ese proceso. Sólo te mostraré ese proceso una vez más. Entonces como hemos visto regiones por aquí en el video anterior, cada región tiene zona de disponibilidad. Tomemos, por ejemplo, esta región particular del Norte de Virginia, que se lanzó en 2006. Esta es la primera. Entonces, si ves eso, Irlanda es la segunda, que duró 2007. Entonces como puedes ver por aquí, tienes las seis zonas de disponibilidad por aquí. Hablaremos de zonas locales y longitud de onda un poco más tarde. Pero las zonas de disponibilidad son básicamente un centro de datos. Entonces, ¿cuántos centros de datos hay? Hay seis centros de datos. Si quieres listar la vista por aquí, realmente verás las regiones con zona de disponibilidad, así puedes ver el número de regiones por aquí. Hay por reciente Osaka Japón, lo siento, Tokio Japón, que tiene cuatro COL tiene cuatro aquí como zona de disponibilidad por aquí. Ahora, se puede ver el general. Por lo que tiene 41 zona de disponibilidad, 13 región. Entonces esta es la región de Asia Pacífico y China. Entonces aquí tienes la clasificación basada en la región y donde viene pronto. Bien, entonces te da una visión completa de todo lo que tienes. Y entonces esto es región por región, ya sabes, clasificación de aquí. Entonces eso es más o menos. Entonces entendamos qué es la zona de disponibilidad. Zona de disponibilidad, como dije, usted, hay 108 zonas de disponibilidad totalmente con 34 regiones en ella. ¿Bien? Ahora, 34 regiones cada una con zona de disponibilidad múltiple. Tienes un total de 108 zonas de disponibilidad las cuales están disponibles para ti. Entonces esto no es más que sus centros de datos. Ahora bien, ¿puedo saber la ubicación de estos centros de datos? Ahora, en realidad, no se puede porque zona de disponibilidad algo, que AWS lo mantiene por sí mismos. Solo conocerás la dirección principal de una ubicación específica, dirección de región específica. Aparte de eso, no lo sabrás. Pero, ¿de qué otra manera puedes conocer un poco más de detalle al respecto? Si vamos a Virtual Private Cloud, tu VPC predeterminada tendrá los detalles Entonces tu VPC predeterminada, al hacer clic en ella, verás las subredes conectadas a Básicamente, cuando configures una subred, verás todo esto, ya sabes, disponible uh, artículos por aquí en términos de zona de disponibilidad. Entonces, si vas a subnutl puedes crear una subnut seleccionas una Ahora tienes la opción de seleccionar la zona de disponibilidad. Entonces ahora puedes ver que estas son las zonas disponiblesilt disponibles en esta VPC en particular Por lo que este VPC pertenece al Norte de Virginia. Entonces, si estoy diciendo que quiero verificar la región de Mumbai, entonces estoy haciendo clic en el medio en la región de Mumbai. Ahora, tengo un VPC abierto aquí en la región de Mumbai. Sí, en realidad puedes abrir varias pestañas con una configuración de región diferente. Entonces, para una prueba de latencia, he creado, ya sabes, VPC por aquí en la región de Mumbai para verificar la prueba de latencia, que llegaremos más tarde en el momento Entonces, cuando estés en la VPC de la región de Mumbai, verás que ahí tienes una VPC, cual está configurada por defecto Esta es la VPC predeterminada. Cuando estás configurando la subred por aquí, y tu subred concreta y seleccionas diez lo siento, la VPC predeterminada, o si estás creando una nueva VPC y quieres asignarle una subred, De nuevo, si llegas a una zona de variablety por aquí, estarás viendo la zona de disponibilidad, que está disponible como parte de esta región en particular, que es la región de Mumbai La región de Mumbai tiene tres zonas de disponibilidad. Lo mismo. Si voy a recoger a Oregon, lo siento. Así que aquí, cuando elijo, crear una subred, vamos a crear una subred por aquí muestra una Ahora verá la zona avaibt, que es cuatro zona de disponibilidad en la región de Oregon Ahora bien, esto le indica la cantidad de centros de datos que están disponibles para usted. Uh, en esta ubicación, en esta región en particular. Entonces así es como se llega a conocer cuántas zonas de disponibilidad hay y cómo utilizarlas, ¿de acuerdo? Entonces ahora mismo, no sabes nada la red o de tu subred ni nada, así que no te preocupes por ello Pero solo te estoy dando como echar un vistazo a los diferentes uh, artículos disponibles. Normalmente se menciona como A, dos B, dos C, D, así mismo. Lo mismo aquí en la arquitectura también, verás que la zona de disponibilidad menciona el mismo nombre que la región excepto que agrega un carácter justo al lado , llamado ABCDE, EF Aquí hace seis zonas de disponibilidad, por lo que apenas comienza desde A, y luego BCD E F, por lo que va hasta F. Asimismo, se nombran las zonas de disponibilidad Entonces, si estoy viendo este en particular, entonces esta zona disponible, um, nombre de región es USS dos Por lo que se llama como USS dos A, BCD porque tiene cuatro zonas de disponibilidad. Todo bien. Entonces esto es lo que se supone que debes entender a partir de este video, y esto es para asegurarte de que entiendes lo que es zona de disponibilidad con su zona de mano. Así que recuerda revisar el siguiente video que te da un poco más de detalle sobre la zona de disponibilidad. Gracias de nuevo. Te veré en la siguiente. 56. Configuración de un sitio web con Labs Cloud Front: Oigan, chicos. Bienvenidos de nuevo al siguiente video. Y este video, vamos a hablar de CloudFront manos a la Entonces aquí vamos a crear un sitio web en Cloudfront y vamos a navegar por el cache Así que esta es más o menos una experiencia simple y práctica hacia CloudFront, y es tan simple que tenemos que crear un solo archivo Así que ahora he iniciado sesión en la CE dos siones que he creado antes. Entonces estoy bastante seguro de que tienes que no te he pedido que lo borres, así que debes tener eso corriendo por aquí. Por lo que a esto se le llama AW CLI Ion machine. Estoy usando el mismo que creé para CLI. Ahora lo que voy a hacer es que voy a crear un archivo por aquí llamado index door GMO Ahora bien, esta va a ser mi página de índice de OGM, así que voy a dar una etiqueta H one por aquí Voy a cerrar esta etiqueta H one, y aquí voy a tener el contenido. Este es mi sitio web de Pocket. Entonces voy a crear este tipo de página de HGMO por aquí. Voy a usar una etiqueta HGMO por aquí. Sólo para indicar que se trata de una página de HGMO. Yo también voy a cerrar este OGM, y este va a ser el contenido de aquí Esto es básicamente contenido destacado por aquí donde va a decir que este es mi sitio web de S three bucket. Ahora guarde en salir de este archivo, esto realmente debería tener este archivo con este aspecto. Una vez que tengas este archivo, puedes subirlo a S tres. Solo asegúrate de que sigues conectado con AWS porque tienes de todos modos nosotros nos conectamos, supongo. Veamos s3s S si lo conectas, sí, estás conectado. Ahora, en primer lugar, vamos a crear un cubo o vamos a utilizar este cubo de prueba solamente. Mi ejemplo, S tres bucket en sí lo usaremos como nombre de nuestro sitio web, y luego voy a empujar este contenido por ahí, S tres copia, índice o SMO. A esta S tres cubetas. Yo sólo por darle S tres colones slash slash, copiarlo a este cubo Lo siento, debería ser CP. Debería que me lo copien. Ahora en mi cubo ST, debería tener el voy a marcar esto porque hemos estado usando tantas veces. Entonces aquí, mi bucket de ejemplo tiene el índice al archivo HMO. En realidad no puedes leer el archivo aquí porque S tres es una ubicación donde puedes copiar y almacenar el archivo, pero no hay forma de leer el contenido del archivo porque un archivo podría ser de cualquier cosa, así que ST no te permite hacer eso. Ahora que has copiado el archivo a través, ya sabes, de tu sistema Linux al bucket S three, deberíamos ser buenos para crear un sitio web a partir de esto. Ahora como vamos a acceder a este bucket ST a través de un sitio web, ahora necesitamos habilitar este bucket ST para acepte permisos para que sea navegado desde Internet Por defecto, ST bucket se crea con bloquear todas las direcciones IP públicas, um, así que necesitamos deshabilitar eso para permitir que Cloud friend sirva el contenido de, uh, este bucket STR al público. Entonces para hacer eso, puedes hacer clic en permiso por aquí. Y dentro de ese permiso, verá bloquear la configuración del bucket de acceso público. Por lo que actualmente está encendido. Entonces, lo que significa que en realidad está bloqueando todo el acceso público a este bucket. Así que haz clic en Editar por aquí y luego desactiva esto y puedes hacer clic en el botón Guardar. Entonces es conformar y luego dar click en Enta creo que tengo esa ortografía de. Haga clic en Confirmar y esto debería permitirle acceder a su bucket desde Internet. Usted CloudFront podrá usar esta información y nosotros podremos proyectar este archivo en particular a través de Internet Así que ahora vamos a CloudFront por aquí. Vamos a cerrar todo esto y luego abrir CloudFront Así que ahora que CloudFront está Ahora puedes hacer clic en Cloud crear una distribución Cloud. Ahora, al hacer clic en la distribución de CloudFront, puede seleccionar el origen de su sitio web Entonces puede ser de cualquiera de este elemento de acción que está por aquí, puede ser de un equilibrador de carga si está apuntando su aplicación a un EC dos balanceador de carga apuntará a su aplicación en EC two y EC two apuntará a su aplicación que se está ejecutando en ella Pero ante esta situación, la vamos a usar desde S three bucket. Entonces este es el indicado y desde aquí, el camino de origen por aquí, en realidad podemos ignorar esto. Ahora mismo, no tenemos que dar un camino de origen por aquí. Si tienes un nombre por aquí, que es, ya sabes, algo que puedes usar como nombre de sitio web, y ese es el nombre que puedes ingresar por aquí. Hay ciertos aspectos que no puedes cambiar. Como, por ejemplo, este va a ser un nombre de amigo en la nube, así que prácticamente puedes tener lo que quieras. Pero tu nombre de dominio sería algo así por aquí. La ruta de origen es básicamente si quieres dar una ruta específica después de esto, R no la necesitamos en este momento. Entonces solo vamos con público. Tan público, es decir, cualquiera puede acceder a él. Si tienes alguna cabeza o información personalizada, puedes dársela aquí. Entonces ahora esto va a ir con Origin Shield. Origin Shield agrega capa de almacenamiento en caché adicional, lo que ayuda a reducir la carga en el origen que ayuda a proteger su disponibilidad Y ahora aquí tenemos el comportamiento de caché, así que esta es la configuración de caché aquí. El protocolo del visor es HTTP y HTTPS o redirigir HTTP a HTTPS. Yo seleccionaría esto. Si alguien accede al sitio web HTTP, le mostrará el sitio web de HGTV por separado, y el mismo control también se mostrará en el sitio web HTTPS Pero siempre es muy recomendable tener solo navegación HTTPS. Pero aquí, si seleccionas HTPS Oly, las personas que están intentando con HTTP en tu URL no podrán acceder a él Por lo que siempre es tener una redirección de HGTP a HGTPS Permitir método Entonces esto va a ser recibiendo tu solicitud o tu o, ya sabes, información del jefe de información por aquí. Ahora bien, no se recomienda tener toda esta información porque información de publicación significa que también puede enviar información a su servicio. Eso no está restringido. Vista de acceso restringido. Esto es básicamente para tu configuración de Cookies, y luego tienes algunas configuraciones de Cookies por aquí también, la optimización de la política de caché, vamos a ir con la predeterminada que se recomienda para ST. Vamos a tener los predeterminados por aquí también. Ahora tienes tantos ajustes aquí. Entonces aquí tienes la protección vA. Por lo que estamos habilitando la protección VAF aquí para cualquier tipo de ataque a nuestro sitio web Y luego aquí en el entorno, usa toda la ubicación de borde, mejor rendimiento, usa Norteamérica y Europa. Por lo que esto va a estar priorizando tu información. Entonces en base a eso el precio dependería de. Si vamos a ir por todas las ubicaciones de borde independientemente de la ubicación, cada ubicación de borde va a recogerla. Entonces, si haces clic en la información de precios, CloudFormation, lo siento, precios de CloudFront Ahora, verás que hay un di gratis por aquí, un TB de datos transferidos fuera de Internet al mes es gratis o 10,000 solicitudes HTTB o HTTPS por mes o dos um, creo que son 2 millones de funciones de Cloudfront en vocación por mes, y luego certificado SSL gratis, sin limitaciones, todas las características son Si quieres entender el precio completo, si vas más allá del valor definitivo aquí, puedes ver la nube desde una TB jubilarse. Ya te está dando una jubilación de TB. Ahora aquí, en realidad puedes buscar precios por aquí, cuánta cantidad de transferencia de datos quieres buscar. Es un GB por mes, transferencia de datos, un GB al mes otra vez. Número de solicitud va a ser um, para un GB de datos significaría 5,000 solicitudes, que es como en este cálculo, verás que cuánto te van a cobrar, te van a cobrar. El primero, va a ser de 0.09 USD. Es bastante barato y el costo mensual total es de unos 0.12 USD Este es prácticamente tu cálculo de Estados Unidos, pero entonces en realidad puedes, ya sabes, verificarlo para diferentes ubicaciones también y encontrar el cálculo para diferentes ubicaciones por aquí. También tienes un paquete de ahorro de seguridad por aquí, que en realidad puedes usarlo para ahorrar leyendo las preguntas frecuentes. Así podrás ahorrar hasta un 30 por ciento de, uh, ya sabes, por mes en el frente de la nube. Pero de todos modos, formas en las que vamos a usar el artículo básico por aquí. Entonces aquí la versión HTDV. Entonces, si tienes un certificado personalizado, certificado SSL, puedes elegirlo desde aquí, pero vamos a usar el predeterminado. Aquí está la versión del protocolo. Vamos a ir con los predeterminados de aquí y los registros estándar Lo que habla de la solicitud del espectador, quién la está viendo y puedes encenderla y lo que significa que puedes ponerla en un cubo por aquí. Entonces lo pondremos en la cubeta de prueba de aquí. Bucket no válido para registro estandarizado habilitar ACO. De igual manera, no lo necesitas en este momento porque se complica. Haga clic en distribución, y esto debería permitirle crear una distribución de CloudFront Ahora, la distribución de CloudFront te va a permitir crear un sitio web y tenerlo alojado Y en realidad se puede ver que se encuentra actualmente en la fase de despliegue por aquí. Dice la ficha de seguridad. Yo, ya sabes, es crear esto comparte tu opinión, pidiendo comentarios. Sigamos por aquí y veamos la progresión de esto en el estado de despliegue. Siguen desplegándose, por lo que puede llevar un poco de tiempo. Solo estoy buscando cualquier tipo de eventos por aquí que también puedas agregar páginas de error personalizadas. Puedes agregar comportamientos, orígenes por aquí, seguridad. Si hay algún tipo de alertas de relator de seguridad o algo así, en realidad puedes verlo También puedes consultar las métricas, tus métricas de distribución aquí. No hay datos porque supongo, todavía está pasando por aquí en términos de distribución de despliegue. Déjame pausar el video y pausarlo una vez que esto se complete. Entonces chicos, recién iniciados, se puede ver que el despliegue se ha completado y ve la fecha del despliegue que se completa. Al hacer clic en esto y realmente verá los requisitos por aquí como en los detalles de los detalles generales de esta distribución en particular. Se puede ver la seguridad, se puede ver origen. El origen realmente tendrá, el S tres detalles del cubo por aquí y ese es básicamente tu origen. Entonces, si quieres navegar por esta aplicación, puedes usar esta distribución a mi nombre por aquí, pero aún está modificada por última vez como desplegada en este momento. Entonces, si solo accedes a este sitio web, puedes ver actualmente viene con Access esta noche. Ahora bien, esto resume bastante que todavía se está desplegando, así que vamos a esperar un poco más de tiempo. Entonces ya han pasado como de diez a 15 minutos, así que tal vez tengamos que esperar unos minutos más, y luego creo que debería estar desplegándose. Um Así que ahora recuerda que puedes editar este elemento de acción en particular. Creo que hice algo mal, supongo que aquí. Por eso volvió a desplegarse porque la última vez que vimos que en realidad estaba dando las líneas de tiempo por aquí, no sé qué hice mal por aquí, pero volvió a desplegar, dame algo de tiempo así que déjalo arreglar Ahora, recuerde que en realidad también puede mencionar la toga índice como su página raíz, para tener el índice m como su página raíz Aquí en la configuración de aquí, tiene el documento raíz predeterminado. Aquí puedes seguir adelante y editarlo y poner este, um, índice a HGML por aquí y puedes guardar los cambios Ahora, ¿a lo mejor yo hice esa la razón? No lo sé. Si solo accedes aquí a este punto índice HGML, veamos. Sigues obteniendo este acceso hizo excepción. Sólo dame un segundo. Ahora bien, este error podría significar que el S tres no es accesible, objeto S tres, que está indexado a STMO no es De ahí viene el acceso Dinit. Ahora bien, ¿cómo lo vamos a arreglar? En primer lugar, abriremos S tres e intentaremos navegar por el S tres y ver si el ST es realmente accesible para que podamos entender si esto es un problema con el frente de Cloud o el propio ST. Abramos este archivo S tres por aquí y en realidad obtendrá una URL por aquí para navegar por este archivo de manera pública. Nosotros hemos habilitado hemos desactivado esto. Vamos a refrescar este. Cuando hago Control refresh, puedes ver que estamos obteniendo el mismo resultado por aquí. El anterior venía de caché. Cuando haces una actualización de Control, mantén presionado control y presionas F five, actualizará la caché y te pedirá que obtengas los nuevos resultados. Estás obteniendo este acceso en el nivel S tres. Entonces, para que arregles este problema del frente de la nube, el frente de la nube parece estar bien. Se trata de desplegar la aplicación, pero el problema es como que esta excepción viene de S three end. Entonces para arreglar esta excepción, lo que puedes hacer es como primero entender el permiso de tu bucket. Un poco más encerrado. Entonces lo que hemos hecho es, ya sabes, hemos desactivado el blog llamado acceso público, pero aún así no hemos dado acceso público a Access How bucket. Entonces como puedes bajar por aquí, tenemos lista de control de acceso. Ahora, cuando lees la lista de control de acceso de aquí, esto básicamente otorga acceso al propietario del bucket para leer y arrepentir, listar y escribir objetos y leer y escribir ACL de bucket Bucket ACL, ya sabes, algo que puedes hacer como dueño, eso es obviamente que no puedes hacer eso Pero para el acceso público, se puede ver que eso prácticamente no está disponible por aquí. Ahora bien, aquí es donde se complica. Ahora solo básicamente tenemos que editar esto y habilitar el acceso público, pero el problema es como editar está deshabilitado. Cuando vea la información, este bucket tiene la configuración de cumplimiento del propietario del bucket aplicada para la propiedad del objeto Entonces básicamente, se aplica en el nivel topper. Entonces, si quieres modificar, ya sabes, requisitos específicos para este bucket en particular, tienes que cambiar la propiedad del objeto por aquí haciendo clic en Editar aquí y cambiar esto a ACL deshabilitado para habilitar ACO Por lo tanto, debe reconocer que está habilitando ACR para un bucket específico y luego hacer clic en Guardar cambios Ahora cuando bajes a la misma opción, verás el botón de edición por aquí. Haga clic en el botón Editar. Ahora tienes Relación de objetos y cubetas. Entonces para todos, acceso público, podemos enumerar los objetos que están en el bucket, pero no podemos bucket Co no se puede leer. ¿Bien? Así que sólo podemos enumerar el acceso a los objetos. Así que solo haz clic en, entiendo. Guarde los cambios. Pero solo aplica para aquellos que se van a crear más tarde en el punto del tiempo, pero este ya está ahí, así que es posible que tengamos que hacer la configuración por sí mismo el permiso Guru por aquí, y tienes el conjunto similar de permisos que es como cada vez que se creó esto, es el mismo permiso en ese momento, simplemente haz clic en Editar por aquí y leer sobre los objetos selecciona, gente pueda leer los objetos que hay en este cubo público, y yo digo, entiendo, y luego guardo los cambios. Ahora cuando frentes esta URL, mira si funciona. Ahora puedes ver que este es el mismo contenido exacto de ese archivo en particular. Entonces ese contenido está funcionando. Cierra esto y prácticamente actualiza esto y ya puedes ver que este contenido viene de S three bucket ahora. Ahora bien, este contenido está básicamente alojado en tu amigo Cloud. Se puede ver la URL de CloudFront, cual la he tomado de aquí desde este URO de CloudFront, luego la puse al otro lado de aquí Ahora cuando intento esta es la información del bucket, S tres información del bucket. Si solo pones HTDP por aquí, puedes verlo. Quieres desactivar esta información, muy sencillo. Hay dos opciones para ti. Puedes cambiar la información del bucket yendo al permiso de bucket, y luego puedes editar esto y puedes eliminarlo, guardar los cambios. Ahora bien, esta información en particular no vendrá. Aún viene. Entonces eso es más o menos, ya sabes, pensé que deshabilitaría el acceso público hacia el objeto, pero aún así, creo que es una información general que te muestra el contenido de lo que tiene. Entonces eso está bien, supongo. Entonces aquí tienes la información diciendo que hay índice para archivar. Te dije que hay otra manera, ¿verdad? Así que ve aquí al objeto raíz y edita este objeto raíz y di que objeto raíz debería apuntar al punto índice HGMO Entonces esta es también otra forma en la que puedes desactivar esto. Pero supongo que desplegará estos cambios ahora mismo. Entonces esperemos a que se desplieguen los cambios. Puede tardar un par de minutos. O para que se desplieguen. Ahora creo que el despliegue está terminado, supongo, dice despliegue. Pero si solo escribes el sitio web, puedes ver que no tienes el acceso que tenías antes y estás obteniendo directamente el índice, que es el archivo frontal. Entonces aquí, de esta manera podemos evitar que esa información se imprima en la página principal de su sitio web de CloudFront Entonces ahora puedes ver cuántas veces lo refresco. Me sale esta página sin siquiera teclearla. Entonces si estás escribiendo HTTP también, no hay problema, se redirige a HTPS y obtienes el índice a GM de contenido Esto se debe a que acabo de habilitar Index H GML como el objeto raíz predeterminado En este caso, cada vez que acceda a este sitio web o a este nombre domin en particular, obtendré el contenido de Index H GMO Así es como puedes alojarlo en CloudFront. Gracias de nuevo por ver este video. Fue útil para ti. Déjame seguir adelante y eliminar este frente de Cloud en particular porque no queremos que esto se esté ejecutando porque va a estar tomando gran parte de, ya sabes, cargos de AWS, así que sigamos adelante y tengamos este no implementado deshabilitado Y luego una vez que esté deshabilitado, tendrás la acción para eliminar esta instancia en particular, ya sabes. Entonces creo que sigue operativo, supongo. Sí. Entonces sí, solo dale algo de tiempo y habrá opción para que elimines esto. Gracias de nuevo. Es sume el siguiente video. 57. Laboratorio que describe cuándo usar varias regiones: Hola chicos, bienvenidos de nuevo al siguiente video. En este video, vamos a hablar sobre cuándo usar múltiples regiones de AWS. Ahora bien, esta es una de las preguntas importantes aquí sobre de aquí sobre que te pregunta cuándo usar varias regiones de AWS. Entonces aquí vamos a cubrir la recuperación ante desastres, la continuidad del negocio, la baja latencia para el usuario final y la soberanía de los datos. Entonces estos son algunos de los elementos que vamos a ver como parte de este video en particular. Ahora sí recuerda que para la baja latencia, he creado un video al final de la sesión. Bueno, completo el siguiente ítem de acción. Al final de la sesión, he creado un video práctico en el que puedes probar las manos de latencia para entender un poco más sobre la latencia. Eso es lo único que realmente puedo mostrarles en términos de todos estos elementos de acción porque más o menos la recuperación ante desastres, continuidad del negocio y la soberanía de los datos se basan en la teoría y no hay una manera real de implementarla. Pero la baja latencia es algo que puedo mostrarte como un práctico. Pero para no perturbar esta visión general del curso, pongo ese video al final de esta sección en particular. Sigamos adelante en este video y vamos a entender. En primer lugar, comenzaremos con la recuperación ante desastres. Ahora, el uso de varias regiones de AWS puede proporcionar beneficios significativos. En el VDO anterior, hemos visto sobre trabajar con múltiples zonas de disponibilidad, ¿de acuerdo Las zonas de disponibilidad en realidad le brindan una resiliencia hacia su aplicación y le brindan alta disponibilidad para su aplicación. Pero, ¿y si necesitas más que eso? Por ejemplo, si ves el modelo, de la infraestructura global. Entonces ahora mismo estamos por aquí. Hemos desplegado nuestra aplicación por aquí en términos de la Virginia del Norte, lo siento, Virginia del Norte es donde hemos desplegado nuestra aplicación. Tan perfecto. Por lo que ahora, mis clientes se encuentran actualmente en las Américas, como en la parte norte de las Américas principalmente en esta ubicación. Pero de repente estoy recibiendo solicitud de varias personas de la ubicación de la India. Ahora, en esta situación, ahora necesito poner un servidor en esta ubicación porque cada vez que, ya sabes, la gente accede a él, tiene que pasar por aquí y luego acceder a ella a esa región. Entonces eso se convierte, ya sabes, mucha latencia por aquí viniendo de la India a las Américas, ¿verdad? Entonces lo que hago es, como, quiero implementarlo en base a región de mi uh, ya sabes, aplicación que estoy alojando por aquí. Entonces, lo que hago es planificar un servicio, un equilibrador de carga que en realidad puede, ya sabes, equilibrar la carga del servicio entre la región americana y la región india y alojar mi servicio en la región de Mumbai Y la primera pregunta es, como, ¿podemos hacer esto? Sí, podemos. Ahora, ahí es donde estamos entrando en este tema de multi región para AWS. Aquí, el uso de varias regiones de AWS puede proporcionar beneficios significativos en términos de disponibilidad, rendimiento y cumplimiento. Ahora, estos son algunos de los escenarios que puedes trabajar con múltiples regiones. Ahora, la recuperación ante desastres es una de las cosas importantes donde el propósito es garantizar que la infraestructura y la aplicación puedan recuperarse de manera rápida y confiable de fallas como fallas en una sola región. trata de un fracaso basado en la región donde podría tratarse de un ciberataque, lo que ha ocurrido en la región de los árabes Entonces eso podría impactar en varias regiones, lo siento, múltiples zonas de disponibilidad en una región. Entonces esta es una estrategia replicando infraestructura en múltiples regiones, que puede cambiar a una región secundaria en caso de falla regional o cualquier tipo de ataque a una región específica Ahora bien, si quiero hacer lo mismo, también puedo si tengo clientes solo en EU, puedo tener mi aplicación alojada en el Norte de Virginia, UTILIZA una y también puedo alojarla en Ohio Espo solo para tener una redundancia por aquí y solo puedo apagar las instancias hasta que si hay algún desastre pasando por aquí, entonces puedo cambiar a las Ahora, recuerda que puedes configurar para algunos de los servicios, hay una opción uh de hacerlo también. Ahora en términos de continuidad del negocio, el propósito es mantener una operación comercial ininterrumpida durante interrupciones o desastres y garantizar que el servicio permanezca accesible Ahora, la estrategia es utilizar la región para replicar infraestructura crítica y los datos manera que si una región cae, operación pueda continuar sin problemas desde otra región Ahora lo siguiente importante sobre la baja latencia para endcer Esto es lo que te estaba diciendo al inicio del video sobre baja latencia. Ahora aquí, el propósito es asegurar que la latencia entre el usuario final y su aplicación mediante la implementación recursos más cerca de su ubicación geográfica. Distribuyendo aplicaciones en varias regiones, cada una cierra dos bases de usuarios clave para garantizar que se recomienda un tiempo de respuesta más rápido y una experiencia de usuario mejorada. El siguiente es sobre la soberanía y el cumplimiento de los datos. Ahora aquí, los datos son tan importantes y para cumplir con las leyes y regulaciones de datos locales que requieren que los datos confidenciales se almacenen en límites geográficos específicos. Por ejemplo, um, un dato, que trata sobre la información del usuario de una región específica, por su nombre y etnia y, ya sabes, su número de seguro social o cualquier tipo de información que tenga hacia esos datos, necesita ser, sabes, cumplir con los requisitos regulatorios en esa región específica porque cada región tendrá requisitos específicos como GDPR. Entonces de igual manera, uh, ya sabes, necesitas cumplir con esa información. Eso también es algo que se puede hacer sobre una base regional. Entonces, si estás trabajando con EAU, por ejemplo, entonces puedes tener tu propio centro de datos UA en esa región, y esa región solo contendrá toda la información relacionada con UA en esa región. Entonces esto es sólo un ejemplo. Entonces esto es más o menos, um, las razones por las cuales o beneficios o cuándo usar multi región en términos de trabajar con AWS. Gracias de nuevo por ver este video. Te veré en la siguiente. 58. Introducción a la ubicación de los bordes del laboratorio: Hola chicos, bienvenidos de nuevo al siguiente video. Hablemos de la ubicación del borde. Como puedes ver en la vista de lista, ves que hay estas ubicaciones de borde en todo el mundo. Qué son las ubicaciones de borde y por qué estas muchas ubicaciones de borde están ahí. Entonces, para entender sobre las ubicaciones de borde, para que pueda ver que en cada una de esta región, como en Norteamérica, tiene estas muchas ubicaciones de borde. En Europa, tienes estas muchas ubicaciones de borde, y en términos de América del Sur, tienes estas muchas ubicaciones de borde. Y en Asia Pacífico, tienes tantas ubicaciones H. Ahora, sabemos que tenemos dos, ya sabes, tenemos tres zona de disponibilidad en India, puedes ver Hydrobad tienes tres, tienes Mumbai, tienes tres Por lo que total seis zonas ty disponibles en la India. Y eso se puede ver, en Brasil, ¿no? Entonces tienes uno disponible lo siento, tienes tres zona de disponibilidad en Brasil en Sudamérica. Y respectivamente, también tiene otras ubicaciones de borde. Ahora, a pesar de que tiene tres zonas disponibles, pero todavía tiene estas muchas ubicaciones de borde. Ahora, ¿qué es la ubicación de borde y por qué hay tantas ubicaciones de borde disponibles? Ahora, las ubicaciones de borde son centros de datos de AWS que sirven contenido al usuario final con baja latencia. Ahora, forman parte de la red de entrega de contenido de AWS, se llama CDN Y lo que entregan es que almacenan en caché. Ellos guardan todas las cosas que ustedes hacen. Y luego, cuando refrescas la página, no viene del servidor, sino que viene de la caché porque la caché se mantiene en la red de entrega de contenido, que son estas ubicaciones de borde. Así que ahora como puedes ver que cuando estás alojando cualquier tipo de contenido en Brasil y ubicación de tu cliente es en Brasil. Entonces, naturalmente, elegirás tu región como Basilea y luego estarás alojando, ya sabes, tu aplicación en Brasil. Bien. Entonces cuando haces eso, cuando alojas tu aplicación en Brasil y tendrás tu instancia EC dos y todo creado en Brasil porque estás atendiendo al cliente que se encuentra en esta ubicación. Cuando estás atendiendo al cliente que se encuentra en esta ubicación, que es Brasil, ahora, todo tu contenido vendría de este centro de datos en particular, ¿correcto? Pero hay esto, ya sabes, en el Sur, tienes Bogotá. Entonces es otro lugar en Sudamérica, um, y, um, creo que es parte de, como pueden ver, esto es parte de Colombia. Y hay otros lugares, cuando se habla de Brasil, gente, no sólo en Brasil, sino luego gente de Bolivia, Perú, Colombia, Venezuela. Por lo que en realidad estarán tratando de acceder a su sitio web, que está disponible o su aplicación, que está disponible en Brizo Ahora, cuando haces eso, necesitas una ubicación de caché, ya sabes, alrededor de esto. Oh, bien, entonces, bien, así que este es el nombre del país real. Bien, no me di cuenta. Entonces esto es Buenos Aires, Argentina. Tienes algún otro lugar de Brasil Las Bo y luego Perú por aquí, y luego Chile. De igual manera, como te dije, derecho, gente estaría navegando por aplicaciones desde diferentes ubicaciones como Argentina, Bolivia, Perú. Acabo de mostrarte que esto es Columbia. Lo que han hecho es que contratarán un pequeño lugar donde tengas este par de servicios, que es de AWS llamado Content Delivery Network o AWS CDN, así como Amazon CloudFront Usarán Amazon CloudFront y pondrán estos dos servicios en diferente ubicación por aquí Entonces, cuando la gente navega por tu aplicación desde esta ubicación, entonces la caché sucedería en esta ubicación misma. Y no tiene que viajar, ya sabes, tu solicitud de webset no tiene que viajar hasta aquí También puedes controlar el nivel de caché, ya que en like puedes controlarlo cada 24 horas donde puedes borrar la caché. Entonces la primera, ya sabes, después de 24 horas, la caché se borra automáticamente, y la primera solicitud irá a buscarla del servidor real que está alojado en Brasil Y luego una vez que baja el contenido, bien, se carga en la CDN Y CDN entonces comenzará a dar el contenido de su fuente local, que es su red de entrega de contenido por aquí Ahora, en este método, tu contenido será mucho más rápido, recibirá mucho más rápido. Y sí, es información en caché, pero aún así será mucho más rápida Pero recuerda que la caché se puede activar o desactivar en función del sitio web con el que estés tratando. Entonces por ejemplo, si quieres revisar tu solicitud bancaria para verificar la cantidad de dinero en tu cuenta. Ahora bien, el contenido de caché es inútil porque no puede mostrarte, ya sabes, la información repetida durante 24 horas. Por lo que necesita ir a buscar la información más reciente de tu banco Entonces lo que significa que en esa situación, no hay caché, y no hay uso de tu red de entrega de contenido. Pero si se trata de un sitio web de comercio electrónico donde durante las próximas 24 horas, las ventas no van a ser cambiadas. Por lo que va a ser fácil si sostienes las imágenes de ese producto en particular en la red de entrega de contenido y luego obtienes esa imagen del producto descargada. Porque si tomas toda la página directamente en un sitio web, los artículos que está tardando más tiempo en cargarse son tus imágenes, ¿correcto? Entonces, si tus imágenes pueden cargarse más rápido, los datos se pueden actualizar desde la base de datos. Entonces es por eso que normalmente mantienen una URL separada para las imágenes y una URL separada para tu contenido. Para que cuando guardes en caché, el caché contendrá las imágenes y todos esos videos grandes y cosas así, por lo que será mucho más rápido para ti descargar el video en reproducción. Debido a que alguien de tu zona ya habría descargado ese video, ese video ya estará disponible en la caché. Entonces, en lugar de descargarlo desde una ubicación lejana, lo descargará de la ubicación más cercana porque ya está en caché Esta es la razón de una ubicación de borde. Este es el ejemplo que quiero darte y en el siguiente video, veremos la relación entre todos estos tres para que puedas entender la relación entre porque esta pregunta habla de la relación también. Por lo que concluiremos eso con el siguiente video donde hablamos de la relación entre región disponibleBt zonas y ubicación Gracias de nuevo. Te veré en el siguiente video. 59. Configuración de la conexión de peering de laboratorios: Oigan, chicos. Bienvenidos de nuevo al siguiente video. En este video, te voy a contar cómo hago ping al servidor en otra región. Este es un video extra, si quieres ver hasta ahora cómo configurar comunicación entre pares para hacer ping de una máquina virtual a otra máquina virtual, que está en una región diferente. Así que abre dos consolas ECT solo estoy haciendo clic en el medio consola ECT dos veces, y luego nosotros PC dos veces también. Sólo estoy dividiendo la consola EC dos al lado derecho. Tengo EC dos consola, BPC, VPC y E o si no lo puedes hacer fácil dos y VPC otra A está en la misma región en este momento como puedes ver aquí en lo más destacado de aquí, todo está en la USC Voy a abrir esta instancia 21 EC dos y VPC para North Virginia Y luego voy a cambiar esto a la región de Mumbai. Por lo que no tiene que ser región de Mumbai. Podría ser cualquier otra región para esa materia. Así que ahora las sesiones que vas a hacer aquí continuarán realmente para UMBirgion por aquí, y esta VPC también reflejará Entonces necesitas hacer dos conjuntos de configuración. En primer lugar, es necesario tener instancia ejecutándose y necesita tener una dirección IP asignada a ella. Ahora, las series de direcciones IP básicamente se basan en la subred de la VPC a la que estás asignando Cuando estés creando cualquier tipo de servidor, realidad estarás creando un servidor en una uh, VPN específica, ya sabes, lo siento, VPC, y ese BPC se especificará al momento de crear o lanzar la instancia Ahora tienes la VPC predeterminada por aquí, que actualmente se está ejecutando Esta es la VPC predeterminada. Estas son las subredes predeterminadas. Se crearían automáticamente varias subredes para cada región y estas son el número de zonas disponibles. Basado en el número de zonas disponibles, tendrá el número de usted puede ver esa zona de disponibilidad por aquí, y tendrá el número básico de subredes aquí Esa es la configuración por defecto. El predeterminado, no habrá conexión PR, por lo que no debe encontrar esto también. Acabo de editar el que utilicé para la creación. Entonces habrá puerta de enlace de Internet, habrá tabla de ruteo. La tabla de enrutamiento es cómo puedes acceder a Internet porque estás usando la puerta de enlace de Internet por aquí. Bien, la puerta de enlace de Internet es para asegurarse de que la VPC esté conectada a su red local así como a su Internet también Entonces esta es la serie IPTRSS. Si ves la subred tendrás la información de sidra por Entonces como tienes seis de ellos, así estás dando únicos, pero si ves esto dos primeros no cambia 17231, y luego para diferente, zona de disponibilidad, estás dando ocho, empieza desde cero y luego 16 32 y luego 48 y después 64 y 80. Esto le da bastante el número de direcciones IP disponibles para que las asigne. Recuerda que esta VPC y esta dirección IP es para tu red local, lo que significa tu sistema, lo que significa usar esta, puedes asignar 491 sistemas con una dirección IP cada uno Eso es lo que esto significa. Esta es la cantidad de instancias que puede crear dirección IP disponible que le indica cuál es el número de iPaddre disponibles para cada Entonces este es más o menos el predeterminado. No hemos hecho ningún cambio al predeterminado. Aunque tenemos el predeterminado, en realidad usaremos uno personalizado. Hablaremos de eso. Como nos estamos comunicando desde su región de Virginia del Norte a Mumbai. En primer lugar, es necesario crear una instancia EC two. Pero el problema si crea una instancia de EC two en este momento, obtendrá una excepción más tarde en el momento porque cuando esté haciendo una conexión de pares, no funcionará. Si ves que creas una conexión entre pares aquí, crea una conexión de pares, y aquí, solo da un nombre aleatorio. Entonces Estados Unidos dos I&D Entonces esto es básicamente Estados Unidos a India. Entonces esto es básicamente Estados Unidos a India Y aquí, el VPC es el D cuatro VPC, lo estoy recogiendo, que tiene la información de sidra de 17231 Recuerde que la VPC que se crea por defecto en todas las regiones utilizará la misma información de sidra Entonces, si haces clic en la información de sidra de aquí, verás que esto se agrega manualmente Voy a quitar lo que agregué manualmente. Así que solo quita esto. Entonces tendrás esta única sidra. Entonces, si ves la sidra, 17231 está emparejando la sidra de aquí Entonces, si trato de crearlo con la misma información de sidra, así que solo tengo que copiar este ID de VPC por aquí y seleccionarlo, no debería ser Entonces aquí seleccionas, aquí seleccionas dos. Por lo tanto, seleccione otra VPC a la anchura del par. Entonces aquí, selecciona otra región y dale Mumbai y dale el ID de VPC Ahora bien, esta ID de VPC no funcionará. Te lo diré, te voy a mostrar. Simplemente haga clic en Crear conexión PR. Una vez que hagas clic en eso, vuelve a por conexión nuevamente, y verás que ha fallado. Al hacer clic en esto para entender la razón por la que falló, falló debido a que el ID de VPC es incorrecto o el ID de conteo es incorrecto o la sidra superpuesta En nuestro caso, es sidra superpuesta porque la que estamos tratando de conectarnos y a la que estamos tratando de conectarnos está en la misma red Para que puedas ver el 17231. Y aquí también en la VPC, es 17231. En un lado, debería ser diferente. Bien. Entonces voy a usar el predeterminado en esta um en particular, región del norte de Virginia. Y aquí voy a crear una nueva VPC, simplemente haga clic en Crear VPC luego VPC y luego el nombre de la misma va a ser um, prueba de latencia VPC, versión IP para entrada manual, y he dado 17232 punto cero punto cero Ahora bien, si ve el comparar esto, este es el 31. Estoy dando 32 por aquí. Entonces esta va a ser una dirección IP única y el arrendamiento es predeterminado No seleccionar dedicado. Te va a estar cobrando más. Y recuerda esto antes crear VPC, las VPC se cargan Entonces, si vas a crear más de una VPC, se te va a cobrar, pero no tanto si ves la VPC por aquí y la VPC por aquí, falta algo Esa es tu subred. Si ve eso, hay subredes por aquí adjuntas a la tabla de enrutamiento y luego a su puerta de enlace de Internet este momento, no hay aquí hay una tabla de ruteo que es creada por Defa pero no hay una subred por No hay conexión a Internet también aquí. Entonces necesitamos hacer algo de actividad aquí, primer lugar, para crear subred. Así que ve a la subred Ahora, ya tienes tres subredes las cuales ya están asignadas a VPC aquí, así que no puedes hacer nada Entonces se puede asignar un subnt a una VPC. Se puede ver que se le asigna a 31 series IPR. Entonces estamos usando una nueva VPC en sí misma. Entonces vamos a estar cambiando este nombre de VPC. Bien, entonces crea una subred, selecciona la VPC. Entonces ves la prueba de latencia VPC. Este es el nombre que hemos dado, ¿verdad? Y también muestra 17232 por aquí. Entonces esto es lo que necesitamos. Aquí, da un nombre sub neto. Ahora primero intenta entender cómo se configuran los nombres de subred. Medio haciendo clic en la subred por aquí, y luego estoy seleccionando esto mirando el nombre de la zona de disponibilidad de subred Entonces tengo esta B, una C, una A. Puedo entender que hay tres, entonces debería ser una B, una A. Entonces primero configuraré una subred aquí y luego seleccionaré una A por aquí Y entonces se puede ver que el bloque de sidra de aquí, por lo que debería ser el mismo IPdreso Punto cero punto cero slash 16. Debería ser lo mismo para la primera, pero puedes agregar otra subred aquí misma No es necesario que agregue los tres elementos. No tengo que añadir tres. Puedes agregar solo dos también eso está completamente bien. Pero al menos dos deberían estar ahí como parte de una VPC. Entonces para eso a bajo balance y, ya sabes, fallar tolerante a caídas En realidad no se puede volver a dar esta dirección IP. Si vas a dar la misma dirección IP aquí y aquí, lo que está pasando es que el bloque de sidra el Estin que estás creando para esta también para que seleccione esta zona de disponibilidad en particular utilizará la misma serie de direcciones IP, que tiene unas 65 mil direcciones IP si eliges esta Pero el problema es así también usando la misma dirección IP. Entonces se convertirá en un problema. No lo aceptará. Si haces clic en el crear, dirá superposición de direcciones. Hay que cambiar esto. Puedes usar esta barra y puedes cambiarla a la siguiente disponible. Eso es raro. Normalmente cambia, así que puedo ir a 16 por aquí. No sé por qué no está funcionando por alguna razón. Pero puedes cambiarlo así. Si ves también el anterior , dirá lo mismo. Entonces 310, 311-63-1302. Para cada sidra, tienes que dar extensión de esta dirección IP para que tengas disponible la cantidad específica de IPDdress Entonces ahora solo estoy dando dos de esto y lo cambié a 16. Ahora Clic en crear subred debería funcionar realmente. Veamos cuál es el tema aquí. Creo que tengo que dar 22, supongo. Permítanme confirmarlo sólo un segundo. Sí, tengo que dar 20 por aquí, no 16. Lo siento. 20 por aquí, 20 por aquí como Bob. Por eso no estaba cambiando. Entonces, si va a default, creo que ahora va a cambiar. Puedo ver eso cambiando 0-16. Perdón por ese error. Ahora ves que 4,096 IP Rs disponibles porque he dado 16 no funcionó El rango es tan grande, viste que venía a 65.000 iPs que podemos usar Por eso no me funcionaba. Ahora es fijo nutricons crear subred y tienes dos subredes creadas por aquí Entonces, en conjunto, tienes uh, tres subredes para tres zonas t disponibles en la región de Mumbai y dos de ellas. Ahora que hemos completado la creación de la subred y la hemos asignado a VPC Ahora si vamos a VPC, seleccionamos la VPC, verás mapa de recursos Tienes la subred configurada a una tabla de rutas, pero no hemos configurado la tabla de rutas correctamente Pero antes de ir a la tabla de rutas, configure la puerta de enlace de Internet o de lo contrario su servicio, que está alojado bajo esta VPC no llegará a Internet Para que puedas ir a Internet Gateway, crear una nueva puerta de enlace de Internet. Y luego prueba de latencia IGW lo estoy dando como nombre de puerta de enlace de Internet Ahora en esta puerta de enlace de Internet, necesitas hacer una configuración. Hay que conectar VPC para puerta de enlace de Internet. Seleccione la VPC, la VPC de prueba de latencia y haga clic en adjuntar. Ahora, si vas a VPC y revisas la asignación de recursos, verás esta configuración de red Pero lo que no verás es el adjunto de esta tabla de rutas y la puerta de enlace de Internet. Si ves este de aquí, ves que está adjuntando por aquí. Entonces hay una comunicación. Entonces, para apegarlo, ve a Tabla de Rutas. Ya tengo una tabla de rutas, así que en realidad se puede ver desde aquí. Dice tabla de rutas. Simplemente puede hacer clic en esto abrir la tabla de rutas, luego su pestaña. Ahora puede ver que esta es una tabla de ruta predeterminada la cual se asigna a esta latencia particular Test VPC Ahora, esta es la configuración predeterminada que viene con cada tabla de rutas. Esto te habla de la serie 17232. Ahora, haga clic en Editar tabla de rutas. En esta tabla de rutas, es necesario especificar lo que la está enrutando. En primer lugar, haga clic en. No modifiques el local , que sea así. Hagamos clic en Agregar ruta por aquí y busquemos el Internet frente a uno. ¿Qué quieres adjuntarlo con Internet? Todo toda la dirección IP, que está en esta VPC en particular, debe tener acceso a la puerta de enlace a Internet Seleccione la puerta de enlace de Internet por aquí y dé la puerta de enlace de Internet que acabamos de crear. Ahora lo que pasa es que esto va a ser etiquetado. Entonces esta tabla de rutas sabrá sobre esta puerta de enlace de Internet que hemos creado. Ahora cuando vaya a VPC, seleccione la VPC. Si vas a mapas de recursos, verás que hay una conexión por aquí ahora mismo. Así que cualquier cosa cualquier tipo de servicio EC dos instancia que vas a crear ahora se conectará a esta puerta de enlace de Internet. Si ha seleccionado esta VPC como parte de la instancia EC two Ahora tendrás dos opciones en selección hacia VPC. Necesito seleccionar esta VPC si quiero usar esta, um, ya sabes, conexión de emparejamiento porque usará esta serie de direcciones IP Entonces, si creas, te voy a mostrar eso, solo te mostraré rápidamente, um, así que ahora mismo, estoy en la VPC aquí Estoy en la EC de dos instancias aquí. No hay ninguna instancia ejecutándose como una que se termina. Haga clic en Launch Instancia y luego haga una prueba de una instancia. Una instancia de prueba utilizará la VPC predeterminada. VPC predeterminada no es la que configuramos, así que puedes ver la VPC predeterminada Ahora, cuando solo selecciono este predeterminado por aquí, nuevamente, necesitará crear un nuevo par de claves aquí para esta región en particular. Keypair es completamente diferente. Necesitas crear otro par de claves por aquí y necesitas descargarlo. Recuerda elegir PPK si estás planeando acceder al servidor, pero yo no voy a acceder al servidor, así que solo lo voy a hacer como demo Ahora cuando creo este servidor, su servidor está funcionando en estado, pero ves la dirección IP, es 17231 No puedo hacer el emparejamiento cuando tiene el mismo rango de direcciones IP. Necesita tener un rango de direcciones IP diferente. Para ello, sólo tengo que terminar de nuevo esta instancia. Esta vez, necesito lanzar instancia. Lo mismo, prueba de latencia. Entonces esta vez voy a dar click en. He seleccionado la lógica web como un seudónimo clave. Voy a editar esta configuración de red y cambiarla a la VPC de prueba de latencia Ahora en esta ocasión, puedes ver que está seleccionando ya sea APA o B, puedes seleccionar la zona disponible que quieras Y luego aquí en para asignar dirección IP, habilitarlo. Esto básicamente significa que te dará un PublicipAddress Haga clic en Launch Instance, va a crear una instancia por aquí. Ahora bien, esta instancia va a estar funcionando muy pronto. Así que solo haz clic onda fresca. Ahora se puede ver que está funcionando. Ahora bien, esta instancia se está ejecutando en 17232, uno. Esto es lo que queríamos tener eso. Ahora que te estás ejecutando en esta dirección IP para que puedas copiar esta dirección IP Intenta hacer ping desde el servidor de North Virginia, pero no haría ping porque no hemos hecho una configuración. Esa es una configuración de peering. No hemos terminado de pelar. Entonces ahora sigamos adelante y hagamos la configuración de emparejamiento. Ahora para hacer la configuración de emparejamiento, solo tienes que ir a cualquiera de los servicios, ambos están bien. Entonces recomendaría ir a North Virginia VPC una vez que estés en la VPC de North Virginia, hay una conexión de emparejamiento por Simplemente haga clic en Conexión de peering y luego cree una nueva conexión de peering. Seleccione el nombre de la conexión de emparejamiento, lo que elija, y luego seleccione esta VPC en particular, seleccione otra región como destino, seleccione la región de Mumbai o la región que haya configurado Nueva VPC, copia el nuevo ID de VPC, que está alojado en Porque esto está usando una serie de direcciones IP diferentes. Ahora, haz clic en Crear emparejamiento. Ahora vuelve a la conexión de peering. Ahora puedes ver esa solicitud inicializada así que esta salida es diferente Ahora ha cambiado a aceptación pendiente. Ahora si acabas de regresar a tu VPC de Mumbai, si vas a conexiones de peering Si acabas de actualizar esto, puedes ver esa conexión pendiente y aquí hay información. Puede aceptar o rechazar la solicitud de conexión pendiente otro menú de acción. O el tiempo de hoy para hacerlo. Así que ve aquí, acción, acepta solicitud. Ahora esto va a aceptar esta solicitud y va a crear comunicación sidra de la 17231 a la serie 17232 Acepte la solicitud. Ahora, veamos si se trata de provisiones. Y se puede ver que está activo en estos momentos. Entonces tienes la fuente, solicita una sidra, aceptas el CIDR por aquí, Ahora, una cosa más que debes hacer antes de acceder a ella. No creo que vaya a funcionar ahora también. Lo único que necesitas hacer es establecer en el nivel EC dos de tu um, grupo de seguridad. Entonces grupo de seguridad necesita ser actualizado porque actualmente solo acepta 22 número de puerto hacia todas las fuentes, ¿verdad? Entonces hay que indicarle que acepte el ping ICMP también porque sin el ping ICMP, no puede hacer ping a sí mismo también porque no permite el ingreso de ICMP en ninguna parte ICMP es su solicitud de ping. Ahora haga clic en Editar reglas de entrada y luego seleccione ICMP desde aquí, IP versión cuatro, y luego simplemente le da todo Luego haga clic en guardar regla y luego esto debería permitir reglas ICMP como conexión entrante Creo que he reemplazado como tal. No hagas eso. Tienes que agregar una nueva regla haciendo clic o agregando una nueva regla. Perdón por eso. Creo que he reemplazado. Pero no importa para nuestro entrenamiento, uh, está completamente bien. Aún no tienes acceso a él. Déjame confirmar si esta es la dirección IP, que estoy ejecutando es correcta o no porque la dirección IP habría cambiado si crearas otra. Parece que es el mismo , dame un segundo. Bien. Una cosa más que tenemos que hacer es eso. Entonces ahora que has activado tu conexión de emparejamiento, bien, tu tabla de rutas en la conexión de emparejamiento está vacía. ¿Ves eso? Entonces no hay manera de que el enrutamiento ocurra a través de VPC. Entonces necesitas crear una tabla de rutas, y cuando miras esta tabla de rutas, deberías ser parte de la tabla de rutas existente, que forma parte de tu VPC Entonces si vas a tu VPC, ve a Mapeo de recursos, tienes la tabla de rutas aquí, haz clic en esta, abre otra ventana En esta ventana, al igual que configuras la puerta de enlace de Internet, necesitas editar la ruta y agregar una regla. En esta regla, en realidad no se puede repetir la misma instancia por aquí. No te permitirá repetir la misma instancia. Yo solo intento eso luego dar conexión de emparejamiento por aquí. Esta es la conexión de emparejamiento. Entonces te está diciendo qué conexiones prear y realmente obtienes la sugerencia por aquí Este es el que actualmente está siendo um, ya sabes, usado. Así que selecciona esa conexión de emparejamiento y guarda los cambios. Ahora, estaba diciendo que ya existe. Entonces eso es lo que dije que en realidad no se puede usar la misma serie de direcciones IP. Por lo que también puedes dar 0.0.0.16. Así que simplemente haz clic en Guardar y en realidad podrás ver eso. Entonces puedes dar alternativamente uh, este en lugar de esto, también puedes dar la dirección remota también. Entonces puedes dar 17231 punto cero punto cero slash 16 pero si das 0.0.0.16 Significa todo en esa serie en ese lado en particular. Esto también se puede dar y hacer clic en O Guardar. Ahora, si vuelves a la conexión de peering y seleccionas esta conexión de emparejamiento, ve a Tabla de rutas, verás la información de ruta por aquí Esto más o menos te dice que se crea la tabla de rutas. Ahora sigamos adelante y veamos si prende. Bien, sólo dame un segundo. Entonces, lo último que se supone que debemos hacer para que eso funcione es ya que hemos completado la adición de tabla de rutas en el servidor de destino, que es Mumbai, ahora necesitas hacer la misma adición de tabla de rutas para, ya sabes, la adición de PCX como en, como, por adición de conexión en tu servidor fuente también Entonces aquí le hemos dado la información del servidor fuente, que es su información de sidra de origen y el PCX en el servidor fuente Ahora hay que dar lo mismo por aquí en esta tabla de ruteo. Ahora ve a VPC, estamos usando la VPC predeterminada, ve a Mapa de recursos, y obtendrás el atajo aquí para tu tabla de rutas Si vas en este método, no te equivocarás porque a veces habrá enormes tablas de ruteo, no sabes cuál es. Si descubres la VPC y ves el mapa y realmente llegarás a la tabla de ruteo real, la correcta Entonces dentro de la tabla de ruteo, estás teniendo estas rutas por aquí, edita esta ruta. Y luego agregar una regla y luego dar la dirección IP del otro extremo. Es 32320 punto cero punto slash 16. Si miras esto, toma un ejemplo por aquí. Aquí has insertado la conexión entre pares con 31, que es tu servidor fuente. Ahora aquí, tienes que dar el servidor de destino por aquí y volver a dar la conexión entre pares y usar el ID de conexión del mismo nivel. Por lo que también se puede ver que está diciendo US IND. Este es el ID de conexión de pares en el extremo remoto. Entonces eso es algo que estás recogiendo y luego guardando los cambios. Ahora después de guardar los cambios, puedes simplemente seguir adelante e intentar anclar la dirección IP y verás una respuesta del servidor. Entonces, lo que significa que está obteniendo una respuesta de esta instancia de servidor en particular. Entonces así es como tienes que usar la conexión de emparejamiento entre regiones para que puedas llegar a un servidor en un host remoto. Ahora puedes hacer SSSarh también al host remoto. Solo hay que habilitarlo en el grupo de seguridad de servicio, lo siento. Entonces una vez que estás en el grupo de seguridad, agregado grupo de seguridad, agrega regla S tal, y luego puedes mencionar que 172 u un conjunto 231 punto cero punto cero slash 16 31 series, cualquiera puede hacer SS tal. Ahora, si solo se guarda la regla por aquí, ahora, SSsuch está permitido a partir del 31 Voy a hacer SSsuch no tengo la clave, así que no voy a poder iniciar sesión, pero se puede ver que esta aceptando la conexión por mí No tengo la llave, así que no voy a poder iniciar sesión. Pero si tengo la clave, puedo poner la clave por aquí y puedo iniciar sesión fácilmente porque he abierto esta conexión por aquí a esta serie iPre porque la estoy navegando desde la región de Virginia del Norte hasta el servidor que está alojado en la región de Mumbai Una vez que el par esté conectado y cuando haya agregado la ruta al par, um, en realidad, cuando haya agregado el par a la ruta, va a ser muy fácil para usted configurar un grupo de seguridad. Ahora también puedes crear un grupo de seguridad para este propósito. Y luego cada vez que creas una misión EC two, usas ese grupo de seguridad en lugar del predeterminado que se crea cada vez que creas un EC two porque cada vez que lanzas una instancia de EC two, vas a obtener un nuevo grupo de seguridad, tienes tantos grupos de seguridad porque cada vez que lanzas una instancia de EC two, básicamente crea una nueva. Entonces para evitar eso, puedes crear uno por defecto, y puedes llamarlo como predeterminado. Y cada vez que creas una instancia EC two, puedes seleccionar ese grupo de seguridad en particular. Bien. Entonces este es solo un video para mostrar cómo es capaz de comunicarse a través de otra VPC Ahora, recuerde que las VPC se cobran en función del número de VPC Una VPC va a ser gratuita. Entonces, si vas a tener múltiples VPC, va a ser un problema Entonces, en primer lugar, eliminar la conexión de emparejamiento por acción. Conexión de emparejamiento Delet. Tabla de ruta directa también, seleccione esa opción. Entonces esto dirote mesa en ambos extremos, y luego podrás ver que está Una vez que hayas hecho eso, sigue adelante y elimina la VPC, mira si te permite No. Todavía necesita el um, creo que el recurso necesita ser terminado. Entonces esa es nuestra uh EC dos instancia. Así que sólo vamos a cerrar nuestra instancia de EC dos por aquí. Entonces esto nos va a ahorrar algo de dinero. Así que cuanto antes lo hagas, antes te lo quitas, ¿verdad? No se va a cobrar porque podría ser de 1 hora en cualquier momento, así que es mejor quitársela. Así que solo quita las subredes. Estas son las subredes extra que he creado con el nombre D. Así que se borra subnas Creo que ya puedo intentar borrar con PC. Puede tomar un poco de tiempo. Entonces eliminemos también la tabla de rutas. La mesa de sequía, pero no va, entonces es la tabla principal de rutas. Puede tomar un poco de tiempo para estos soles de clase de arranque se eliminen Dretke, vamos a tratar de derribarlo. Bien. Ahora va a bajar una vez que borras la subred VPC se elimina ahora, y deberías ser bueno con las tablas de ruta también Por lo que esto también se eliminará y su conexión de emparejamiento también se eliminará. Esto te cobrará por que te cobren o recibas un poco de pago extra. Entonces aquí, la conexión de emparejamiento, si borras en la región de Mumbai, dele aquí también Entonces no hay necesidad de que lo digas por separado. En cuanto a ruta, también eliminará la ruta. Entonces subred, no hemos creado ninguna VPC, no hemos creado Entonces eso debería deshacer todo el trabajo que hemos realizado hasta ahora y va a impedir que te cobren al día siguiente por la mañana. Gracias de nuevo por ver este video. Si tienes alguna duda, déjala en la sección de preguntas. Realmente agradezco tus comentarios porque por tus comentarios es como me voy a asegurar mejorar mi trabajo y mejorar mi formación en base a eso. Gracias de nuevo. Te veré en el 60. Introducción a las regiones de los laboratorios: Hola, chicos. Bienvenidos de nuevo al siguiente video. En este video, vamos a entender cuál es la relación entre regiones, zona T disponible y ubicación de borde. Este es el primer tema en los enunciados de tareas 3.2, por lo que podemos entender cada uno de estos componentes, y luego vamos a entender la relación entre ellos. Entonces, para continuar, te he dado el mapa del mundo por aquí. Digamos que también revisaremos el mapa mundial en términos de AWS en su propia página web. Pero tratemos de asumir que este es tu mapa del mundo. En este mapa del mundo, una de las regiones en tu mapa mundial es la IP de Estados Unidos y él es una. Este es el nombre de la región que es personalizado por, ya sabes, AWS para mantenerla como nombre de región. En primer lugar, entenderás la región en este video y luego iremos a las zonas de disponibilidad y luego a las ubicaciones de borde. Entonces, en primer lugar, comencemos con región. ¿Qué es la región? Región es básicamente en un término general, habla de una ubicación específica en tu mapa. Por ejemplo, América es una región, y entonces quiero decir, en América, usted tiene América del Sur, tiene América del Norte, que de nuevo es, clasificaciones de regiones por allá Entonces, cuando los árabes quisieron mencionar regiones, así que querían asegurarse que ahora las regiones estén separadas por nombres por aquí Ahora en este nombre por aquí, se puede ver US East one. Entonces, lo que esto significa es que tiene el alcance de ir al Este dos y al Este tres también para que en realidad puedan aumentar el número de regiones dentro de este Este de Estados Unidos. Ahora se puede ver a ese EU como es Estados Unidos y se puede ver al Este diciendo que está en el lado este. Entonces hacia el lado de Nueva York se llama básicamente el lado Este. El lado oeste es básicamente Los Ángeles y Las Vegas. Esos son considerados como el lado oeste o el extremo oeste de EU. Y entonces las regiones centrales son básicamente Texas o, ya sabes, que viene en la región central. Entonces, de igual manera, lo que han hecho es como en Oriente, lo han hecho uno, es la primera ubicación la que AWS ha comenzado con sus servicios. Entonces esto es básicamente una región. Llamado USC's one, que tiene múltiples centros de datos. Por lo que el número mínimo de centros de datos que debe tener una región es de dos. Este es el requisito mínimo para que AWS tenga tolerancia a fallas entre dos centros de datos. Esta es la razón por que cada vez que se acerca una nueva región, se asegurarán de que la región tenga al menos dos o dos mínimo dos se mantenga como los centros de datos como parte de la región. Los centros de datos se llaman como zona de disponibilidad de la cual hablaremos en el siguiente video. Ahora entremos en los futuros de facturas globales, vayamos a Google y escribamos infraestructura global. Siento lo de mi garganta. Entonces alguien va a AWS Global Infrastructure y en realidad van a ir a este sitio web, que es awstoramazon.com Y aquí verás infraestructura global. Entonces, una vez que estás en la infraestructura global aquí, puedes ver toda esta información como cuántas regiones hay, zonas de disponibilidad están ahí, pops CloudFrind están Ahora, hablaremos a detalle cada uno de estos, así que no te preocupes por ello. Pero recuerda eso um cuando estás hablando de um, regiones. Las preguntas no serían sobre cuántas regiones hay en AWS. Las preguntas no serían así porque las regiones siguen creciendo, así que no te estarán preguntando, cuántas regiones hay en AWS. Entonces ese tipo de, como, número de regiones, número de zonas disponibles no sería la cuestión. Pero te estarían preguntando, cuáles son las zonas de disponibilidad mínima serían parte de una región. Entonces este es un requisito obligatorio que, ya sabes, que AWS se arregle por sí mismo que debe tener un número mínimo de dos zonas de disponibilidad para que pueda hacer redundancias y tolerancia a fallas en términos de una falla de los centros de datos Ahora bien, si bajan, verán en realidad resaltado esto es Norteamérica. Se puede ver que esto es Sudamérica. Se puede ver esto es esto es de en el este de Asia, y luego tiene Asia Occidental por aquí. Entonces Asia se divide en dos ya que en, como, incluye Europa y así como, como, tu continente africano, así como tu Medio Oriente. Y luego en términos de, um, ya sabes, lo siento, esto es Asia Occidental y esto es Asia Oriental. Lo siento. Perdón por eso. Si sólo te he confundido. Entonces para que veas eso por aquí, tienes regiones por aquí, que está apareciendo en color azul, lo siento, color verde Y estas son básicamente regiones. Las regiones tendrían un cierto conjunto de zonas T disponibles como puedes ver aquí. Entonces mínimo que he visto son dos, pero no veo nada cuales dos disponibles Te Zone estos días. Sólo veo mayor de ellos son tres zona T disponibles. Esta región en particular se encuentra en Brasil y esta en Sudáfrica. Y estos dos están en Australia, como pueden ver, y este, están construyendo datos, quiero decir, una región que tiene al menos dos centros de datos, zonas de disponibilidad en Auckland. Tienes uno en Yakarta, Indonesia, tienes en Singapur, tienes en Malasia, luego viene uno en Tailandia, y tienes uno que viene en Taiwán. Taiwán es básicamente, uh, ya sabes, el Taipei, supongo, ese debería ser el lugar donde va a llegar. Y tienes uno en Hong Kong, y luego tienes tres en China, en realidad, dos en China, uno en Corea del Sur, Seúl, y tienes dos en Japón. Tienes dos en la India, también. Aquí no hay mucho en Rusia. Esta región es Rusia, Mongolia está, como, completamente vacía por aquí. Tampoco lo son estos países como Afganistán, Pakistán, y ahí no hay nada. Ten uno en Bahrein, tienes uno en Emiratos Árabes Unidos y tienes uno que viene en Arabia Saudita. Entonces cada región cuando resalté, se puede ver el número de zona de disponibilidad. También tienes uno en Tel AV , que es Israel, y tienes uno en Irlanda, uno en Reino Unido. Ahora se puede ver que Reino Unido también tiene tres zonas de disponibilidad. Entonces más o menos, todo mantiene tres zonas de disponibilidad como por defecto. Y también se puede ver algo interesante llamado fecha de lanzamiento. Entonces cuando esta zona de disponibilidad entró en existencia, así se puede ver Irlanda una es mucho antes que el propio Reino Unido, porque apuesto a que es por toda la, ya sabes, la adquisición de terrenos y la construcción del centro de datos solo una tarea un poco costosa en Estados Unidos. Entonces tal vez en Irlanda. Esa podría haber sido la razón por la que ha llegado tarde. Ahora bien, los únicos dos lugares donde tienes más zona disponible es básicamente tu zona de EE.UU. Este, que es tu Norte de Virginia, um, y esto tiene seis zonas de disponibilidad El otro es Oregon. Entonces esta tiene alrededor de cuatro zonas de disponibilidad. Aparte de esto, no he visto, cuál tiene más zona de disponibilidad, pero esto puede cambiar en el futuro Ahora, um, ¿es mejor tener más de tres zonas de disponibilidad? No, no lo es. Si tienes dos zonas de disponibilidad, eso sería suficiente. Tres es sólo para romper el equilibrio. Cuando tienes dos, si tienes tres, rompe el equilibrio. Entonces es por eso que tres es más o menos preferido en todas partes, y esa es la cantidad predeterminada. Pero dos en sí es suficiente porque tendrás el centro de datos primario y tendrás el de rotundancia de respaldo uno en caso el centro de datos primario vaya a tener algún problema Entonces estas son las regiones, y regiones tiene nombre. Entonces, cuando vaya a la consola de AWS, verá todas las regiones por aquí. Algunos son habilitados para ti, otros no lo son. Entonces si puedes ver que hay 13 regiones no está habilitado para mi cuenta, así que sólo puedo hacer clic medio sobre ella. Bien, entonces el clic central no funcionó, así que solo tienes que ir a la parte inferior de esta pantalla y luego haces clic en Regiones administradas. Bien, entonces ahora va a cargar esta pantalla y verás las regiones recién deshabilitadas. Ahora puedes habilitar esta región seleccionando estas regiones y haciendo clic en el botón Habilitar. Pero no estoy usando la región, así que estoy igual que estar deshabilitado. Y también aquellas regiones que no estés usando, también puedes, ya sabes, deshabilitarlas. Pero eso es algo que no se puede hacer con los predeterminados. Entonces, los predeterminados que tienes ahí afuera, requiere que tengas, ya sabes, eso necesita estar habilitado que está habilitado por defecto, lo que significa que en realidad no puedes deshabilitarlos, pero puedes habilitar y deshabilitar estos artículos adicionales si tu base de cliente por aquí. Entonces esa es la razón por la que no está habilitada por defecto, así que eso es algo que puedes habilitar más tarde en el momento. Pero estas son la región. Cada región tendrá un nombre. Entonces se puede ver que Este uno Este dos es entonces Westbound West dos está ahí Entonces tienes uno del Este, que es tu Virginia del Norte y luego Ohio. Entonces estos son dos lugares en tu lado este. Y luego en el lado oeste, tienes el California y Norte de California y así como Oregon. Entonces estas son dos localizaciones que tienes. Así que del mismo modo, tienes diferentes ubicaciones por aquí, como, uh Asia Pacífico, tienes Mumbai, que es AP Sur uno, y luego HydraBadrgion será Sur dos, supongo , Entonces sí, AP Sur a la región de Hyderabad. Entonces esto es en la India. Entonces de igual manera, tratan de usar el número para seguir incrementándolo de manera que puedan tener múltiples regiones en múltiples ciudades. Entonces esto realmente les ayudará a globalizarse y tener presencia en todo el mundo Ahora, como ya les dije, estas son regiones. Entonces en el siguiente video, entenderemos cuáles son las zonas de disponibilidad. Gracias de nuevo por ver este video. Te veré 61. Longitud de onda de Laboratorio, zonas locales y latencia práctica: Oigan, chicos, bienvenidos de nuevo al siguiente video. En este video, vamos a hablar de latencia. Ahora bien, ¿qué es la latencia? latencia es básicamente la lentitud que experimentas cuando navegas por un sitio web o abres una aplicación o cuando estás escribiendo algo en el sistema um, ya sabes, y luego obtienes una respuesta posterior, obtienes una respuesta más lenta del servidor Cuando tecleas Enter, por ejemplo, estás haciendo un gran comando por aquí. No estás listando los archivos como 10,000 archivos en esta carpeta. Sólo tienes que presionar enter. Cuando presionas el propio enter, verás que se vuelve más lento en tu respuesta. Entonces la respuesta más suave es básicamente cuando presiono Enter, debería ejecutarse de inmediato. Pero si hay un retraso de milisegundos, no se dará cuenta Si hay segundos de retraso, empezarás a notar la diferencia porque, uh, coordinación de tu ojo y tu mano será un poco diferente a lo que has visto anteriormente Entonces esa es una experiencia donde se puede ver, um, se puede ver el término llamado latencia. Ahora bien, esta latencia viene cuando tecleo esto, ¿de acuerdo? Pero hay una manera de medir realmente la latencia. Por ejemplo, veamos, cómo se ve cuando no se tiene latencia. Entonces he preparado un diagrama. Bien. Entonces he creado un diagrama, así que poco a poco voy a descubrir este documento en particular que ven aquí. Entonces primero, es como la comunicación intraEZ que es sub menos uno o sub un milisegundo a dos milisegundos La comunicación más rápida disponible en la misma zona de disponibilidad. Ahora, puedo mostrarte incluso más rápido que eso cuando estás pagando al anfitrión local. Loclos significa en sí mismo. Es la dirección IP de loopback. Ahora se le llama como oculos por defecto como nombre de host que se le ha dado Entonces cuando hago ping a los oculos, se puede ver el tiempo aquí tomado Entonces este es el más rápido que puedas ver porque toma alrededor de 0.0 026 milisegundos Es tan rápido que es capaz de llegar a sí mismo. Así que eso es perfecto, ¿verdad? Pero no podrás ver este tipo de respuesta en ninguna otra cosa relacionada con la red. Incluso si haces ping a esto tú mismo. Como por ejemplo, entro por aquí, he lanzado ciertas EC dos instancias. Te voy a mostrar eso. Llamemos a instancias en ejecución. Entonces tengo tres instancias corriendo por aquí. De hecho, estoy conectado a esto en la CLI base, y copio la dirección IP privada Bien, no estoy usando la dirección IP pública a partir de ahora. Lo usaré más tarde. Cuando pin la dirección IP privada de este servidor en particular a sí mismo, verá un pequeño nivel de latencia aquí, que es casi el mismo que el que ve por aquí. Entonces son los 26 por aquí. Esto es 27 y 28 está llegando. De igual manera, se ve uh, el nivel similar de latencia porque es la misma dirección IP en el mismo sistema. Ahora bien, ¿y si pin otro sistema que está en la misma zona de disponibilidad? Así se puede ver eso. Este es otro sistema que creé para la prueba de latencia, y esto en realidad se crea en la misma zona de disponibilidad. ¿Bien? Para que puedas modificar la zona disponible al crearla También te lo he mostrado ya. Así que usa eso para, um, ya sabes, poner ahí tu zona de disponibilidad. Entonces es muy simple instancia de lanzamiento. Y luego en la instancia, solo editas esto y luego seleccionas qué zona disponible quieres luego seleccionas qué zona disponible De esa manera, sería muy fácil para ti seleccionar qué zona de disponibilidad deseas. Copia esto, rosa éste. Este es el siguiente servidor que hemos creado, pero está en la misma AZ. Usted aquí en este diagrama, este diagrama real parte de aquí, la comunicación intra AZ. Disponibilidad zona de comunicación. Puedo ver que está entrando en un milisegundo, así que básicamente no está en 0.0, cierto, porque no está pagando en él a veces se pone 0.9, bien Pero la mayor parte del tiempo es de aproximadamente 1.5, 1.6, 1.8, un punto. Entonces, si lo promedias, va a ser alrededor de 1.1 0.5 promedio. Se puede ver que el promedio es de 1.44. Ya ha promediado por aquí. Pero aquí, punto promedio 0.025. Así que es bastante rápido para ser muy francos, ¿de acuerdo? Entonces porque se está conectando a un servidor justo al lado de él. ¿Bien? Ahora bien, esa es la primera que has visto ahora mismo. El siguiente es como zona de disponibilidad cruzada. Así que he creado este servidor en otra zona de disponibilidad de un F. ¿Bien? Así que lanza instancia y créala en una F. Así que esta es otra zona disponible Entonces sigamos adelante y hagamos ping a este. Ahora, puedes ver que, si está en una zona de disponibilidad diferente, está en un centro de datos diferente Ves un poco de esto lleva un poco de tiempo extra, pero sigue estando en promedio. Entonces lo hemos cerrado a los 16, así que lo cerraremos a los 16 supongo. Se puede ver que el promedio ha aumentado un poco por aquí de uno.44 a uno.799 Entonces lo que significa que, se está tomando un poco más de tiempo pero no mucha diferencia en cuanto a tu promedio, tiempo de vida. Lo siento, tiempo promedio, está recibiendo una respuesta del servidor. Entonces esto es básicamente te dice que la zona avaibt del otro lado también está bien, Um ahora hablemos de región. Esto es un extra de configuración que hice para la configuración de región. Entonces si voy a IFI clic medio en el EC dos y cambio esta región a Asia Pacífico Mumbai He creado un servicio por aquí, lo siento, EC dos instancias por aquí, y esto se está ejecutando en AP sur uno A. Esa es la zona de disponibilidad. He configurado la tabla de rutas de VPC y luego configuré la comunicación entre ellas. Por eso está funcionando. Si estás pensando que no está funcionando para ti, sino con solo crearlo, no funcionaría porque implica mucho trabajo en el back end. Se llama comunicación de igual a igual. Entonces ahora hay que pensar o ver cuál es realmente la salida que vas a obtener. Debido a que esta dirección IP en particular sigue siendo la dirección IP propia de Aws, como puedes ver que la emparejé igual. He dado una serie diferente por aquí, 17231. Esto es 172, 32, o de lo contrario no se conectaría arrojará error si está en el mismo rango de red, la misma sidra Así que cuando pin esto, se puede ver que hay muchos milisegundos por aquí Así que aquí son 187 milisegundos. Entonces a esto se le llama la región transversal, um, que venga a los 16. Cruz región AWS. ¿Bien? Entonces se puede ver que 187 milisegundos, es uno promedio. Por lo que realmente puede conectarse con uno de sus servicios de AWS a otro servicio AW está alojado en otra región. Pero el problema único problema es como, uh, la comunicación aquí será, um, ya sabes, sería como, tiene mucho retraso aquí. Lo siento, um, sí, la latencia estaría ahí. Lo siento. Yo sólo voy un poco por aquí, cruz Una comunicación es uno, dos, uh, diez milisegundos. Intra AZ, lo hemos comprobado. Cross AZ, lo hemos comprobado. Región a región, como se puede ver que viene de 50 milisegundos a 300 milisegundos Entonces seguimos bien, porque estamos 50-300. No fuimos al máximo de 300. Tal vez si hubiera creado un servicio en la esquina, como tal vez en la región de Tokio o, um, en esta región, tal vez en la región de China o podría estar en Australia. Entonces puede tener 300 milisegundos, diferencia, podría ser eso. Entonces no lo sabemos. Entonces tenemos que probar eso. Bien. Ahora lo siguiente va a ser la ubicación del borde, frente a la nube. Ahora bien, aquí es donde toma un poco de, ya sabes, artículo tuyo. Entonces aquí tienes la ubicación del borde frente a la nube. Si vas a crear Cloud front en esta situación, sí, entonces obtienes una respuesta con un milisegundo a 20 milisegundos Ahora, esta latencia se reduce y el usuario final si ese usuario final está cerca del frente de la nube. Entonces esa también es una condición de luz porque vemos ese plan, ya sabes, amigos de la nube no está en todas partes. ¿Bien? Entonces si digo eso si veo en la India, ¿no? Entonces verificamos la ubicación del borde, ¿verdad? Entonces en la India, entonces en India, es Pune ahí Mumbai es la Nueva Delhi, su Chennai, el Bangalore allí Arabad está ahí, Entonces, si alguien está navegando desde ninguna de esas ubicaciones, están navegando desde Kerala, supongo, desde el otro Southend, entonces van a ir a Chennai Y luego primero, irán al servidor de Mumbai, obtendrán ese recurso por primera vez y luego eso se está almacenando en caché en Cloudfront en la región de Chennai Pero entonces todavía van a obtener el retraso por aquí o la latencia por aquí porque Um, todavía tendrán que ir y pasar por Jen porque no es como gente que navega en Jane sería mucho más rápida que en comparación con Kiera o bang loads allá por aquí Entonces de igual manera, si vas al extremo sur de la misma, entonces vas a tener un problema. Al igual que, todavía tendrás latencia en esa perspectiva también. Pero, ya sabes, es mejor que venir bien de Mumbai. Entonces esa latencia es lo que han dado aquí en esto como 20 milisegundos. Entonces de uno a 20 milisegundos. Por lo tanto, puede ser más rápido como un milisegundo cuando estás como cuando hay una ubicación de borde y el usuario final está más cerca el uno del otro Pero si están muy lejos, pueden llegar a 20 milisegundos. Entonces eso es lo que hemos visto hasta ahora. Y luego en términos de zona local y longitud de onda. Estas son dos cosas que te dije lo comprobaremos más tarde, ¿verdad? Ahora bien, las zonas locales son básicamente, te voy a mostrar por aquí. Ahora, no podrás ver las zonas locales como nombre de región, nombre de los lugares como cómo ves la ubicación H, pero luego podrás ver las zonas locales por aquí. Ahora vamos a entender primero qué es una zona local. Ahora, las zonas de longitud de onda y locales están diseñadas para extender la infraestructura de AWS más cerca del usuario final y los dispositivos, pero tienen un propósito ligeramente diferente y se dirigen a diferentes casos de uso. Primero, entendamos sobre la zona de longitud de onda. Ahora bien, la longitud de onda si viene longitud de onda o alguien te dice longitud de onda o en la pregunta, piensa en cinco G. Cinco G es una longitud de onda, por lo que viaja a través de una onda. Entonces, una longitud de onda de AWS es una infraestructura de AWS especializada que integra servicio de computación y almacenamiento de AWS dentro del proveedor de telecomunicaciones, como el centro de datos en el borde de una red de cinco G. Esto minimiza la latencia causada por enrutamiento del tráfico de la red cinco G a la nube Se utiliza la red de telecomunicaciones cinco G, para transferir los datos a la nube, que es mucho más rápido. ¿Conoces la velocidad de cinco G? Es muy rápido. No muchos lugares tiene esta zona de longitud de onda. Ahora, la zona de longitud de onda se utiliza para servicios de latencia ultrabaja. onda se utiliza para la latencia ultrabaja, lo que significa que va a ser muy cara porque usa cinco G. ¿Qué tipo de situaciones usarías latencia ultra baja? Conducción anónima de vehículos. Si miras en Los Ángeles y otra parte de California, verás que va a haber un auto saliendo a la carretera sin chofer, ¿verdad? Si lo has visto, utiliza la tecnología cinco G para tener una latencia ultrabaja. No estamos hablando de baja latencia por aquí. Si ves este diagrama por aquí, estamos hablando de latencia ultrabaja, que es menor a diez milisegundos. Eso es como si estuvieras justo al lado del servidor. Entonces aquí se ve esa cruz AZ. Cross AZ es el que en realidad te dio de uno a diez milisegundos. Lo que las zonas de ultra ultra lentes son prometedoras son menos de diez milisegundos, a menudo menos de cinco milisegundos Entonces básicamente, usa las cinco aplicaciones G, que es dada por tu um, proveedor de datos, proveedor de telecomunicaciones, como si estás hablando AT&T o si estás hablando de Verizon Así mismo, utilizan esas redes para una entrega más rápida de datos con latencia ultrabaja para vehículos anónimos, AR VR como realidad argumentada o realidad virtual y un propósito de juego en tiempo real, ¿verdad? Así mismo, tienes diferentes situaciones en las que vas a usar tu este tipo de zona de Waveland Entonces, si ves el gráfico global por aquí, no tienes tantas longitudes de onda en todas las ubicaciones Entonces tienes ocho zona Waveland en el norte de Virginia y tienes alguna en Oregon Entonces ahora estas zonas de Waveland se concentran básicamente en la región de California así como en el estado de Nueva York, como está por aquí Ahora bien, esto es para asegurar hoy en día vienen muchos autos de conducción autónoma, Robo taxi también viene. Entonces para esas situaciones, se usa, y también AR VR. Entonces aquí, puedes ver en Londres, también tienes onda um, hay dos zonas de longitud de onda. Ahora, esto también va a ser parte de su zona de disponibilidad, pero proporciona una infraestructura crítica para su aplicación. Ahora, hablemos de zona local. Bueno, cuando se quiere hablar de zona local, zona local no es tan rápida como menor latencia como una zona de longitud de onda, pero sigue siendo baja cuando se habla de comunicación cruzada AZ. Ahora bien, cómo puedes hacer esto, ya sabes, baja latencia, al tener un centro de datos móvil o tener un centro de datos que esté cerca de las ciudades del Metro. Por ejemplo, si ves el norte de Virginia, tienes 14 zonas locales por aquí. Ahora, estas 14 zonas locales se dividirán en muchos lugares. Estoy bastante seguro que en el New York, uh, ya sabes, en el strip de Nueva York, así como en las regiones de Oregon Bo se pueden ver siete zonas locales por aquí. No tienes zonas locales en cuanto a Londres. Bien, pero tienes zonas locales por aquí. Entonces, ¿qué es la zona local? Como te dije, la zona local básicamente está extendiendo tu servicio de AWS. Entonces, ¿cuáles son los servicios extendidos? Tú computas almacenamiento, base de datos. Por lo que estos tres servicios se extienden, y donde se extiende, está más cerca de ndcer colocándolo en una ubicación geográfica específica Que son zonas muy pobladas, bien, zonas muy pobladas donde sea que tengas, tendrás vamos a ver si la zona local está en la región de Japón. Se puede ver que hay una zona local porque Tokio está muy poblada. Entonces tienen una zona local por allá. Entonces, que en realidad puede dar una respuesta más rápida a los clientes, así como a las personas que también usan AWS. Veamos si Mumbai tiene una zona local, Mumbai también tiene dos zonas locales por aquí, que, de nuevo, se usa para um ya sabes, comunicación más rápida, y tendrá base de usuarios accediendo a tu aplicación mucho más rápido porque estás más cerca de la zona local. Ahora, la región de Mumbai no tiene una zona de Waveland debe ser porque, como, el cinco G se estrenó recientemente en India o podría ser porque, igual que, no hay vehículo autónomo o ARVR tan popular Entonces, una vez que se vuelve popular y la gente comienza a desarrollar cosas usándolo, y cuando tengas los juegos en tiempo real entrando en imagen, entonces AA Blas también lanzará zonas de Waveland Entonces en este momento entendemos lo que entendemos hasta ahora es que el servicio de base de datos del servicio de almacenamiento del servicio de cómputos se alojará más cerca de las áreas altamente pobladas en términos de zonas locales. Ahora, esta latencia de radios para aplicaciones que requieren acceso de baja latencia a centros de datos prometidos o usuarios en ubicaciones específicas. Las zonas locales son útiles para cargas de trabajo que necesitan comunicación de muy baja frecuencia, pero no necesariamente requiere ultra baja uh, latencia de wavelenzon Entonces estas son las diferencias reales entre ambos, y así es exactamente como se ve la latencia cuando lo haces. Ahora hemos hecho toda esta comprobación de latencia. Hagamos una comprobación de latencia para nuestra dirección IP pública. Ahora ya sabes que esta dirección IP pública de aquí no tiene una dirección IP pública, ignórala. Entonces tomemos la dirección IP pública por aquí. Entonces tomaremos uno de estos. No importa cuál lo escojas. Entonces, si solo haces ping a la dirección IP pública del servidor, verás que tiene la latencia por aquí, pero es muy menor. Toma la IP RS pública de esta e intenta hacer ping a esta. No está funcionando por alguna razón. Vamos a refrescar esto. Vamos a probar este. Sí, 1.554 milisegundos Entonces esta es básicamente su respuesta de dirección IP pública. Pero lo que encontraste, que es muy bueno para que entiendas es que cuando vayas región a región, obtendrás esto. Ahora, también puedes probar ping google.com y también puedes obtener el, ya sabes, el tiempo que te lleva responder aquí También puedes consultar awsotmazon.com y en realidad puedes consultar Entonces esto es mucho más rápido que google.com. Eso ya lo ve. Entonces esto es, nuevamente, viniendo de cloudfront.net. Entonces así es como viene básicamente. Entonces aquí también, viene de, creo que también viene de algo así como un CloudFrint que es del servicio de Google Entonces, del mismo modo, ya sabes, esto es básicamente, um, ya sabes, cómo encontrar la latencia ya que viene de Cloudfrint Este es un muy buen ejemplo. Se puede ver que es mucho más rápido. Que en realidad navegar en la dirección IP pública. Aquí estoy navegando quiero decir, perdón por ser una dirección IP pública por aquí, que es 1.25 y 1.54 El promedio será alto, pero aquí es 1.25 y ocasiones viene con punto cero como 0.8, y reducirá el promedio. Se puede ver que 11 por aquí y el promedio por aquí es de 13. Lo que significa que Cloud friend está realmente trabajando. Estoy en la ubicación de Londres en este momento, el frente de la nube viene de la ubicación de Londres en este momento. Gracias de nuevo por ver este video. Espero que te haya sido útil entender cómo funciona la latencia y cómo funciona tu aplicación en términos de latencia. Tenemos conexión directa aquí también, lo que nos faltó explicar. Ahora puedes ver que Internet público por aquí es el más alto donde tienes latencia variable más alta debido a la conjección y enrutamiento de la red Y el conector directo lo discutimos al respecto. Así que esto es básicamente tener, um, su infraestructura de AWS conectada directamente a su uh, infraestructura privada. Entonces en esta situación también, se obtiene como de un milisegundo a diez milisegundos Ahora bien, esto es, quiero decir, zona de longitud de onda es mucho más rápida que, uh, la conexión directa misma. Ya ves que lo populares que se están volviendo estos dos en estos momentos. Estas dos son inclusiones recientes. Por eso lo hicieron parte de esta certificación. Por lo que estos se agregan como parte de esta certificación. Aunque no hay dudas sobre ellos en esta habilidad, pero aún así es muy bueno conocer estos dos nuevos servicios. Gracias de nuevo por ver este video. Te veré en el próximo 62. Grupo de autoescalamiento de Laboratorios con Política Dinámica Práctica: Oigan, chicos. Bienvenidos de nuevo al siguiente video. En este video, vamos a hablar de uno de los servicios importantes en AWS, que es tu auto skilling. Ahora, el autoskiing es parte de tu EC dos, y en su mayoría se llama como EC dos Autoskilling es lo que vamos a ver porque también hay otras habilidades de auto por ahí, y no estamos hablando Entonces, si vas a la consola EC dos por aquí, verás en la parte inferior grupos de autoscaling por aquí Ahora, esto te dará una breve idea sobre el escalado automático, qué es, y puedes leer la documentación, puedes ver los beneficios y cosas así. Pero ya sabemos lo que es el autoescalado. Ya configuramos autoscaling en los videos anteriores Hicimos configurar el escalado automático en instancia ECS cuando configuramos el escalado automático era parte de él, y no había opción para que lo desactivaras, y esa es la única forma en que continúa Vamos a crear el grupo de escalado automático por aquí. Ahora, dale un nombre a este grupo de escalado automático de aquí. Voy a dar esto como servidor HTTP AG, AG como escalado automático. Ahora, recuerde que necesita una plantilla de lanzamiento para que pueda crear un grupo de escalado automático. Ahora bien, ¿qué es la plantilla de lanzamiento? ¿Por qué lo necesitamos de repente? Um, déjame explicarte eso. Si vas a Easy to console, tienes varias instancias ejecutándose por ahí, ¿verdad? Entonces, si nos fijamos en estos, um, signore toda la instancia terminada Pero entonces, si tienes ciertas instancias ejecutándose ahora, ¿ puedes hacer que esas instancias parte de tu auto skilling? No se puede. Si ya tienes instancias ejecutándose, no puedes convertirlas en parte de un grupo de auto skilling Tienes que crear instancias desde cero a través del grupo de auto skilling Esa es toda la agenda del auto skilling. que significa que no puedo agregar un grupo existente de instancias en el grupo de auto skilling Segundo, si recuerdas, hicimos el ECS Entonces, en ese clúster ECS también, tuvimos que crear nuevos servidores de esquí automático a través del esquí automático a través de ECS como los servidores, que es parte de un servicio de los contenedores Tuvimos que crear un nuevo grupo de escalado automático y luego a través de eso podrás crear encuestas y luego contenedores dentro de eso. Aquí se aplica lo mismo o la misma lógica. Tus instancias existentes no calificarán. Pero lo que puedes hacer es si tienes instancia existente ejecutándose y quieres hacer que quieras, ya sabes, crear dicho tipo de instancia como plantilla, puedes seleccionarla y puedes hacer clic derecho en ella. Y luego ir a imagen y plantilla y crear plantilla a partir de esta instancia. Entonces lo que hará es crear una plantilla, igual que esta instancia en la sección de plantillas. Y esa plantilla, una vez que hayas creado, puedes venir aquí y luego seleccionar esa plantilla que has creado lo siento, que has creado. Ahora, si no tienes ninguna plantilla de lanzamiento, simplemente haz clic en Crear una plantilla de lanzamiento y crearemos una nueva plantilla de lanzamiento ahora mismo. Ya tengo una plantilla de lanzamiento que es EC a esta, esta plantilla de lanzamiento en particular. Entonces lo estaremos viendo cómo hacer eso. Entonces el HDDPI EC dos era el nombre de la misma. Entonces esta es una plantilla de lanzamiento. Y detalles muy simples que vas a dar sobre plantilla de lanzamiento. No es como, um, es una cosa compleja para todos. Entonces vamos a dar el nombre de una plantilla de lanzamiento. Vamos a dar el tipo de instancia. Que incluye el tamaño de instancia y la familia de instancias. También vamos a especificar la guía de esquí automático aquí si necesita alguna orientación para esto. Que se habilite, iremos con las cosas por defecto. También vas a elegir un inicio rápido, sistemas operativos, qué va a tener esta plantilla en particular como sistema operativo, así que vamos a seleccionar eso. Entonces aquí en el tipo de instancia, vamos a seleccionar la instancia elegible gratuita o la instancia que quieras seleccionar y luego renunciar a keypare Kepare es importante porque esos servicios que se crearon como parte del escaneo automático, usamos el mismo par de claves aquí Ahora bien, no hace falta mencionar ninguna configuración de red, podemos hacerlo más tarde también. No se necesitan volúmenes. Porque como puedes ver que el volumen de propósito general ya se está asignando aquí, puedes aumentarlo a 20 GB más o menos, donde en los que puedes acomodar más tamaño de archivo en cada sistema, cada servidor. Así que crea una plantilla de lanzamiento por aquí. Deberían crearlo para ti, pero este nombre ya existe, así que solo voy a ignorar eso. Voy a ir por aquí y seleccionar esa instancia por aquí. Lo he creado la misma manera que te lo acabo de mostrar ahora mismo. Haz keypair, uh, tienes que micro por aquí. No es una instancia spot. Perdón por eso. Así que haz clic en siguiente por aquí y verás los requisitos en términos de las opciones de lanzamiento aquí. Así que no hay mucho cambio por aquí. Esto se ha importado de tu plantilla de lanzamiento. Bien. Entonces de tu plantilla, que se reporta ahí, ¿no? Por lo que estos ajustes son importantes a partir de ahí. Una de las configuraciones importantes que vas a ver es la configuración de red. Aquí vamos a usar la VPC defol, y aquí vamos a seleccionar todas las zonas t disponibles Por lo que nuestro servicio se creará en cualquiera de las zonas disponibles siempre que solicitemos que se cree el servicio Ahora aquí, el mejor esfuerzo equilibrado para el escalado automático de la zona de disponibilidad intentará automáticamente en términos de establecer la zona disponible más saludable Vamos a mantener eso como opción predeterminada, ir a la página siguiente. Ahora, estas son las opciones en términos de sus opciones avanzadas de autoescalado por aquí Ahora bien, para recordar que estas opciones se pueden modificar posteriormente también punto, para que puedas configurarlo aquí ahora mismo o puedes configurarlo más tarde también. Así que no tenemos ningún balanceador de carga todavía no nos entienden en las manos sobre el balanceador de carga, lo estaremos viendo más adelante en el momento Pero si tienes un balanceador de carga, si planeas conectar un balanceador de carga existente, puedes hacerlo Ese balanceador de carga se convierte en parte de tu grupo de auto skilling. Entonces aquí VPC lechuga básicamente habla sobre la facilidad de agregar asociar su grupo objetivo de lats de VPC con el grupo objetivo de auto skilling , lo que facilita la disponibilidad de la red para uh, mejorando la capacidad y capacidad de la red, y también es fácil para escalar también Ahora bien, aunque si estás seleccionando adjuntos a los lats de VPC, necesitas tener un lats de VPC creado, pero no lo hemos hecho hasta ahora, así que solo vamos a ir con Ahora, aquí en la comprobación de estado, vamos a usar la opción predeterminada por aquí. El cheque por defecto habilitado para el EC dos. Tendrás una sección de monitoreo donde realmente podrás ver el monitoreo de todas tus instancias EC two así como tu grupo de escalado automático como bow. Verifique aumentar la disponibilidad de reemplazar nodos no saludables. Pero por defecto, va a ser o re habilitar para que no tengas que preocuparte realmente por ello. Aquí, este es servicio de propagación y se adjuntará volumen y se utilizará para eso, pero nuevamente está en el cargo separado basado. Términos de monitoreo, use el monitoreo predeterminado que viene con el grupo de escalado automático No vamos a habilitar ningún monitoreo en Cloud watch o calentamiento de instancias en este momento porque todo se cobra por separado. Entonces vamos a repasar la siguiente. Entonces la capacidad deseada es, capacidad mínima es una, y la capacidad máxima es cinco. Hablemos de esto. ¿Cuál es la capacidad deseada? capacidad deseada es básicamente la capacidad actual cuando se crea una instancia de agrupación automática, inmediatamente, cuál es la capacidad actual de la agrupación automática es una. No puedes ir a cero porque tu capacidad mínima es una. Si seleccionas deseado es cero y mínimo es uno, estarás creando una instancia de servidor con una capacidad cero. Eso no va a funcionar para ti, lo que siempre debe ser el mínimo y deseado debe ser lo mismo cuando lo creas. Pero entonces lo que sucede es que si el sistema se da cuenta una vez que la política que hemos configurado no estamos haciendo ninguna política en este momento, cuando configuramos una política, basada en la política, la capacidad deseada cambiaría Si especifico una política como una política dirigida en una escala dinámica, estaré diciendo que si mi promedio de CPO alcanza el 50 por ciento, es necesario activar más servicio para manejar esa solicitud Ahora, cuando estás en ese tipo de escenarios, tu política se habilita y buscará la CPUtización Si es cruzar 50, si es cruzar 50, entonces va a aumentar la capacidad automáticamente. Entonces eso se basa en las políticas que vas a hacer. Entonces, si va por dos, entonces su capacidad deseada será de dos. Tu mínimo será uno, máximo es cinco, lo que significa que puede subir hasta un máximo de cinco en cuanto a la capacidad deseada. ¿Bien? Entonces esto es lo que estamos estableciendo como nuestra regla aquí. Así que puedes escalar de 1 a 5 escalas y volver a una porque esa es la capacidad mínima deseada. Aquí en la política de mantenimiento, hemos dado múltiples opciones por aquí. Esto es básicamente para decir que cuántos servidores deberían estar disponibles cuando una instancia vaya por mantenimiento. Por ejemplo, hay algo de mantenimiento que ocurre en términos de actualización de instancias, y cuál es el número máximo de instancias debería estar disponible. Entonces en esa situación, actualmente no hay política, que significa que se trata de una reequilibrada, lo que significa que las nuevas instancias se lanzarían antes de terminar otras instancias existentes Aquí está lo mismo que lanzar antes de terminar, que significa que se lanzaría una nueva instancia y esperaría a que estuvieran listas antes de terminar la otra Por lo que esta es disponibilidad prioritaria, por lo que se recomienda esto. Al mismo tiempo, puedes lanzar y terminar al mismo tiempo. Pero esto implica un poco de, ya sabes, es un ahorro de costos, pero luego también implica un poco de tiempo de inactividad. Entonces siempre es mejor ir por priorizar disponibilidad porque ese es el Um, eso es un poco de dinero necesitas gastar porque vas a tener esta instancia alojada y esperar a que la instancia esté lista antes de terminar, lo que significa que vas a tener una instancia extra, que va a estar Y luego una vez que esté listo, entonces se dará por terminado. Entonces esto siempre está listo, lo siento, esto siempre se recomienda en términos de trabajar con una inscripción en tiempo real. Todo bien. Por lo tanto, esto permite escalar en la protección. Cuando lo habilita, siempre que su servidor se escale hacia fuera, cuando intente escalar adentro, lo protegerá de escalar adentro Entonces lo que significa que el tamaño del servidor no se reducirá debido a que esta protección está habilitada. Así que desactiva esto a partir de ahora y haz clic en el siguiente. Puede agregar el tema SNS para estas instancias en particular donde puede enviar notificaciones con un simple servicio de notificación aquí Haga clic en siguiente. No necesitamos eso ahora mismo. Agrega impuestos por aquí si quieres agregar texto y luego haz clic en Revisar y Crear grupo de escalado automático. Contamos con mayor grupo de escalado automático. Ahora se actualiza el aforo. Se necesita crear una instancia. Se puede ver que en la administración de instancias, qué instancias se están creando aquí. Entonces se crea una instancia y una instancia se está ejecutando. Para tener una buena visibilidad, puedes ir al tablero EC dos, instancias C y puedes ver esa instancia que se está ejecutando por aquí. Ahora bien, esta es la misma instancia que se configura aquí. Entonces esto es básicamente impulsado por este escalado automático en particular Para que veas que la pantalla de actividad, podrás ver la real aumentando la capacidad 0-1 A partir de ahora, aquí no hemos hecho ninguna política, estas son las opciones por defecto que hemos puesto. Cualesquiera que sean las opciones predeterminadas que haya por aquí, puede modificar estas opciones. Se pueden ver lats. Se puede ver el equilibrio, se pueden ver los chequeos de salud. Puedes ver la política de mantenimiento de instancias aquí. Se puede ver la configuración avanzada en términos del um, trabajando con el grupo de autoescalado Ahora bien, ¿dónde está la política? La política está por aquí sobre el esquí automático o el desollado automático Aquí hay tres tipos diferentes de pólizas. Una de ellas es la política de capacitación dinámica, predictiva y acción programada Puede seleccionar de cualquiera de estas políticas, lo que realmente puede hacer que esta capacidad suba y baje en función de, um, ya sabe, instancia, um, carga y promedio de cualquier política que esté configurando. Tienes la pantalla de monitoreo por aquí, aquí puedes ver el monitoreo de tus instancias de escalado automático aquí y puedes ver las dos instancias EC por aquí. Si tienes varias instancias EC dos, va a traer a colación una versión consolidada de la misma. Ahora recuerde que el monitoreo en estas instancias tomaría un poco de tiempo para que acumule datos porque cada vez que inicies una nueva instancia, los datos de esa tardarían tiempo llenarse por aquí. Todo bien. Entonces ahora hablemos de las políticas de aquí. La primera política de la que quiero hablar es crear una política de escalado dinámico. Un clic de política de escalado dinámico tiene tres tipos de políticas por aquí. Tienes el escalado de seguimiento del objetivo. Tienes el escalado por pasos, que es básicamente, hablemos primero del escalado de seguimiento de objetivos. Ahora en esta, estarás monitoreando un tipo específico de recurso o métricas en tu instancia EC two. Por ejemplo, la utilización promedio de CP. Entonces, cuando vea una utilización promedio de CPU excede un valor objetivo de 50 en porcentaje. Va a crear una nueva instancia o va a escalar. Ahora, puedes crear algo de instancia de calentamiento. instancia de calentamiento básicamente es que dará algunas líneas de tiempo específicas como en segundos para que la instancia se caliente y luego entre o sea parte del servicio de escalado automático Este ejemplo te puedo dar en términos de cuándo estás trabajando con aplicaciones, lo que toma alrededor de cinco a 10 minutos después de que se inicie la instancia. Entonces en esas situaciones, siempre se recomienda dar esos segundos particulares de cinco a 10 minutos segundos, convertirlo en segundos y entregarlo aquí. Esto asegurará que las instancias no entrarían en el grupo de escalado automático a menos que sea, ya sabes, pase por esos 300 segundos o los segundos que sean los que vayan a dar aquí. Ahora, ese es el primero por aquí. El segundo es escalado escalado. El escalado de pasos es básicamente que utiliza la integración con la alarma de reloj en la nube. Ahora, cuando creas una alarma de Cloud watch y esta alarma suena, y luego básicamente la acción se toma aquí. Ahora puedes agregar múltiples opciones por aquí donde puedes agregar pasos. El escalado paso es básicamente paso a paso con escala. Entonces, por ejemplo, si mi alarma alcanza el 50 por ciento, quiero agregar una capacidad o una unidad por aquí. ¿Correcto? Y luego digo agregar, y después selecciono Cloud Wash no tengo nada en este momento. Se puede ver la nube, no hay nadie. Entonces cuando añades este, entonces puedes agregar otro paso por aquí. Y el siguiente paso podría ser reducir la escala. Entonces es como si llega al 40% día, quieres reducir la escala. Así mismo, puede ser para agregar capacidad, eliminar capacidad también. Así mismo, puede escalar y reducir la escala en función del paso usando su alarma de lavado en la nube. El siguiente es el escalado simple. Entonces esto también está usando un uh, ya sabes, nube que um, el mismo tipo de cosas, agregando, quitando lo mismo, pero tendrás solo una opción por aquí para hacerlo. Entonces esto es más de un escalado simple. Entonces, vayamos con el escalado objetivo en este ítem, y luego iremos con el 20% como valor objetivo, por lo que es fácil para nosotros hacer esto. Lklicon crear y ellos deben crear su Y esta política de seguimiento estará haciendo un seguimiento de CPU promedio de tu instancia por aquí Actualmente, tu promedio de CPUtilización es de aproximadamente 2% de edad. Ahora, tenemos un mando por aquí que puede ser usado para aumentar la tensión en el sistema. Se puede utilizar el pseudo eMiphony instalar estrés. Entonces esta es una herramienta, y luego puedes ejecutar este comando stressiphon Iphon CPU.To es de 60 segundos, o puedes hacerlo Por lo que depende de qué tan rápido esté iniciando su aplicación. Entonces para hacerlo, solo ve por aquí, selecciona tu instancia, haz clic derecho y conecta tu instancia. Una vez que esté conectado a su instancia, puede ejecutar ambos comandos de instalación de estrés, así como ejecutar el estrés también. Entonces estoy instalando estrés en este momento. Déjame ejecutar el estrés. Ahora bien, esto va a ejecutar estrés por 600 segundos para una CPU porque se trata de una micro instancia T dos. Por lo que sólo tiene una CPU. Entonces tú mismo puedes comprobarlo aquí en esta pantalla de monitoreo, ya sea que se esté incrementando o no. Entonces no está habilitado. Bien, entonces ha llegado a través. También se puede ver eso por aquí en la CE dos bajo autoscaling pasaporte grupal Entonces estamos esperando que esto aumente ya que hemos ejecutado este comando. Este comando va a empujar la carga en una CPU durante 600 segundos. Entonces esto debería tomar unos minutos más, cinco a 10 minutos, perdón, dos a 3 minutos para que refleje esos números en su monitoreo, y entonces debería poder ver el aumento de carga, y si va más allá del 20 por ciento, verá que la capacidad deseada aumentaría. Entonces volveré a ti y en algún momento pausaré el video y haré una pausa y te mostraré cómo se hace esto Oigan, chicos. Bienvenida de nuevo. Estaba fuera en un pequeño descanso. Entonces, cuando ejecuté este comando, lo que ha pasado es como si estuviera fuera por un pequeño descanso, así que un pequeño descanso como en más de 15, 20 minutos. Entonces lo que ha pasado es como la capacidad se incrementó 1-4, como se puede ver, y luego se mantuvo a cuatro a cinco. Después se terminó la ejecución del guión y luego comenzó a terminar 5-4, y luego se puede ver cuatro a tres y luego tres a dos y luego dos a uno Empezó a reducirlo y comenzó a eliminar, terminando esas instancias, lo cual no es necesario porque el script se completó y luego bajó el sistema de archivos Creo que en el monitoreo, verá las estadísticas exactas de lo que ha sucedido. Pero desafortunadamente, el monitoreo no ha llegado a través. Bien. Entonces no puedes encontrarlo, pero esta es la imagen general de las estadísticas de la CPU. Sólo voy a hacer eso otra vez una vez más. Esta es la instancia en ejecución, así que voy a aumentar el CPO en esta Sólo voy a conectarme a esta instancia en particular una vez más. Voy a ejecutar estos dos comandos ahí dentro. Así que sólo vamos a esperarlo. Bien, entonces ahora este comando se está ejecutando ahora, así que empezarás a ver los cambios muy pronto. Voy a estar activo. Yo solo estaba muy distraído, así que por eso dejé esto Entonces veamos si esto aumenta la carga en el sistema. sobra conmigo. Debería llegar muy rápido. Entonces la carga comenzó a ocurrir. Creo que esta es la instalación am debido a la instalación am de un estrés de paquete, ¿verdad? Entonces la red, ya sabes, había salida de entrada. Entonces es por eso que en red está arriba. Pero la CPU debería estar levantada momentáneamente. Entonces déjame pausar este video y esperemos a que salga la CPU. Bien, chicos, así puedo ver que la actualización está ocurriendo ahora mismo. Por lo que se puede ver en el monitoreo por aquí, la instancia de ACPU ha llegado al 49% Entonces si ves la actividad por aquí, entonces va 1-3 por aquí. Por lo que ha entendido que se ha incumplido la política de seguimiento de objetivos, por lo que hay una alarma activada y debido a que la gestión de incidentes, ve que se forman dos instancias más y está en servicio Si vuelves al grupo de autoescalado, estás viendo que la capacidad deseada se ha convertido en tres automáticamente sin nuestra intervención Ahora, después de que hayan terminado los 60 o 600 segundos, o si hago un Control C, verás que las instancias que ha creado terminarán automáticamente, y luego comenzarás a ver los servicios bajan al estado deseado como uno solo. Lo he cancelado. Si ves este monitoreo EC dos, verás que irá bajando poco a poco en este momento, y luego empezarás a ver actividades como ir 3-1 automáticamente sin nuestra intervención. Déjame pausar este video y mostrarte eso también. Vamos a verlo ahora mismo. Entonces voy a entrar en el monitoreo. Entonces la carga ha bajado. Veamos cuántas instancias tenemos ahora mismo. Tenemos tres instancias. Déjame ver si hay un plan para derribarlo. Entonces eventualmente después de unos minutos, debería bajarlo, por lo que no se activa el escalado en proceso, sino que puedes proteger las instancias de escalar para que realmente puedas ir a la acción y sentar escala en protección. Entonces esto vendrá como protegido de la escala en, esto impedirá que este servidor en particular se escale pero no sé por qué alguien haría eso, pero solo eso te lo estoy diciendo. También hay otra opción por aquí donde puedes dejar de escalar en la encuesta anterior. Aquí debe haber opción aquí en alguna parte. En este artículo en particular llamado política de terminación, la política de terminación puede ser algo así como, se puede establecer como instancia antigua. Esta política es básicamente el orden de terminación será básicamente la instancia más nueva, lo que significa que la instancia más nueva que se creó realmente terminará primero en lugar de la instancia anterior. vieja instancia estaría ahí corriendo para siempre hasta que no sea realmente necesaria para terminar. Y aquí puede habilitar instancias para escalabilidad y protección. Cada nueva instancia se creará por defecto. Vamos a continuar, ya sabes, protección de la piel que no necesitamos porque queremos escalar si realmente no hay ningún requisito. Entonces ese es el punto de la dinámica, donde escalas y vuelves a escalar si no hay mucho gasto de solicitud. Le daremos un poco más de tiempo, ver si se escala porque lo hizo anteriormente, así que creo que debería es solo cuestión de tiempo. Vamos a esperar para que empiece a escalar. Bien, chicos, no quiero retenerlos más, pero esto, ya saben, lo reducirá y luego publicaré otra actualización sobre esto cuando esté creando otro video. Para que te lo enseñe. Pero, normalmente toma alrededor de 5 minutos cinco a 10 minutos para que se dé cuenta de que no hay más carga en el sistema y luego comienza a escalar así que no te preocupes por ello. Te voy a mostrar en el siguiente video. Antes de comenzar el video, solo te daré una rápida actualización de esto para mostrarte que lo ha hecho. En el siguiente video, estaremos hablando de las otras dos políticas más, y luego llegaremos a un cierre de grupos de autoescalado. Gracias de nuevo por ver este video, nos vemos en el siguiente. 63. Introducción al balanceador de carga AutoScaling de Labs: Mis chicos volvemos al siguiente video en este video, vamos a hablar de balanceadores de carga Ahora, en este video, vamos a seguir adelante. Anteriormente, configuramos el equilibrador Easy to load. También he dominado mi instancia y la configuración del balanceador de carga. Ahora en este video, vamos a trabajar con nuestro balanceador de carga por aquí Entonces actualmente tengo un balanceador de carga y déjame eliminar esto Bien, tengo a ese director. Ahora en esta sesión de equilibrio de carga, vamos a usar el grupo de escalado automático como nuestro balanceador de carga Entonces en este momento, no tienes ningún grupo de autoescalado No hay un balanceador de carga disponible para usted. Para crear cualquier grupo de autoescalado, lo que hemos hecho anteriormente es lanzar una plantilla Sigamos adelante y lanzemos una plantilla ahora. Clicon lanza plantilla y luego déjame nombrar esta plantilla como web iphon Es para AG, entonces voy a dar Como autoscaling, autoscaling group, ASG podemos nombrarlo así y luego lanzar plantilla, así que vamos a hacerla como plantilla de lanzamiento LT . Ahora bien, esta va a ser nuestra plantilla de lanzamiento web para nuestro grupo de autoscaling Ahora, cuando esté creando una plantilla para un grupo de escalado automático, se recomienda habilitar la guía de escalado automático aquí Lo que te ayudará a configurar la plantilla para el autoescalado EC dos Eso es lo primero que vas a hacer. Después de eso aquí, vas a elegir el inicio rápido y vas a seleccionar Amazon Linux. Entonces vas a crear un tipo de instancia, que voy a elegir T dos micro y luego el par de claves por defecto voy a usar. Y aquí puedes seleccionar un grupo de seguridad existente por aquí. Entonces voy a elegir el predeterminado, que permite cada tráfico para que no tenga que preocuparme por los grupos de aquí. Subredes, puede seleccionar dos subredes o una subred por defecto, o simplemente puede dejarla como incluir en las plantillas de lanzamiento. Así que eso también funciona. Así que no tienes que preocuparte realmente por esto, y luego puedes eliminar la configuración de red. No lo necesito. Solo seleccione el grupo de seguridad que tiene acceso a Internet. Aquí selecciona el tamaño GB, convirtiéndolo en diez GB. Ahora, finalmente, necesitas bajar los detalles de avance por aquí, en estos detalles, vas a copiar y pegar este ítem por aquí. El anterior actualizado 11t en lugar de hola de EC dos instancias, pongo hola de Fácil a auto escala Copia y pega esto por aquí y luego haz clic en Launch template. Ahora bien, esto va a crear una plantilla fácil de lanzar. Esto es bastante fácil. Se crea la plantilla de lanzamiento. Vamos a verificar. Ahora se ha creado la plantilla de lanzamiento. Ahora lo siguiente va a crear un grupo de autoescalado. Ahora, puedes tener tu balanceador de carga listo para el grupo de autoscaling si está ahí, pero puedes crear un balanceador de carga aquí mismo en el grupo de autoskiing, para que no tengas que preocuparte Elige crear un grupo de desollado automático, dale un nombre al grupo de autoskeing Entonces aquí usa plantilla de lanzamiento de webfen auto ski group LT Entonces los detalles del Df se cargan por aquí. Haga clic en siguiente. Ahora aquí tienes que seleccionar VPC por aquí y seleccionar la zona de disponibilidad Voy a elegir todas las zonas disponibles aquí para que mi servicio pueda distribuirse en todas las zonas disponibles, haga clic en Siguiente Ahora, aquí es donde puede elegir el grupo de capacitación automática sin un equilibrador de carga o adjuntar un equilibrador de carga existente donde puede elegir entre el equilibrador de carga existente que tiene ahí fuera, o puede crear un nuevo equilibrador o puede crear Ahora, al crear un nuevo balanceador de carga, grupo de capacitación automática solo le permite crear un equilibrador de carga de aplicaciones o un equilibrador de carga de red Como se trata de un contenido de aplicación, crearemos un balanceador de carga de la aplicación, y luego el nombre del balanceador de carga va a ser HSLB Eso dice que es balanceador de carga de aplicaciones. Frente a Internet interno elige orientado a Internet. No puede deshabilitar estas subredes porque hemos hecho un grupo de escaneo automático de todas las subredes o zonas de disponibilidad, todas las zonas de disponibilidad también están seleccionadas para su equilibrador de carga Y entonces aquí tienes el número de puerto HTTP, puedes agregar um otros números de puerto también. Una vez que haya creado esto no en este momento, sino una vez que lo haya creado, puede ir a la consola de equilibrio de carga y puede agregar más oyentes al balanceador de carga existente Pero al crear esto, solo puedes agregar un oyente por aquí, que es ocho oyente, ese es uno predeterminado Entonces aquí, puedes elegir el grupo objetivo. Ahora puedes elegir un grupo objetivo existente o crear un nuevo grupo objetivo. Esto en realidad creará un TG. Sólo estoy dando un nombre por aquí. Automáticamente crearé un grupo objetivo. No hay que especificarlo. Ahora, si recuerdas, en el anterior, creamos un grupo objetivo. En ese grupo objetivo, tenemos um teníamos una lista de instancias que se creó, y luego importamos la instancia existente a nuestro grupo objetivo y luego guardamos o registramos esa instancia en particular parte del grupo objetivo. Ahora, no tienes que hacer esto porque a medida que estás creando AG um, o grupo de autoskilling, serás cualquiera que sea la instancia del grupo de auto skilling que se va a crear, se agregará automáticamente a este grupo objetivo Realmente no tienes que agregar cada instancia o registrar cada instancia en tu grupo objetivo. Iba a ser agregado automáticamente. Por eso dije que creas un grupo objetivo como parte de la configuración de equilibrio de carga. Entonces una vez que hayas terminado con esto, aquí estamos diciendo que no necesitamos Lets VPC y luego vamos a ir con la configuración predeterminada, habilitar cualquiera de este servicio de monitoreo o cualquier cosa porque se va a cobrar adicionalmente Haga clic en siguiente Esta capacidad es una, capacidad mínima es una, capacidad máxima es de cinco. Por lo tanto, la política de esquí automático opcional, el escalado automático objetivo. Entonces aquí hay una opción de elegir qué tipo de póliza quieres seleccionar. Entonces hay opción de no política de esquí automático donde puedas seguir adelante y hacerlo más tarde como lo hicimos nosotros, o podemos ir por la predeterminada que es el autoescalado dirigido y un valor promedio de CPU de 80 por ciento Entonces, una vez que el valor promedio de la CPU alcanza el 80% teach, esto va a hacer girar nuevas instancias. Bien. Ahora, prioriza la disponibilidad lanzando antes de terminar, lanzando una instancia y haciendo que se registre antes de terminar para Y entonces no queremos habilitar la báscula en protección. Por lo que ya lo hemos comentado en los videos anteriores. Pasemos a la siguiente pantalla, y luego no queremos SNS Entonces pasemos a la siguiente pantalla. No queremos agregar ninguna etiqueta, y luego hacer clic en Crear grupo de cribado automático. Ahora se crearía este grupo de auto skilling, y luego se creará tu equilibrio de carga Entonces se crearán todos esos elementos de acción, puede ver esa política de capacitación de escalado automático, equilibrador de carga, un grupo objetivo, un oyente y una instancia Entonces verás que ahora se estará ejecutando una instancia. ¿Bien? En instancia se crea primera instancia, es un estado deseado. balanceador de carga habría creado para que se cree Banza, se habría creado el grupo objetivo, como puedes ver por aquí, déjame quitar el anterior, eso no causa ninguna confusión Después tienes creado el grupo de escalado automático. Cuando entras dentro del grupo de autoescalado, tienes que sí alcanza la capacidad deseada, capacidad mínima, máxima se define aquí Tienes todos los demás elementos de configuración. Si vas a la política de escalado, hemos habilitado el escalado dinámico. Que es para 80 por ciento por aquí, CPUtilización. Gestión de instancias, solo tenemos una instancia configurada, esa es la deseada y luego monitoreo y otras cosas. Vamos al balanceador de carga, se llama el balanceador de carga Vas a conseguir las reglas del oyente. Entonces el oyente predeterminado es configurar y agregar oyentes adicionales si lo necesita Y mapeo de red, se puede ver que este mapa a todas las zonas, todas las zonas de disponibilidad disponibles bajo la región. Si ves esta asignación de recursos, el oyente HTTP AT conectó a la regla del grupo objetivo, y luego se presenta el grupo objetivo y dentro del grupo objetivo ya, la instancia del servidor que hemos configurado ya está entrando Entonces, en realidad no tenías que hacer nada por aquí. Entonces el grupo objetivo apuntó automáticamente a esta instancia en particular que está corriendo por aquí. Vamos a navegar por el sitio web, a ver si funciona. En primer lugar, navegaremos por ese sitio web individual, veremos que uno funciona. Vamos a copiar la dirección IP pegada por aquí. Ahí vas. Hola desde autoscale Fácil de escalar automáticamente. La instancia está funcionando. Veamos si la URL de equilibrio de carga está funcionando o no. Copia el nombre DNS por aquí, y luego póngalo ahí afuera. Vea si la URL de equilibrio de carga funciona bien y la URL de bajo equilibrio también funciona bien. Esta es una buena noticia. Usted es capaz de navegar directamente desde la instancia, así como desde el equilibrio de carga. Ahora bien, si hay un requisito que el servidor requiera ser escalado o lo siento, escalado, uh, puedes hacer esto manera autónoma porque tienes un conjunto de políticas, lo que significa que cuando tu utilización de CP alcanza el 80 por ciento, vas a traer más instancias para manejar la carga, y también escalará porque no de que el servidor requiera ser escalado o lo siento, escalado, uh, puedes hacer esto de manera autónoma porque tienes un conjunto de políticas, lo que significa que cuando tu utilización de CP alcanza el 80 por ciento, vas a traer más instancias para manejar la carga, y también escalará porque no estamos permitir la protección de incrustaciones en protección. Gracias de nuevo por ver este video para eliminar este eliminar el grupo de autoescalado, así que la mayoría de los artículos se habrían ido Y entonces es posible que tengas que eliminar manualmente tu um, grupo objetivo, balanceador de carga También tienes que eliminar manualmente tu plantilla de lanzamiento. Entonces así es como necesitas retroceder. Gracias de nuevo por ver este video. Te veré en la siguiente. 64. Introducción al balanceador de carga EC2 de Labs: Oigan, chicos. Bienvenido de nuevo a otro video. En este video, vamos a hablar sobre la experiencia práctica en balanceador de carga En el video anterior, M entendió que el balanceador de carga es algo que está disponible bajo el panel de control de servicio EC two Y debajo de eso, vas a tener el balanceador de carga. Ahora vas a tener disponibles múltiples balanceadores de carga Entonces, en primer lugar, vamos a configurar el balanceador de carga de la aplicación a través una instancia separada de EC two Ahora, sigamos adelante y creamos una instancia EZ two para que podamos trabajar con ella. Ahora bien, esta instancia de EC dos debería tener algo que, ya sabes, algo que esté alojado en ella, así que es fácil para nosotros navegar por ella. O para acceder a él. Tomemos HTTP es un ejemplo muy común que normalmente usamos porque eso es lo único que realmente puedes navegar en nuestro sitio web. Entonces eso es mucho más fácil. Entonces lo que voy a hacer en este video es que primero voy a lanzar una instancia de un EC dos, y voy a crearlo como servidor webpon o sifón Entonces esta es la primera instancia de web EC 21. Es muy recomendable que hagas escalado automático en esto en lugar hacer un lanzamiento de instancia EC two porque cuando lanzas instancia, básicamente significa que solo tienes una instancia de servidor de esa. No es un problema, puedes agregar otro servidor y luego puedes ponerlos parte del grupo. Entonces eso también está ahí. Pero cuando creas servicio manualmente así, hay una buena posibilidad de que alguien más lo elimine también porque incluso tú tienes protección de eliminación y todas esas cosas, pero un servicio individual como este no viene bajo equilibrio de carga o alta vaibilidad Entonces eso es algo que debes considerar. Pero en este ejemplo, vamos a hacer eso. En el siguiente ejemplo, hablaremos sobre autoescalado y la adición del balanceador de carga a Veremos esa perspectiva así elegiremos Amazon inuxie Vamos a elegir D a Micro. Vamos a elegir la clave por defecto, que tengo por aquí. Escogeremos un grupo de seguridad existente que ya hemos estado usando llamado el predeterminado, que permite la conexión de tráfico desde cualquier lugar. Entonces cuando clicon compara la regla de grupo, podemos ver que está permitiendo todos se conecten al servidor, lo siento, conectarse a su infraestructura donde sea que esté asignado el grupo de seguridad Así que solo le pegué a Cancelar. Entonces ahora el grupo de seguridad es algo a lo que vamos a acceder en todas partes. Entonces aquí voy a configurar la historia diez GB. No se necesita tanto espacio. HGB funciona bien, pero voy a hacer eso. Ahora, no lances la instancia. Como vamos a hacer esto. Hay dos formas de hacerlo, ¿de acuerdo? Puede iniciar instancia, y luego puede conectarse a la instancia y luego instalar HTTP y configurar HTTP allí. En la instancia. Pero en lugar de hacer eso, lo haremos con éste solamente. Cuando haces clic en Detalles avanzados por aquí y cuando bajas, tienes algo llamado datos de usuario opcional. Aquí, puede escribir hash y luego exclamatorio Bin Bash, y luego puede escribir um update Esto hará una actualización general, y luego m instalará iPhony HTTPD Este es el proceso que estamos planeando instalar y luego hacer eco. Esta es la página EC dos instancias H GMO. Puedes poner H uno también aquí, esto lo resaltará. Entonces H OMG Puedes copiar esto y poner esto en el frente también y quitar la barra Entonces esto hará eco en un archivo, que es básicamente el índice de página predeterminado para HMO, ropa interior, W GMO, índice H Entonces este es el archivo al que lo actualizará. Y luego sistema CTL, iniciar HTDPD sistema CTL, habilitar HTDPD Por lo que esto iniciará el servicio HTTPD y habilitará también el servicio HTTPD Entonces, cuando el sistema se reinicia es básicamente arrancarlo. He puesto este por aquí. Puedes tomarle una captura de pantalla. Este es básicamente el comando. Es un comando muy sencillo, aquí no hay ninguna complicación. Básicamente, estoy actualizando Yum, instalando HTTPD, creando esta línea en particular, y reemplazándola en el índice predeterminado a Estoy iniciando y habilitando HTTPD. Eso es. Ahora basta con hacer clic en Launch Instance. Ahora cuando lanzas instancia, realmente no tienes que conectarte a la instancia e instalar HTTP porque estos elementos van a ser ejecutados como parte de la creación de la instancia. Después de lanzar esta instancia, si solo vas a ejecutar instancias y actualizas esto y luego seleccionas esto y tienes la dirección IP pública copia esta IPRRspase pública por aquí y escribe HTTP dos puntos slash, y se espera que veas esa página de la que acabamos de hablar que veas esa página de la que Puede llevar algún tiempo porque puede que actualice Yam, y luego instalará los componentes, por lo que puede tomar un poco de tiempo Pero deberías ver eso. Hola de Fácil de instalar. Deja que Control se refresque. Creo que lo reemplacé hola de fácil a instancia. Creo que lo reemplacé por copiar en otro lugar. Entonces esta es la redacción que hemos incluido finalmente. Hola de fácil a instancia, y esas son las mismas páginas que vienen por aquí en esta dirección IP. Perfecto. Ahora que hemos completado la configuración de la instancia, vamos a configurar el balanceador de carga Ahora vamos a elegir el balanceador de carga predeterminado para cualquier aplicación que sea su balanceador para cualquier aplicación que sea de carga de aplicaciones Aquí vamos a nombrarlo como carga de aplicaciones webby fin ALB Ahora, debes asegurarte de elegir Internet frente a Internet o de lo contrario no podrás navegar por él. No obtendrás la dirección DNS y no serás navegado desde mi escritorio Así que asegúrate de que esté orientado a Internet y asegúrate de que sea la dirección IP, versión cuatro está habilitada. Doble pila significa que obtendrá versión cuatro y la versión seis y la pila dual sin versión cuatro significa que obtendrá solo la dirección IP de la versión seis. Eso es más o menos vamos a ir con la Versión cuatro en este momento. Perdón por el ruido de fondo. Entonces aquí tengo la configuración de VPC por aquí. Ahora, en esta VPC, tengo toda esta zona de disponibilidad Es obligatorio que seleccione dos zonas disponibles como mínimo y una subred cada una de estas por zona mínimo y una subred cada una de estas También puedes seleccionar todas las zonas. No hay problemas al respecto. Entonces tu servicio, que es aplicable en eso será parte de él, y tu balanceador bajo también formará parte de todas las zonas Así que permítanme seleccionar dos o tres zonas que se necesita. Entonces voy a ir con cuatro zonas por aquí. El grupo de seguridad es el mismo que se seleccionó para el predeterminado, por lo que se selecciona el predeterminado. Entonces aquí está la configuración del oyente. Esta es la parte muy importante de la misma. Digamos, por ejemplo, que tu aplicación funciona en HTTP o funciona en HTTPS, cualquiera de los dos. Pero si tu aplicación también funciona tanto en HTTP como en HTTPS, no hay problema. Puedes agregar otro oyente por aquí como agregar oyente. En este, puedes configurar HTTPS. Puedes ver 443 y luego seleccionar un grupo objetivo. Pero mi aplicación actualmente solo se ejecuta en HTTP. En ese escenario, no quiero agregar otro oyente para HTTPS Pero lo que hay que hacer es que tenemos que seleccionar algo llamado grupo objetivo por aquí. No verás ningún grupo objetivo. No estoy seguro de por qué estoy viendo al grupo objetivo por aquí. Entonces me quite ese grupo objetivo. Creo que sí eliminé la acción D Se elimina. Déjame refrescar esto. Lo tengo. Grupo objetivo, ¿qué es un grupo objetivo? ¿Por qué necesitamos crear un grupo objetivo? Ahora, ¿estamos creando el balanceador de carga? Pero en esta configuración de balanceador de carga, que hemos hecho hasta ahora, no hay método para especificar el destino, ¿verdad? Estamos diciendo que mi balanceador de carga debería estar frente a Internet, por lo que la gente de Internet debería poder navegar por él Estamos diciendo configuración de red para mi balance de carga, mis balances de carga deben establecerse en esta, um, cuatro zonas de disponibilidad en esta VPC Pero no estamos diciendo a dónde tiene que ir, dónde hay que encaminar la solicitud. En nuestro caso, nuestra solicitud de ser enrutados a nuestras instancias, que está por aquí Actualmente, las instancias en ejecución solo una, que es web fácil a una. Ahora cómo voy a apuntar esto desde el lado de la equilibradora vial A eso se le llama un grupo objetivo. Un grupo objetivo tampoco, te mostraré cuando haga clic en Crear. Cuando hago clic en Crear, lo ves, puede apuntar a instancias. Puedes seleccionar varias instancias y convertirlo en parte del balanceador de carreteras, pero no es muy recomendable hacerlo de esta manera, pero esta es la forma principal que debes entender Cuando estás configurando el balanceador de carga, esto es lo primero que debes hacer Para configurar el balanceador a través de instancias y luego a través de auto scaling y luego a través de la función Lambda, quieras hacer, puedes hacerlo más tarde Ahora, esto admite el equilibrio de carga de instancias dentro una VPC o VPC específica y también facilita el escalado automático EC dos Hablaremos de escalamiento hija más adelante, cómo vamos a configurar el balanceador de carga para un momento posterior O bien, puede seleccionar la dirección IP donde puede admitir el equilibrador de carga VPC y en los recursos de promesas también, y también facilita el enrutamiento de múltiples IPAddress e interfaces de múltiples IPAddress e En lugar de instancias, también puede elegir IPAddress. O también puede elegir las funciones de Lambda, o también puede elegir el equilibrador de carga de la aplicación Balanceador de carga de aplicaciones, nuevamente, parte del grupo objetivo Entonces, cuando esté haciendo el balanceador de carga de red, puede usar el grupo de destino para apuntar al equilibrador de carga de la aplicación Entonces puedes dar los detalles del balanceador de carga de la aplicación aquí, que es parte del grupo objetivo, que es el siguiente No hemos creado el balanceador de carga de aplicaciones, estamos en proceso de crearlo. No he pulsado el botón crear balanceador de carga, así que aún no se ha creado. Entonces iremos con la opción de instancias. Aquí voy a hacerlo como web iphone target group, Iphone TG diciendo target group. Y aquí me estoy enfocando en mi grupo objetivo estará enfocado en este puerto TCP de 80. Mis aplicaciones um, que se van a ejecutar en esta instancia estarán en este particular, um, protocolo y, um, el número de puerto. También tienes la opción de seleccionar directamente HTTPS. Bien, entonces cuál está dirigido al número de puerto AD. Entonces, en lugar de seleccionar TCP, puedes seleccionar directamente HTTPS, lo siento, HDDP Entonces, si tienes HTTPS habilitado en tu aplicación, puedes seleccionar HTTPS. Pero en este HTTP vainilla, solo estamos habilitados HTTP. Bien, no HTTPS. Ahora, aquí puedes ver la VPC predeterminada. Se puede ver el protocolo HTTP. Aquí puedes ver algunos de los atributos de aquí en el protocolo de comprobación HTDPelth, la raíz de contexto, que es tu directorio raíz Del mismo modo, ve algunas opciones predeterminadas por aquí, y luego da clic en siguiente. Ahora, aquí es donde necesitas seleccionar o registrar tus objetivos. Ahora, a partir de ahora, las instancias disponibles que están en estado de ejecución son esta instancia en particular. Aquí es donde hemos alojado nuestro servidor web HTTP, simplemente haga clic en Incluir pendiente a continuación. Ahora incluye como pendiente a continuación. Cuando haces eso, puedes ver que esta instancia disponible se convierte en tu instancia de destino. Una vez que se haya convertido en tu instancia objetivo, puedes hacer clic en Crear grupo objetivo. Ahora, una vez que se cree el grupo objetivo, verá los objetivos totales de aquí como uno y actualmente no utilizados e iniciales. este momento no ha sido mapa bajo ningún balanceador de carga, pero lo haremos Ahora que has creado el grupo objetivo, puedes cerrar este y luego volver a tu pantalla anterior donde tienes que seleccionar el grupo objetivo. Simplemente haga clic en actualizar y luego seleccione el grupo objetivo que haya creado. Ahora que has seleccionado el grupo objetivo, puedes seguir adelante y hacer clic en el Crear equilibrador Existen algunas opciones avanzadas sobre el grupo objetivo, cuales hablaremos más adelante punto del tiempo cuando surja la necesidad. Pero a partir de ahora, se puede ver que el oyente y la regla dice por aquí es que tienen protocolo GDB AD, que se reenvía a su grupo objetivo web grupo objetivo web tendrá las instancias que va a formar parte de él. Stickyession es pegajosidad es pegajosa la sesión no es más que un recurso si una solicitud se enruta a una instancia de servidor específica, se asegurará de que esa pegajosidad permanezca encendida no es más que un recurso si una solicitud se enruta a una instancia de servidor específica, asegurará de que Cada vez que entra esa información o la cookie del navegador, ese usuario en particular sigue actualizando la solicitud, terminará en el mismo servicio que ha sido procesado por primera vez. Eso se llama sesión pegajosa. Eso necesita habilitarse a nivel de grupo objetivo. Eso está deshabilitado, está bien. Ahora puedes ver que estás obteniendo el 100%, lo que significa que te dice que el servicio que está configurado dentro este grupo objetivo está disponible al 100%. Entonces hay una regla, y si haces clic en la regla, realmente puedes entender la información de la regla, como cómo ocurre el enrutamiento. Una de las cosas importantes que quiero mostrarte en el balanceador de carga es el mapeo de red En el mapeo de red, puedes ver todos esos, um, ya sabes, servidores o lo siento, todas esas zonas T y subredes disponibles para estas zonas T disponibles están mapeadas por aquí. Otra cosa importante que quiero mostrarles es el mapeo de recursos por aquí. El mapeo de recursos le muestra claramente la forma en que se mapea. Entonces, cuando alguien entra y accede a este nombre DNS, llegarán a este AD HDP y luego eso básicamente tiene una regla por aquí que reenvía al grupo objetivo El nombre del grupo objetivo es web iphone TG, y ese grupo objetivo tiene un objetivo dentro de ese uh en particular, grupo y no hay nada malsano y el grupo objetivo está dirigido a esta instancia en particular, la instancia de EC dos por aquí. Te da la jerarquía completa y cómo las solicitudes se pasarán a la siguiente línea. Esta información básica te dará información sobre cómo se transmite la información. Ahora puedes ver que el monitoreo no habría llegado hasta ahora, pero el monitoreo te dice sobre el rendimiento de los ELB, cuántos, 500 errores, 400 errores y todos esos errores que tan enfocados o que acabas de recibir También puedes integrarlo con otros servicios AW, que de nuevo, uh incurre en costos adicionales adicionales por aquí como WAV o config o acelerador global igualmente le daré la información completa sobre esos elementos de acción. No estamos aquí para configurar todas esas cosas. Yo grupos de seguridad, tenemos el SG que hemos creado por defecto en los videos anteriores, el mismo grupo de seguridad que estamos eligiendo aquí. Esto resume prácticamente la configuración. Sigamos adelante y naveguemos por esto. Para navegar, copia el nombre DNS y luego simplemente reemplazarlo en lugar de la dirección IP. Cuando presionas Enter, va a HTTPS, solo asegúrate de seleccionar HTTP. Creo que vino en HTTP. Ahora solo para controlar la actualización y se puede ver que esta instancia viene por aquí. Esto es más o menos lo que quiero mostrarte si creas otra instancia, por ejemplo, lo que haremos es crear otra web iphone EC dos a menudo dos. Entonces en esta instancia, lo que haremos es, dejaremos todo por defecto. En esta instancia, copiaremos y pegaremos lo mismo, y luego diremos, como el servidor Ken aquí. Vamos a dar esta información adicional aquí diciendo que se trata de un segundo servidor, así que voy a seleccionar el par de claves y lanzarlo. Entonces ahora está lanzando la instancia. Ahora que hemos agregado una nueva instancia a nuestro servidor existente. Ahora esperemos a que la instancia se inicialice, entonces está inicializando Ahora lo que hacemos después de que se inicialice vamos a navegar por esta instancia, ver si esta instancia funciona bien, individualmente Uh, eh. Creo que sigue subiendo. Sí, tomaría algún tiempo para que surgiera y luego yum se actualizara e instalara componentes y todas esas cosas Va a tomar un poco de tiempo. Así que vamos a ver si esto funciona bien. Voy a pausar este video pausarlo una vez que esté terminado. No quiero retenerte Bueno, no está funcionando por la configuración del grupo de seguridad, así que sólo voy a modificar eso. Entonces solo voy a cambiar el grupo de seguridad por otra cosa, que normalmente usamos. Entonces solo voy a ir a seguridad, cambiar de grupo de seguridad. Y luego solo voy a quitar eso y estoy seleccionando el predeterminado y agregando eso. Entonces esto debería solucionar el problema. Como, sí, di aquí. Ahora tienes el nombre de segunda instancia por aquí. Entonces, cuando navegues por la primera instancia, vas a obtener esta instancia, y luego el segundo servidor va a llegar a esta. Entonces, a partir de ahora, lo estamos navegando individualmente en esta dirección IP directamente en el sistema. Ahora, lo que voy a hacer es que voy a agregar todo lo que tengo que hacer es no tener que modificar el balance vial aquí. No tengo que hacer nada. Ir al grupo objetivo. Um, seleccionar el grupo objetivo y luego todo lo que tengo que hacer es registrar este target, simplemente hacer clic en registrar target, seleccionar la segunda instancia que está por aquí. Ya está aquí la primera instancia, seleccione y segunda instancia de seleccionada y luego incluya en la pendiente a continuación y luego registre los objetivos pendientes. Ahora tienes dos objetivos. Ahora bien, este es un muy buen ejemplo, quiero mostrarles en cuanto a cómo funciona la sesión pegajosa. Por defecto, las sesiones pegajosas a sp lo que significa que no tengo sesión pegajosa por defecto, lo que significa que si voy a refrescar esto, bien, entonces voy a obtener el segundo servidor, si lo voy a actualizar de nuevo, lo voy a obtener del primer servidor. Entonces esto es lo que pasa cuando la sesión pegajosa está deshabilitada. De hecho, cada vez que refrescas , recibes, ya sabes, tu solicitud enviada a un servidor diferente. Eso es básicamente el método round robin. Entonces, si ves que el ALB está configurado por defecto, método round robin Entonces lo que eso significa es que tu petición irá una por una. Uh, a cada servidor que tenga. Entonces ese es el método de deformar de tu solicitud siendo enrutada como parte del Aquí puedes ver que el monitoreo ha comenzado a funcionar. Hay dos monitoreos que entraron en existencia. Una es la respuesta, perdón solicite el número de solicitudes que están recibiendo y el tiempo de respuesta. Entonces algunos otros vinieron por aquí en términos de errores. Entonces existe este error 404 XX, que significa que algo relacionado con él podría ser permiso denegado o archivo no encontrado o algo así, podría ser 400 X. Así que podría ser 400 X. 404403, así mismo, todas esas excepciones vendrían y se mostrarían por aquí diciéndote la cantidad de excepciones que viene a través tu saldo de carga Por lo tanto, método muy útil para identificarlo. Entonces, en términos de grupo de orientación, grupo de orientación tiene toda la información sobre cómo se enrutaría su solicitud Bien, entonces ahora mismo, esta zona de disponibilidad tiene dos objetivos, para que puedas obtener esa información desde aquí. También puedes ver el monitoreo de estas máquinas virtuales y cuántos hosts has agregado como parte de este grupo objetivo y cuál es su salud. Entonces hemos sumado uno a dos y todos esos dos están sanos. Por eso está arriba. Si no es saludable, va a bajar. Así que no hay un anfitrión malsano por aquí. Se puede ver el promedio de anfitrión saludable. Se puede ver la solicitud de tiempo de respuesta objetivo y todas esas cosas que vienen de esa zona también. Así mismo, como que obtienes todos esos detalles. Ahora, en los grupos objetivo, tienes la configuración de la comprobación de estado por aquí. Entonces aquí, se habla de dos fallas consecutivas de chequeo de salud que se considera insalubre. Y luego va a marcar ese host insalubre y no va a ser parte de tu balanceador de carga Por lo que cinco chequeos de salud consecutivos son un éxito. Por lo que el anfitrión insalubre va a un anfitrión va al estado insalubre, necesita hacer cinco chequeos de salud para volver al estado saludable. Entonces el intervalo es de 30 segundos y el tiempo de espera es de 5 segundos, y el código de éxito es de 200 Así que 200 mayormente en lenguaje HTTP significa éxito. Entonces hay algunos atributos por aquí sobre la pegajosidad Aquí es donde se puede habilitar la pegajosidad. Aquí donde realmente puedes cambiar tu modo drowin redondo a promedio ponderado o cualquier otro modo. Simplemente haga clic en Editar. Tienes el menos pendiente solicitado ponderado aleatorio y tienes round robin. Ese es el predeterminado. Entonces tienes la pegajosidad por aquí, así puedes seleccionar la pegajosidad si quieres que esa pegajosidad Ahora acabo de seleccionar la pegajosidad. La duración de la pegajosidad es de un día. Ahora puedes hacerlo siete días también.Harly soportar segundos Siempre se recomienda tener una sesión pegajosa de un día. ¿Cómo quieres que la sesión pegajosa sea Cookies de generador de balance vial o cookie basada en aplicaciones Cookie basada en la aplicación significa que su aplicación tendrá un nombre de cookie único y puede rastrear el balance de la carretera. El ALB rastreará ese nombre de cookie y luego básicamente mantendrá esa pegajosidad seguimiento del equilibrador de carga significa que generará automáticamente un ID de sesión de cookie y se rastreará ese ID de sesión Ahora, solo guardemos los cambios, y luego echemos un vistazo a nuestro sitio web ahora mismo. Entonces ahora estoy refrescando esto. Actualmente, estoy atascado con esta única instancia de servidor. Ahora la instancia no está cambiando tan a menudo. Se puede ver que estoy atascado con la segunda instancia del servidor sin importar cuántas veces me refresque. Esto es lo que significa sesión pegajosa. Le tomó un poco de tiempo superar ese cambio. Pero en el momento en que ha llegado el cambio, sea lo que diga que hayamos hecho, se puede ver que soy refrescante, se puede ver que está cambiando. Debido a que estoy haciendo refrescamiento controlado, estoy manteniendo el control así como FI juntos. Entonces ahora puedes ver cuántas otras veces refresco no va al primer servidor. Sólo se está pegando con el segundo servidor. Esto se llama sesión pegajosa. Te he enseñado todas esas cosas sobre el Balanceador de Carga. En el siguiente video, haremos la misma configuración de Load Balancer a, um, a través del grupo de autoskilling, y luego veremos cuál es el beneficio de Gracias de nuevo por ver este video. Te veré en la siguiente. 65. Desinstalación práctica de ECS de Labs: Oye, bienvenido de nuevo al siguiente video. El retiro de esto podría complicarse por el trabajo que hemos realizado. Entonces te voy a mostrar cómo eliminar los componentes del ECS Así que solo selecciona el clúster. Primero, vamos uno por uno. Tenemos que ir al mejor artículo aquí, los despliegues. Así que tenemos que detener las implementaciones, um, eliminar la tarea Quiero decir, detener la tarea, um, eliminar la tarea, y luego necesitas eliminar el servicio en el clúster. Así que tuvimos que ir desde el reverso. Cuando empezamos, comenzamos a partir de implementaciones de servicios de tareas de clúster, luego hay que ir al revés Simplemente vaya al servicio, vaya a las implementaciones y luego verá que Deployment seven se está ejecutando en este momento Necesitas servicio de actualización ahora mismo, me aseguro de que tu tarea deseada sea cero, esto asegurará que no haya ninguna tarea ejecutándose. Esto equivale a detener toda la tarea porque si la detienes, existe la opción de detenerla en la definición de tarea. Si detienes la tarea, ésta comenzará de nuevo automáticamente. Lo primero es que impidan que su implementación complete cualquier tarea, por lo que su implementación se convierte en cero, para que pueda ver que ya no está desplegada. Una vez que ya no estés desplegado, entonces puedes ir a la tarea. Se puede ver que no hay tarea por aquí. Eso es bueno. Ve a tu definición de tarea, selecciona la definición de tarea, y luego creo que necesitas ir a cada una de estas y seleccionarla. Acción darse de baja, es necesario registrar todos ellos. puede ver que ya se ha ido todo, esto debería ser bueno. Volver al cúmulo. Un nombre de clúster y luego eliminar el servicio. Si esto te deja dt, entonces estás en claro ahora estás en el claro. Nos registramos, desdesplegamos y eliminamos el servicio. Y luego puedes ir a la tarea. Creo que automáticamente se habrá ido ahora. Sí, se ha ido. A continuación este clúster, seleccione el clúster, elimine el clúster, copie y pegue esto y modifique la D a D pequeña y presione el botón de eliminar debería eliminar su clúster. Es decir, cuando hagamos la sesión de balanceo de carga, volveremos a crear. Pero esa vez lo haremos manualmente porque no queremos que esa instancia del servidor se esté ejecutando hasta ese momento. Por lo que puede tomar un poco de tiempo eliminar el clúster PCS. Una vez hecho esto, entonces eliminaremos el espacio de nombres también porque el espacio de nombres es muy importante para que lo eliminemos Voy a pausar este video. Bueno, eliminar el clúster significa que también eliminará tu instancia EC two porque tu auto skilling se eliminaría como parte de la eliminación del clúster, así podrás ver que ya no hay un grupo de auto ski Entonces eso es básicamente la eliminación del clúster. Tendrás un enlace por aquí, que te dice que redirijas a tu formación de nubes. Así que ahora puedes ver que se ha eliminado con éxito. Tardó unos 5 minutos, creo que 2 minutos para mí. A 5 minutos. Entonces ahora creo que esto debería desaparecer. Sí, ahí tienes. Espacio de nombres, selecciona el espacio de nombres, um, y tienes el nombre aquí. Bueno, el espacio de nombres viene bajo el mapeo en la nube, por lo que básicamente es el espacio de nombres en el nombre del espacio de nombres. Entonces solo presiona el botón t. Esto puede tomar alrededor de un par de minutos para que se complete como pll para que puedas ver eso girando. Déjalo ya que es solo cerrar la pestaña, saldrá y no es realmente importante que nos quiten eso de inmediato. Entonces, que se tome su tiempo para que se haga eso. Bastante aclaró todas esas cosas que acabamos de crear. No tenemos cluster, no tenemos tarea, no tenemos nada que acabamos de hacer. No tenemos el grupo de autoski ni la instancia disponible para nosotros. Gracias de nuevo por ver este video. Te veré en la siguiente. 66. Configuración de ECS de Labs Parte 1 Prácticas: Hola chicos, volveremos al siguiente video de este video, vamos a hablar de ECS Este es el primer tema que vamos a comenzar en términos de entender su servicio de cómputos de AWS. Ya hemos visto múltiples ubicaciones y fáciles de instancia, así que no vamos a hablar de ello, sino que vamos a crear una instancia ECS y luego vamos a trabajar con ella Ahora, la instancia ECS viene con dos opciones. O puedes ir con Fargate o EC de dos instancias. En este video en particular, vamos a utilizar el ECS con EC de dos instancias en lugar de Fargate Más adelante, verá en esta sección en particular, estaremos hablando de ECS usando Fargate y trabajando con ECS en Fargate y trabajando con ECS Eso es básicamente un servicio de cómputos sin servidor. Bien, así que vayamos por este camino para el ECS usando Est Así que siga adelante y llame al servicio ECS y luego haga clic en el medio para abrirlo en la nueva pestaña Ahora bien, recuerden que esta es una configuración multiparte, así que vamos a configurar múltiples elementos por aquí, y finalmente, vamos a poner en marcha nuestro clúster, bien. Entonces esto es lo primero con lo que voy a empezar en este video. En primer lugar, vamos a configurar un clúster Clic en Crear clúster. Así es como puedes interactuar con servicio ECS al crear un clúster Ahora, el clúster le brinda la infraestructura para que ejecute un contenedor, pero no estaremos creando un contenedor mientras creamos un clúster. Lo que vamos a hacer es el primer paso es crear una infraestructura como clúster, donde en la que estaremos especificando el número de instancias que se van a ejecutar a un clúster. Y luego haremos una definición de tarea. En esa tarea, estaremos especificando qué tipo de contenedor queremos ejecutar como parte de este clúster. Y también estaremos configurando un servicio bajo el clúster e integraremos la tarea y luego haremos que esa tarea se ejecute y luego el clúster el servicio dentro del clúster comenzará a aparecer con contenedores Vamos a hacer clic en Crear Cluster. El primer paso es crear un clúster. Voy a dar HTTP uh, clúster ECS. Ahora bien, este va a ser el nombre de mi clúster. Entonces esto me dirá que es un HTTP donde estoy usando esta aplicación GeneX aplicación para solicitud HTTP, ECS como en palabras, es lo que estamos haciendo servicio de contenedor Y luego es un cúmulo. Entonces esto es sólo para definir eso. Cuando creas un nombre de clúster, vas a obtener el espacio de nombres también asignado a él, así que vas a ver un espacio de nombres asignado allí Ahora en esta situación, estamos eligiendo EC dos en lugar de Fargate Fargate es básicamente no tienes que especificar ninguna instancia de EC two serve como esta. Si selecciona esto. puede ver que automáticamente, creará o generará servicio de cómputos sin servidor, que es cero mantenimiento Pero en términos de EC two instance, hay mantenimiento requerido donde realmente vas a tener el creador de instancias EC two. Perdón por el ruido de fondo. Entonces aquí tienes el ASG, así que esto no es más que grupo de autoscaling Grupo de Auto Scaling, hablaremos en un momento posterior. Creo que está cubierto por aquí. Entonces hablaremos mucho más de detalle sobre los grupos de escalado externo, pero aquí solo resumen. Entonces estaremos creando grupos de autoescalado, y poco a poco va a escalar. Por lo que normalmente vamos a definir la capacidad mínima y máxima deseada. ¿Bien? Entonces mínimo significa como el número de servidores que se necesita crear mínimo, debe mantenerse siempre, lo que significa que no disminuirá desde el mínimo, sino que escalará hasta el máximo. O se puede decir escalando al máximo y escalando al mínimo. Mínimo, podemos mantenerlo como uno y máximo, podemos mantenerlo como cinco. Esto asegura que el número máximo de servicio que puede crear es cinco y un mínimo, mantendrá todo el tiempo es uno. Ahora, aquí hay dos opciones en términos de modelo de aprovisionamiento para su grupo de autoskilling Una es la instancia bajo demanda y spot. Estos son el tipo de instancia, ¿de acuerdo? Por lo que ya hemos discutido bastante al respecto. La instancia bajo demanda es básicamente pagar por la marcha, y no se requieren compromisos a largo plazo ni costos iniciales para ello, lo que significa que crea una instancia de EC dos yendo a EC dos Entonces eso es básicamente una instancia, ya sabes, bajo demanda, ¿verdad? Entonces lo mismo es lo que estamos haciendo aquí. Entonces necesitamos que esta carga esté funcionando todo el tiempo, y esto es para un contenido web, ¿verdad? Entonces lo necesitamos. Pero la instancia spot por otro lado, te permite ahorrar 90 porcentaje, que es descuento aplicado a ti. Pero el único problema es como, utilizará la capacidad de recursos ECR no utilizada Pero la utilización se hace mayor y, ya sabes, no hay espacio no utilizado, entonces obviamente no tendrás servicio para ser desechado. Entonces existe el riesgo de um, ya sabes, no tener ningún servicio disponible para ti. Entonces queremos ir sin el riesgo porque necesitamos al menos algún servicio para estar funcionando todo el tiempo, y vas a ir a la demanda en este caso. El siguiente es sobre la instancia del contenedor AMI. Lo que esta instancia contenedor, hay dos redacciones que vamos a ver más adelante punto del tiempo Uno es el contenedor y la instancia del contenedor. La instancia de contenedor es básicamente donde se alojarán los contenedores. Esto es realmente necesario para que elijas el tipo de instancia aquí. He hecho esto usando este T dos micro, pero es muy lento, así que voy a ir con T dos grande o mediano. El medio es mucho mejor. Entonces voy a ir con T dos medio el cual tiene dos cps y cuatro GB de RAM. Ahora por aquí, voy a usar crear nuevos roles por aquí. Entonces si no tienes nada y viene por defecto para crear un nuevo rol, entonces muy bueno. Entonces solo ve con esto. Simplemente viene porque ya he probado esto, así que esa es la razón por la que ya existe un papel en este nombre. Así que sólo tienes que ir con crear un nuevo rol no debería ser un problema. Términos de par de teclas, solo usa el teclado predeterminado que tienes. Yo solo elijo a Tom cad por aquí porque tengo ese par de llaves. También tengo Docker Cub, voy a elegir eso. Sea lo que hayamos hecho hasta ahora, trabajamos con tales teclados solo elige eso y debería estar bien En términos de configuración de red, vas a usar la VPC predeterminada y todas las subredes disponibles, lo que significa todas las zonas t disponibles Estas cinco instancias se pueden crear en todas estas cinco zonas de disponibilidad. Así que el grupo de seguridad existente, acabo de dar esto acaba tomar el grupo de seguridad predeterminado. Si no estás seguro de esto, ve a EC dos. Vaya a Grupo de Seguridad, y luego busque el grupo de seguridad. Entonces entiendes que todo esto es grupo de seguridad de tráfico. Todo el tráfico entrante es aceptado por defecto. Todo bien. Ahora que ya hemos completado esta tarea. Ahora sigamos adelante con la dirección IP pública asignada automáticamente. Es solo básicamente usar una configuración de subred. No queremos dar a nada ningún ajuste específico por aquí. El monitoreo es opcional, y no quiero ir por monitoreo debido a los cargos que puede ocurrir mientras el monitoreo está en su lugar. El cifrado, nuevamente, es opcional para su tienda administrada, así como Fargate FM y tienda Así que no estamos usando Fargate a partir de ahora. Uh, si quieres cifrarlo, crea la clave KMS y luego puedes elegir esa, ya sabes, la clave KMS de aquí Entonces eso es básicamente encriptamos los datos usando la clave, pero no los necesitamos. Ahora mismo, no necesitamos ningún cifrado. Si tiene alguna etiqueta a especificar para este clúster, puede agregar esas etiquetas aquí. Haga clic en Crear. Bien, entonces ahora el clúster se está aclarando , ya sabes, creado. Bueno, la creación del clúster puede tardar entre cinco y 10 minutos. Entonces, para mí, todavía está en progreso, y se puede ver que la creación de clústeres, definición de tareas, creación de servicios, todo se hará a través de la formación de nubes, porque la formación de nubes es básicamente el escalón de cada bit de configuración ECS porque ECS es componentes pequeños, y esos componentes pequeños se ejecutan juntos, y cómo se ejecuta juntos es a través de la formación de nubes. Entonces verás formación de nubes uh entrando en casi todas partes. Ahora que has creado el clúster, simplemente haz clic en el clúster y realmente podrás ver algunos detalles sobre el clúster en la descripción general. Obtendrás muchos más detalles una vez que termine esta creación de clúster. Uh, verá servicios, tareas, infraestructura, infraestructura, necesita aprovisionar ese servidor, así que todavía está aprovisionando ese servidor, la instancia um, contenedor. Eso va a subir por aquí una vez que haya hecho eso. Y entonces métrica va a venir por aquí y luego programar tarea. Ahora bien, la tarea es básicamente cómo creamos los contenedores. Esto es básicamente lo que lo llamamos como definición de tarea, lo haremos en un momento. Pero lo que es la definición de tarea es básicamente una tarea no es más que un plano de su aplicación Básicamente es un archivo de texto en formato JSO que describe los parámetros que el contenedor necesita tener Puedo tener especificación como qué tipo de tipo de lanzamiento usar. Y puede tener qué imagen de Docker quieres ejecutar como parte del contenedor ¿Cuáles son la utilización de la memoria de la CPU, las estadísticas, la cantidad que desea que se asigne la memoria de la CPU para cada contenedor? Cuantos requisitos de memoria tienes que también se pueden mencionar. Tienes límite suave y límite duro, y luego qué sistema operativo quieres que se ejecute, um, sistema operativo, um, imagen de Docker, es todo lo mismo Y también habla de configuración de inicio de sesión para que puedas usar los registros para, ya sabes, ponerlo a través para entender, ya sabes, cuál es el trabajo que está pasando. Y entonces podría tratarse de variables de entorno que hay que ejecutar. También puedes establecer si tienes varios contenedores, también puedes establecer la prioridad para que cada contenedor comience primero, cuál iniciar primero, de igual manera. Todas esas cosas deben definirse en una tarea. Y la tarea se ejecutará a través de un servicio. El servicio llamará para esas tareas y ese servicio ejecutará tarea. Entonces, lo que hemos hecho hasta ahora es crear infraestructura para que sus contenedores funcionen. Ahora puedes ver que se crea esa instancia de contenedor. Este es el ID de instancia. Entonces esto básicamente irá a EC dos instancias. Si ves Zero instance, if instance, verás esta instancia ejecutándose ahora mismo. Anteriormente he probado los de aquí. Entonces este es el que creé para este ejemplo en particular. Entonces, si solo copias este ID de instancia y lo buscas por aquí, puedes ver que coincide. Entonces este es el ID de instancia que ha creado. Entonces ahora se completa el despliegue, ¿no? Entonces ahora es por eso que se acerca. Por lo que esta formación particular de nubes también se completa, crear completa. Entonces esto también se hace. Entonces se hace la formación de nubes. Instance, se crea tu instancia de contenedor y estás listo para que estés listo para crear una definición de tarea. Así definición clicontask. Crear una nueva definición de tarea. Así que aquí estoy creando una definición de tarea para mi servicio HTTP en. Tarea. Tarea TDP. Y aquí, hay que seleccionar la misma, que es EC dos instancia lugar de contenedor de cómputos Fargate Ahora recuerda que, ya sabes, si seleccionas Fargate, entonces deberías haber seleccionado también el tipo de clúster como Fargate, o de lo contrario será confuso Entonces es mejor seleccionar lo mismo. Entonces, es en EC dos instancias por aquí. Ahora bien, este es el requisito de infraestructura para su tarea donde se creará su contenedor. Entonces ahora no estamos hablando tu tipo de instancia familiar y familia de instancias o tipo de instancia, perdón, tamaño. Entonces aquí estamos hablando de que el contenedor tiene que ser. Esta es la asignación del contenedor. Entonces este es el requerimiento de infraestructura de un contenedor. Entonces aquí el modo de red es AWSvcOperating la arquitectura del sistema es La CPU es una CPU y me voy con un GB de RAM. Entonces mi misión virtual, misión virtual media consiste en tres GB de RAM. Entonces voy a ir con una CPU virtual una memoria. Aquí, no tengo que seleccionar nada sobre el rol de tarea o la ejecución de la tarea, lo ignoras. Y aquí van a conseguir este diciendo que crean un nuevo rol por aquí. Así va a ser, déjalo como está. El siguiente es sobre el contenedor esencial. Este es el contenedor que va a venir como parte de su tarea. Ha especificado el requisito de tarea para esta definición de tarea. Entonces, si quieres ejecutar esta tarea en particular en un clúster, ese clúster debería tener una CPU virtual, una memoria, y debería tener Linux X 86. Este es el requisito. Una vez que haya completado el requisito, deberá coincidir con el requisito de su clúster. Tu clúster tiene tres GB de memoria, pero yo he dado un GB como requisito. Tu requerimiento está hecho. Validaré el requisito con su configuración de clúster actual y dirá que es exitosa. El segundo es básicamente tu contenedor. Contenedor es básicamente lo que vas a tener o correr en tu contenedor. Entonces primero, vamos a decir, voy a ejecutar nginx o servicio HTTP o nginx Y luego hay que dar una URL de repositorio completa. Ahora bien, esta URL del repositorio debería tomarse de algo llamado Elastic Container, um, repositorio. Entonces esta es la ECR, se puede ver eso. Si solo haces clic en él, se abrirá una nueva pestaña. Registro elástico, lo siento no repositorio. Registro contiene todos los repositorios, tanto públicos como privados ¿Qué significa esto? Esto significa que si quieres especificar la imagen nginx aquí, puedes crear un repositorio privado o puedes crear un repositorio público ¿Bien? Entonces ahora que tienes estas dos opciones por aquí disponibles para ti, entonces todo lo que tienes que hacer es poner esa URL por aquí. Pero tú en la URL ahora mismo. Entonces necesitas obtener esa URL de nginx de esta ECR en particular Entonces, para obtener eso de este repositorio público, simplemente haga clic en estos tres botones de aquí. Por lo que en realidad verá el listado completo o las opciones bajo ECR En ECR, vaya a repositorio público y repositorio y podrá crear un repositorio público Si haces clic en repositorios por aquí, vas a crear un registro privado Aquí crearás un registro público. Pero si quieres ver todos los registros públicos, que ya está disponible en AWS dentro de ECR, puedes hacer click sobre esto Después busca IngenX. Ahora puedes ver que Engine X ha surgido y esta es cuenta verificada, y esto es del propio nginx y tiene 1.3 mil millones Así que puedes hacer click en nginx por aquí. Luego están estas opciones por aquí donde tendrás la descripción, tendrás los términos y condiciones de uso, y luego etiquetas de imagen y todo. Actualmente, Stable Pearl es la que es la versión actual, ya puedes ver el URI por aquí. El URA también está aquí. Así que solo haz clic en Copiar. Y pega esa URA en esta imagen URI ubicación y haz de esto como un contenedor esencial. Contenedor esencial significa que este es un contenedor obligatorio, y este va a ser el contenedor predeterminado. También puedes agregar otros contenedores, así puedes crear otro contenedor haciendo clic en agregar otro contenedor y agregar otro por aquí. ¿Bien? Por lo que los dos contenedores se crearán como parte de esta tarea. Bien. Entonces ahora que esto se ha completado, ahora voy a usar el mapeo de puertos de aquí para el puerto número 80, TCP. Y protocolo HTTP. Por lo que también se agrega este número de puerto. Ahora puedes hacer que el sistema de archivos raíz solo leído también, así que eso depende de ti. La CPU virtual es una. Un ensayo y una CPU virtual y un límite duro de un GB y un límite suave de 0.5 GB. Lo que esto significa es que límite duro significa que la utilización máxima de este proceso o de este contenedor en particular va a ser de un GB, y este 0.5 es límite suave para lo mismo. Se puede agregar la variable romana cfVich. El registro está habilitado usando Cloud watch, estoy deshabilitando porque requiere um dinero extra Aquí puedes habilitar el reinicio si presionas el código de salida o, ya sabes, puedes ver el periodo de reinicio del código de salida. También puedes usar algunos parámetros o scripts de archivos shell para ejecutar como una comprobación infernal. También puedes tener dependencia de inicio si eres más de un contenedor. También puede tener la configuración de tiempo de espera del contenedor aquí ajustes de red acoplan una configuración, por ejemplo, cuando alguien inicia sesión, ¿cuál es el comando que necesita para ejecutar? Qué carpetas trabajas o directorio, así mismo, el punto de entrada. Entonces los límites de recursos para el límite UD, el límite será predeterminado, pero puedes agregar el límite U aquí. Se pueden agregar etiquetas así como parte de este contenedor. Almacenamiento o monitoreo por defecto es impuesto por defecto si quieres puedes agregarlo. Haga clic en Crear. T debería crear tu contenedor. Lo siento, crea una tarea. Ahora bien, una vez creada esta tarea, ya ves que, está usando la imagen HTTP contenedora de este repositorio así que este es el límite suave y el límite duro que hemos dado aquí. El contenedor utilizaría al máximo una CPU virtual que vemos y un GB ofrecen consumo total de RAM en la instancia del contenedor. Ahora bien, esto es más o menos lo que queríamos configurar por aquí y estos son todos los elementos. Esta tarea no se ejecuta. Necesitas algún servicio para ejecutar esta tarea ahora mismo. Se crea la tarea. Para mí, dice revisión cuatro. Para ustedes, va a decir revisión uno porque no es la primera vez que hago esto. Este es el cuarto yo lo estoy haciendo. Así que lo hice para algunos otros propósitos y esas cosas. Así mismo, tienes espacio de nombres creado automáticamente, y tienes el clúster. Entra dentro del clúster, selecciona el servicio, da clic en Crear, esto va a estar creando un servicio para nosotros. Ahora en esta creación de servicios, tenemos todas estas opciones que nos van a ser útiles para crear el servicio. Vamos uno por uno. Entonces ahora estamos aquí para crear un servicio. Para crear el servicio, permítanme simplemente reiterar el código de tema al clúster. Selecciona el nombre del clúster y en la parte inferior, tienes un servicio de llamadas de primera pestaña y luego haz clic en Crear servicio. Ahora una vez que estés en el servicio, entonces puedes ver que esto está bloqueado porque este va a ser el nombre de tu clúster. Y aquí también está bloqueado para decir que es fácil de instancia porque tu clúster está configurado en Fácil de instancia. Aquí hay dos opciones para su configuración de cómputos. Una es la estrategia proporcionada por la capacidad, otra es el tipo de lanzamiento seleccionado. Si selecciona el tipo de lanzamiento, en realidad puede optar por EC dos porque ese es el método de implementación para su clúster. Si está proporcionando, si está seleccionando la estrategia de capacidad proporcionada. Aquí esto es para lanzar tu estrategia para tu tarea. Ahora, cómo puedes lanzar esta estrategia es tener múltiples um, proveedores de capacidad para ti. Por defecto, solo tendrás uno, que es tu proveedor de capacidad como en este clúster. Entonces esa sería tu capacidad, el componente dentro de tu clúster. También puede combinar esto alternativamente con un servicio Fargate y también instancia de Fargate spots Y también puedes priorizar. Entonces no vamos a hacer eso ahora mismo, vamos a ir con el predeterminado en este programa. Y entonces la configuración de despliegue es que, ya sea que quieras desplegarlo para una tarea o un servicio, Um , ahora, si lo estás haciendo para una tarea, se recomienda principalmente para trabajos por lotes, pero no para publicación web, algo así como lo que vamos a lograr. Debido a que esta tarea es básicamente se ejecutará y luego se termina y luego, ya sabes, vuelve, y si quieres volver a ejecutar, la tarea en función de tu horario, la ejecutará de nuevo. Entonces eso es como un horario por lotes. Pero un servicio es un proceso que sigue funcionando indefinidamente hasta que lo detienes Por lo que elegiremos el servicio por aquí. Ahora, puede seleccionar la tarea HTTP aquí. La revisión es la última, y esta es la última revisión de aquí. Y aquí hay que dar el nombre del servicio. Es obligatorio. Aquí estoy dando servicio de guiones HTTP HTTP Ese va a ser el nombre del servicio. Aquí voy a decir réplicas, colocar y mantener un número deseado de tareas en todo su clúster Voy a dar sólo una, esta es la única tarea que va a manejar. En términos de opción de implementación, por defecto, actualización rodante se presenta 102 cien por ciento como mínima en ejecución y tarea máxima en ejecución. Es la tarea mínima en ejecución, la tarea máxima en ejecución. Si tengo los datos de tarea deseados cuatro, y si tengo ambos como 200 o ambos como 100, entonces no importa Tanto como 100, significa que iniciará cuatro trabajos en total. No esperará a que se complete un trabajo y sea exitoso y luego pasará al siguiente trabajo como en una tarea para completar y luego no irá a la tarea. Empezará, ya sabes, todas las tareas juntas, lo que aumentará la carga en tu sistema, que, ya sabes, si hay un fallo en la tarea anterior, no la detendrá, así que algo así. Entonces, si das una variación del 100 por ciento o, ya sabes, una variación como esta, tendrás una tarea comenzando tras otra. Entonces esa es la razón por la que damos esta variación. Tenemos falla de implementación en la que volverá a la versión anterior si ya tienes la versión existente y la estás actualizando. Entonces algunas de las opciones de aquí en términos de descubrimiento de servicios, servicio connect. Aquí vamos a utilizar el mismo grupo de seguridad por aquí. Aquí se mencionan las opciones de equilibrio de carga. No estamos usando ninguna opción de equilibrio de carga, automáticamente, se escala y luego completa el volumen y el etiquetado está todo hecho Esto es más o menos y luego haz clic en Crear. Esto debería crear el servicio. Ahora, puede llevar algún tiempo porque volverá a pasar a la formación de nubes y comenzará a escribir, ejecutando algunos programas hacia la creación del servicio para su aplicación. Esto va a llevar algún tiempo. Puede tomar alrededor de cinco a 10 minutos de nuevo para obtener todo esto ordenado y llegar a ese estado de funcionamiento. Actualmente, se puede ver que no hay progresión por aquí, no ha comenzado a ejecutar la tarea. Al hacer clic en la tarea, se puede ver que todavía se encuentra en estado pendiente. Lenta y seguramente comenzará a ejecutar la tarea, que es básicamente la definición de tarea que has creado aquí. Entonces esta es una definición de tarea por aquí. Entonces esto es básicamente crear el contenedor, que es GDP engine x container de este repositorio. Por lo que esto está pendiente, por lo que puede tomar algún tiempo para que esto se complete. Entonces en la tarea se está ejecutando, creo que ya está hecha. Así que simplemente haz clic en él, y verás esta instancia de contenedor por aquí. Entonces tienes un creador de contenedores. ya lo ve. Ahora mismo está en estado de funcionamiento. Aún aprovisionamiento, puede llevar algún tiempo reflejar los cambios. Ahora, da click en Contena Instancia, y verás que la instancia total aquí Es la dirección IP pública y todo lo demás en los recursos y redes por aquí, tarea, atributos y todo. Entonces está subiendo aquí. El estado de instancia del contenedor. Vamos a codificar el clúster. Sólo tenemos que verlo funcionando. Puede que tarde un tiempo para que refleje el estado, pero la tarea está terminada. Veamos la formación de nubes. Aún creación y progreso. Vamos a darle algo de tiempo. Debería tomarme un par de minutos más y luego debería entrar con un estatus adecuado. Voy a hacer una pausa en el video hasta que se complete. Bien, chicos, quiero terminar este video en esta nota que lo hemos desplegado con éxito. Y si estás intentando navegar por él, no funcionaría el sitio web en el EngineX si intentas navegar desde la consola EC two La instancia de aquí no funcionaría para ti porque no es como, quiero decir, hay un par de correcciones que necesito hacer para que eso funcione. Entonces lo haré en el siguiente video, pero si realmente te interesa continuar con este viaje de ECS y que eso funcione, para que puedas seguir el siguiente video y hacerlo Pero recuerda que no va a ser parte de tu examen. Por lo que las manos sobre sí mismas no forma parte de tu examen. Esto es solo por mi curiosidad. Te estoy dando estos pedacitos y pedazos de manoson Um, así que de todos modos espacio, te he cubierto los temas para el examen Pero si quieres ir más allá de eso, este video y el siguiente video realmente te ayudarán a brillar en ECS Ahora bien, recuerda que, si estás tratando de navegar por esto, no va a funcionar. Yo solo intento por aquí, funcionaría para mí porque lo arreglé. Entonces esta página no vendría por ti. Tampoco podrás conectarte a este servidor. Entonces, si haces clic derecho e intentas conectarlo, no funcionará, pero está conectando para mí. Entonces ahora, lo arreglé. Voy a mostrar cómo lo arreglé en el siguiente video. Gracias de nuevo por ver esto porque lleva algún tiempo sucediendo. Quiero darle al siguiente video una oportunidad para que lo arregle y te muestre cómo solucionarlo. Gracias de nuevo por su tiempo y paciencia. Te veré en la siguiente. 67. Configuración de ECS de Labs Parte 2 Prácticas: Oigan, chicos, continuando atrás del video anterior, voy a arreglar este problema uno por uno. En primer lugar, que trabajemos en esto. En primer lugar, necesitas conectarte a esta instancia EC two, a través de un exterm móvil o tienes que hacer clic derecho y conectarte Usando esta opción de conexión. Ambas cosas no funcionarían en este momento, es por la puerta de entrada de seguridad, la predeterminada. Todo lo que tienes que hacer es si ya te está funcionando bien, si no te está funcionando, solo tienes que seguir la solución que te voy a dar. O ve a este grupo de seguridad, o puedes ir de aquí también a este grupo de seguridad o a lo que sea que hayas configurado para esto. Ambos serán iguales porque ambos usan el mismo auto ski y ambos están usando el mismo grupo de seguridad. Simplemente haga clic en el medio, se abre una nueva pestaña. Entonces, lo que sea que haya por aquí, solo edite las reglas de entrada, seleccione lo que esté aquí, borre. No lo mires porque está asignado al propio grupo de seguridad. Haga clic en Agregar regla y luego seleccione todo TCP y luego diga en cualquier lugar IP versión cuatro y presione la regla de guardar. Ahora bien, esto debería desencadenar su conexión a la instancia EC two, y debería poder acceder a la instancia EC two. Todo lo que tienes que hacer es crear una nueva sesión. En esa nueva sesión, pon select como sech, pon la dirección IP pública de la instancia del servidor ECS server instance por aquí, la dirección IP pública, que comentas Luego dale a la configuración avanzada use la clave privada. He usado el archivo Docker Cub PBK, así que eso es algo que he hecho y luego puse el usenam como ECT, y luego deberías estar conectado así que eso es algo que he hecho y luego puse el usenam como ECT, y luego deberías estar conectado a este servidor en particular. También puedes usar Clic derecho Conectar, y luego también puedes conectarte así. Creo que debería estar funcionando, supongo. No, no me está funcionando como conexión de búsqueda. Entonces no está funcionando para mí por alguna razón, pero debería funcionar para ti. Bien, entonces para mí, esto está funcionando. Entonces esto es suficiente para mí, así que para mí trabajar con ello. Ahora bien, ¿cómo arreglé este sitio web? Voy a llegar a eso ahora. En primer lugar, cierra todas las pestañas, lo cual no es relevante para nosotros en este momento porque no necesitas instancias también, y todo lo que tienes que hacer ahora mismo es volver al clúster. Ahora, hicimos alguna configuración en nuestra definición de tarea, ¿verdad? Entonces eso en realidad nos está causando algún problema. Entonces voy a redefinirlo, y voy a mostrarte cómo en lugar de borrarlo todo, cómo retroceder a lo anterior, quiero decir, cómo, ya sabes, llegar a una nueva configuración Entonces todo lo que tienes que hacer es como, seleccionar tu definición de tarea, modificar tu definición de tarea ahora. Así que selecciona la definición de tarea aquí. Entonces en este momento solo tendrás una definición de tarea, así que tengo diferentes para ignorarme. Entonces, si tus declaraciones de tareas como HTDP task Ce y una, solo seleccionas eso ¿Bien? Entonces para mí, la última es la tarea seis, y luego creo esta nueva versión. Ahora esta nueva versión se basará en mi versión anterior, que es la versión seis, tarea HTTP, ¿bien? Así que no hay necesidad de cambiar nada. Simplemente cambie más la red de AWSVPC a default, Entonces esta es la modificación que se requiere para que lo hagamos. No es necesario modificar nada más. Solo asegúrate de que tu número de puerto host diga 80, número de puerto de contenedor dice 80. Entonces esto significa que va a utilizar puerto de host número 80 y el puerto de contenedor número 80. Entonces lo que significa que este particular un contenedor que voy a tener va a estar usando mi número de puerto de host de 80 número de puerto, y luego un número de puerto contenedor de ATO aquí. Esta es más o menos la configuración. Nada más necesita ser cambiado. Haga clic en Crear. Ahora deberías crear una nueva versión de tu tarea HTTP, que se llama Colón siete. Ahora que tienes la nueva versión de la tarea HTTP, ahora tienes que volver al clúster, seleccionar el clúster, seleccionar el servicio y dentro del servicio, tendrás implementaciones. Cuando vaya a las implementaciones, verá que actualmente estará ejecutando uno para su revisión uno Entonces para mí es correr seis. Eso está bien. Haga clic en Actualizar servicio. Y luego desde Update service, selecciona el último, que es siete, que es dos para ti. Entonces la tarea deseada es una, misma cada configuración es la misma porque estamos modificados el material de nivel de red y el material del número de puerto. Eso debería venir como siete y luego dar clic en Upadat. Ahora esto se va a redesplegar para que veas que actualmente esta esta activa Y uno está corriendo y uno se desea. Entonces, cuando actualices estos datos, deberías ver que esto se vuelve deseado uno corriendo uno, y luego se convertirá en 100 porcentaje y este se convertirá en porcentaje cero, y luego esto se activará. Entonces eso es lo que estamos buscando. Por lo que se puede ver que el servidor tiene inicio de marca, lo que significa que es aprovisionar el servidor. Por lo que va a ejecutar el servidor ahora mismo. Voy a iniciar el servidor. Y una vez que esté en estado de funcionamiento, llegará al 100 por ciento, y luego esto irá a cero porcentaje. Puede tomar un par de minutos hacer este proceso completo. Una vez hecho este proceso, entonces podrá ver que la implementación está en curso, lo que significa que su aplicación se está implementando. Lo que haremos es cuando configuremos el balanceo de carga, volveremos a esto nuevamente. Volveremos a configurar otra instancia de EC dos. Esa vez vamos a ejecutar múltiples instancias de su aplicación. Entonces tendremos múltiples contenedores ejecutándose así como también tendremos múltiples elementos de acción ejecutándose, así que solo esperando que se completen las implementaciones Voy a pausar el video y pausarlo una vez que se complete. Todo bien. Ahora eso está terminado, y se puede ver que es primaria 100 por ciento, y esto se ha ido a cero. Lo que significa que ha migrado a la última versión para mí, son siete para ti Podría ser uno también. Una vez que se complete esto, prácticamente se completa su implementación. Puedes ver que el mensaje de éxito ella y todo lo que tienes que volver es a tu tarea y deberías ver nuevas instancias comenzaron a atropellar aquí hace 41 segundos. Esto se apagará lentamente. Esta es la instancia um, container. Entonces esto se apagará lentamente. Estos dos contenedores en realidad estarán funcionando en éste. Si solo hablo o PSI y A, puede ver que todas estas son máquinas que salen, y esta es la que está funcionando 12 minutos hasta por 12 minutos en este momento Sólo estoy esperando que puedas dar guión guión nulo. Guión TRUNC. Sin baúl. Ahora bien, esto me dará la dirección IP y el número de puerto, si hay establecimiento de IPs y número de puerto Necesito ver si hay una nueva máquina virtual creada. Comprobemos eso. Vamos a EC dos. Veamos si hay alguna máquina virtual creada. Ahora se puede ver que hay otra máquina virtual creada. El grupo asesino Otis ha creado otra misión virtual, esa instancia estaría funcionando en esta misión virtual. Esa podría ser la razón. Solo tengo que duplicar esto y luego editar la sesión, cambiar la dirección IP. Marcar también, necesito cambiar la dirección IP. Todo bien. Entonces ahora veamos esta instancia ahora mismo. Docker PSF y A, F y F y O. Borracho. Entonces estoy en una instancia diferente, ¿verdad? No, estoy en la misma instancia. Eso es raro. Voy a intentarlo de nuevo. Es el 181, dos, y este es el 18. Bien, es la misma. Déjame copiar esto de nuevo. No, dice que algo mal está pasando aquí. Bien, no me está dejando porque he llegado a mi límite. Eso debe ser por eso. Bien vamos a tratar de dejar eso. No estoy seguro de lo que está pasando. Déjame intentarlo de nuevo. Una vez más. Parece que esta es esta vez que hice lo correcto. Es por las sesiones que puedo ocupar. Esa debe ser la razón por la que esto estaba ocurriendo. Entonces veamos hacer BS Ip y A. Bien, entonces ahora tengo la nueva imagen. A ver, Iphone no trunca. A ver. Ahora se puede ver que está escuchando en el número de puerto 80. Si lo hago en Inicio tengo una toma AN de Escucha, debería ver el número de puerto 80 corriendo aquí, puedes ver que Un número de puerto está escuchando. Este sistema, su instancia de contenedor no tiene ninguna aplicación ejecutándose en el número de AiPort Es solo que el contenedor está ejecutando el número de puerto 80 y está proyectando ese número de puerto 80 a través de su máquina EC two. Lo que significa que debería ver que debería poder navegar por esta aplicación con esta dirección IP por aquí. Justo ahí. Así es como necesitas navegar por tu aplicación. Necesitas saber dónde se está ejecutando esta instancia de Docker, y luego necesitas ejecutarla allí Eso es más o menos lo que quiero mostrarte y así es como puedes hacerlo. Te he mostrado la implementación así como parte de este video en particular, cómo implementar una versión más reciente de tu aplicación de tu tarea o tu contenedor para que esté en tu aplicación. Eso es más o menos también te he demostrado que solo esperé un tiempo y luego se apaga la primera instancia. Entonces, ya sabes, cerró el escalado automático cerró la primera instancia. El segundo donde, ya sabes, la imagen es la imagen del hablador está corriendo, así que eso simplemente siguió corriendo Entonces um así que esta URL todavía funciona bien sin ningún problema. La otra instancia que tenía fue terminada de nuevo. Entonces eso es porque el escalado automático desglosa el tamaño de la instancia 2-1 nuevamente. Entonces esa es la razón por la que no se desplegó en el otro nodo porque sabe que lo va a derribar. Esa podría ser la razón por la que White creó un nuevo nodo y lo desplegó en él. Entonces de todos modos base, esa es la decisión de autoskilling a tomar. Entonces así es como necesitamos que tu ECS funcione todas tus aplicaciones y también funcionen las pruebas Gracias de nuevo por ver este video, nos vemos en el siguiente. 68. Prácticas de Pods EKS de Labs y despliegue: Oigan, chicos, bienvenidos de nuevo al siguiente video. En este video, vamos a trabajar con AWS y, um, servicio AWS Communities, y vamos a crear Engine Export. Pero antes de crear Engine Export, primero necesitamos conectarnos al servicio de AWS existente. Desde la línea de comandos. Hay dos métodos. Abre la CLI de AWS y luego usa AWS. Hay opción donde configuramos AWS usando las credenciales de seguridad. Ya te he mostrado como parte de la anterior. Es un método para hacerlo. Como método más rápido de hacerlo es básicamente entrar en tu consola y abrir el CloudShell Ahora Cloud Shell es uno de los métodos más fáciles de trabajar con AWS CLI y todos estos uberntis porque Cloud Shell automáticamente tendrá los comandos Kubernetes y Cube CTL ya en compilación así que um, pensando en eso, podrás Todo lo que tengo que hacer ahora mismo es abrir esto en una nueva pestaña. Por defecto, Cloud Shell viene con un tamaño de fuente más pequeño. Entonces, si vas a la configuración de aquí, puedes cambiarlo a gran tamaño de fuente y modo claro u oscuro, puedes cambiarlo. Actualmente, estoy en el tamaño más grande. Por favor, tengan paciencia conmigo si no son capaces de verlo con claridad. Voy a escribir el comando, que es el primer comando que necesitas escribir. No tienes que configurar ninguna de las credenciales porque ya estás en tu cuenta y desde tu cuenta, estás abriendo el CloudShell Entonces ahora todo lo que tengo que hacer es ejecutar AWS, EKS, IP e iPhonrgion luego decir en qué región Estoy en USO spawn. Y luego tengo que dar actualización guión Cub config guión nombre del guión, y luego le doy el nombre del clúster Aquí voy por aquí para obtener el nombre del clúster y pegarlo por aquí. Ese es el nombre de mi grupo. Ahora cuando hagas eso, agregará un nuevo contexto. Ahora se crea el contexto y sabe que el clúster EKS se está ejecutando con este nombre. COV en su número de cuenta. Este es su número de cuenta, clúster, nombre de clúster, y este es SEs uno porque esta es una región que está utilizando, y es ARN AWS EKS Entonces esto es básicamente que ha formado un URO o URI, y ha montado este URI en este archivo de configuración en su directorio home. Ahora, control de Copa, consigue ollas phen A. Ahora cuando hagas este comando, ahora todos estos reportes de ollas vienen todos de tu clúster de comunidades que está por aquí. Si ves éste, será lo mismo. Estas son las ollas que está mostrando por aquí. Ahora, vamos a crear la configuración nginx. Así que vamos a seguir adelante, crear un despliegue nginx, desplegar a TO En esto copiaremos pegar cosas, solo tomarlo del bloc de notas Um, hay un problema en VI, lugar de VI usar gato mayor que símbolo y luego pegar. Y luego hacer Enter y hacer un Control D. Así que eso guardará salir del archivo. Hay un problema con los VI básicamente el formato no viene correctamente en Cloud Shell. Entonces de todos modos, SCAT está ahí para ayudarnos. Así que ahora crea un servicio ph e implementa dot GMO. En este servicio, copiaremos pegarlo del archivo de servicio y luego Control D. Ahora tendrás dos archivos creados. Utilice Coop Control, aplique FNF para implementar ambos archivos. Oki. implementación del motor, la implementación se realiza y luego la implementación del servicio, se realiza la implementación. Ahora, Control de Cop. Obtener macetas, desplegar servicio. Ahora tengo dos ollas creadas por defecto debido al despliegue, Deployment tiene dos de dos porque hemos dicho aquí réplicas tiene dos y tiene el EnginExImage El servicio también se despliega. Uno es el servicio a la comunidad, ese es uno por defecto, otro es el servicio motor. Ahora si ves eso, hemos implementado este servicio como balanceador de carga Lo que significa que ha dado la dirección IP externa automáticamente, y ha dado la URL del balanceador de carga Ahora, solo para asegurarte de que esto está funcionando bien, solo copia la URL, ponla en el servidor web, y luego solo dale a AnTatry y puede que unos minutos para que se replique para crear el clúster, despliegue de estos Cubonuts, solo Entonces, si vas a todo el espacio de nombres, o puedes ir al valor predeterminado, verás esas dos nuevas implementaciones, que ya pasaron en la sección POT Y si vas a servicio y networking, si vas al servicio, vas a ver el servicio enginx por aquí Al hacer clic en el servicio Motor X, puede ver el balanceador de carga URO Todavía no está disponible, así que solo dale algo de tiempo, y luego intentemos hojearlo. Debería funcionar bien. Puedes ver los puntos finales por aquí Los puntos finales se ven bien, por lo que puede tardar algún tiempo en desplegarse. Esa podría ser la razón. O de lo contrario está buscando HTTPS. Probemos HTTP. Esa es también una de las razones por las que no está funcionando. Vamos a darle otro par de minutos y luego lo intentaremos de nuevo. Pausaré el video y lo pausaré una vez que empiece a funcionar. Después de un par de minutos, puedes ver que obtienes esta página. Bienvenido a EnginX. Yo no sabía nada. Solo me tomé un poco de tiempo porque también tiene que crear algún servicio DNS. Y este servicio CB DNS entró en existencia. Después de eso, empezó a funcionar. Entonces esto tampoco es creado por mí mismo. Este es un servicio autónomo que se activa cuando se crean puertos. Entonces ahora tienes esa URL en particular funcionando también, el servicio EngineX por aquí Entonces el servicio EngineX donde haga clic en él, asegúrese de que no sea HTTP ya que es HTTP porque EnginX se está ejecutando en HTDPpot número 80, y esto por Entonces, si solo copias el enlace , pegarlo y luego lo cambiaste a HTTP. Debería trabajar bien. Eso es todo amigos. Ojalá entiendas cómo crear instancias en tu ECS y cómo hacerlas ejecutadas usando Kubernetes Gracias de nuevo por su paciencia y tiempo. Te veré en otro video. 69. Configuración práctica de EKS de Labs: Hola, Grasp, vuelve al siguiente en este video, vamos a hablar sobre el servicio de Elastic Kubern Este es uno de los temas aquí que estamos cubriendo EKS. Entonces esta es una sesión práctica para ello. Nuevamente, esta sesión práctica no tiene nada que ver con tus certificaciones AW reales, pero esto es solo para una práctica orientada, tu introducción a eso. Aquí vamos a alojar el servicio EngineX en Kubernts ahora para hacer eso para alojar tu servicio lo siento, nginx y para ejecutarlo con éxito, primero necesitamos buscar EKS Y tienes un servicio separado para EKS por aquí, y luego voy a hacer clic en el servicio EKS. Ahora bien, recuerden que esto es otra vez, hay un par de partes por aquí en este particular video um. primera parte es que vamos a crear un cluster de Cubons Una vez que hayamos creado el clúster, vamos a agregarle nodos. Así como agregamos nodos a tu clúster existente, en tus coberats de la misma manera que vamos agregando nodos como parte de él Ahora hay dos formas de agregar nodo. Puedes usar un Fargate. Una vez más, Fargate se utiliza para un nodo sin servidor o se puede utilizar la instancia de EC dos En primer lugar, vamos a cubrir la instancia de EC dos y luego vamos a mirar el punto de tiempo de los datos de Fargate Para crear un clúster, una vez que haya accedido al servicio EKS, tiene la opción de clúster por aquí. Tienes otra opción donde tienes EKS en cualquier lugar y ECS en cualquier lugar también Entonces esos son básicamente un elemento basado en suscripción donde en el que la ventaja de esto es como si tuvieras que pagar por una suscripción, y obtendrás soporte 24 bar siete de AWS lo siento experto en la materia SME en EKS. Esto básicamente es parte de tu paquete. Entonces este es, um, un paquete basado en suscripción. Es lo mismo que está disponible en ECS también. También para servicio de antena elástica. No nos interesa buscar esto porque cuando sabes cómo configurar un clúster, esto es más o menos lo mismo. Sigamos adelante y creamos un clúster. Vamos a crear un clúster por aquí y vamos a nombrar este clúster HTTP EKS. Ahora tenemos que crear un rol de IAM por aquí. Ahora ya tenemos este rol de EKS Admin. Si no tiene rol de administrador de EKS, simplemente haga clic en esta consola para IAM, y luego aquí puede seleccionar, aquí puede seleccionar el servicio AWS, seleccionar EKS desde aquí y puede seleccionar el clúster de EKS Esto se selecciona automáticamente porque este enlace uh, será redirigido a esos requisitos específicos Se puede ver que ese es en gran medida el requisito real al que lo está dirigiendo. Entonces, cuando haces clic en siguiente, puedes ver que la política en particular también se carga como parte de esto porque esta selección en particular vendrá con esta política y luego da clic en siguiente y luego dar un nombre de rol por aquí y luego dar clic en Crear rollo. Pero recuerden que este papel debe estar ya aquí así que lo que significa que deberías conseguir el Mendroll de CKS Si no, solo créalo con el mismo nombre, y podrás verlo por aquí. Sólo tienes que refrescarlo por aquí y verás este papel. Entonces, los roles son importantes para los servicios porque como comentamos anteriormente, los roles son para los servicios, que es obtener acceso a otros o acceder a otros servicios dentro de AWS. Aquí está la versión uberts. La versión actual es una. 31. Y hay dos tipos de soporte disponibles para esta versión en particular. Uno es un soporte estándar que expira en 2025, lo que significa que necesita actualizar a la siguiente versión después de esta línea de tiempo en particular, y la que se llama soporte extendido. Por lo que esto está disponible hasta 2026. Por lo que el gradual es 14 meses y 26 meses para el apoyo extendido. 14 meses, no tienes que pagar nada extra. No hay costo adicional. Pero si vas por 26 meses, tienes que pagar extra aquí donde en realidad estarás extendiendo el soporte en la fecha de finalización del clúster se actualizará automáticamente a la siguiente versión. De igual manera, deberá pagar costo adicional por hora se le cobrará por esto. Iré por uno estándar. El eje del clúster por aquí es básicamente para acceder a su clúster. Permitir la acción de administración del clúster, la opción predeterminada, así que vaya con eso. Aquí para el modo de autenticación de clúster, esto es para configurar el origen, el clúster que utilizará para la autenticación a través de IAM Usaremos la API EKS, que es la opción predeterminada aquí. No vamos a encender ningún cifrado por aquí, así que simplemente lo dejamos como deshabilitado. Entonces tenemos el turno zonal ARC. Ahora, el cambio zonal ARC es básicamente, um, ya sabes, es básicamente lo que llamamos controlador de recuperación de aplicaciones Entonces ocurre el turno zonal, para asegurarte de que tienes disponibilidad incluso hay algún desastre en tu zona particular Puedes habilitar esto, pero prefiero desactivarlo porque esto, nuevo, es una carga adicional, así que no quiero habilitarlo en este momento porque es para fines de prueba. ¿Por qué hacemos esto? Zona y desplazamiento se utiliza para configurar el entorno de clúster para la resiliencia en la falla de la zona de disponibilidad de antemano. En caso de zona de disponibilidad, desplazará automáticamente, pero muy raramente sucede, así que voy a desactivar Al hacer clic en la siguiente opción. La opción de networking está por aquí. Estas son las subredes que vamos a tener nuestros clústeres creados y estas son la versión IV force que vamos a seleccionar Grupo de Seguridad, seleccionaremos el predeterminado que ya hemos modificado. En el video anterior, si trabajaste en la configuración de ECS, y el segundo video dando seguimiento a la solución de esos problemas, ahora habríamos creado este grupo de seguridad predeterminado Entonces, puedes usar eso. O si quieres, puedes crear un nuevo grupo de seguridad, dar abierto, um, ya sabes, todo el tráfico, y luego simplemente puedes seleccionar ese grupo de seguridad también. Aquí Punto de acceso es público y privado. Haga clic en siguiente. El siguiente es la observabilidad La observabilidad asegura que tienes opciones por aquí donde puedes enviar tus datos de la información de tu clúster a prometheus Pero nuevamente, cualquier cosa que selecciones aquí es extra pagadero, ten cuidado con lo que vas a seleccionar porque de nuevo, estos son algo que es extra pagadero en términos de trabajar con estos elementos de acción. No voy a habilitar nada de eso. Voy a habilitar los predeterminados por aquí. CDN, CNI, Cupxy y luego agente de identidad EKS prod. Entonces estos son algo que es por defecto. Entonces, si quieres volver a seleccionar esto, este es el encargado incurriendo en uno Este es un deber de guardia para el monitoreo de tiempo de ejecución de EKS. Así que no habilite nada que sea extra, simplemente haga clic en siguiente. Y entonces esta es básicamente la versión que necesitas instalar. Por lo que ya se eligió la versión estable, por lo que puede ignorar elegir cualquier versión para estos componentes adicionales, por lo que puede hacer clic en siguiente. Ahora, aquí estamos en la página de resumen y aquí vamos a revisar y crear.Esto es menos lo que hemos seleccionado Presiona el botón Crear. Estoy esperando que surja alguna excepción ahora mismo. Por aquí, dice que el clúster HTTP EKS no se puede crear porque EKS no admite la creación de instancias de plano de control en. Um, EU East one E. Dice que en esta región, no se puede crear plano de control. Entonces esas son formas muy sencillas. Lo que significa que puedes crearlo en cualquiera de esto excepto por, um, uh, una E. Así que eso es lo que está diciendo. Por ejemplo, entonces tenemos que ir a la configuración de red y hacer clic en Editar, y luego hay que averiguar que E esta zona de vaibity en particular, eliminar esa zona de disponibilidad y luego ir siguiente, siguiente, siguiente Después haz clic en Crear ahora. Una vez que hayas eliminado esa zona de disponibilidad en particular, podrás crearla. Este es un procedimiento estándar. Si estás trabajando con alguna de las regiones, una zona t disponible, en realidad no puedes crear tu plano de control. Así que recuerda que eso es algo que es estándar para AWS. Ahora el clúster se crea en este momento, por lo que se puede ver que el clúster se está creando actualmente. Este proceso puede tardar entre dos y 5 minutos porque me tomó unos 2 minutos y obtengo algunos detalles por aquí una vez que tengo el clúster completamente creado. Una vez creado el cluster, voy a pausar este video una vez que esté hecho, entonces estaremos haciendo el segundo tramo de este video. El segundo tramo es básicamente configurar el nodo y también vamos a explorar algunos de los conceptos que también forma parte de su clúster EKS en esta consola. Pasaré este video y lo pausaré una vez que esté terminado. Entonces el código del clúster se creó en 10 minutos, así que vamos a entrar en el clúster. Este clúster tiene información, por ejemplo, su fecha y la versión de los uberuts también el proveedor EKS También cuenta con el punto final del servidor API para conectarse y trabajar con el punto final del servidor API, así como proveedor de conexión abierta también. Estos son métodos de comunicación y autenticación. Entonces estos se enumeran aquí. Y no hay problema de salud, hay algo de ambientación por aquí. La configuración de la versión es estándar. Eso es lo que hemos seleccionado, y el cifrado está apagado y tampoco hay cambio zonal En cuanto a recursos, esto es muy importante. Lo que vemos en los Cummints y la línea de comandos, en realidad se puede ver eso por aquí Se puede ver, cargas de trabajo, se puede ver, um, ollas, um, conjunto de réplicas, implementaciones, conjunto completo de estados, Verás las notas ahora mismo, uh en esta sección de notas. Pero no ves nada porque no configuramos ninguna nota. Esa es la segunda parte a la que vamos a ir. Nombrar espacios, y luego servicios API, arrendamientos. Del mismo modo, se ven algunas cosas por defecto. Entonces ya está la configuración del clúster. Entonces hay ciertos elementos que son ollas configuradas en el espacio de nombres del sistema Cub Esos son los co servicios DNS. Ahora todo está esperando que creamos los nodos para que el resto de los ítems comiencen a poblar aquí Entonces, para crear los nodos o para agregar lo que lo llamamos como grupo de nodos, cuando agregas un grupo de nodos, los nodos se crearán automáticamente porque no hay opción de crear nodos. Estos son los nodos. No hay opción de crear nodos, pero puedes crear los grupos de nodos. Ahora, o creas grupos de nodos y luego o bien creas el perfil de Fargate aquí Hablaremos de esto más adelante. En primer lugar, vamos a hacer los grupos de nodos, y después verás que los nodos se están poblando aquí. Entonces, cuando haces clic en Agregar grupo de nodos por aquí, tienes que seleccionar el um, tipo o el nombre del grupo de nodos. Ahora voy a dar HTDP IP y NG como grupo de nodos. Entonces aquí no vas a tener ninguna política de EKS contigo en este momento. Lo tengo porque lo he creado, hice una prueba para asegurarme de que todo funcione bien. Entonces no encontrarás nada por aquí, solo haz clic en crear una regla de mensajería instantánea, al hacer clic en eso, obtendrás el servicio de AWS y luego irá a EC dos, el cambiarlo a EKS así que lo voy a hacer es primero dejarme borrar el que tengo mucho mejor. Solo estoy borrando el rol de política de nodo. Yo sólo voy a hacer eso. Lo he quitado. Ahora bien, si solo refrescas esto, no deberías encontrarlo, va a ser así. Entonces lo que haces es crear un nuevo rol y luego EKS luego hay opción aquí para grupo de nodos, seleccionalo, selecciona siguiente y luego obtendrás un nombre predeterminado por aquí y luego haz clic en Crear rol. Ahora, dice que ya fue tomado, el nombre ya existe. Pero aunque lo crees a tu final, no podrás verlo aquí. Este es un criterio específico aquí. De hecho, puedes ir a esto aprender más y luego entender los criterios con mucho detalle de manera. Pero conozco los criterios, así que voy a crear un papel por mí mismo. Ahora, crea un rol. Da clic en Crear rol y luego no selecciones nada aquí. Si lo haces, serán políticas preseleccionadas. Se aplicarán permisos. Haga clic en cualquiera de esto y luego haga clic en EC two. No hagamos eso. Vamos a ir por aquí. Nosotros lo hacemos comenzando. Vamos a hacer clic en Crear rol y luego solo seleccionar el servicio de AWS y dar clic en siguiente. No nos está permitiendo, ¿verdad? Aguanta. Todo bien. Hagámoslo de esta manera. Simplemente haga clic en Crear rol, seleccione Política de confianza personalizada. Y luego solo iremos por el siguiente. Y luego aquí se agregan cuatro servicios por aquí. Búsqueda de servicios de EKS para políticas EKS. Lo siento, no políticas de servicios. Entonces política EKS, hay que seleccionar EKS el que voy a seleccionar es el nodo trabajador EKS. Entonces política de nodo trabajador, esta de aquí. También puede seleccionar la póliza mínima también. Entonces A el uno está bien. Entonces, si selecciona la directiva de nodo, no se necesita mínimo. Entonces A el uno está bien, así que iría por la política de nodo. Y luego se puede seleccionar el otro, que es el EKS, CNI Lo siento. Perdón por eso. Entonces la política del CNI por aquí, puede seleccionar esa. Y entonces puedes seleccionar más o menos otro por aquí, que es el registro de contenedores EC dos. Entonces aquí puede seleccionar Registro de contenedores, acceso de solo lectura, y luego hacer clic en siguiente y luego hacer clic en Crear rol. Ahora, da un nombre aquí. Es política de nodo. Y luego simplemente hago clic en Crear rol. Digo que falta mi nombre principal. Déjame ver si esta es la forma correcta de hacerlo. Sólo dame 1 segundo. Déjame copiar y pegar esto. A ver si puedo modificar esto. Sí, así voy a pegar ponerlo en un bloc de notas y ponerlo en lo que copia pegado hace un momento Entonces lo que copié pegado es la política de confianza. Entonces la política de nota ECS tiene esta relación de confianza, y necesita tener el nombre principal así, diciendo que este es un servicio E a aw amazon aws.com Y entonces hay que decir STS asumir regla. Esta es la relación de confianza que se debe establecer con este servicio. Eso debería ser parte de su política de nodo porque el nodo tiene que conectarse con la instancia EC dos para la comunicación. Recuerda que esto es obligatorio, que deberías tenerlo. Si no tienes todas estas tres políticas así como esta relación con la confianza, no va a aparecer por aquí. Ahora se puede ver que se acerca la política de nodos EKS. Entonces solo revisa la nota. Pondré la nota en el mismo video debajo del video. Y entonces puedes acceder a eso y, ya sabes, puedes copiar y pegar esa misma política de confianza en esta um, también en las reglas. Ahora que ya lo has completado, ahora puedes usar las cosas predeterminadas. No es necesario modificar nada. Pero si tienes alguna etiqueta, manchas y etiquetas, puedes colocarla por aquí y luego hacer clic en siguiente. Ahora aquí estamos eligiendo qué tipo de, um, carga de trabajo um, ya sabes, distribución de carga de trabajo vas a hacer en términos de computación y opción de esquí. Ahora aquí estamos eligiendo Amazon Linux dos, y estamos eligiendo instancia bajo demanda en lugar de spot, y estamos seleccionando T tres medio. Como nuestra familia y el tipo del tamaño de la instancia. Tipo de instancia que estamos eligiendo aquí, estamos dando un tamaño de disco de 20 GB y estamos creando dos nodos aquí como tamaño deseado, un mínimo es dos y el máximo son dos nodos. Máximo no disponible, dice en cualquier caso o en cualquier escenario, ya sabes, si va a haber downtime o si va a haber una actualización en tu versión de la versión actual de uberts cuántos nodos pueden estar indisponibles o pueden bajar Entonces has puesto número por aquí y has dado uno. También se puede dar porcentaje como 50 porcentaje. También significa uno, si vas a ir por porcentaje. Ahora aquí uno, lo que significa que un nodo bajará y luego irá al proceso de actualización y el otro nodo se actualizará más tarde punto de tiempo. clic en siguiente, y estas son las subredes en las que tus notas van a ser hoster y um solo sigue adelante con Um, solo dale 1 segundo Lo que he hecho es como si hubiera agregado el E uno también por aquí para que mis nodos también puedan ser, ya sabes, creados en el nodo e1e Entonces una zona de disponibilidad E. Así que solo ve por aquí y haz clic en Crear. Ahí vas. Entonces el E no importa si vas a crear nodos en él, pero importa si vas a crear lustre en él ¿Bien? Entonces esa es la diferencia entre un clúster y un grupo de nodos. Entonces ahora que el clúster no se puede crear en una E una zona T variable, sino que también se pueden crear nodos normalmente en una E. Entonces por eso he seleccionado eso. Entonces ahora estoy en el grupo de nodos. Entonces volvamos al cluster. Y volvamos a calcular por aquí. Esto puede llevar un poco de tiempo, y como puedes ver, eso es procesarlo. Y si abres la instancia EC two, en algún tiempo, empezarás a ver instancias creadas para tu grupo de nodos bajo este clúster, clúster ECS Por lo que se creará la instancia EC dos. Si vas hacia Fargate, Fargate creará una inscripción sin servidor para Pero como esto va a ser en EC dos, va a ser en EC dos instancia. Verás aparecer instancia. Esto puede tomar otros cinco a 10 minutos para que inicie las instancias, haga todos esos despliegues, creaciones de macetas y todo Pausaré el video y lo pausaré una vez que esto esté completo. Esto se completa y como pueden ver por aquí, tengo dos notas aquí configuradas como parte de este grupo de nodos. Ahora bien, estos dos nodos van a estar trabajando conmigo en todas las aplicaciones que voy a desplegar a los convenios Y estos van a ser desplegados en. En cuanto a recursos, ahora cuando vas a la carga de trabajo y ves macetas, verás que se están creando muchas macetas. Ahora, todas estas partes son parte del espacio de nombres del sistema Cup que no es más que sus sistemas centrales, los pots de espacio de nombres de aquí Tampoco tienes nada por defecto porque es solo algo que necesitamos crear en la tercera parte. La tercera parte, la pondré en el siguiente video. Uh, donde estaré creando macetas para nuestro nginx, y luego estaremos navegando por el servicio EngineX a través este sistema EKS de tela portuaria. siguiente son los despliegues del conjunto de réplicas y todas esas cosas No hay nada por defecto, pero si vas al sistema Coop, verás algo Tiene la configuración del clúster que tiene los nodos, que es parte del clúster. Y luego los espacios de nombres, que está disponible y todos esos elementos por aquí en términos de redes de servicios, mapas de configuración y secretos, almacenamiento, autenticación, autorización, políticas, extensiones. Vas a conseguir todas esas cosas, que es la oferta de Cubants en AWS, pero es mucho más fácil que lo administres porque vas a estar viendo eso todo en una sola consola Pero si me preguntas ¿cuál es la mejor manera de crear pods? Debido a que no hay opción tuya para crear un pod por aquí, no hay opción para crear un pod. Lo que significa que necesitas usar Línea de comando. En el siguiente video, te mostraré cómo trabajar con Línea de Comandos y crear pods usando esta herramienta de línea de comandos en particular. Gracias de nuevo por ver este video. Te veré en la siguiente. 70. Labs Fargate en primer plano: Oigan, chicos nosotros el siguiente video. En este video, vamos a hablar de AWS Fargate. Vamos a configurar ECS usando AWS Fargate, eso es más o menos lo que no podemos hacer en este video Entonces, sigamos adelante. Ya estoy en el servicio ECS y ya he hecho clic en el clúster, y puedes hacer clic en Crear Ahora, en realidad me estarás mirando creando Fargate. Quiero decir, las instancias a través Fargate y serás testigo lo fácil que es hacerlo cuando se compara con la instancia EC dos Entonces ahora voy a crear HDDPiphenECs. Guión Fargate ECS. Lo siento, acabemos ahí. Entonces este es HTPiphens guión Fargate. Entonces este es básicamente el nombre del clúster. Y aquí, voy a usar Fargate por aquí para servidor menos Entonces no tengo que dar ningún tipo de detalles sobre el tipo de instancia EC dos ni nada por el estilo. Entonces puedo saltarme todas esas cosas porque Fargate básicamente ejecutará , ya sabes, ejecutará todas las instancias que tengas y es muy útil para busto y pequeños lotes y cargas de trabajo como servidores web y Pero es muy recomendable ir por EC dos instancias si tienes una carga de trabajo consistente y grande, pero esto es solo una demostración, así que solo voy a usar Fargate por aquí Recuerda que Fargate no es gratis, por lo que es posible que se apliquen cargos cuando vayas a buscarlo Así que simplemente haz clic en Crear. Ahora bien esto va a crear un clúster por aquí en algún tiempo verás que viene el clúster. Pero no lo esperemos. Pasemos a la definición de tarea. Definición de tarea nueva. Esta es la definición de tarea para HTTP, puerta Iphon. Tarea Iphone. Entonces aquí, estoy eligiendo Fargate como el tipo de lanzamiento Y aquí, el modo de red está deshabilitado y viene tan adecuadamente como VPC, por lo que no hay que modificarlo Entonces, el requisito de infraestructura de instancia, he dado los predeterminados. Y aquí en los detalles del contenedor, he dado los detalles del contenedor como el nombre del contenedor ginex, y luego la URL RO, que obtenerla desde aquí del registro de contenedores GeneX copiar, pegarlo por aquí, nada más que modificar Número de puerto, protocolo de contenedor, número de puerto. Creo que también son los 80. Ese es básicamente el número de puerto lo siento nombre de puerto, perdón, DPI y 80. Es opcional. No hay que darle realmente, así que es automático. Va a desactivar el reloj Cloud. Y luego voy a crear. Ahora, esto ha creado la tarea para Fargate. Se ha completado la creación del clúster, por lo que puede ver el clúster tal como se ha creado. Vamos a meternos en el cúmulo. Vamos a crear un servicio. Ahora aquí, esto automáticamente dice AWS fargt y el nombre del clúster existente En cuanto a la estrategia de capacidad proporcionada, se puede ver que Fargate ya está seleccionado y no hay forma de usar la predeterminada También puede agregar otra capacidad de instancia puntual y dar más peso. Entonces voy a dar cinco a uno. Quiero decir, quiero que se creen más instancias en la instancia spot de Fargate, pero también necesito al menos una instancia en Fargate para asegurarme que algunos servidores estén disponibles permanentemente y algunos servidores estén disponibles siempre que haya un requisito Así que voy a crear 51 es dos donde se da más prioridad a la instancia spot. Por lo que la última versión de Fargate va a ser utilizada aquí Entonces esa es la última versión, y voy a usar el servicio por aquí. Se Fargatetask. Y entonces aquí el nombre del servicio, que va a ser um, HTTP. Servicio telefónico Fargate. Voy a crear una tarea deseada y después voy a dar click en Crear. Ahora bien, esto habría creado el proceso de implementación, y esto va a llevar algún tiempo implementar la aplicación. Una vez desplegada la aplicación en Fargate, volveré y te mostraré cómo navegar por ella. Supongo que casi toda la tarea está terminada. Vayamos y verifiquemos. Vaya a su clúster, nombre de clúster y dentro de ese vaya al servicio. La única manera de obtener la dirección IP de Fargate si sigues las mismas instrucciones Una vez que estés en el servicio, ve a la tarea en la tarea, realmente verás el nombre de la tarea, cuando hagas clic en verás los detalles de Fargate aquí Esto es básicamente de detalles de Fargate, que es parte de tu tarea Esta tarea se está ejecutando y esto ha creado una instancia de spot de Fargate Como hemos dado más prioridad para la instancia spot, por lo que ha creado instancia spot, pero no se preocupe. Si hay un problema, si hay un problema donde el recurso no está disponible, entonces realmente creará la instancia en Fargate Porque hemos dado ambas opciones como parte del balance. Fargate spot te da más descuento porque utiliza los recursos disponibles que no se están utilizando Eso es más o menos por lo que está diciendo Fargate spot y es por eso que hemos dado más prioridad o más H al Fargate para que cree una instancia de spot de Fargate Ahora aquí está la dirección IP pública, copia el IPRress público pegado por Y ves esa bienvenida a Engine ex page. Esto es más o menos cómo puede configurar y cómo puede navegar por su instancia ECS en Fargate Gracias de nuevo por ver este video. Te veré en la siguiente y antes de eso, si ves las CE dos, no habrá nada corriendo por aquí. No habrá instancias EC dos ejecutándose porque esto se está ejecutando en Fargate Fargate es un servicio de computación sin servidor, lo que significa que se está ejecutando sin ninguna interfaz . Gracias otra vez, chicos. Te veré en el siguiente video. 71. Introducción a Labs Lambda: Es bienvenido de nuevo al siguiente video en este video, vamos a hacer sesión práctica sobre Lambda. Ahora bien, ¿recuerdas que esta es una sesión simple muy corta sobre Lambda usando PHP Vamos a imprimir hola mundo usando Lambda. Bien, entonces para hacer eso, necesitas estar en tu consola de AWS. Una vez que estés en la consola de AWS, puedes ir al servicio llamado Lambda. Entonces este es un servicio separado disponible para ti, haz clic en él al medio para que se abra en una nueva pestaña. Una vez que estés en esa pestaña, realmente podrás ver las opciones que tienes. Ahora, ante todo, verás de qué se trata. Es un cómputo. Entonces es una especie de poder de cómputo. Entonces es un cómputo sin servidor. Es fundamental para su pequeña carga de codificación que necesita ejecutarse en segundo plano. Así que ahora puedes empezar creando una función por aquí. También puede ejecutar una función de prueba por aquí usando diferentes programas. Entonces básicamente, cómo funciona es que escribes tu programa y luego lo ejecutas. Entonces ahora recibes el mensaje por aquí. Entonces el código que vas a escribir es básicamente código Python. Así que selecciona ese código Python y copia y pega los valores que tenemos aquí. Entonces creo que puedes copiarlo y pegarlo, supongo. Sí, no se puede editar. Entonces esto es solo un material de demostración, así que solo puedes correr. Entonces lo que vamos a hacer es que vamos a crear una función. Vamos a invocar la función Lamb Do. hay algunas llamadas gratuitas de Lamb Do Aquí hay algunas llamadas gratuitas de Lamb Do dadas para que las pruebes. Se puede ver que la primera solicitud de 1 millón de trans por mes es gratuita, y los primeros 400 GB por segundo al mes son gratuitos. Después de eso, por solicitud va a ser 0.20 por 1 millón y por GB, va a ser de 16 dólares Puede ver mucho más en detalle sobre los precios de Lambda aquí, así como puede usar la calculadora de precios para comprender cómo va a funcionar en su infraestructura global. Ahora, haga clic en Crear función. Ahora bien, esto debería permitirte crear una nueva función. Ahora puedes crear desde cero, lo que significa que puedes crear tu función Lambda desde cero donde no tengas ya un blueprint existente o un contenedor que necesites implementar a través de Lambda Entonces aquí está tu plano. Aquí realmente puedes usar un blueprint existente y luego puedes ejecutar ese blueprint como parte de Del mismo modo, tienes los estándar donde crear microservicio, función hello world, y luego también se da alguna interacción con la API por aquí, y luego también se dan streams por aquí y automatización de ID De ahí que estos son algunos de los planos que es una variable, que puede modificar el plano existente e improvisarlo de acuerdo a Os tienes la imagen del contenedor por aquí, puedes dar la URL del contenedor y básicamente ejecuta la función Lambda ejecutaría un contenedor, y las lógicas en ese contenedor se ejecutarían como parte de esta AMBDAFunction O de lo contrario puedes usar otro uso del autor desde cero donde puedes construir tu experiencia Lambda completa desde cero. Vamos más cerca de Torio. Así que vamos a abrir un nombre de función por aquí. El nombre de su función como función Hello World. Entonces ahora esta función va a ser solo para hola mundo. Ahora aquí, es necesario seleccionar el tiempo de ejecución. El tiempo de ejecución es básicamente donde se ejecutaría esta función. Entonces, si estás decidido y tienes un código en PHP y estás tratando de ejecutarlo en nodejs, no va a Entonces um, no PHB, lo siento, Python. Tienes código Python y necesitas seleccionar el entorno de tiempo de ejecución adecuado, ya sabes, correcto para tu código. Entonces tienes Java 11, Java 17, uh, dot net y otro framework. Que en realidad puedes usar aquí. Recuerda que, si tienes codificación Java, puedes ejecutarla aquí. Se puede utilizar en aplicación para ejecutar el programa Java. Pero el caso es que es un poco caro porque va a cobrar en función del número de solicitudes que llegan, así que va a ser un poco caro porque no tiene servidor Selecciona Python por aquí, 321 lo siento uno, dos versiones, y luego selecciona la arquitectura en la que quieres que se ejecute este código. Entonces básicamente en base a esta arquitectura, se creará toda su función Lambda. Aquí hay dos opciones, ARM o Intel en esta situación, estoy eligiendo Intel y aquí hay algunos permisos DFO sobre subirlo a tu Cloud watch y para tu propósito de registro, y luego tienes el rol de ejecución, va a crear un nuevo rol va a crear un nuevo rol para los permisos básicos de Lambda Entonces si quieres habilitar la función de firma de código, también eres de la misma manera, los servicios de terceros, que está asociado a esta función Lambda. Puedes habilitarlo. No queremos hacer eso ahora mismo. Sigamos adelante y creamos la función. Ahora lo que hemos hecho hasta ahora es que hemos nombrado a esta función que hemos dicho, ¿cuál es el tiempo de ejecución va a ser? Esta función va a ser. Y en esta creación de funciones, así que en realidad estamos desplegando el código por aquí. Ahora bien, este código predeterminado ya viene con hello world. Esto es más o menos lo que queremos usar. Entonces esto es básicamente imprimir hola de Lambda, para que puedas cambiarlo a hola mundo. También. Así que prácticamente la misma función que queremos usar para este archivo Python. Ahora, una vez hecho esto, si tienes un código personalizado que necesita ser subido, también puedes subirlo como un zip follow desde la ubicación S tres también. Ahora, todo lo que tienes que hacer es una vez que esto se haya creado con éxito, solo tienes que, um, ya sabes, mirar tu archivo de configuración. Actualmente, solo tienes un archivo Python que va a estar corriendo por aquí. A continuación, tienes, ya sabes, no implementaste cambios, así que simplemente puedes hacer clic en esto En primer lugar, puedes probar esto. Ya sabes, si quieres probar esto con un evento de prueba, puedes crearlo. No lo probemos con un evento de prueba. Así que vamos a desplegarlo directamente. Así se puede ver que la implementación código y luego la implementación fue exitosa. Ahora prácticamente hemos terminado con esto, hemos desplegado esta función. Ahora tenemos que hacer las pruebas para lo mismo. Para probar esto para probar esto muy simple desde arriba, tendrás esta opción del sitio de configuración hay opción para que lo pruebes. Ahora necesitamos crear uno de prueba. Esa es la razón por la que te dije, aguantemos la prueba uno porque tenemos que crearla de todos modos. Prueba hola mundo. Va a ser el nombre de la misma. Ahora aquí, la parte par es básicamente para compartir este evento solo para la consola Lambda en el creador. Nos vamos a quedar con los básicos y aquí está la plantilla que vamos a usar para las pruebas y luego presionar el botón de prueba por aquí y luego el flujo par fue exitoso. Cuando haces clic en el detalle, realidad puedes ver el flujo par y cuánto tiempo tardó en probar esta función. Así que más o menos lo que queríamos ver es esta zona de aquí. Esto dice que se trata un log de ejecución de cuatro KV y se ha ejecutado con éxito. Esta prueba ha sido exitosa. También hay otra opción de probar esto. Esto es solo usando tu pudiste probar esto usando esta consola GI. También puede probarlo usando la línea de comandos también, el método CLI Entonces, cuando tengas instalada la configuración de AWS. Entonces esta es tu sesión de monitoreo. Entonces el único dato entraría en algún tiempo porque la función AMTA es bastante nueva Entonces el monitoreo tomaría algún tiempo y entraría por aquí. Y esta es tu configuración de, ya sabes, tu función Lambda. Así pone y versión de su función. Esta es muchísima introducción a la función Lambda. No vamos a ir con ningún detalle aquí hablando de las características. Así que recuerda eso. Otra forma de ejecutar esto es por tu método CLI En esta situación, voy a usar CloudShell para probar ejecutar esta función en particular Déjame copiar el nombre de la función, así que me va a ser útil. Puedes dar un comando aquí, invoca AWS Lambda. Esto va a invocar una función dando a la función phon name, y luego el nombre de la función Y luego voy a poner esto en un archivo de texto llamado archivo de texto de salida. Ahora solo consigue este texto de salida. En realidad se puede ver el mundo que hemos creado. Esto es prácticamente en una prueba exitosa, que también puedes ejecutarla desde el método CLI también Gracias de nuevo por ver este video. Espero que te haya sido útil comenzar con Lambda. Gracias de nuevo. Yo veo te voy a ver en otro video. 72. Labs Otra política de escalamiento en ASG en primer plano: Ustedes, bienvenidos de nuevo al siguiente video. En este video, vamos a ver lo que sucedió ayer antes de continuar. Entonces unos 20 minutos después, 25 24, 23 minutos, supongo, 24 minutos después, se puede ver que ha aumentado la capacidad 1-3. Y después de eso, cuando se dio cuenta de que la carga ha bajado después de 23 minutos, ¿verdad? Por lo que ha decidido reducir la capacidad 3-2 y luego dos a uno eventualmente Uh, en un transcurso de intervalo de 1 minuto, se redujo 3-21, dos a uno Supongo que esto 20 minutos, 23 minutos incluye el tiempo en el que cancelamos la carga en el sistema de realizar para que inclusive de eso. Entonces tal vez pienso aproximadamente de diez a 15 minutos que habrían desencadenado la reducción del escalado en términos de la palabra técnica escalado en reducción de reducir la capacidad al valor deseado de uno porque esa es la capacidad mínima que se requiere aquí Esa es la capacidad mínima deseada, por lo que se remonta al único estado. Ahora, veamos los otros dos tipos diferentes. No vas a estar no configurándolos. Es decir, al igual que es casi similar a la política de escalado dinámico. Entonces, si entiendes cómo hacer esto, es muy fácil hacer también es muy fácil hacer acciones predictivas y programadas. Veamos la política de escalado predictivo. Esto es tan similar como una política de escalado dinámico, pero tiene una característica ordenada. Esto se llama um, escala basada en el pronóstico. Ahora, lo que hará es mirar el pronóstico de tu aplicación, el aumento pasado en términos de tu auto escalado, um, mecanismo. Y entonces básicamente predeciblemente las escalas pronosticarán capacidad Y la escala se disparará en base a lo que haya experimentado anteriormente. Entonces usa eso, um, en términos de entender eso. Entonces no será una acción de escalado basada en la predicción si está apagada, pero si la enciendes, la escala se encenderá, ya sabes, um, en un momento dado. Entonces esto será usando una información predictiva que se pronostica en tu pasado y la usará para hacer eso Puede deshabilitar esto y aún puede optar por la utilización de destino de la CPU. Entonces es lo mismo que el anterior. Entonces verás la CPU, la red en la red fuera del balanceador de carga Entonces estos son cuatro ítems que ya están en dinámica, así que simplemente es lo mismo. Pero hay una métrica extra por aquí métrica personalizada. Ahora, la métrica personalizada puede estar activando una métrica específica de Cloud watch o puede usar las predeterminadas que están ahí fuera Y entonces esto se llama métricas de carga y métricas de escalado. Entonces, ¿cómo quieres utilizar el predictor de ráfaga de esto? Entonces CPU promedio o es como una CPU total. De igual manera, se utilizan las métricas personalizadas para ello. Entonces, cuando selecciona la utilización de CP, esto es tan igual como lo que hicimos en el escalado dinámico. Y luego aquí, una de las ventajas o una cosa que separa de la dinámica es básicamente como instancia previa al lanzamiento. Ahora bien, esto puede dar una capacidad de instancia previa al lanzamiento donde antes de esto es una predicción, ¿verdad, o es un pronóstico, verdad? Entonces básicamente mira el pronóstico y luego tener estas máquinas listas 5 minutos antes de que se active cualquier tipo de pronóstico. Eso te dará una ventaja desde la dinámica porque dynamic tiene que preparar tu servicio cuando mira una carga o una brecha específica en tus métricas. Pero aquí, utilizará el pronóstico para tener esto listo, la instancia lista 5 minutos antes o, ya sabes, cuál era el momento que darías. Pero el máximo de 60 es lo que se especifica aquí. Para que puedas tener una instancia lista antes de los 60 minutos. Y tener eso tamponado. Por lo que también puede habilitar la capacidad máxima del búfer. Por lo que en realidad tendrá la capacidad máxima de lo que haya mencionado en su escaneo automático, por lo que almacenará en búfer hasta eso. Entonces esta es una opción por aquí. Otra es la acción programada. Entonces programar acción es básicamente dices que necesito esta capacidad por este particular, ya sabes, cada 30 minutos, cada día o todos los días en una semana o cada semana en un mes. Entonces especificas lo que quieres. Términos de recurrencia, dices todos los viernes estoy recibiendo una venta enorme, y voy a decir, bien, quiero todos los días en los que donde puedas especificar el día de inicio por aquí o el viernes y luego puedes fijar la hora por aquí en eso. Todos los días se recuperará en ese día específico de un mes o una semana o un mes. Esto quiere decir que todos los viernes aquí. Si pones aquí todos los viernes en una semana, voy a conseguir que este empiece desde las 00 con 00 desde la medianoche de mi viernes hasta la mañana del sábado. Entonces es como cero, cero, cero, cero o 23 59. Entonces esto dirá que desde la noche del viernes viernes a la medianoche hasta, ya sabes, la medianoche del sábado. Entonces esto será básicamente un horario que corre en una capacidad específica. Por ejemplo, actualmente, es uno, cinco y uno, ¿verdad? Entonces se puede decir, para este momento, quiero cinco. Los cinco deberían estar disponibles. Y para este momento, se reducirá y volverá al mínimo, que es uno. Entonces eso es lo que estamos diciendo. Entonces aquí solo das prueba y luego creas esto. Entonces este será en realidad un horario en el que también se puede tener la política de capacitación dinámica así como también el Horario uno Entonces, lo que va a pasar es si la política de capacitación dinámica un máximo de cinco y lo has programado En ese marco de tiempo, se convertirán en cinco. Entonces esto se vuelve inactivo, así se vuelve como, ya sabes, algo que no puede ser uh, satisfecho porque ya estás en el máximo en este momento. Pero si has configurado un máximo de diez instancias y esta dice cinco por aquí, y esta dice diez, por defecto, serán diez porque ese es el máximo que es. Pero aquí dices sólo cinco. Voy a mirar la carga en estos cinco sistemas y luego básicamente aumentarla a diez, sentido para tener una política dinámica así como una acción programada diciendo que, ya sabes, en los días, quiero cinco como máximo. Y entonces básicamente esta política dinámica seguirá rastreando tu CPUtilización Si va más allá de ese punto, entonces va a hacer girar nuevas instancias o aún diez. Entonces eso tiene sentido si tienes una instancia de diez y vas a configurar cinco por aquí. Entonces eso también tiene sentido. Entonces se trata de la relación o cómo va a ser la carga, qué ves tus situaciones y cuánto dinero estás dispuesto a gastar, tus clientes dispuestos a gastar. Todas esas cosas dependen de tu grupo de auto skilling. Todo bien. Gracias de nuevo por ver este video. Espero que esto te ayude a entender el escalado automático. Por favor, deje su opinión. Tu reseña significa todo para mí. Solo estoy tratando de trabajar duro día y noche para conseguirte este tipo de enfoque orientado y decirte el escenario en enfoque orientado y decirte tiempo real lo que realmente usamos en nuestra empresa también. Gracias de nuevo. Te voy a ver en otro video. 73. Tipos de laboratorio de instancias de EC2 al día siguiente: Oigan, chicos, bienvenidos de nuevo al siguiente video de este video, vamos a hablar de una de las manos por aquí. Se trata de los diferentes tipos de instancias de EC de aquí. Vamos a entender y comparar algunos de los tipos de instancias Easy two. Abrir o consola AWS y abrir EC dos instancias. Ahora, deberías encontrar la instancia de EC dos por aquí. Entonces aquí, simplemente haz clic en el tipo de instancia y deberías llegar a esta página. Ahora bien, si seleccionas alguna de esta instancia, vas a obtener algunos detalles sobre esta instancia. Por ejemplo, te dirá el apellido y la talla. No te dirá si es un tipo general o un cómputo optimizado o algo por el estilo. Solo necesitas averiguarlo tú mismo por el apellido. Lo que puedes encontrar hacia los detalles de aquí es que puedes ver el tipo de tamaño de familia de instancias, y luego qué hipervisor se usa para crear esta instancia También puede ver el dispositivo raíz compatible con SM como EBS, Elastic Block Storage será el sistema de archivos raíz El sistema operativo principal se instalará en EBS. Ya sea un host dedicado o soporte de hibernación bajo demanda, igual manera, verá algunos detalles por aquí Entonces aquí ves algunos detalles hacia tu computadora. Se puede ver la arquitectura. También puede ver el tamaño de memoria por aquí, cuántos CP virtuales se asignarían para esta máquina virtual en particular. También puedes ver el networking por aquí. Esto podría ser parte de cualquiera de la zona T disponible, y se puede ver que el rendimiento de la red es muy bajo. Esta máquina en particular es D one micro, así que esa es la razón por la que todo es de configuración baja. Aquí, en la información de almacenamiento, puede ver que Elastic Block Storage se da aquí y es compatible, y se admite el cifrado en Elastic Block Storage. Y en cuanto a GPU, no hay GPU habilitada en este momento. Y también puedes ver los precios. Entonces aquí, el precio de Linux bajo demanda es de 0.02 USD por. Entonces digamos que los precios son los mismos, precios de RSSal son un poco altos, y se puede ver que el precio de Windows es casi el mismo que el precio de Linux también Así que vamos a ir a la última página. Quiero decir, vayamos al último y luego comparemos el último de aquí. Entonces ahora mismo estoy en la última página. Entonces esta máquina en particular cuesta 13 dólares la hora. Entonces veamos. Oh, también hay 26 dólares la hora. Bien, entonces veamos por qué cuesta 26 dólares la hora por aquí Entonces primero, vamos a ir a los detalles por aquí. Se trata de X dos metales IEDN. Ese es el apellido de aquí. Hablemos del cómputo. Entonces tiene 64 núcleos, lo que significa 182 CPU virtuales y eso es 182 CPU, decir, dos hilos por núcleo Se puede ver que tiene alrededor de 4,009, es decir, 4,096. GB de memoria. Se trata de 4 terabytes de memoria que tienes por aquí, hablemos de networking Es de 100 gigabyte de red, lo que significa muy rápido y tienes dirección IP por interfaz es de 50 direcciones IP por interfaz, y IPAddress versión seis también está habilitada Hablemos de almacenamiento por aquí. Se admite EBS. Ya viene con 3,800 gigabytes de almacenamiento e incluye SSD como parte del Se puede ver que hay dos discos se divide para este almacenamiento 3,800 No hay acelerador. No hay GPU por aquí y el precio es de $26 por b dos, y luego tienes la opción cuatro así que vende NX y los sabores normales de Linux Por lo que es caro en Windows, 32 dólares por hora para Windows y RHEL es de unos De igual manera, esta es una de las máquinas de versión de muy alto valor, ya sabes. Pero supongo que también hay máquina de versión de mayor valor, que tiene esta GPU en ella. Entonces solo estoy comprobando algo con una GPU. Hablemos de algunas misiones orientadas a GPU. GPU es igual a un 16. Bien, entonces este g6e, 24 grandes. Ahora bien, esto definitivamente tiene GPU por aquí. He hecho clic en él, así que tengo comunicaciones dentro de esta máquina en particular Entonces ahora si solo bajas al acelerador puedes ver que tiene NVDSGPU que es de unos 176 GB de memoria memoria GPU para procesamiento gráfico Y se puede ver prácticamente es casi lo mismo que el anterior. Tiene alrededor de 768 memoria en el sistema. Y se puede ver que esto es de 15 dólares la hora. Pero supongo que también tienes opciones para GPU iguales a 16. GPU iguales a 16. Sí. Entonces ahora, esto va a ser muy caro, creo, y esto es alrededor de 15. Sí, se trata de unos 17 dólares de precios de Windows por aquí. Pero el caso es que tiene 16 GP por aquí, unos 12 GB de ram de tu memoria GPU. De igual manera. Entonces tienes varias configuraciones diferentes en el tipo de instancia por aquí. Entonces, si quieres saber sobre el tipo de instancia, el mejor lugar es venir aquí y entenderlo. También puedes ordenarlo por cuál es tu requerimiento. Entonces, si mi almacenamiento es el requisito, puedo escribir almacenamiento por aquí. Entonces puedo poner un igual a y qué tamaño estoy buscando en cuanto a almacenamiento. Quiero 60 GB de almacenamiento. Ahora tienes Mon small también, que tiene 160 GB de almacenamiento disponibles en HHD y está costando alrededor de 0.075 una R. O bien tienes MT dos X grande, que tiene SSD en lugar HDD y cuesta alrededor de $1 por hora Pero, de nuevo, los precios del plan de ahorro y instancia reservada serán mucho menores porque en realidad estarás pagando por el rango de precios anual. Lo que significa que vas a obtener algún descuento o Gracias de nuevo por ver el SweDee. Te veo 74. Tipos de laboratorios de LB en AWS: Oigan, chicos, bienvenidos de nuevo al siguiente video. En este video, vamos a hablar de balanceador bajo. Ahora, para entender el balanceador bajo y hacia las manos, puedes abrir EC dos, y cuando abras EC dos, tendrás los balanceadores bajos aquí en los EC dos así Entonces puedes hacer clic en Crear Balanceador Bajo. Ahora tienes tres opciones por aquí. En realidad, hay cuatro opciones por aquí y hacia la creación de un balanceador bajo Ahora, un balanceador bajo clásico que estaba en la generación anterior está algo depreciado y se irá pronto Y el balanceador clásico de carreteras se reemplaza por otros tres tipos de equilibradores de carga por Entonces, el primero en comenzar es un balanceador de carga de aplicaciones, y luego tienes Balanceador de carga de red y balanceador de carga de puerta ¿Qué es un balanceador de carga de aplicaciones? Hablemos más a detalle de cada uno de estos y luego solo compararlo entre sí. Entonces, en primer lugar, el balanceador de carga de aplicaciones se usa principalmente para sus aplicaciones web Ese es el nombre del balanceador de carga de la aplicación entró en imagen Por lo tanto, se utiliza para aplicaciones web, microservicios o cualquier cosa que use framework de aplicaciones En términos de balanceador de grupos de red, se utiliza en aplicaciones de baja latencia y alto rendimiento donde necesita una muy buena respuesta de sus aplicaciones Entonces ahí estaríamos usando esto. El balanceador de carga de puerta de enlace, por otro lado se utiliza para dispositivos de seguridad, inspectores de tráfico y cualquier tipo de aplicación que utilice una aplicación de terceros y quiera equilibrar la carga entre ellos. Entonces en caso de IO o algo así. Eso es básicamente un balanceador de carga de puerta de enlace. Entonces haremos una muestra o demostración de uno de los balanceadores de carga solo mostrarte cómo crear esta configuración de balanceador de carga y cómo configurarla Preferiblemente, haremos balanceo de carga de la aplicación y configuraremos una aplicación en ella en el siguiente video. Pero aquí en este video, trataremos de entender las diferencias en ellos. Entonces, en primer lugar, el balanceador de carga de la aplicación es el equilibrador carga de capa siete para la aplicación, y el equilibrador de carga de red es de la capa cuatro, y el equilibrador de carga de puerta Entonces cada capa aporta un poco de diferencias entre ellas. Un balanceador de carga de capa siete se utiliza básicamente para el enrutamiento basado en rutas y el enrutamiento basado en host. Entonces, por ejemplo, un balanceador de carga tradicional parece un balanceador de carga de red, que es un equilibrador de carreteras de capa Entonces, lo que haría una capa para balanceador de carga es cuando una solicitud llega al balanceador de carreteras, por lo que el balanceador de carga redireccionará la solicitud directamente a algo que está Por lo que normalmente dirás que estos son el servicio de servicios más allá del balanceador de carga Y todo lo que hará la equilibradora vial es que será un cuello de botella Crearé un cuello de botella para la solicitud entrante y luego enrutaré la solicitud a diferentes aplicaciones debajo Bien. Entonces básicamente lo que ves en esta arquitectura es lo que va a pasar. Entonces la solicitud entra y luego pasa por el balanceador de carga de red, y luego puede configurar directamente los elementos debajo de él Hay una opción de configurar directamente la computadora EC dos debajo de ella, o puede pasar por otro ALB, o balanceador de carga de la aplicación Y luego a partir de ahí, se puede conectar a múltiples elementos. Entonces de cualquier manera puedes hacerlo. Pero recuerde que el balanceador de carga es un balanceador de carga muy sencillo donde básicamente Sensor cuando se recibe una solicitud, equilibra la carga y envía a quien sea a quien esté reportando No clasifica la solicitud. Ahora, la clasificación de la solicitud viene a través del balanceo de carga de la aplicación. equilibrio de carga de la aplicación no solo equilibra la carga, sino que también clasifica la carga Entonces como les dije, en términos de enrutamiento, aquí, el balanceador de carga de red hará un enrutamiento basado en IP, muy simple y directo ¿Bien? El equilibrio de carga de la aplicación hará un enrutamiento basado en ruta y basado en host. Ahora, ¿qué es path basado en host baase? La URL que el cliente está enviando a ese balanceador de carga, analizará la URL, y habrá dos opciones para ello Base de ruta o basada en host. base de ruta significa que mirará la ruta URL y, en función de la ruta, en realidad puede configurar el balanceador de carga de la aplicación para que apunte a un directorio personalizado Entonces de esa manera, ese directorio personalizado sería ese directorio o aplicación personalizada se llamaría mirando la URL. Por lo tanto, una gran cantidad de clasificación ocurre en el nivel de equilibrio de carga de la aplicación en lugar del balanceador de carga de red balanceador de carga de red enviará directamente la solicitud sin tener que mirar la URL Pero el balanceador de carga de la aplicación mira la URL, mira qué ruta están solicitando y luego toma una llamada Entonces hay una llamada de juicio que ocurre aquí en el balanceador de carga de la aplicación, lo que no sucede en el balanceador de carga de red Por lo tanto, esta es la diferencia principal entre el balanceador de carga de la aplicación y el balanceador de carga de red Así que el balanceador de aplicaciones no solo reenvía la solicitud, sino que también analiza la URL, y luego básicamente decide ruta basada en el enrutamiento basado en host, donde en términos de red lo Banste básicamente hace un enrutamiento IP, enrutamiento basado en IP En términos de la puerta de enlace en este aspecto, el balanceador de puerta de enlace, um, ya sabes, enrutamiento transparente a través de dispositivos, hace un enrutamiento transparente a través del dispositivo y básicamente entiende los firewalls y las aplicaciones de terceros más allá Y básicamente, hace el, ya sabes, um, enrutamiento de host de tu, uh, ya sabes, el tráfico entrante de aplicaciones URS. Ahora, por otro lado, el ALB o balanceador de aplicaciones manejará sockets web HTTP, HTTPS balanceador de carga de red maneja rutas TCP, UDP, TLS y el balanceador de carga de puerta maneja todo Esta es la mayor diferencia entre todos estos de ellos. Entonces como te dije, si estás usando micro servicios, contenedores, aplicaciones, servicios web, todo tipo de cosas serán apoyadas por ALB Pero si quieres algo que sea latencia ultra baja y que pueda manejar mucha carga de red, entonces puedes ir por Equilibrio de carga de red, incluso para tus microservicios y contenedores Pero recuerde que este balanceador de carga de red utilizará un enrutamiento muy sencillo Esa es la razón por la que es ultra baja latencia porque no lo hace, no se ordena o no, tiene un factor decisivo o el nivel del balanceador de carga También tienes la opción de configurar el balanceador de carga de red bajo eso, puedes configurar un ALB también puedes configurar un ALB para que se ordene más detalladamente Eso hablaremos más adelante punto de tiempo, pero estas son las opciones que disponibles al crear un balanceador de carga En el siguiente video, veremos con mucho detalle sobre el balanceador de carga Gracias de nuevo. Te veré en el siguiente video.