Cómo comenzar con AWS | Pravin Mishra | Skillshare

Velocidad de reproducción


1.0x


  • 0.5x
  • 0.75x
  • 1x (Normal)
  • 1.25x
  • 1.5x
  • 1.75x
  • 2x

Ve esta clase y miles más

Obtenga acceso ilimitado a todas las clases
Clases enseñadas por líderes de la industria y profesionales activos
Los temas incluyen ilustración, diseño, fotografía y más

Ve esta clase y miles más

Obtenga acceso ilimitado a todas las clases
Clases enseñadas por líderes de la industria y profesionales activos
Los temas incluyen ilustración, diseño, fotografía y más

Lecciones en esta clase

    • 1.

      Cuentas de AWS

      4:27

    • 2.

      Crea una cuenta de AWS

      5:25

    • 3.

      Nivel gratuito de AWS

      4:16

    • 4.

      Cómo proteger una cuenta de AWS

      6:05

    • 5.

      Configurar la política de MFA y password

      4:52

    • 6.

      Configurar presupuesto y alerta

      5:08

    • 7.

      Métodos de interacción con AWS

      8:03

    • 8.

      Cómo usar la consola de administración de AWS

      8:44

    • 9.

      Instala la CLI de AWS

      2:51

    • 10.

      Cómo usar la CLI de AWS

      4:15

    • 11.

      Regiones de AWS y zonas de disponibilidad

      14:18

    • 12.

      Ubicaciones Edge de AWS

      5:23

    • 13.

      ¿Qué es la gestión de la identificación y el acceso?

      7:24

    • 14.

      Usuarios, grupos y roles

      9:23

    • 15.

      Cómo crear un usuario y grupo de IAM

      7:49

    • 16.

      Inicia sesión con IAM User & Create Role

      4:46

    • 17.

      Políticas de IAM

      10:14

    • 18.

      Mejores prácticas de IAM

      6:45

    • 19.

      Descripción general de Amazon S3

      6:31

    • 20.

      Disponibilidad, durabilidad y replicación de datos en S3

      5:53

    • 21.

      Clases de almacenamiento

      9:58

    • 22.

      Demostración de cubo de S3

      6:40

    • 23.

      Descripción general de EBS (almacenamiento en bloque elástico)

      6:24

    • 24.

      Resumen de EFS (sistema de archivos elásticos)

      5:40

    • 25.

      Introducción a las redes

      1:24

    • 26.

      ¿Qué es una VPC?

      4:28

    • 27.

      Subred, puerta de enlace de Internet, tabla de rutas y puerta de enlace NAT

      8:19

    • 28.

      Grupos de seguridad y NACL

      5:34

    • 29.

      Crea una subred pública y privada de VPC

      9:45

    • 30.

      DNS y Amazon Route 53

      4:12

    • 31.

      VPN de AWS y AWS Direct Connect

      5:00

    • 32.

      Servicios informáticos en AWS

      4:16

    • 33.

      Máquina virtual

      6:00

    • 34.

      EC2 Elastic Compute Cloud

      4:17

    • 35.

      Componente de Amazon EC2

      5:43

    • 36.

      Convención de nomenclatura de instancias EC2

      7:10

    • 37.

      Tipos de instancias

      9:15

    • 38.

      Lanza tu primera instancia de EC2

      14:18

    • 39.

      Instancia de SSH EC2, instalación de Httpd

      7:35

    • 40.

      Cómo crear una instancia de Windows EC2

      5:27

    • 41.

      Servicio de contenedores elásticos ECS

      5:57

    • 42.

      Beanstalk elástico de AWS

      6:15

    • 43.

      Informática sin servidores

      3:52

    • 44.

      AWS Lambda

      7:35

    • 45.

      Tipos de datos

      5:01

    • 46.

      Bases de datos relacionales

      5:12

    • 47.

      Bases de datos NoSQL

      3:49

    • 48.

      Alojamiento de base de datos en la nube

      2:43

    • 49.

      Servicio de base de datos relacional de Amazon

      6:30

    • 50.

      Amazon DynamoDB

      5:01

    • 51.

      Crea una instancia RDS

      11:47

    • 52.

      Amazon Elasticache

      4:27

    • 53.

      Amazon Redshift

      3:47

    • 54.

      Autoescalado

      6:51

    • 55.

      Grupo de auto escalado EC2

      3:34

    • 56.

      Políticas de autoescala en EC2

      8:22

    • 57.

      Configuración de lanzamiento y plantilla de lanzamiento

      6:05

    • 58.

      Balanceador de carga

      3:21

    • 59.

      ¿Qué es un balanceador de carga elástica (ELB)?

      4:48

    • 60.

      Balanceador de carga elástica de AWS (ELB)

      4:56

    • 61.

      Usando ELB y auto escalado juntos

      17:29

  • --
  • Nivel principiante
  • Nivel intermedio
  • Nivel avanzado
  • Todos los niveles

Generado por la comunidad

El nivel se determina según la opinión de la mayoría de los estudiantes que han dejado reseñas en esta clase. La recomendación del profesor o de la profesora se muestra hasta que se recopilen al menos 5 reseñas de estudiantes.

100

Estudiantes

--

Proyectos

Acerca de esta clase

Este curso de introducción a AWS te llevará desde un principiante absoluto hasta un profesional en la nube de AWS. El curso tiene todo, desde los fundamentos hasta las demostraciones prácticas de los servicios de Amazon Web Services (AWS). Este curso es ideal para principiantes, ¡no se requiere experiencia en AWS!

Al completar con éxito este curso:

  • Tendrás una comprensión profunda de la cuenta de AWS, sus conceptos de creación y la seguridad asociada a ella.

  • Podrás crear una cuenta de AWS y usar sus recursos de nivel gratuitos y cómo puedes hacer que tu cuenta de AWS sea más segura.

Si estás buscando un curso más corto y completo para comenzar tu viaje con la AWS, ¡este es el curso para ti! Espero verte en el curso.

Conoce a tu profesor(a)

Teacher Profile Image

Pravin Mishra

Cloud For Everyone

Profesor(a)

AWS Community Builder | AWS Solutions Architect - Professional | Google Cloud Certified Trainer

12+ years of experience in IT and 8 years of teaching experience. Enterprise Architect, specialized in Architecting, Designing, Developing and Implementing Multi-Cloud base solutions.

Ver perfil completo

Habilidades relacionadas

Desarrollo Desarrollo web
Level: Beginner

Valoración de la clase

¿Se cumplieron las expectativas?
    ¡Superadas!
  • 0%
  • 0%
  • Un poco
  • 0%
  • No realmente
  • 0%

¿Por qué unirse a Skillshare?

Mira las galardonadas Skillshare Originals

Cada clase tiene lecciones cortas y proyectos prácticos

Tu membresía apoya a los profesores de Skillshare

Aprende desde cualquier lugar

Ve clases sobre la marcha con la aplicación de Skillshare. Progresa en línea o descarga las clases para verlas en el avión, el metro o donde sea que aprendas mejor.

Transcripciones

1. Cuentas de AWS: Hola alumnos, bienvenidos a otro video. Antes de pasar a AWS y comenzar a explorar sus servicios, lo primero que necesitamos es una cuenta de AWS. Pero antes de crear su cuenta de AWS, hay algunas cosas que necesita saber. En este video. Estaremos hablando de los elementos de una cuenta de AWS y de las cosas que necesitamos para crear una cuenta para nosotros mismos. Vamos a meternos en ella. Esta es una cuenta de AWS. Estoy asumiendo que ya no tiene cuenta. Entonces vamos a crear uno en la siguiente lección. Y la cuenta de AWS es un contenedor en el que crea y administra todos sus recursos y servicios de AWS. Lo primero que necesita para crear y administrar una cuenta de AWS es una identidad. Estaremos cubriendo la identidad en el módulo IAM. Pero por ahora, puedes entenderlo como usuario. Este usuario controlará y gestionará toda su cuenta. Entonces estarás creando una cuenta para ti mismo. Actuarás como identidad. Ahora como usuario, crearás algunos recursos en tu cuenta que eventualmente generarán algunas facturas. También puedes gestionar todo tipo de facturación en la misma cuenta. De ahí que cada cuenta tenga sus recursos, identidad y construcción de AWS. Una cuenta de AWS es un entorno naturalmente seguro. Nadie fuera de tu cuenta puede acceder a tus recursos y obtendrás las facturas. Solo por los recursos que aportes en tu cuenta. Puede comenzar su viaje en AWS con una sola cuenta. Pero cuando tu organización crece en tamaño y complejidad, puede ser difícil gestionar todo en una sola cuenta. Es por eso que AWS recomienda usar varias cuentas. Por ejemplo, puede crear cuentas separadas para equipos de desarrollo, pruebas y producción en su organización. Porque simplifica el control de seguridad y el proceso de facturación para cada equipo y proporciona a diferentes equipos la flexibilidad requerida para que puedan enfocarse en la innovación. Ahora, veamos lo que necesita para crear una cuenta de AWS. En primer lugar, se necesita un id de correo electrónico, que debe ser único. Eso significa que no debe usarse en ninguna otra cuenta de AWS. También se necesita una tarjeta de crédito o débito, cual es necesaria para fines de facturación. Con estas dos piezas de información, podrá crear una cuenta de AWS. Cuando crea una nueva cuenta de AWS, básicamente está creando un usuario que tenga control sobre todos los servicios y recursos de su cuenta. Esta identidad o usuario se conoce como la cuenta de AWS, el usuario raíz. El usuario root puede iniciar sesión con la dirección de correo electrónico y contraseña que utilizó al crear la cuenta en primer lugar. Hablaremos de usuario root en detalle en el módulo de seguridad de AWS. Cuando inicia sesión en su cuenta de AWS, el primer panel que ve se conoce como consola de administración de AWS. Se trata de una consola basada en la que se puede acceder a través de un navegador web. También hay otras formas de acceder a las cuentas de AWS, que veremos en el siguiente módulo. También se te pedirá que autentiques tu identidad cuando inicies sesión por primera vez. Esa es básicamente la administración de identidad y acceso, comúnmente conocida como servicio IAM, garantiza un acceso seguro a su cuenta de AWS y a los recursos que hay en ellas. También exploraremos en detalle en un módulo posterior. Por lo que ahora estamos todos dispuestos a crear una cuenta de AWS. 2. Crea una cuenta de AWS: Hola alumnos, bienvenidos de vuelta. En este video, crearemos una cuenta de AWS Free Tier. El propósito de AWS Free, vinculado a permitir que los clientes y nuevos usuarios exploren AWS y obtengan la experiencia práctica necesaria antes de que realmente comiencen a construir su infraestructura en la nube. Entonces como su nombre indica, el tiempo libre consiste en servicios y recursos que son de uso gratuito en la AWS con algunos términos y condiciones. Hemos discutido en el video anterior. Necesita una identificación de correo electrónico única y una tarjeta de crédito para crear su cuenta de AWS. También necesitarás un formulario para recibir un código de verificación SMS, que forma parte de abrir la cuenta. Ahora podría estar pensando que si vas a utilizar solo servicios CAS gratuitos, ¿por qué necesitas ingresar los datos de tu tarjeta? Bueno, eso es porque la llanta libre es una oferta limitada. Y en caso de agotar el límite o servicio de usuario que no viene debajo de la llanta libre. Tenemos un color bonito la cantidad. Por lo tanto, es obligatorio configurar nuestro método de facturación como crear su cuenta de AWS. Pero eso no es algo de qué preocuparse. En este entrenamiento. Sólo estaremos utilizando servicios nefastos. Y si te apegas a lo que hacemos en este entrenamiento, no te cobrarán para asegurarlo aún más. También estableceremos un presupuesto para nuestra cuenta y configuraremos una alerta para que obtengamos una notificación. Si cruzamos el proyecto CIP. Vamos a abrir un navegador web y empezar a crear nuestra cuenta gratuita. He abierto un navegador web aquí, y lo hice para el nivel gratuito de AWS. Y el primer resultado aquí, tiempo libre de AWS es lo que queremos. La primera página te ayuda a entender qué es una cuenta gratuita y cuáles son los servicios que vienen bajo la dieta gratuita? Estaré cubriendo un retiro tonto en la próxima lección. Así que vamos a saltarlas y crear una cuenta gratuita. A continuación, deberá rellenar los detalles requeridos. Tu dirección de correo electrónico única para el usuario raíz, y luego elige un nombre para tu cuenta. También puede cambiar el nombre y la letra LES. Si quieres. Después haga clic en Verificar, Dirección de correo electrónico, verifique su correo electrónico. Ingresa aquí el código de verificación y haz clic en Verificar. Serás recibido. Eres tú, tu dirección de correo electrónico ha sido completamente verificada. Ahora ingresemos una contraseña para el usuario root y confirmemos la contraseña. Y haga clic en Continuar. Has terminado el paso uno. Y luego nos llevará a dar un paso a través de la primera pregunta. ¿ Cómo planea usar AWS? Simplemente elige Poznan. Después agrega tu nombre, número de teléfono, tu país o región, dirección. Y luego dar click en aceptar los términos y condiciones y continuar con el siguiente paso. A continuación se encuentra la página de facturación que necesitas para rellenar tu información de facturación. Ingrese su número de tarjeta de crédito, fecha de vencimiento, nombre de los titulares de tarjetas y fórmula, riesgo alcista, y luego continúe con el paso cuatro. Se le puede pedir que confirme su identidad. Por lo que de nuevo, deberá ingresar su número de teléfono y al cheque de seguridad. Y obtendrás una cotización en tu teléfono que necesitas ingresar aquí. No he tenido aquí mi código de verificación. Y hagamos click en Continuar. Aquí tenemos el plan de apoyo. Es una forma de obtener ayuda en tiempo real de AWS relacionada con sus recursos y servicios. Para nuestro propósito, elegiremos el soporte básico. Es completamente gratuito y solo te ayuda con las cuestiones relacionadas con la cuenta o facturación. Por último, haga clic en Completar inscribirse. Y eso es todo. Ahora podemos ir a la consola de administración de AWS. Haga clic en el botón en medio de la pantalla. Aquí, nos pedirá un ID de cuenta o alias de cuenta. No hemos especificado ningún alias para cuenta. Y no sé cuál es el ID de cuenta. Tampoco tenemos un nombre de usuario porque se trata de un nombre de usuario de IAM. Lo que sí tenemos es el correo de usuario raíz. Entonces optemos por iniciar sesión usando routing, un e-mail e ingresamos dirección de correo electrónico con la que acabamos de inscribirnos. Ingrese la contraseña y haga clic en Iniciar sesión. Felicidades. Vietnam inició sesión en nuestra cuenta. Y esta es la Consola de Administración. Por lo que ahora es tu momento de crear una cuenta para ti mismo para seguir adelante con este entrenamiento. Eso es todo por esta lección. Entenderemos ofertas de gyre gratuito de AWS en la próxima sesión. Nos vemos pronto. 3. Nivel libre de AW: Bienvenidos de vuelta a los estudiantes. En el último video, ha creado una nueva cuenta de AWS y ha agregado los detalles de su tarjeta para la facturación. Esto nos recuerda que necesitamos utilizar los servicios de AWS de una manera planificada. De lo contrario, terminarás pagando algunos servicios. Bueno, no te preocupes. En esta sesión, te guiaré a través de cómo usar tu cuenta de AWS para que no te cobren las próximas dos sesiones. También te ayudaré a asegurar tu cuenta, establecer un presupuesto para tu cuenta, y una alarma. Por lo que se le notifica si cruza el límite presupuestario. Así que comencemos con la llanta gratuita de AWS. La llanta gratuita te permite probar ciertos servicios de AWS por un periodo definido sin tener que pagar nada. Significa que AWS proporciona una lista de los servicios de AWS que puede utilizar de forma gratuita en la plataforma de AWS para obtener cierta experiencia práctica. Ahora, déjame llevarte a la página web de nivel gratuito de AWS. Esta es la página de AWS Free Tier. Puedes ver todos los detalles sobre la llanta libre de AWS, que se clasifica en tres categorías. El primero son los juicios gratuitos. En virtud de esta oferta, puede utilizar algunos servicios de AWS durante un corto período. Y luego estos servicios, y al final de ese periodo, el segundo es de 12 meses gratuitos. Significa que tienes 12 meses para probar estos servicios de forma gratuita. Y se inicia a partir de la fecha en que creó su cuenta de AWS. El último siempre es gratis. Estos servicios están a su disposición para siempre, pero hay un límite en cuanto a comer en qué cantidad puede utilizar estos servicios. Por lo que nunca caducan hasta que cruces el límite disponible. A continuación, tenemos una opción aquí para filtrar productos de AWS en función diferentes categorías y prueba gratuita. Bastante simple, ¿verdad? Vamos a probarlo para entender mejor. Vamos a seleccionar Siempre gratis. Aquí solo se pueden ver estos servicios que siempre son gratuitos dentro de un determinado límite. Ahora, toma AWS Lambda. Se trata de una opción de cómputo sin servidor, que veremos en un módulo posterior. Pero aquí también puedes filtrarlo desde la categoría de producto. A partir de hoy. Permite 1 millón de pacientes invocados al mes. Eso significa que si te quedas bajo 1 millón de invocaciones, siempre será gratis. Este tiempo libre nunca expira. Ahora selecciona 12 meses gratis. En esta categoría, vamos a ver, almacenamiento. S3 por ejemplo. Se trata de un Servicio de Almacenamiento de Objetos el cual es gratuito por 12 meses o hasta cinco gigabytes de almacenamiento. Después de eso, tendrás que pagar una cierta cantidad. S3 es una gran opción para probar un sitio web estático. Veremos que en el modelo de almacenamiento de esta formación. El último ejemplo es Amazon EC2, que utiliza para implementar su aplicación. Aws ofrece una prueba de doce meses de hasta 750 horas de uso cada mes para el tipo de micro instancia T2, significa que puedes ejecutar tu aplicación de forma gratuita durante 12 meses. Este es un periodo significativo para dominar AWS. Puedes probar y aprender casi todos los servicios principales. Y espero que hagan el mejor uso de ella. Eso es todo por esta lección. Recomendaría revisar esta página antes. Y al usar los servicios de AWS, hay tantos servicios que puedes probar de forma gratuita, pero se asegura de que conozcas la disponibilidad gratuita del servicio antes de utilizarlo. Eso es todo por este video. 4. Cómo asegurar una cuenta de AWS: Hola alumnos. En este video, vamos a entender cómo puede asegurar su cuenta de AWS con política de contraseñas y autenticación multifactor, o MFA en resumen. También veremos el acceso y la clave secreta más adelante en este video. Entonces comencemos con la autenticación multifactor. Es decir, MFA. Tiene un ID de correo electrónico y contraseña para iniciar sesión en su cuenta de AWS. Y una vez que inicie sesión, puede acceder a la consola de administración de AWS y realizar diferentes operaciones en ella. Supongamos que alguien ha robado tu contraseña. Ahora esta persona puede iniciar sesión y hacer cualquier cosa en su cuenta, ¿verdad? Sobre todo si tiene acceso de administrador, puede eliminar recursos de producción, transferir datos confidenciales, cambiar la configuración de la aplicación, y lo que sea. Entonces, ¿cómo proteges tu cuenta encima de la contraseña? Bueno, puedes usar una autenticación multifactor o MFA. ¿ Qué es la autenticación multifactor? Se trata de un método de autenticación que requiere que cualquier usuario proporcione al menos dos tipos de verificación, los cuales se conocen como factores para obtener acceso a una cuenta o recurso como un sitio web o un teléfono móvil app, o servicios. Aparte de nombre de usuario y contraseña, los usuarios tendrán que introducir una contraseña única u OTP, entregada a través de SMS, correo electrónico, o una aplicación de autenticador como Google y Microsoft Authenticator. Un buen ejemplo de autenticación de dos factores es un inicio de sesión de Gmail desde un nuevo dispositivo. Cada vez que alguien intenta iniciar sesión en tu cuenta de Gmail, solicita la contraseña y una contraseña de una sola vez generada por el sistema, es decir OTP. Se envía en el número de móvil registrado. La autenticación multifactor se utiliza en la combinación de una contraseña y un dispositivo de seguridad que posee, como su teléfono. Una vez que configure MFA en su cuenta de AWS, deberá proporcionar un token MFA cada vez que inicie sesión en su cuenta de AWS. Mfa básicamente agrega otra capa de seguridad sobre tu contraseña. Entonces, incluso si alguien tiene la contraseña de tu cuenta, todavía no podrán iniciar sesión en ella Ya que necesitan MFA también para hacer qué? De ahí que sea una buena práctica configurar MFA en su cuenta de AWS. Mfa y la seguridad son temas importantes tanto desde los puntos de vista de la entrevista como del examen. Podrías esperar preguntas como, ¿cómo agrega una capa extra de seguridad a tu usuario de AWS Route o IAM? La respuesta a esta pregunta será la autenticación multifactor. Aparte de la consola de administración, también podemos acceder a AWS a través de CLI y el SDK. Esto lo entenderemos en el siguiente tema, interactuando con AWS. Pero cuando accede a AWS a través de cualquiera de estos métodos, utiliza una clave de acceso y una clave secreta. Estas claves se parecen a los códigos presentes en la pantalla, lo que podría no ser un usuario fácil de usar como nombre de usuario y contraseña. Pero tendrá que usarlos en su código para iniciar sesión en su cuenta de AWS, ya sea a través de CLI o SDK. Estas son conocidas como claves de acceso, y se utilizan para el acceso programático. Crearemos algunas claves de acceso más adelante en el curso y veremos cómo usarlas para iniciar sesión. Entonces ahora pasemos al siguiente tema, que es la política de contraseñas. La política de contraseñas es una forma de hacer cumplir una contraseña segura para los usos de su cuenta de AWS, porque su cuenta es más segura cuando tiene una contraseña segura. Esto lo podemos lograr vía política de contraseñas. Todo lo que necesitas hacer es habilitar todas las reglas que quieres que tus usuarios sigan al crear o restablecer su contraseña. Y eso es todo. En la política de contraseñas. Puede establecer una regla de longitud mínima de contraseña. Entonces puedes imponer tipos de caracteres específicos. Por ejemplo, es posible que desee tener al menos una letra mayúscula, una letra minúscula y un número también. Aparte de eso, también se pueden especificar caracteres no alfanuméricos como porcentaje, Calle, etc., deben incluirse. Entonces puedes habilitar la caducidad de la contraseña, lo que significa que el usuario necesita rotar su contraseña después de ciertos días. Por ejemplo, después de 90 días, 120 días, etc. A continuación, puede permitir que el usuario cambie su contraseña, o también puede optar por sólo el administrador cambie la contraseña. Por último, también puedes evitar reutilización de contraseñas para que los usuarios, cuando cambien sus contraseñas, no la cambien por la que ya habían usado en el pasado. Entonces esto es genial. Una política de contraseñas es realmente útil contra todo mi colega. Intento en tu cuenta. La política de contraseñas es un tema importante bajo seguridad de AWS desde el punto de vista del examen de certificación o entrevista. Eso es todo lo que quería cubrir en este video. 5. Configurar la MFA y la política de contraseña: Hola alumnos. Espero que haya creado su cuenta de AWS. Por lo que en este video, aseguraremos nuestras cuentas agregando autenticación multifactor y configurando una política de contraseñas. Antes de comenzar la configuración, comprendamos rápidamente qué es MFA. Se trata de un método de autenticación que valida la identidad del usuario. Entonces cuando cualquier usuario intenta acceder a algo que está asegurado con MFA, necesita proporcionar dos o más piezas de evidencia para obtener acceso. Así que vamos a entrar en nuestra cuenta de AWS y asegurarla con MFA. Para ello, necesitamos acudir al Servicio de Gestión de Identidad y Acceso. Por lo que aquí estamos en el tablero del IAM. Y como pueden ver, ya tenemos un par de recomendaciones de seguridad de AWS. Lo primero que está diciendo es que debes agregar un MFA para el usuario root. Así que agreguemos seleccione mi cuenta, luego haga clic en las credenciales de seguridad. Aquí puedes ver los detalles de la cuenta. Desplazemos un poco hacia abajo. Aquí. Se puede ver que no tenemos ninguna asignada a dispositivos. Así que vamos a hacer clic en Administrar dispositivo MFA. Aquí vamos a utilizar un dispositivo MFA virtual. Tendrás que instalar una aplicación de autenticador en tu dispositivo móvil o tu computadora. Solía usar la aplicación Google Authenticator en mi teléfono porque eso es completamente gratuito de usar. Entonces usaré eso. Pero si aún no tienes una instalada en tu teléfono, instala la aplicación Google Authenticator y luego haz clic en Continuar. Lo siguiente que hay que hacer es hacer clic en Mostrar código QR. Una vez que veas el QR en tu pantalla, simplemente escanéalo usando tu teléfono. Y debería abrir la App Google Authenticator. Si lo haces correctamente. Se generará un código y lo mostrará en su pantalla. Entonces lo que hay que hacer es agregar ese código aquí. Justo como he agregado el mío. Y luego hay que esperar a que este código caduque. Porque generará un nuevo código. Tendrás que introducir el nuevo código en la caja de herramientas de código MFA. Una vez que hagas eso, haz clic en Asignar MFA. Ahora tienes MFA habilitado para tu cuenta. Y puedes ver que tenemos un nombre de recurso ARN o Amazon para nuestro dispositivo virtual aquí. Por lo que es bastante fácil habilitar MFA en tu cuenta. Ahora, vamos a configurar también una política de contraseñas. Vamos al tablero del IAM. Nuevamente. Encontrará la configuración de contraseña en la configuración de la cuenta. Del lado izquierdo, haremos click en Cambiar política de contraseñas y hacer cumplir una política en nuestra cuenta. Puedes cambiar muchas cosas sobre la contraseña. Por ejemplo, la longitud mínima de la contraseña. Vamos a cambiarlo a 16. ¿ El usuario requiere mayúsculas, minúsculas o número? Puedes seleccionar todos o cualquiera de ellos. Voy a seleccionar todo como. Esta es una buena práctica para usar mayúsculas y minúsculas en la contraseña. Y te recomiendo que hagas lo mismo. Puedes más o menos personalizar tu política de contraseñas como desees, y luego hacer clic en guardar cambios, lo que hará el trabajo. Por lo que ahora, cada nuevo usuario en tu cuenta debe seguir esta política de contraseñas al crear o restableciendo su contraseña, lo que mejorará la seguridad de tu cuenta. Entonces estudiantes, estas son las pocas medidas de seguridad iniciales que todo ingeniero en la nube debe conocer. seguridad en la nube en general es un tema muy importante, tanto desde su examen de certificación punto de vista entrevistado. Y espero que lo entiendas a fondo. Eso es todo por este video. 6. Configura presupuesto y alerta: Hola alumnos, bienvenidos de vuelta. Ahora tienes nuestra propia cuenta de prueba gratuita y la has asegurado con autenticación multifactor y política de contraseñas. También entiende AWS, llanta gratis y las diferentes ofertas bajo tarifa. En esta capacitación, solo utilizaremos gratuitamente para agregar servicios para la práctica práctica en AWS. Entonces si te apegas a estas ofrendas gratuitas, sólo, no se te cobrará. Pero en caso de que accidentalmente use un servicio de pago o se olvide de eliminar un servicio que podría pagarse después de cierto tiempo. Es fundamental establecer un presupuesto y una facturación. Mucho que recibas notificación vía correo electrónico o SMS cuando alcanzas el cierto límite. En este video, vamos a configurar el presupuesto y alertar para nuestra cuenta de AWS. Así que vayamos a la consola de administración de AWS. Como puedes ver, he iniciado sesión en mi cuenta con usuario root. Y arriba en la esquina superior derecha aquí, debajo de mi nombre de cuenta, seleccionaremos tablero de facturación. Esto nos llevará al tablero de instrumentos. Desplazemos hacia abajo hasta la sección de gestión de costos y haga clic en los presupuestos. Aquí tenemos alguna información adicional sobre presupuesto y alerta, como cómo funciona, beneficios y características. Haga clic en Primeros pasos si desea leerlo más. Te recomiendo encarecidamente que hagas eso ya que te dará más ideas. Ahora, nos desplazaremos hacia atrás y pulsaremos en crear un presupuesto. Aquí. El presupuesto de costos recomendado se selecciona por defecto. Por lo que haremos click en Siguiente. Deja todo por defecto. Y aquí, introduce tu monto presupuestado. Entraremos a nuestro presupuesto. Para esta demo. Seleccionaré $3. Desplázate hacia abajo e introduce el nombre de tu presupuesto. Nombrar tu presupuesto es importante ya que puedes tener múltiples presupuestos en el futuro. Vamos a llamarlo alerta de $3. Por lo que será fácil identificarlo último, y haga clic en Siguiente. Ahora, haz clic en Agregar umbral de alerta. Aquí puedes crear múltiples umbrales. Entonces si entramos 50 en el umbral, eso significa que recibirá una notificación cuando su gasto en AWS alcance el 50% de $3, que es de $1.5. En este caso. También puede agregar umbral múltiple. Agreguemos un umbral más para que obtengamos una notificación más antes la cantidad alcance el límite establecido. Vamos a sumar 80% en esta ocasión. Aquí. En la opción de notificación. Tenemos un par de opciones en cuanto a cómo queremos que nos notifiquen. Optemos por la notificación por correo electrónico. Ingresa la dirección de correo electrónico en que deseamos recibir el correo electrónico. Y luego haga clic en Siguiente. Deje todo como predeterminado en la página de acción de adjuntar y haga clic en Siguiente. Ahora revisemos todo y luego haga clic en Crear presupuesto. Tomará unos segundos y veremos un mensaje diciendo que el presupuesto se crea con éxito. Aquí, se puede ver que el estado del umbral está bien. Puedes utilizar este enlace presupuestario para ver los detalles y el gráfico de nuestros gastos. Actualmente, no tenemos ningún detalle aquí ya que se tarda alrededor de 24 horas en poblar los datos. Entonces cuando creas un presupuesto, te sugeriría que vuelvas aquí después de un día o dos y veas a estos DJs. Vamos a desplazarse hacia atrás hacia arriba. Y en la esquina superior desde aquí, puedes editar y eliminar el presupuesto también. Esto es muy importante ya que podría necesitar ajustar el presupuesto en el futuro. Adelante y pruébalo. Para este video. Eso es más o menos sobre el presupuesto. Recibiremos la primera alerta cuando nuestra factura de AWS alcance el 50% de $3. Y la segunda alerta al 80%. Según la alerta, podemos volver y comprobar qué servicios se están ejecutando. Y si no los necesitamos, podemos terminarlos para ahorrar el costo. En el siguiente video, resumiremos el tema entender la cuenta de AWS y la llanta libre. Nos vemos en la siguiente. 7. Métodos para interactuar con AWS: Hola alumnos, bienvenidos de vuelta. Anteriormente discutimos los diferentes modelos de implementación en la nube, que IS Pass y dice, Pero ¿sabías que también podemos usar los servicios de AWS como cualquiera de estos modelos si no lo hace. Bueno, no te preocupes. Vamos a entender eso en este video. Aquí, vamos a entender cuáles son los diferentes métodos para interactuar con su cuenta y servicios de AWS. Hasta ahora, hemos estado interactuando con AWS a través de la consola de administración, que es una interfaz web. Además de eso, tenemos dos formas más de interactuar con AWS. Primero es la CLI de AWS, o interfaz de línea de comandos. Se trata de una herramienta que instala y configura en su computadora, que le permite acceder a los servicios de AWS y automatizarlos a través de los scripts terminales de su computadora. El segundo método es SDK, que significa Kit de Desarrollo de Software. Es utilizado por programadores y desarrolladores para interactuar con los servicios de AWS directamente desde el código de la aplicación. Si eso no tiene sentido completo, no se preocupe. Los entenderemos en detalle. Empecemos con la consola de AWS. Nuevamente. Se trata de una interfaz web para interactuar con los servicios de AWS. Y como se puede acceder a ella a través de su navegador web, es la forma más fácil de administrar recursos en AWS. Simplemente inicie sesión en su cuenta de AWS y haga lo que quiera. Lo que es más o versión móvil de la consola de administración de AWS también está disponible. Puedes instalarlo en tu teléfono y acceder a casi todos los servicios de AWS desde tu teléfono. ¿ No es eso genial? Ahora veamos algunas ventajas de usar AWS Management Console. Si es principiante, AWS Management Console es el comienzo correcto. Como puede interactuar muy fácilmente con los servicios de AWS. Es como navegar solo por otro sitio web. Pero como comentamos, es más fácil debido a su interfaz de usuario muy limpia, paso a paso. Por todas estas razones, la consola de administración es la mejor opción para realizar tareas administrativas como principiante. Ahora, blanco solo para principiantes. Bueno, eso se debe a que algunas operaciones en la consola de AWS o manual y toman tiempo. De ahí que no sea posible automatizar todo a través de la consola de administración. Y por eso usamos una Interfaz de Línea de Comandos o CLI. Ahora, vamos a entender esto. La interfaz de línea de comandos de AWS, o CLI, es una herramienta unificada para administrar sus servicios de AWS. Se trata de una interfaz de línea de comandos que le permite administrar su servicio de AWS utilizando su terminal informático. Esta es una herramienta que puedes instalar fácilmente en tu computadora. Es compatible con los sistemas operativos Windows, Mac y Linux. Puedes hacer todo lo que puedas hacer con el ejemplo de la consola de administración de AWS. Si desea enumerar todos los usuarios de su cuenta, entonces abrirá un terminal en su computadora y escriba usuarios de lista de AWS. Te conseguirá una lista de todos los usuarios disponibles en tu cuenta. Y si desea eliminar un usuario, podría usar el comando AWS eliminar usuario, nombre de usuario , y eliminará a ese usuario de su cuenta. También puedes combinar estos dos comandos para ejecutar qué tareas en un solo paso. Esa es una ventaja significativa del uso de AWS CLI sobre la consola de administración. Puedes automatizar tareas en CLI. Supongamos que tiene 50 usuarios en su cuenta. Y quieres eliminar usuarios cuyo nombre empiece M. Si tienes que hacerlo desde la consola de administración de AWS, tendrás que encontrar a cada usuario y eliminar uno por uno, ¿verdad? Pero ese no es el caso de CLI. Aquí, puedes escribir el script y usar los dos comandos anteriores para realizar la misma tarea. Y esto se hará rápidamente. Del mismo modo, puede administrar varios servicios de AWS utilizando el mismo script. Para acceder a AWS a través de la CLI, debe autenticarse, al igual que en la consola de administración de AWS. Pero aquí, en lugar de usar nombre de usuario y contraseña, tendrás que proporcionar acceso y clave secreta de acceso actúa como nombre de usuario y clave secreta es tu contraseña. Si algo suena confuso. Vamos a instalar y configurar CLI de AWS en la siguiente lección. Ahora, veamos algunas ventajas de usar AWS CLI. Es una excelente manera de interactuar con AWS a través de un terminal informático y es una excelente manera de automatizar tareas y lograr la infraestructura como código. Por último, tenemos el SDK, significa Kit de Desarrollo de Software. Dave chico. En resumen, como su nombre indica, es un conjunto de herramientas de software y programas utilizados por los desarrolladores para crear aplicaciones. Ahora, si está pensando que es similar a la CLI de AWS, Eso no es cierto porque no puede usar AWS SDK en su terminal informático. Esto solo se utiliza para leer o dentro del código de su aplicación, lo que permite que su aplicación interactúe con los servicios de AWS. Sdk admite muchos lenguajes de programación diferentes, como C plus plus, Java, javascript.net, Node.js, PHP, Python y Ruby. También hay SDK móviles para Android e iOS tienen nivel. Entendamos esto con un ejemplo. Suponga que está desarrollando una aplicación móvil que permitirá a los usuarios compartir sus fotos. Para eso, usarás Amazon S3 como almacenamiento. Hablaremos de S3 en detalle en otro módulo. Pero en este caso, su aplicación necesita interactuar con AWS, servicio Amazon S3, ¿verdad? No puede usar la consola de administración de AWS ni la CLI de AWS en este escenario porque desea que su código de aplicación interactúe con el servicio de AWS. Por lo tanto, utiliza AWS SDK. Le permitirá acceder y administrar sus servicios de AWS a través de su código de aplicación. Es posible que ya conozcas las ventajas de usar SDK. Es una herramienta perfecta para interactuar con AWS a través del código de aplicación. Es genial para interactuar con AWS dentro del código de aplicación. Entonces estudiantes, espero que ahora entiendan los tres métodos para interactuar con AWS. 8. Uso de la consola de gestión de AWS: Hola alumnos, bienvenidos de vuelta. En la última lección, analizamos diferentes formas de interactuar con los servicios de AWS. En esta lección, profundizaremos en la consola de administración de AWS y entenderemos cuáles son las diferentes formas iniciar sesión en la consola de administración de AWS. Cómo crear una cuenta, LES, cómo seleccionar una región de AWS en nuestra cuenta, y cómo llegamos a diversos servicios de AWS y su panel de control. Así que vamos a entrar directamente en ello. En primer lugar, debe iniciar sesión en su cuenta de AWS para acceder a la consola de administración de AWS. Y las credenciales que usas para iniciar sesión determinan qué tipo de usuario eres. A partir de ahora. Conoces al usuario root que es el propietario de la cuenta. Este usuario tiene acceso a todos los recursos y servicios dentro de la cuenta. Luego hay otros tipos de usuarios en tu cuenta llamados usuarios de IAM. Estos usuarios tienen acceso limitado a recursos y servicios. Ahora vamos a entender la diferencia entre usuario raíz y usuario de IAM. usuario root es el usuario que se creó cuando creamos la cuenta por primera vez. Entonces si iniciamos sesión usando credenciales root, tendremos acceso a toda la cuenta. Por otro lado, los usuarios de IAM son creados por el usuario root. Hablaremos más de ellos en los módulos posteriores. Inicie sesión en AWS. Como usuario root, necesita el ID de correo electrónico y la contraseña que utilizamos y autenticación multifactor que habilitamos cuando creamos la cuenta de AWS. No obstante, iniciar sesión como usuario de IAM, necesita un nombre de usuario, contraseña, y bien un duodév dígito, AWS, ID de cuenta o ideas de cuenta. Ya que no tenemos un usuario de IAM ni la cuenta. Entonces vamos a iniciar sesión con el usuario root que ya hemos creado y creamos una cuenta LES. Aquí estamos en la página de firma de AWS. Introduciré el ID de correo electrónico y luego haga clic en Siguiente. Daré mi contraseña. Después haga clic en iniciar sesión. Como he configurado la autenticación multifactor, tendré que introducir un código único además de mi contraseña para poder iniciar sesión. Entonces ingresaré el código. Ahora, estoy conectado a la consola de AWS. Ahora que estamos en la consola, hay algunas cosas que debemos revisar rápidamente. Uno de ellos es la cuenta. Aquí puedes ver la configuración de la cuenta que contiene detalles de tu cuenta como información de contacto, contacto alterno para facturación, operaciones y seguridad. ¿ Recuerdas la puesta en marcha del presupuesto? En el último tema, revisaremos rápidamente nuestro tablero de facturación. Haga clic en el panel de facturación. Verás el resumen de facturación y otros detalles incluyendo la factura del mes en curso, las construcciones anteriores y el control presupuestario. A pesar de que creo que has configurado un presupuesto y habilitado una alerta, aún así, te recomiendo revisar regularmente esta página para ver si tienes alguna factura no deseada. Ahora, volvamos y creemos un alias de cuenta tipo IAM en este cuadro de búsqueda aquí, y haga clic en el panel de control de IAM Identidad y Access Management Service. Y como se puede ver en el lado derecho aquí, tenemos un ID de cuenta y debajo está el alias de la cuenta. Tenga en cuenta que el alias de cuenta es el mismo que el ID de cuenta. Entonces aquí está nuestro ID de cuenta de 12 dígitos. Pero recordarlo podría ser un reto. Entonces vamos a crear un alias que sea mucho más fácil de recordar. Para eso, haz clic en Crear, agrega tu ID, la asesoría de Cloud 2050 y, a continuación, guarda los cambios. Eso creará una identificación para usted. Usaremos este ID o alias cada vez que iniciemos sesión usando el usuario de IAM. Ahora, volvamos al enlace de la cuenta de usuario. Para ello, basta con hacer clic en el logotipo de AWS. Junto a esto, tenemos otro desplegable para seleccionar la región de AWS. Entonces seleccionemos una región para nuestra cuenta. Actualmente estamos en Virginia del Norte. Nosotros Oriente, Uno es la razón llamada. Cada región tiene un código específico y usamos este código cuando usamos AWS, CLI y SDK. Hablaremos de ello en las próximas sesiones. Ya hemos discutido la infraestructura global de AWS. Y puede ver que hay muchas regiones y regiones admitidas en AWS. Iniciaremos sesión en la consola de administración de AWS, seleccionaremos una región de AWS para crear estos servicios en una región específica. Esto es lo primero que haces cuando creas algún servicio nuevo, excepto algunos que no son sensibles a la región. Si cambiamos y seleccionamos la región de Asia Pacífico, que no es más que la región de Mumbai. Cualquier servicio que ahora creamos se lanzará únicamente en la región de Mumbai. Por lo tanto, es crucial decidir y seleccionar la región en la que desea crear sus servicios de AWS. Y lo más importante, si crea algunos recursos de AWS y no ve esos recursos en la consola. Significa que lo creaste en diferente región y tendrás que cambiar a su región para verlos. Ahora sigamos adelante y veamos cómo navegar a los servicios de AWS. La consola de administración de AWS proporciona varias formas de navegar a tableros de servicio individuales. En el cuadro de búsqueda de la barra de navegación, introduzca el nombre del servicio. Verás los resultados. Elija el servicio que desea en la lista de resultados de búsqueda. Por ejemplo, vamos al servicio S3. Simplemente podemos escribir deuda y obtendremos una lista de todos los servicios que incluye S3. En este caso, estaríamos buscando aquí solo para S3. Y si hacemos clic en él, nos llevará al tablero de ese servicio en particular. A continuación, también podemos volver a la página de inicio haciendo clic en el logotipo de AWS. A continuación, elija servicios para abrir una lista completa de servicios. Aquí en la parte superior derecha de la página. Elija grupo para ver los servicios enumerados por categoría, o elija un jet para ver un listado alfabético. Entonces selecciona el servicio que quieras. Por ejemplo, desplácese hacia abajo y seleccione la categoría de almacenamiento que incluye AWS Backup, EFS, S3 y muchos más. Hablaré más de los de uno de los módulos posteriores. Pero esto nos da una forma de alto nivel de mirar los servicios en función de su categoría. A continuación se encuentra la pestaña visitada recientemente. Aquí puedes ver los servicios recientes que he visitado dentro de la consola, incluyendo S3, RDS, ec2. Entonces estos son los servicios con los que trabajé recientemente. En caso de que solo trabajes con un puñado de servicios. Esta puede ser una forma muy rápida de simplemente hacer clic en estos e ir a los tableros de servicios específicos. Eso es todo por esta sesión. 9. Instalar AWS CLI: Bienvenidos de vuelta a los estudiantes. Continuaremos nuestra discusión sobre cómo interactuar con los servicios de AWS. Y en este video demo, instalaremos AWS CLI en nuestro sistema. Ya que tengo un Mac, iré con las instrucciones de instalación de Mac. No obstante, el proceso sigue siendo el mismo para otros sistemas operativos, incluyendo Windows y Linux. Entonces vamos al navegador y encontremos la documentación de instalación. En esta barra de búsqueda. Instalé AWS CLI en Mac. También puede buscar sus sistemas operativos como AWS CLI instalado en línea. A continuación, instale la CLI de AWS en Windows también. Abriremos el carril rápido, instalando y actualizando su prueba fue una CLI de AWS. Esta página tiene instalador deberá instrucciones para los tres sistemas operativos, incluyendo Linux, Mac OS, y Windows. Iré por Mac OS y seguiré el proceso. Desplazemos hacia abajo. Y aquí está la instrucción de instalación. Necesitamos un archivo EKG oscuro, que es un instalador gráfico. Por lo que descargaré el archivo desde aquí. Una vez que lo descargues, ábrelo, y haz clic en, continúa, continúa, continúa y acuerda. Dar permiso para instalar para todos los usuarios en este equipo. Haga clic en Continuar y haga clic en, instálelo. Instalamos el CLI en su sistema. Esperemos a que todo se haga. El sistema está escribiendo los archivos. Y por último, la instalación ahora tiene éxito. Ya que ya no necesito el instalador, lo moveré a la basura. Verificar la instalación. Voy a abrir una terminal, ir a la opción Buscar, y teclear un minuto. Y luego agregaré AWS. Si tiene una CLI en ejecución en su sistema, debe devolver una versión de la tabla de ejecución de AWS. Esperemos un rato. Aquí tenemos la respuesta a nuestro comando, que muestra que todo ha sido instalado correctamente. Por favor, descargue el CLI en su sistema ya que lo estaremos utilizando en futuras lecciones. En caso de algún problema, por favor echar un vistazo a este tipo. 10. Uso de la CLI de AWS: Hola alumnos, bienvenidos de vuelta. Continuaremos nuestra discusión sobre cómo interactuar con los servicios de AWS. Y en esta demostración, aprenderá a usar AWS CNI para interactuar con los servicios de AWS. Así que empecemos. Déjame abrir el terminal en mi laptop. En primer lugar, asegúrese de que ya ha instalado AWS CLI. Se puede comprobar escribiendo. Aws no estaba en su terminal y devuelven fácilmente la CLI de AWS. En segundo lugar, debe autenticar la CLI de AWS para acceder a los servicios de AWS. Y como comentamos, los usuarios de la CLI de AWS acceden a claves para la autenticación. Cubriremos la autenticación y autorización en detalle en el tema de gestión de identidades y accesos. Pero para esta demo, vayamos a la consola de administración de AWS y creemos una clave de acceso. Aquí. Haga clic en Cuenta, luego en credenciales de seguridad. Ahora estamos en mi clave de acceso credenciales de seguridad. Y aquí podemos crear nuevas claves de acceso. Las claves de acceso son críticas porque se utilizan para controlar la autenticación y autorización al usar la CLI y el SDK para acceder a la cuenta de AWS. Ahora, como nota, estaremos creando claves de acceso aquí. No obstante, voy a eliminar estas claves inmediatamente después de esta tabla. Tampoco debe usar claves de acceso de usuario root en el día a día. Esta no es una buena práctica. Nuevamente, vamos a aprender esto en detalle en el tema de gestión de identidad y acceso. Por ahora, clicemos en Crear nueva clave de acceso y luego mostrar Clave de acceso. Aquí tenemos tanto nuestro eje como la clave de acceso secreta. Esto es lo que usaremos para acceder a nuestros recursos de AWS a través de la CLI. Copiemos ambas claves en un archivo de texto. También puedes descargarlo haciendo clic en Descargar y permitir. Ahora volvamos a AWS CLI y tecleemos en la terminal. Aws configuran. Ahora ingresó primero la clave de acceso y la clave de acceso secreta. Ahora introduzca el nombre predeterminado de la región. Y en este caso, vamos a elegir el API salt one. Por fin, elegiremos el formato de salida predeterminado. En este caso, escojamos el formato gestual. Una vez que tengamos todo eso en su lugar, pulsa Enter. Hemos configurado con éxito la CLI de AWS significa que deberíamos poder usar la CLI de AWS para obtener información sobre los recursos de AWS. Vamos a comprobarlo rápidamente. Ejecutaremos un comando que enumerará el bucket S3. Vamos a teclear AWS. Y devolverá una lista de todos los diferentes bucket S3 que he creado dentro de esta cuenta. Si no tienes cubeta, no devolverá nada. Así que para revisar rápidamente lo que hemos hecho en esta lección, creamos claves de acceso para nuestros usuarios con una precaución de que generalmente no queremos crear claves de acceso para el usuario root. Todavía se crea para esta demo. Pero mientras lo elimines, eso debería estar bien. Y por último, accedemos al S3 para verificar que pudiéramos acceder a los recursos de AWS. Eso es todo por este video. 11. Regiones y zonas de disponibilidad: Hola alumnos, bienvenidos de vuelta. En este video, aprenderemos sobre las regiones de AWS, las diferentes zonas de disponibilidad, y la importancia de las regiones y julios de disponibilidad. Así que empecemos. Supongamos que desea alojar nuestra aplicación web. Para eso, necesitarías tu propio centro de datos ¿verdad? Ahora que conoce AWS y otros servicios en la nube, no necesita configurar nuestro centro de datos y puede alojar fácilmente su aplicación en la nube de AWS. Pero supongamos que todavía está utilizando un centro de datos on-premise. Ahora aquí hay una pregunta. ¿ Y si un desastre golpea tu centro de datos? Ese es un cojín válido, ¿verdad? Cualquier cosa puede pasar. Y como eres dueño y gestiona el centro de datos, tendrás que averiguar qué vas a hacer en una situación tan extrema. Una forma de evitar un apagado completo de su aplicación es ejecutando un segundo centro de datos en alguna otra ubicación. Entonces cuando uno baje, el otro estará ahí como respaldo. Pero mantener otro centro de datos duplicará los costos de hardware y mantenimiento. No te preocupes. Eso fue sólo un ejemplo. Un AWS tiene una mejor solución a esta posibilidad, que es la región de AWS. Una región de AWS no es más que las ubicaciones geográficas en todo el mundo, somos diferentes centros de datos están agrupados. Eso significa que AWS mantiene varios centros de datos en un solo lugar. De acuerdo con los estándares de AWS, debe haber al menos dos centros de datos en una región. Y cada centro de datos debe tener electricidad redundante, refrigeración, calefacción, redes y conectividad. Una vez más, todas estas regiones están conectadas a través de la red troncal de AWS, que es básicamente una red de muy alta velocidad. Cada una de estas regiones tiene diferentes nombres y códigos. Estos nombres se basan en su ubicación geográfica mundial. Ubicación geográfica significa ubicación física como Mumbai, Tokio , Frankfurt, Norteamérica, Sudamérica , China, Sudáfrica y Oriente Medio. Estos son algunos ejemplos. Bueno, mi AP Sur uno. Moon Bay es un lugar físico, ¿verdad? Por lo que la llaman región de una manera y ha llamado episodio uno. Lo mismo va para Singapur y otras ubicaciones. Singapur, API sureste, uno, Sydney, API sureste a Ciudad del Cabo, sur uno. Entonces, cuando tenga una cuenta de AWS, puede elegir por qué motivo desea implementar sus servicios de AWS, ya sea que desee lanzarla en Mumbai o en Tokio. Esto también depende de diferentes factores de los que hablaré de seguir adelante en este video. Entonces, en palabras simples, se puede decir que AWS es un proveedor de servicios en la nube y tiene centros de datos en todo el mundo. A partir de ahora, existen 26 regiones geográficas con 84 zonas de disponibilidad en todo el mundo. Y AWS sigue agregando nuevas regiones. Entonces para cuando estés viendo esta sesión, estos números pueden haber cambiado. Para que pueda mirar el enlace proporcionado en la sección de recursos bajo este video y comprobar el último número de AWS. Vamos a seguir adelante y hablar de disponibilidad Jones. Ahora, cuál es nuestra disponibilidad Jones, es uno o más centros de datos separados individualmente y distintos con potencia redundante, redes y conectividad en una región de AWS. En otras palabras, no es más que un centro de datos aislado. Dentro de lo razonable, la única diferencia es que tiene potencia redundante, redes y conectividad. Por lo que cada zona de disponibilidad tiene un conjunto de centros de datos aislados de otras zonas de disponibilidad. Entonces creo que lo hicimos. Joan no es más que un grupo de centros de datos. Y según el estándar de AWS, una región de AWS debe tener dos zonas de disponibilidad. Así que tomemos un ejemplo de la región de Moon Bay. Cuenta con tres zonas de disponibilidad. Como hemos visto antes. Cada región tenía algún código específico. De igual manera, la disponibilidad Jones también tiene código correspondiente el cual consiste en un código de región seguido del alfabeto. Si lo recuerdas, el código de región de Mumbai es ap salt one. Ahora veamos. El código para la zona de disponibilidad, disponibilidad John one tiene el código API Sur uno. Y de igual manera, disponibilidad John código dos es una pieza out1 y la zona de disponibilidad tercera tiene el código episodio uno. Ver, espero que quede claro que el código de región seguido del alfabeto hace que la disponibilidad junio sea fría. Hasta ahora, sabemos que cada región de AWS tiene dos o más disponibilidad Jones, igual que Mumbai tiene tres zonas de disponibilidad. Virginia del Norte tiene Avenida de Jones y así sucesivamente. Ahora comprendamos por qué estas zonas de disponibilidad son importantes para nosotros. Por lo que sabemos que una región consta de múltiples zonas de disponibilidad. Aquí. Permítanme decirles que cada disponibilidad Junio no es un solo centro de datos, sino que consiste en clústeres de centros de datos. Alguna disponibilidad Jones puede tener dos centros de datos, mientras que otros pueden tener tres o más. Todas estas zonas de disponibilidad se encuentran en algún lugar entre 5200 kilómetros de distancia. Volviendo a la importancia de la disponibilidad Jones, supongamos que si una zona de disponibilidad baja, todo el clúster de centros de datos bajaría allí. Pero los centros de datos en otras zonas de disponibilidad seguirán funcionando. Y por lo tanto, no se enfrentará a un cierre completo de su aplicación o sitio web. La infraestructura de Aws está diseñada para garantizar la alta disponibilidad de las aplicaciones. Y si piensas, cómo te importa, déjame decirte. Supongamos que desea desplegar su aplicación en la región de Mumbai. Y como saben, una región de Moon Bay tiene tres zonas de disponibilidad diferentes. Entonces lo primero que harías es lanzar un servidor en cualquiera de los Jones según tu requisito. Una vez que se lanza el servidor, ahora se puede acceder a él a través de Internet. No necesitas preocuparte por en qué zona de disponibilidad has lanzado tu servidor, siempre y cuando puedas acceder a él a través de Internet. Pero supongamos que esa zona de disponibilidad en la que lanzaste tu servidor desciende por completo. Eso significa que también se hará la aplicación. Pero eso no es todo. No podrás acceder a los datos de tu aplicación también. Si no tienes esos datos, no podrás revivir tu solicitud. Entonces para evitar este tipo de situaciones, AWS tiene disponibilidad Jones. Echemos un vistazo a las ventajas de la disponibilidad Jones. El primer beneficio es la mayor disponibilidad. Cuando diseñas tus aplicaciones, te aseguras de haber puesto todos tus servidores y bases de datos en múltiples zonas de disponibilidad. Entonces si uno baja, tienes otra zona que cubrir por un segundo. Si recuerdas, hablamos de la distancia entre dos zonas estando en algún lugar entre 5200 kilómetros. Ahora supongamos que tiene una base de datos primaria en un John. En ese caso, se puede tener la réplica de esta base de datos en la secundaria Jones. También es posible tener replicación síncrona entre dos bases de datos. Esto copiará todos sus datos en ambas bases de datos simultáneamente. Ahora bien, si uno John baja, tenemos otro para operar normalmente, lo que se llama tolerancia a fallas. Tenga en cuenta que este no es un diseño predeterminado de AWS. Tendrás que diseñar tu aplicación en múltiples zonas de disponibilidad para lograr una alta disponibilidad y tolerancia a fallas. Estudiantes, espero que la zona de disponibilidad sea clara. Ahora, echemos un vistazo ahora a una arquitectura de muestra en la que veremos cómo usamos disponibilidad Jones para que nuestra aplicación sea altamente disponible. Supongamos que en una región de AWS, tenemos dos zonas de disponibilidad que llamaremos zona de disponibilidad uno y zona de disponibilidad dos. Lo primero que haríamos es lanzar un servidor EC2 y la base de datos correspondiente en la zona de disponibilidad uno. De igual manera, lanzaríamos otro servidor web y base de datos correspondiente en la zona de disponibilidad. Ahora tu aplicación y base de datos ambos están altamente disponibles y pueden sostenerse si uno John baja. Ahora los estudiantes, en pocas palabras, la región de AWS es la ubicación geográfica en todo el mundo y la disponibilidad Joan es el clúster de centros de datos. Región particular. Muy bien, entonces ahora sigamos adelante y comprendamos por qué hay una necesidad de tantas regiones hoy en día. Por supuesto, le da la flexibilidad para implementar su aplicación en cualquier región de AWS que sea beneficiosa para usted. Aparte de eso, la razón principal es el acceso de baja latencia a las aplicaciones. Si tu base de usuarios está en EE. UU., desplegar tu aplicación en Estados Unidos solo tiene sentido. Del mismo modo, si tiene su base de usuarios en India, elegirá la región Moon Bay. El segundo motivo es el cumplimiento normativo. Diferentes países tienen diferentes reglas para regular los datos. Por lo tanto, tener múltiples regiones te da la libertad de elegir qué funciona mejor para ti. El tercer motivo es sostener cualquier tipo de desastre. Todas estas regiones de AWS se encuentran en todo el mundo y la distancia mínima entre dos regiones cualquiera debe ser de 300 kilómetros, lo que llamamos como sitio de recuperación ante desastres. Esto es para asegurarse de que su aplicación se ejecute en uno de los sitios. Y el otro lado debe estar al menos a 300 kilómetros de distancia para asegurar que no sean parte de los mismos sistemas. De ahí que también se pueda aprovechar el beneficio de múltiples regiones. Aparte de los requisitos de latencia, cumplimiento normativo y la recuperación ante desastres, hay algunas consideraciones adicionales que también se pueden observar al usar varias regiones. Por ejemplo, para la aplicación global, las organizaciones quieren proporcionar la mejor experiencia de usuario a sus usuarios en todo el mundo. Una forma de lograrlo es desplegando tu aplicación en la región más cerca de tus audiencias. Por ejemplo, la aplicación basada en Estados Unidos utilizará la región de Mumbai para proporcionar al usuario indio una mejor experiencia. El costo es otro beneficio del uso de múltiples regiones. Dado que cada país tiene una economía diferente, los precios de usar AWS variarían de un país a otro. Por lo tanto, obtendrá servicios más baratos en algunos países. Y como nuestra organización, Esa es una gran manera de ahorrar dinero. A continuación, tienes un radio de explosión reducido. Muchas personas y organizaciones quieren que en caso de que caiga una región completa, tal vez quieran aprovechar otra región como recuperación ante desastres. Muchas veces, también distribuyen sus cargas de trabajo a través de las regiones en caso de que algo le suceda a una región. Otra región está activa y así es como reducen el radio de explosión del desastre. Entonces los estudiantes, eso fue todo acerca las regiones de AWS y disponibilidad Jones se asegura de que usted entiende todo bien ya que son importantes desde el punto de vista de Entrevista. Eso es todo por este video. 12. Ubicaciones de AWS: Hola alumnos, bienvenidos de vuelta. En el último video, entendimos las regiones de AWS y las zonas de disponibilidad. En este video, discutiremos otro aspecto importante de la infraestructura global de Amazon, que es la ubicación de borde. Comencemos con nuestra comprensión de la región de AWS y cómo elige una región para su aplicación? Hay muchos factores detrás de elegir una región de AWS. El criterio principal es la cercanía con tus clientes objetivo. Siempre elegimos una región que sea más cercana a nuestros clientes objetivo. Pero, ¿y si tienes clientes en todo el mundo? Apenas supongamos que tienes una aplicación de streaming de video en que los usuarios pueden publicar el time-lapse del paisaje indio. Has guardado tu aplicación y sus datos en Mumbai razón, ya que tus clientes son de India. Pero después de unos meses, ¿quién vio una buena cantidad de tráfico proveniente de Japón? A partir de ahora, está atendiendo todas las solicitudes de clientes japoneses de la región de Moon Bay solamente. Pero debido a la gran distancia entre India y Japón, es posible que tus usuarios japoneses no tengan una buena experiencia de usuario debido a un problema de baja latencia. Ahora puedes lanzar correctamente tu aplicación en Japón copiando tus datos en una región Cloud en Japón, Tokio en caso de AWS. Y así es como puedes servir a tus clientes allí. Este fue un ejemplo de almacenamiento en caché. Por definición, el brote es el proceso de almacenar una copia de datos en nuestra ubicación temporal o de almacenamiento en caché. Por lo que se puede acceder con mayor rapidez. Por lo que en este caso, puedes almacenar en caché tus datos en el centro de datos de Tokio y darnos una experiencia de usuario fluida a los clientes japoneses. Otro concepto que hay que entender es la red de entrega de contenidos, comúnmente conocida como cdn. No es más que un término técnico que utilizamos para caché copia de datos en un centro de datos más cercano a los clientes. Tenga en cuenta que CDN no es un término específico de AWS. Una red de entrega de contenido o CDN, contenido de caché como imágenes, videos o páginas web en servidores proxy que se encuentran más cerca de los usuarios finales que los servidores de origen. Nuevamente, estos servidores proxy viven en el centro de datos, y estos centros de datos se denominan ubicaciones perimetrales. Ahora debes estar pensando, ¿cuál es la diferencia entre región y ubicación de borde como ambos nuestros centros de datos, verdad? La diferencia de fomentar es que las ubicaciones de borde son centros de datos más pequeños y están disponibles en todas las grandes ciudades del mundo. Si compara el número total de ubicaciones de borde es más de 12 veces el número de región. Por lo que tienes más opciones para almacenar en caché tus datos y resolverlos rápidamente a tus clientes. La segunda diferencia es que las ubicaciones de borde están separadas de las regiones y se encuentran en otras ubicaciones. Esto le permite empujar su contenido desde las regiones a una colección de ubicaciones de borde alrededor del mundo. La diferencia es la ubicación de borde de AWS host I servicio espacial para entregar este contenido más rápido se llama Amazon CloudFront. Mientras que la región de AWS aloja casi todos los servicios de AWS. Aparte de CloudFront. Las ubicaciones de borde de Aws también ejecutan nuestro servicio de nombres de dominio, o DNS, conocido como Amazon Route 53. Cubriremos Cloudfront y Route 53 en módulos posteriores. De acuerdo, hay mucho más que esto sobre la infraestructura global de AWS. Pero vamos a mantenerlo simple y echar un vistazo rápido a los puntos clave sobre la infraestructura global de AWS. Número uno, las regiones son ubicaciones geográficamente aisladas en las que puede acceder a los servicios de AWS necesarios para ejecutar su aplicación. Número dos, las regiones contienen zonas de disponibilidad que están físicamente separadas. Edificios con su calefacción eléctrica, refrigeración, y red. Disponibilidad Jones te ayuda a resolver alta disponibilidad y recuperación ante desastres escenarios de alta disponibilidad y recuperación ante desastressin ningún esfuerzo adicional. El número tres, AWS, las ubicaciones de borde ejecutan Amazon CloudFront para ayudar a acercar el contenido a sus clientes sin importar dónde se encuentren en la naturaleza. Eso es todo por este video. 13. ¿Qué es la gestión de la identificación y el acceso?: Hola, alumnos. Bienvenido de nuevo. ¿Sabes por qué tus institutos educativos te dan el DNI? Porque las tarjetas de identificación de un instituto les dan control sobre quién puede acceder a sus instalaciones. Tu DNI actúa como comprobante de que estudias en esa universidad, y de ahí puedes usar sus instalaciones. De igual manera, AWS cuenta con un servicio que ayuda a las empresas a gestionar su identidad en la Nube. En este video, aprenderemos conceptos del servicio de administración de identidad y acceso relacionados con IAM, identificación, autenticación y autorización Empecemos con ¿qué es la gestión de identidad y acceso? administración de identidad y acceso La administración de identidad y acceso es un marco que garantiza que las personas adecuadas en su organización puedan acceder al único servicio que necesitan para hacer su trabajo. Recuerda, no es una buena práctica usar tu cuenta raíz para todo lo que tú y tu equipo hagan, ya que podría llevar a algunos problemas de seguridad serios. Tomemos una analogía aquí. Supongamos que está trabajando en una organización, y todos los días cuando ingresa a la entrada principal, tiene que mostrar su tarjeta de identificación al guardia de seguridad o necesita deslizar su tarjeta de inicio de sesión. De esta manera, tu organización asegura que eres la persona adecuada que puede acceder a las instalaciones de la organización. Y así es exactamente como funciona IAM. Cuando muestras tu tarjeta de identificación, demuestras que eres la persona adecuada. Tú como persona es una identidad. Ahora cuando le muestras tu tarjeta de identificación al guardia de seguridad, él mira la foto de tu tarjeta de identificación y tu cara y verifica si ambas concuerdan Una vez verificado con éxito, obtienes acceso a través de todo este proceso. Usted como persona obtiene acceso a las instalaciones adecuadas. Eso no es. Esta tarjeta de identificación sirve como comprobante para acceder a muchos otros servicios e instalaciones de su organización. Por ejemplo, algunas personas solo pueden usar la sección de cuentas, mientras que otras solo pueden usar recursos humanos y así sucesivamente. Existe un sistema bien definido de quién puede usar qué de la misma manera. Identity and Access Management, o IAM, en definitiva, es un servicio en AWS que asegura que la persona adecuada tenga acceso a lo correcto Aws IAM proporciona control de acceso a todos los servicios y recursos de AWS Se puede especificar quién puede acceder a qué servicios y recursos y en qué condiciones. También está el concepto de política de IAM, que puede usar para administrar permisos a su fuerza laboral y sistema para garantizar permisos de menor privilegio Si no tiene sentido, entonces no te preocupes. Voy a cubrir todo esto en el próximo par de temas. Por ahora, comprendamos tres conceptos importantes de administración de identidad y acceso, identificación, autorización y autenticación. Estos tres términos están estrechamente relacionados, pero no son los mismos. Ahora vamos a entenderlos. identificación es la capacidad de identificar a un usuario de manera única. Significa cómo se puede identificar a una persona o sistema. En el último ejemplo, te identificas con una tarjeta de identificación. ¿Correcto? Y eso varía de un sistema a otro. Cuando inicias sesión en tu cuenta bancaria, usas nombre de usuario y contraseña. Te identificas al portal bancario con tu nombre de usuario y contraseña. Su identificación es su nombre de usuario y contraseña de identificación básicamente es para identificar a cada usuario único que está accediendo a sus servicios o instalaciones. El segundo concepto habla de autenticidad. autenticación es el proceso de reconocimiento de la identidad de un usuario. Cuando le muestras tu tarjeta de identificación al guardia de seguridad, él verifica tu foto de DNI con tu cara Eso es autenticación. Cuando inicias sesión en tu cuenta bancaria, proporcionas tu nombre de usuario y contraseña. El sistema backend bancario compara su nombre de usuario y contraseña con el nombre de usuario y las contraseñas almacenadas en su sistema El sistema se asegura de que se le dé el nombre de usuario y la contraseña correctos. Si conoces el nombre de usuario y contraseña correctos, eres el propietario de la cuenta. Si se le ha dado una identidad única, tiene que haber un sistema para reconocerla cada vez que usa su identidad única. Ese proceso de reconocimiento de la autenticidad de tu identidad se conoce como autenticación. Por último, la autorización es el proceso de darle a alguien permisos para tener acceso a algo. Una vez que esté autorizado, puede ingresar a las instalaciones de la oficina y puede ir a su área de oficinas. Pero no se puede ir a la cocina de la cantina porque no se le permite o podemos decir que no está autorizado para acceder al área de la cocina de la cantina según Ahora entendamos la administración de identidad y acceso con respecto a AWS. administración de identidades y accesos de AWS La administración de identidades y accesos de AWS es un servicio de AWS que ayuda a una organización a administrar el acceso de su cuenta y servicios de AWS para las personas de su organización. Proporciona un control de acceso preciso en todos los servicios de AWS De grano fino significa que puede especificar quién puede acceder a qué servicios y recursos y bajo qué condiciones Si quieres que la persona solo acceda al servicio AWS EC two y que la persona Y acceda solo al servicio S three, eso es completamente posible. Esto se hará con la política de IAM. 14. Usuarios, grupos y roles: Hola, alumnos. Bienvenido de nuevo. En el último video, entendimos AWS IAM. En esta lección, vamos a estar hablando de los elementos de IAM, que incluye grupo de usuarios y roles Empecemos por los usuarios. Un usuario es una persona que utiliza un servicio de AWS en una cuenta de AWS. Como comentamos en la lección anterior, AWS tiene dos tipos de usuarios, usuario root y usuario de IAM El nombre de usuario raíz en sí mismo da una pista de que este es el usuario espacial. Se crea cuando se creó la cuenta de AWS. Cuando cree una cuenta de AWS, AWS creará una identidad o un usuario para usted. Ese usuario de identidad se llama usuario raíz de AWS. Este usuario tiene acceso a todos los servicios y recursos de AWS en la cuenta. Algunos puntos importantes sobre los usuarios raíz de AWS. Puedes iniciar sesión como usuario root usando la dirección de correo electrónico y contraseña que usaste para crear la cuenta. El usuario root tiene acceso completo a todos los servicios y recursos de AWS en la cuenta. De ahí que no sea una buena práctica utilizar al usuario root para las tareas cotidianas. Nunca, nunca debes compartir las credenciales de usuario root con todos. Solo muy pocas personas confiables deberían tener las credenciales raíz. Ahora sabemos que no podemos usar usuario root para nuestro trabajo diario. Ahí es donde entra en juego el usuario de IAM. Iam user es una entidad que usted, usuario root, crea en una cuenta de AWS para representar al usuario que interactúa con los recursos de AWS en su Ahora vamos a entender esto con un ejemplo. Digamos que eres el líder de equipo en una organización y tienes una cuenta de AWS. Tienes dos desarrolladores, Ram Sham y dos administradores, Ta y Geta En tu equipo, tu equipo necesita acceso a una cuenta de AWS para alojar una aplicación porque no quieres darles acceso a tu cuenta raíz. Puedes crear usuarios de IAM para los miembros de tu equipo y proporcionarles el acceso a los servicios que necesitan para su trabajo Aquí, cada miembro del equipo representa a un usuario de IAM, ya que cada miembro del equipo necesita interactuar con una cuenta de AWS para hacer su trabajo Crearás cuatro usuarios de IAM para Ram Shamtha y Geta. Bien, ahora entendemos al usuario IM. Veamos la forma en que funciona el usuario de IAM y cómo asignamos permisos a diferentes usuarios de IAM Cuando crea un usuario, el usuario tiene una contraseña de nombre de usuario y claves de acceso que comparte con las personas respectivas para acceder a la cuenta de AWS. usuario y la contraseña se utilizarán para acceder a consola de administración de AWS y clave de acceso para el acceso programático con AWS CLI, cada usuario se ha agregado a una sola cuenta de AWS Cada usuario tiene sus propias credenciales para acceder a la cuenta de AWS. Ahora bien, la pregunta importante es, ¿qué tipo de recursos de AWS pueden usar? Bueno, cualquier nuevo usuario de IAM no tiene ningún permiso predeterminado para acceder a sus recursos de AWS para proporcionar a sus usuarios de IAM el permiso necesario que necesita para otorgarles los permisos requeridos Puede hacerlo agregando políticas de IAM a cada usuario de IAM. política de IAM define los permisos que se otorgan a cualquier usuario que interactúa con una cuenta de AWS Vamos a cubrir la política de IAM en el siguiente tema. En pocas palabras, crea usuarios de IAM, adjunta políticas para otorgar permisos y el usuario puede usar estas credenciales para acceder a estos recursos Un punto importante aquí a tener en cuenta es que usuario de IAM no tiene que representar a una persona real Podría ser una aplicación. Además, digamos que tiene una aplicación en marco que necesita acceder a un servicio de AWS. Puede configurar la clave de acceso dentro la aplicación para acceder a los servicios de AWS. Ese es otro caso de uso importante de la clave de acceso. Bien, ahora entendamos al grupo IAM. Un grupo de IAM es una colección de usuarios y permisos asignados a esos usuarios Volvamos al mismo ejemplo. En tu equipo, tienes dos desarrolladores Sham y dos administradores, Ta y Gier. ¿Correcto? Ambos desarrolladores estarán haciendo y accediendo a los mismos servicios de AWS. Y lo mismo va para ambos administradores también. En lugar de asignar permisos a usuarios individuales, puede agruparlos también puede agruparlos y asignar permisos a ese grupo a la vez En nuestro caso, puedes crear dos grupos. Un grupo para desarrolladores y un grupo para administradores. Iam Group proporciona una manera fácil administrar los permisos para los usuarios acuerdo a sus funciones laborales Cuando crea un usuario, asigna una política al usuario individual. Pero en el caso de un grupo, agregas una política al grupo y el permiso se aplicará a todos los usuarios de ese grupo. Tomemos otro buen caso de uso para el grupo IAM. Como sabes, cualquier usuario de un grupo de usuarios específico tiene automáticamente los permisos que se le asignan al grupo de usuarios. Si un nuevo usuario se une a su organización y necesita privilegios de administrador, puede asignar los permisos adecuados simplemente agregando el nuevo usuario a ese grupo de usuarios administradores. De igual manera, si un empleado existente se está moviendo a un nuevo proyecto, en un nuevo rol en la misma organización, lugar de editar el permiso de ese usuario, puede eliminarlo del grupo de usuarios anterior y agregarlo a los nuevos grupos de usuarios apropiados. El grupo IM es una forma de adjuntar políticas a múltiples usuarios a la vez. Cuando se adjunta una política basada en identidad a un grupo de usuarios, todos los usuarios del grupo de usuarios reciben el permiso, el grupo de usuarios. Ahora vamos a entender el rol de IAM. Un rol de IAM es una identidad de IAM que puede crear en su cuenta que tiene permisos específicos Un rol de IAM es similar a un usuario de IAM asociado con política de IAM que determina lo que un rol puede y no puede hacer Ahora debes estar pensando, ¿cuál es la diferencia entre rol de IAM y usuario Bien, déjame explicarte. Un usuario de IAM es una persona única que tiene nombre de usuario, contraseña y clave de acceso con los permisos adjuntos a él Sin embargo, el rol de IAM no tiene ni una contraseña de nombre de usuario ni una clave de acceso El rol de IAM no puede vincularse directamente con una persona o un servicio En cambio, puede ser asumida por una persona o recurso para una sesión definida. ¿Qué significa? explicarte con este ejemplo de imagen. Digamos que tiene una aplicación ejecutándose en una instancia de EC two. Y una instancia de EC dos necesita acceder a una imagen de S tres. En este caso, EC dos asume el rol y con base en política, accederá a imagen desde S tres. Como mencioné, los roles no tienen claves de acceso ni credenciales asociadas a ellos. Las credenciales son temporales y anímicamente asignadas por AWS Aws da las credenciales temporales al rol para completar la tarea cuando sea necesaria. Eso es todo por este video. 15. Crea un usuario y grupo de IAM: Ayudar a los alumnos. Bienvenida de nuevo. En esta lección, crearemos usuarios y grupos de IAM. Al final de este laboratorio, podrá crear estas entidades de IAM y navegar cómodamente a través de la consola de AWS IAM Empecemos. Aquí estamos en la página de inicio de la consola de AWS. Vamos a navegar a IAM usando la opción de búsqueda en la parte superior de la consola de AWS Como puede ver, puede usar la barra de navegación izquierda para navegar en grupos de usuarios, políticas, roles e identidad proporcionados para el alcance de este laboratorio, solo trabajaremos con grupos de usuarios y sus políticas. Empecemos por crear dos usuarios, Ram y Sham. En nuestro ejemplo, Ram es desarrollador y Sham es administrador de AWS. Puede navegar a la página del usuario haciendo clic en las opciones de usuario en el panel de IAM Esta es la página del usuario donde verás todos los usuarios creados para tu cuenta. Ahora vamos a crear nuestro primer usuario de AWS haciendo clic en el botón Usuarios de anuncios. Empezamos dando un nombre de usuario a tu usuario. Llamemos a este usuario Ram. Al crear más de un usuario en las mismas propiedades, simplemente puede agregar otro nombre de usuario haciendo clic en este botón Agregar otro usuario. No obstante, para este ejemplo, vamos a hacer esto uno por uno. La siguiente opción que vemos es el tipo de credencial de AWS. Debe seleccionar Cess, Key Programmatic access para permitir que este usuario pueda acceder a los comandos de la CLI de AWS o utilizar AWS SDK y AW API No necesitamos esto para nuestro ejemplo. Solo seleccionaremos contraseña de acceso a AWS Management Console, lo que le dará al usuario Ram para acceder a AWS mediante la selección de la consola de administración. Esto nos da algunas opciones más. Puede hacer que AWS cree una contraseña generada automáticamente o puede agregar manualmente una contraseña simple para este usuario. Para nuestro ejemplo, dejaremos que AWS nos dé una contraseña autogenerada. La siguiente opción es requerir restablecimiento de contraseña. Debes marcar esta casilla si quieres que tu usuario restablezca su contraseña cuando acceda por primera vez a la consola. Vamos a desmarcar para esta demo, Haga clic en Permisos Siguiente Aquí tenemos tres opciones. Puede agregar usuarios a un grupo de usuarios. Puedes copiar permisos de un usuario existente que ya tengas en tu cuenta, o puedes adjuntar políticas directamente. No tenemos usuarios ni grupos de usuarios en nuestra cuenta, no tenemos opciones. Pero si haces clic en la tercera opción, adjunta políticas existentes directamente, verás una lista completa de políticas aunque nunca hayas creado una póliza en tu cuenta. Estas son las políticas administradas por AWS. Esto significa que estas políticas son administradas por AWS y que si se requiere algún cambio, serán realizadas por AWS. Estos son muy útiles para aplicaciones simples donde no quieres crear y mantener tus propias políticas y deja que A's se encargue de todo esto por ti. Podemos seleccionar una política aquí como Amazon S Three, Read Only Access, y dar este permiso a nuestro usuario. Primero creemos un usuario sin permisos. Haga clic en Etiquetas Siguiente. Aquí podemos agregar etiquetas a nuestros usuarios. Añadamos una etiqueta de ejemplo, Departamento de Finanzas. Después haga clic en Siguiente, que abrirá la página de revisión, donde verá los detalles finales sobre su usuario. Haga clic en Crear usuario. Esto nos lleva al paso final de crear un usuario de AWS. Aquí podemos ver que el usuario Ram fue creado. Incluso puedes ver la contraseña de este usuario. Haga clic en Descargar CSV, que descargará un archivo CSV con credenciales de usuario a su computadora. Es importante saber que debes guardar estas credenciales en algún lugar después de crear el usuario. Si puede alejarse de esta página, ya no podrá volver a obtener las credenciales. Da click en cerrar, podemos ver que nuestro usuario Ram se agrega a la página del usuario. Vamos a crear otro usuario, Sam. Seguimos el mismo proceso. Agregar el nombre de usuario Sham. Permitir el acceso de AWS a través de la consola. Deje todos los valores por defecto excepto requerir restablecimiento de contraseña. Y haga clic en siguiente, no estaremos agregando ningún permiso. Haga clic en Siguiente, agregaremos la etiqueta de muestra, igual que hicimos para las finanzas del departamento de usuario. Haga clic en Siguiente y haga clic en Crear un usuario Descargar CSB para guardar las credenciales, tenga en cuenta nuevamente que no podrá obtener credenciales después de cerrar esta página Ahora que hemos creado nuestros dos usuarios, Ram y Sham, vamos a crear nuestro grupo de usuarios. Haga clic en Grupos de usuarios y luego haga clic en Crear Grupo para crear nuestro primer grupo de usuarios, agregar el nombre desarrolladores. Podemos agregar usuarios a este grupo desde la siguiente tabla. Añadamos a este grupo Ram, quien es desarrollador. El siguiente paso es agregar políticas a este grupo. Queremos que nuestros desarrolladores puedan acceder completamente a C dos y S tres. Por lo que comprobaremos Amazon C dos acceso completo y Amazon S tres acceso completo desde la tabla de políticas aquí y haga clic en Crear grupo. Ahora tenemos un grupo de desarrolladores que solo tiene uno. Creemos también un grupo de administradores. Haga clic en Crear grupo, Ingrese el grupo, nombre Administradores. Esta vez no vamos a estar sumando farsa a este grupo en estos momentos. Vamos a crear un grupo sin ningún usuario. Adjuntemos ahora políticas a este grupo. Adjuntaremos la política de acceso del administrador. Haga clic en Crear grupo, y podremos ver que nuestro grupo está creado. Pero el grupo de administradores no tiene ningún usuario a partir de ahora. Ahora agreguemos a esto Sham. Ir a la página del usuario. Cuenta tanto con los usuarios Ram como Sham. Da click en Sham, podrás ver que este usuario no tiene ningún permiso. Pasar de los permisos a los grupos de apuñalar del grupo. Esto te dará una lista de grupos de usuarios. Agreguemos aquí a Sham a su grupo de administradores. Ahora si vuelves a la puñalada de permiso, puedes ver que el permiso se ha agregado a esta farsa de usuario ahora tiene la política de acceso de administrador adjunta desde el grupo de administradores Hemos creado dos grupos con acceso a AWS. Estos usuarios asignaron políticas administradas por AWS. Eso es todo lo que quería cubrir en esta estación. 16. Inicia sesión con el usuario de IAM y crea roles: Hola alumnos. Bienvenido de nuevo. En esta lección iniciaremos sesión con el usuario de IAM a la consola de AWS y crearemos rol Supongo que has completado la última demo y tienes un usuario llamado Sham y su contraseña. Empecemos. Primero iniciemos sesión como administrador Sham y utilícelo para crear un rol. Ahora vamos a abrir el archivo CSV que descargaste mientras creabas el simulacro de usuario. Aquí puede ver esto contiene nombre de usuario, clave de acceso de contraseña, ID clave secreta y enlace de inicio de sesión de consola ya que no hemos seleccionado el acceso programático Es por ello que la clave de acceso y secreta está vacía. Vamos a copiar el enlace de inicio de sesión de la consola y abrirlo en el navegador. Aquí ves que el alias de cuenta ya está lleno, y esto es algo que hemos creado en otra demo. También puedes usar ID de cuenta. En caso de que lo recuerde, agregue su nombre de usuario y contraseña como se muestra en el CSV. Esto nos llevará a la consola de AWS. Ahora podemos ver la consola de AWS como antes, pero si ves la esquina superior derecha de tu pantalla, puedes ver que estamos conectados como una farsa de usuario. Navegue a la consola de IAM. Nuevamente, haga clic en la opción Roles desde el panel izquierdo y haga clic en el botón Crear rol. La primera opción que tenemos es seleccionar la entidad de confianza. Esto significa que debemos seleccionar para qué sirve este rol. Quién o qué servicio va a utilizar este rol. La primera opción es el servicio AWS. Debe elegir cuándo desea asignar este rol a servicios de AWS como EC Two Lambda o ECS Que es lo que haremos aquí. El siguiente es la cuenta de AWS. Esto se utiliza para crear un rol al que se puede acceder desde otras cuentas de AWS. Si quieres que alguien pueda iniciar sesión desde otra cuenta a la tuya, elige esta opción. La siguiente opción es la entidad B. Esto es cuando quieres que los usuarios puedan asumir este rol y acceder a la consola de AWS a través de una entidad B como Google Facebook login. La siguiente opción es SAML 2.0 Federation. Saml es un servicio de mantenimiento de usuarios que es utilizado por grandes organizaciones para permitir a sus empleados acceder a diferentes servicios en las organizaciones Esto se puede integrar con AWS para dar acceso a la consola de AWS. La última opción que tenemos es una política de confianza personalizada. Puedes usar esto para definir una política de confianza de Jason. No te preocupes si las tres últimas opciones no tenían sentido para ti. Las dos primeras opciones son importantes para este curso. Elija el servicio AWS y seleccione EC Two. partir de las opciones a continuación, crearemos un rol que se puede adjuntar a una instancia de EC dos. Haga clic en siguiente, aquí podemos ver lista de políticas que podemos adjuntar a este rol. Adjunte la política de acceso completo de Amazon S three. Y haga clic en Siguiente, ingrese el nombre del rol. Ves una descripción ya llena de un mensaje significativo. Permita que dos instancias de EC llamen a los servicios de AWS en su nombre. Revisa el rol y haz clic en Crear rol. Tomará unos segundos. Ahora puedes ver el rol que creaste en la página de roles. Vamos a utilizar este papel en las próximas demostraciones. Estudiantes, los usuarios de IAM son los mejores para dar acceso a tu cuenta de AWS, incluso deberías usarla Te recomendaré crear un usuario de IAM para ti mismo con permiso de administrador y uso en el futuro Y también asegúrese de habilitar MFA para los usuarios de IAM también. Creo que ya borraste tu acceso de usuario root y tu clave secreta, que creamos en la última demo. En esta etapa, sabes que también puedes crear una clave de acceso y secreta para tu IAM también Puedes encontrar el enlace en la sección de recursos. Eso es todo para esta sesión. 17. Políticas de IAM: Bienvenidos de nuevo a los alumnos. La última sesión fue sobre grupos de usuarios de IAM, y roles También discutimos brevemente las políticas de IAM para dar permisos, pero eso no es suficiente Comprender las políticas es crucial para trabajar eficazmente con IAM En esta lección, hablaremos de las políticas de IAM en detalle, incluyendo su definición y tipos Empecemos. Déjame hacerte una pregunta. ¿Qué te viene a la mente cuando escuchas la palabra política? Si pensaste en reglas o lineamientos. Lo tengo bien. La política de iam es más o menos lo mismo. En la sesión anterior, habrías notado que dimos ciertos permisos a grupos de usuarios y roles que creamos. Entonces solo ellos pudieron realizar las acciones según esos permisos otorgados. Estos permisos no son más que políticas de las que vamos a hablar en esta sesión. Por definición, la política de IAM es una entidad, cuando se adjunta a cualquier identidad o recursos, define sus permisos Como dije antes, las políticas contienen permisos que determinan si una solicitud está permitida o denegada. Significa que sea cual sea la acción que realice una identidad, el permiso viene dado por su política. Puede usar la política de IAM cuando tenga que establecer los permisos para una identidad en IAM Ahora vamos a entender esto con el mismo ejemplo. Tienes un equipo de dos desarrolladores, Ram y Sham, y dos administradores, Ta y Geta Creó dos grupos, grupo desarrollador y grupo administrador. Según el rol de trabajo y el permiso, los desarrolladores de su organización pueden iniciar y detener la instancia EC two y los administradores pueden crear y eliminar la instancia EC two. C dos no es más que un servicio de cómputos en AWS. Hablaremos de ello en los próximos módulos. Crearás dos políticas. Una política para los desarrolladores que permitirá iniciar la lista y detener C dos instancias. Otra política para los administradores que les permitiría crear y eliminar instancias EC two. Adjuntará estas políticas a los respectivos grupos. Lo que pasaría aquí es que la política se aplicaría en consecuencia a todos en estos grupos. Eso significa que tanto Ram como Sham tendrán permisos como desarrolladores y Ta y Geta como administradores De ahí que en este ejemplo, al adjuntar la política de desarrollador al grupo de desarrolladores, estamos permitiendo que los miembros del grupo realicen acciones específicas y nada más que eso. Ahora sabemos cómo funcionan las políticas. Entendamos los diferentes tipos de políticas de IAM. Si volvemos de nuevo a la definición de política, política de IAM es una entidad que, cuando se adjunta a cualquier identidad o recurso, define sus permisos De acuerdo con la definición, se puede adjuntar una política a las identidades o a los recursos. Como ya sabrás, la identidad no es más que grupos y roles de usuarios de IAM El recurso significa servicios de AWS como C dos instancias S tres bucket lambda, que vamos a cubrir en módulos posteriores. Con base en las dos formas en que se puede adjuntar una política. Es de dos tipos, política basada en identidad y política basada en recursos. Ahora vamos a entender ambos uno por uno. Las políticas basadas en identidad se adjuntan a una identidad que es IAM, grupo de usuarios y rol Estas políticas controlan qué acción e identidad pueden realizar sobre qué recursos y bajo qué condiciones. Tenga en cuenta que estas políticas son específicas del usuario, lo que permite al usuario acceder a los recursos de AWS en sus propias cuentas. Un grupo de usuarios o rol de IAM puede tener varias políticas que en conjunto representan los permisos para ese usuario en particular Por ejemplo, puede adjuntar la política al usuario de IAM llamado Ram indicando que se le permite realizar la acción de instancia de ejecución de Amazon C two Se puede afirmar además que Ram puede obtener artículos de un cubo amazon S three. Mi bucket, combinando tanto los permisos, Ram sólo puede lanzar C dos instancias y acceder. Mi cubo. El otro tipo es la política basada en recursos. Estas políticas se adjuntan a un recurso de AWS, como un bucket de tres instancias S de Amazon C two , etcétera Estas políticas controlan qué acción un servicio o identidad de AWS específico puede realizar un servicio o identidad de AWS específico sobre otros recursos y bajo qué condiciones. Entendamos con un ejemplo. momentos habrá escenarios donde EC dos instancias quisieran acceder al S three bucket. También es necesario adjuntar la póliza a C dos instancia y dar el permiso requerido para acceder a S tres. Ahora más allá, las políticas basadas en identidad son de dos tipos, las políticas administradas y las políticas en línea. La política administrada se clasifica además en AWS, Política administrada y Política administrada por el cliente. Ahora vamos a mirarlos uno por uno. Las políticas administradas por AWS son políticas que son creadas y administradas por AWS. Como su nombre indica, tendría claro que esta política es creada y administrada por AWS y no puede realizar ningún cambio. Por ejemplo, Amazon S Three Read Only Access o S Three Full Access. Esencialmente, están diseñados para alinearse estrechamente con las funciones de trabajo de la industria de TI de uso común como administrador, desarrollador o lector. Se puede dar a S tres permiso de acceso completo al administrador y S tres acceso de solo lectura al auditor. El objetivo es facilitar la concesión permisos para estas funciones laborales estándar. Las políticas administradas por AWS no se pueden cambiar y AWS administrará y actualizará las políticas según sea necesario. Las políticas administradas por el cliente son creadas y administradas por el cliente. Básicamente, como cliente, puedes crear y administrar estas políticas. Si desea una política totalmente controlada que pueda mantener, puede utilizar una política administrada por el cliente, que crea y administra en su cuenta de AWS. Proporciona un control más preciso sobre sus políticas que las políticas administradas por AWS. Otra ventaja de la política administrada por el cliente es que puedes adjuntar a múltiples entidades dentro de tu cuenta, lo que facilita mucho la escalabilidad. Por ejemplo, tienes cuatro usuarios lectores en tu cuenta para un equipo diferente que todos necesitan el mismo tipo de Amazon C para acceder de solo lectura. Puede crear una política administrada por el cliente y adjuntarla a los cuatro usuarios. Si necesita cambiar esa política, puede cambiarla en una política que se aplique a todo lo que le proporciona una administración de cambios integrada y centralizada. Para esas políticas administradas, tienes un control completo y puedes administrar permisos en cualquier nivel que consideres necesario. Lo siguiente y último es la política en línea. La política en línea se adjunta directamente al usuario o grupo. Mantiene una estricta relación uno a uno con la política y la identidad. Eso significa que una política en línea se adjunta a una sola entidad. Generalmente se crea cuando se crea una identidad y se elimina cuando se elimina la identidad. Es beneficioso cuando se tiene que dar permiso a un usuario o grupo temporal. Se crea una política en línea mientras se crea un usuario o grupo. Y cuando elimines al usuario, también se eliminará la política. Muy bien, eso es más o menos sobre las políticas. Resumamos rápidamente lo que aprendimos en esta sesión. Una política es básicamente el permiso que decide qué acciones se deben tomar en las cuentas de AWS. Y aprendemos sobre los diferentes tipos de políticas de IAM, que son políticas basadas en identidad y políticas basadas en recursos Las políticas basadas en identidad dividen además en dos tipos, políticas administradas y políticas en línea. Las políticas administradas podrían ser administradas por AWS o administradas por el cliente. 18. Mejores prácticas de IAM: Hola, alumnos. Bienvenida de nuevo. En este video, aprenderemos algunas prácticas recomendadas de IAM para garantizar la seguridad de nuestras cuentas de AWS Empecemos. La primera mejor práctica de IAM es evitar compartir credenciales de inicio de sesión En lugar de compartir credenciales de usuario raíz con diferentes usuarios de su organización. Debe crear usuarios de IAM para las personas que van a utilizar sus recursos de AWS Entendamos esto con un ejemplo. Supongamos que tienes dos desarrolladores y dos administradores en tu equipo. Lo que a veces hace la gente es crear un usuario de mensajería instantánea y compartir credenciales de usuario con estas cuatro personas. Pero no es una buena práctica. En su lugar, debemos crear cuatro usuarios diferentes de acuerdo con los roles de estos miembros del equipo y compartir las credenciales de usuario con ellos. El objetivo aquí es que cada usuario tenga sus propias credenciales de IAM para acceder a su cuenta No importa si están accediendo a la cuenta a través de la consola de administración o usando AWS CLI o cualquier SDK La siguiente mejor práctica es crear grupos. Siempre se recomienda crear grupos y asignar solo los permisos requeridos a estos grupos. Eso significa que si hay varios usuarios en su organización con el mismo rol de trabajo, en lugar de asignar permisos a usuarios individuales, puede crear un grupo, asignar un permiso a este grupo y agregar todos los usuarios que tengan el mismo rol de trabajo en el grupo Cada usuario asumirá estos permisos. Entendamos esto con el mismo ejemplo. Supongamos que tienes dos desarrolladores y dos administradores en el equipo. En lugar de dar permisos a estos cuatro usuarios individuales, debes crear dos grupos. Uno para los administradores y otro para los desarrolladores, y agregar los permisos requeridos a estos grupos. Ahora puede agregar usuarios a sus respectivos grupos. Los usuarios asumirán automáticamente los permisos asignados a sus respectivos grupos. Esta práctica te ayudará a administrar los permisos a nivel de grupo lugar de la etiqueta de usuario. Pasemos a la siguiente mejor práctica, que es el permiso. Aws recomienda que siempre debemos crear permisos para lo que el usuario necesita de acuerdo a su rol. Estos permisos se conocen como permisos de menor privilegio. Por ejemplo, si el trabajo de un usuario es iniciar y detener las dos instancias de EC, entonces en lugar de dar acceso completo a EC dos, solo debemos dar permiso para iniciar y detener la instancia de EC dos. Siempre debemos crear permisos y políticas de privilegios mínimos mientras diseñamos el permiso. Ahora en el futuro, la mejor práctica más es la auditoría. Aws dice que siempre debemos habilitar el seguimiento en la nube dentro de todas y cada una de las cuentas de AWS. Si no conoces Cloud Trail, es un servicio de AWS que es gratuito, excepto el almacenamiento. Siempre que un usuario interactúe con su cuenta de AWS, Cloud Trail registrará todas y cada una de las actividades que eventualmente le ayudarán durante la auditoría Aprenderemos Cloud Trail en detalle en el módulo de seguridad y administración de AWS. Entendamos con un ejemplo. Digamos que un usuario inició sesión en su cuenta de AWS, creó una instancia de EC two y luego la terminó. Aws Cloudtrail registrará las tres actividades. De esta manera tendrás un registro de todas las actividades que los usuarios están realizando dentro de tu cuenta. La siguiente mejor práctica en la lista es agregar políticas de contraseña. Aws dice que siempre se deben configurar las políticas de contraseña, lo cual hemos hecho en el video anterior. Las políticas de contraseña garantizan que cada usuario tenga una contraseña segura. La siguiente mejor práctica es MFA, autenticación multifactor Siempre debe habilitar autenticación multifactor para usuarios privilegiados. Yo recomendaría que haga cumplir MFA para cada usuario. Puede crear una política y adjuntar esa política a todos los grupos. Ahora, cada vez que algún usuario inicie sesión en una cuenta de AWS, tendrá que autenticar su identidad dos veces Entonces sólo ellos podrán hacer cualquier cosa en tu cuenta. Esta es una muy buena práctica para garantizar que su cuenta y los recursos de AWS estén seguros. La siguiente mejor práctica es rotar las credenciales de inicio de sesión. Todos los que accedan a su cuenta de AWS deben cambiar sus credenciales de usuario de vez en cuando. Incluso puedes hacer cumplir esta política a los usuarios de que tendrán que rotar sus credenciales cada dos meses, o tres meses, o seis meses. Esto es una parte de su política de contraseñas dentro su cuenta de AWS que nos han visto en la demostración anterior. Bajo esta política, el usuario no sólo tendrá que rotar sus contraseñas, sino también las claves de acceso y secretas. Por último, pero no menos importante, es el usuario root. No debes usar usuario root para tus actividades diarias , ya que podría exponer tus credenciales de usuario root. Además, también debe limitar el acceso del usuario raíz tan pronto como tenga una cuenta de AWS, almacenar las credenciales del usuario raíz en algún lugar privado y crear un usuario de IAM, incluso para usted mismo Estudiantes, espero que entiendas ahora que la seguridad de la cuenta es un problema real y deben emplear estas prácticas para salvaguardar su cuenta de cualquier posible amenaza. Eso es todo por este video. 19. Descripción general de Amazon S3: Bienvenido de nuevo. En este video, conoceremos uno de los servicios principales de AWS, el Simple Storage Service, conocido como S three. Empezaremos con la visión general de S tres. Entender el cubo S tres y también la carpeta. Empecemos con lo que es S3s3 significa Simple Storage Service Como puedes ver los primeros personajes de Simple Storage Service RS, por eso se llama S three. Permite almacenar, recuperar el acceso y realizar copias de seguridad de cualquier cantidad de datos en cualquier momento desde cualquier lugar a través de Internet S Three es una solución de almacenamiento perfecta para almacenar grandes cantidades de datos. Por ejemplo, archivos de audio, películas, almacenamiento de fotos a gran escala, conjuntos de big data, etcétera. Podemos acceder a S Three ya sea desde la consola de administración, AWS CLI o AWS SDK Ahora hablemos de cómo almacenamos los datos en S tres. Para almacenar cualquier dato dentro de S three, necesitamos crear un bucket dentro de una cuenta de AWS. Un bucket S tres es un contenedor lógico en el que los datos se almacenan dentro de S tres. Para almacenar cualquier dato en S tres, necesitamos crear un bucket. También podemos crear múltiples depósitos para organizar nuestros datos. Bucket se identifica por su nombre y debe ser globalmente único en todas las regiones y cuentas. Por ejemplo, si creo un bucket y lo nombro mi bucket, entonces nadie más puede usarlo en ninguna cuenta de AWS. En otras palabras, una vez que se crea un bucket S three, ninguna otra cuenta de AWS puede crear el bucket S three con un nombre similar. S three bucket simplemente funciona como un almacenamiento en el que podemos almacenar datos ilimitados ya sea directamente dentro del bucket o crear una carpeta y luego poner los datos en esa carpeta. Ahora vamos a entender qué es una carpeta. Las carpetas se utilizan para agrupar y organizar archivos. A diferencia de un sistema de archivos tradicional, Amazon S three no utiliza jerarquía para organizar sus archivos. En aras de la simplicidad organizacional, la consola Amazon S three admite el concepto de carpeta como medio de agrupar datos. Puedes tener múltiples carpetas o archivos dentro de un solo bucket. Básicamente, la carpeta es un espacio de nombres dentro del bucket. Entendamos con un ejemplo. Dentro de la cuenta de AWS, tenemos servicio S three. En este servicio, podemos crear cubos como hemos aprendido hasta ahora Dentro de este cubo, podemos almacenar nuestros archivos, imágenes, videos o datos. Además, si queremos organizar nuestros datos, podemos crear carpetas dentro del bucket y también carpetas dentro de carpetas. Entonces también podemos almacenar nuestros datos dentro de estas carpetas. Tendrá más sentido cuando hagamos la demo en la siguiente lección. Otro concepto importante en S tres es objeto. Cuando almacenamos cualquier dato que pudiera ser archivos, documentos, imágenes, videos, etcétera, se les conoce como objetos en AWS De ahí que el objeto no sea más que su archivo documento, imagen, video, etcétera Cualquier cosa que se encuentre en su disco duro se conoce como un archivo. Pero cuando subas este archivo en S tres, se le conocerá como un objeto. Y el bucket en S three es similar al directorio de archivos en tu disco duro. Ahora hablaremos sobre las características de los objetos que necesitas conocer. El tamaño máximo de un solo objeto que puedes subir a S tres es de 5 terabytes Tenga en cuenta que cinco terabyte no es el tamaño de los datos totales que puede cargar En cambio es el tamaño máximo de un solo archivo que S tres te permite subir. Pero eso no quiere decir que no se puedan subir objetos mayores a 5 terabytes Si tienes un objeto mayor de 5 terabytes, entonces tienes que dividirlo en varias partes y luego usar algo llamado multiparte para subirlos El tamaño máximo del objeto es de 5 terabytes, pero debes usar una carga multiparte tan pronto como subas un objeto de tamaño superior Otra característica es el empeoramiento del objeto. No es más que mantener múltiples variantes de un mismo objeto cuando estamos haciendo algunos cambios en él. En S tres, puedes objetos para protegerlos de cualquier acción no intencionada o incluso de la eliminación accidental de un objeto Esto significa que siempre conservas las versiones anteriores de un objeto. Las siguientes características es la clase de almacenamiento. Puede crear múltiples cubos y almacenarlos en diferentes clases o llantas de datos Las clases son diferentes niveles de almacenamiento con diferentes costos en función de la frecuencia con la que use sus datos. Puedes elegir una clase si no usas mucho tus datos, podrías elegir una clase más barata y dejar tus datos ahí y así sucesivamente. Hablaremos de ello a detalle en la próxima. Por último, pero no menos importante, puedes crear permisos para limitar quién puede acceder o ver tus objetos. Una de las políticas más comunes en la política de bucket es una política basada en recursos que puede usar para otorgar permisos a su bucket y sus objetos. En esta sesión, nos fijamos en los objetos S three bucket folder y sus características. 20. Disponibilidad, durabilidad y replicación de datos en S3: Hola alumnos. Bienvenido de nuevo. En este video, vamos a entender tres conceptos importantes que son Disponibilidad, durabilidad y replicación de datos que serán utilizados mucho en la próxima sesión. Mientras comprendemos diferentes clases de almacenamiento, comencemos con la disponibilidad. Se refiere al tiempo de funcionamiento del sistema. Esto simplemente significa que por cuánto tiempo está disponible el sistema. En otras palabras, es el momento para el cual el sistema está operativo y capaz de entregar datos a pedido. Medimos esta disponibilidad en porcentaje. Esto también se conoce como SLA, que significa Acuerdo de Nivel de Servicio. Básicamente es una promesa que los proveedores de servicios tienen con sus clientes para la disponibilidad de sus servicios o sistemas. Si cumplen su promesa y los clientes obtienen todo dentro del tiempo prometido, eso significa que se completa el SLA. Tomemos un ejemplo. Los supermercados dicen que están abiertos 24 en siete. Significa que está disponible las 24 horas del día para ti. Si cumplen su promesa y están abiertos durante todo el día, semana, mes y año, entonces podemos decir que su disponibilidad es del 100% y cumplen con el SLA. El siguiente concepto es la durabilidad. Se refiere a la protección de datos a largo plazo. Eso simplemente significa qué tan bien están tus datos protegidos de cualquier posible pérdida o corrupción. Además de la disponibilidad, sus datos no deben perderse ni corromperse si los almacena en un dispositivo de almacenamiento durante mucho tiempo. La durabilidad también se mide en porcentaje. Entendamos esto con un ejemplo. Supongamos que almacenó 1,000 kilogramos de papa en cámara frigoríficas durante seis meses. Cuando los tienes de vuelta, solo eran 800 kgs. Significa que o 200 kgs de papas estaban podridas o comidos por ratas, ¿verdad? Eso significa que el servicio de almacenamiento en frío no era duradero. La próxima vez te asegurarás de almacenar las papas en una cámara frigorífera bien equipada, no habrá pérdidas. Esto se llama durabilidad. Ahora entendemos qué son la durabilidad y disponibilidad de los datos. También es importante saber cómo se almacenan los datos en S tres. Se basa en un concepto llamado replicación de datos. Entendamos esto. Si recuerdas del último laboratorio, hemos creado un cubo S three dentro de la región de Mumbai y hemos subido una imagen. Cuando subas algún dato en tu bucket, estos datos irán a una de las zonas de disponibilidad de la región. En nuestro caso, creamos un cubo en la región de Mumbai. Nuestra imagen fue subida en una de las zonas de disponibilidad. Pero para proteger nuestros datos, AWS realiza copias adicionales de nuestros datos y los replica en otras zonas de disponibilidad Los datos se almacenan y replican en toda la disponibilidad Jones dentro de la misma región Ahora surge la pregunta, ¿por qué AWS hace eso? Aquí debemos recordar que AWS prometió 11 nueves de durabilidad de datos. Simplemente significa que AWS promete 99 puntos nueve adicionales, número de 9% de garantía de durabilidad de datos. Aws no asegura una durabilidad de datos al 100%, pero dicen que hay 99 puntos adicionales nueve, 9% de probabilidad de que tus datos no se pierdan. ¿Cómo se asegura AWS cuando estamos cargando datos dentro de S tres, no sufrirá ninguna pérdida por eso Aws mantiene copias de nuestros datos en toda la disponibilidad Jones en la misma región. En caso de cualquier pérdida de datos, recuperan los datos de otras zonas de disponibilidad a la perdida. Así es como los datos están siempre presentes en todas las zonas de disponibilidad de una región. Y esa es la razón como promete 119 de durabilidad en casos extremos. Si alguna zona de disponibilidad baja, nuestros datos seguirán estando disponibles en otras zonas de disponibilidad de esa región en particular. Bien. Este es uno de los beneficios significativos de usar Amazon S three. Este es un ejemplo sencillo de cuando subimos nuevos datos. Ahora entendamos qué sucede cuando hacemos algún cambio en nuestros datos. Supongamos que tenemos esta imagen en tres disponibilidad en, y cambiamos el color de esta imagen y la subimos. Entonces AWS actualiza automáticamente las dos copias restantes de sus datos. En otros Jones, lo mismo va para eliminar también. Cuando elimines tus datos de One Joe, se eliminarán de todas las zonas de disponibilidad de la región. Estudiantes, comprendimos durabilidad de la disponibilidad de datos y cómo AWS promete 11 noventuras de durabilidad de datos con replicación de datos Eso es todo para esta sesión. 21. Clases de almacenamiento: Hola, alumnos. Bienvenido de nuevo. En este video, entenderemos diferentes clases de almacenamiento. Esta sesión estará llena de hechos. Les recomiendo a todos tomar notas. Hemos agregado algunos recursos de aprendizaje suplementarios en la sección de recursos. Por favor, asegúrate de hacer el mejor uso de ellos. Empecemos. En uno de los videos anteriores, almacenamos la imagen en un cubo Amazon S three. Al subir el objeto, notamos que las clases de almacenamiento se mostraban debajo de las propiedades Aws ofrece diversas opciones para almacenar nuestros datos en la nube. Estas opciones se conocen como clases de almacenamiento y podemos elegir cualquier clase en función de la frecuencia con la que accedemos a nuestros datos. Estas tres clases de almacenamiento S están diseñadas específicamente para proporcionar el almacenamiento de menor costo para diferentes patrones de acceso. Significa que diferentes tipos de clases de almacenamiento están diseñados para cumplir con diferentes propósitos de almacenamiento de datos. Estudiantes Ingeniero en la nube, es muy importante entender estas clases ya que pueden ahorrarle tiempo y dinero. Vamos a entenderlos uno por uno. El primero es S tres estándar. Es una clase de almacenamiento de propósito general utilizada para datos de acceso frecuente. Ofrece alta durabilidad, disponibilidad y rendimiento. El estándar S tres está diseñado para disponibilidad de 99.999 y una durabilidad del 11 9%. En otras palabras, están apenas 0.001% en sus datos podrían perderse y así sucesivamente Le brinda baja latencia y altos rendimientos y puede soportar hasta dos fallas simultáneas en las instalaciones Eso significa que si dos junes de disponibilidad tienen problemas, sus datos siguen estando seguros, ya que ofrecen baja latencia y alto rendimiento El estándar S tres es apropiado para una amplia variedad de casos de uso como aplicaciones en la nube, sitios web dinámicos, distribución de contenido, aplicaciones móviles y de juegos y análisis de big data. La siguiente es la clase de almacenamiento de acceso poco frecuente. Como su nombre indica, esta clase de almacenamiento se utiliza para datos de acceso menos frecuente. Datos a los que solo accedes de vez en cuando. Pero también quieres que estos datos estén disponibles de inmediato siempre que los necesites, debe estar disponible tan pronto como lo solicites. Si ese es el caso, puede usar la clase de almacenamiento de acceso poco frecuente Está diseñado para 99.9% disponibilidad y 11 9% de durabilidad. La disponibilidad de clases poco frecuentes es inferior al estándar S tres porque no accedemos a nuestros archivos con mucha frecuencia Es más económico que el estándar Amazon S three. Pero cuando accedemos a los archivos, pagamos un cargo por recuperación por GB. Esta es la pisada de esta clase. Pagamos menos por el almacenamiento , pero necesitamos pagar una tarifa de recuperación cada vez que accedemos a nuestros datos. Esta combinación de bajo costo y alto rendimiento hace que acceso poco frecuente estándar de S Three sea ideal para almacenamiento a largo plazo, backup y recuperación ante desastres Nuestros datos en esta clase también son resistentes frente a los eventos de una falla completa de la zona de disponibilidad. A continuación, tenemos una zona de acceso poco frecuente. Esto es muy similar a la clase de acceso infrecuente, pero la única diferencia es que en una clase de acceso infrecuente de zona, los datos se almacenan en un solo Joe de disponibilidad, mientras que en la clase de acceso poco frecuente se almacena en al menos tres Básicamente, tus datos están menos disponibles porque están presentes en una sola disponibilidad, junio. La mejor parte es que aún tienes baja latencia y alto rendimiento de rendimiento. Además, dado que los datos se almacenan en una disponibilidad junio, es 20% más económico que el acceso poco frecuente El acceso infrecuente de zona S31 es ideal para clientes que necesitan una opción de menor costo para los datos a los que se accede con frecuencia, pero no necesitan la disponibilidad y resiliencia de S tres estándar o S tres estándar de acceso poco Esta es una buena opción para almacenar copias de seguridad secundarias de datos locales o los datos que se pueden crear fácilmente. Nuevamente, también puede usar replicación entre regiones S tres para almacenar de manera rentable los datos que se replican desde otra región de AWS El siguiente es S three Intelligent Caring. Como su nombre indica, esta clase de almacenamiento viene con una inteligencia incorporada que mueve automáticamente los datos a la llanta de acceso más rentable según su patrón de acceso Aquí, el patrón de acceso indica frecuencia con la que se accede a un shat de datos Aquí los objetos se moverán automáticamente de una clase de almacenamiento a otra clase de almacenamiento en función los patrones de acceso cambiantes de estos objetos. Como resultado, los datos de acceso frecuente se moverán al almacenamiento de acceso frecuente y los datos a los que se accede con poca frecuencia se moverán mediante organización en niveles inteligente de S tres a la categoría correcta Tiene la misma baja latencia y alto rendimiento a través de put que el estándar S tres. Pero esto es altamente optimizado en costos. Por ejemplo, si los datos se mueven a la clase de acceso poco frecuente, se ahorrará hasta un 40% en costos de almacenamiento Si se traslada a la clase glaciar, ahorrará hasta 68% en costos de almacenamiento. También está diseñado para una durabilidad 119 y disponibilidad del 99.9% durante un año determinado en múltiples disponibilidades Jos, como usuario de este servicio, solo tienes que pagar un pequeño cargo mensual de monitoreo y auto agotador Esto te dará la mayor optimización de costos sin pensarlo demasiado. También es resistente frente eventos que pueden afectar a toda una disponibilidad. Joe. Ahora la siguiente clase de almacenamiento es Glacier Amazon S three. Glacier es la clase de almacenamiento de menor costo en S tres y admite retención a largo plazo y la preservación digital para los datos a los que se accede una o dos veces al año. Es útil para los clientes, particularmente aquellos en industrias altamente reguladas como los servicios financieros, la atención médica y los sectores públicos. Estas industrias conservan conjuntos de datos durante siete a diez años o más para cumplir con los requisitos de cumplimiento normativo. Está diseñado para una durabilidad 119 de objetos en múltiples zonas de disponibilidad. Como su nombre indica, espera que sus datos se congelen, lo que significa que se mantendrán por un periodo de tiempo más largo. Significa que la validez de recuperación de objetos es muy larga. Ahora, AWS admite tres tipos de glaciares para un patrón de acceso diferente en el futuro. Ahora comparemos rápidamente diferentes tipos de glaciares. Amazon S tres, recuperación instantánea glaciar. Tres, la recuperación instantánea de glaciares ofrece un tiempo de recuperación en milisegundos con el mismo rendimiento que S tres estándar Amazon tres, recuperación flexible glaciar En la recuperación flexible de glaciares, el tiempo de recuperación se puede configurar de minutos a horas. Con la recuperación masiva gratuita, es la más adecuada para escenarios de copia de seguridad y recuperación ante desastres donde grandes cantidades de datos deben recuperarse de manera rápida y rentable Amazon Es tres Glacier Deep Archive. En el Archivo Profundo de Tri Glacier, el tiempo de recuperación de los datos es de 12 horas. Es la clase de almacenamiento de menor costo diseñada para retención de datos a largo plazo que se conservará durante siete a diez años. Es una alternativa ideal a las bibliotecas de cintas magnéticas. Estudiantes, espero que ahora entiendan la clase de almacenamiento. En caso de que tengas alguna duda, te recomiendo pasar por esta sesión una vez más. 22. Demostración de S3 Bucket: Bienvenido de nuevo. En esta sesión de demostración, aprenderemos a crear un portacubos S three y subir datos en él. Vamos a la consola de administración de AWS. Recuerde, primero tenemos que seleccionar la región de AWS. Seleccionaré la región de Mumbai. Después de eso, iremos a la consola S three. Hay tres formas en las que podemos encontrar el servicio S three en la consola. El primer método es buscar S tres en el cuadro de búsqueda y nos dará S tres en el resultado. El segundo método es encontrar el S tres en el menú de todos los servicios. Simplemente expanda el menú, ubique el servicio S tres, y haga clic para abrirlo. Por último, si previamente has usado S three en tu cuenta, esta será listada bajo los servicios visitados recientemente. Vamos a escribir S tres aquí y dar clic para confirmar. Cuando lleguemos por primera vez a la consola S three, veremos una lista de buckets dentro de la cuenta de AWS Dado que S three usa un espacio de nombres global, no es necesario seleccionar una región mientras usa la consola. Ahora bien, si estás pensando, ¿por qué seleccionamos la región? S three es un servicio global. Bueno, seleccionar la región correcta cada vez que estés trabajando en tu cuenta es una buena práctica. No importa si el servicio es sensible a la región. Ahora vamos a seguir adelante y crear un cucharón S tres. Para ello, haz clic en Crear Bucket y elige un nombre. Ahora una cosa a tener en cuenta aquí es que el nombre del bucket debe ser único. Para que este nombre sea único, agreguemos algunos números aleatorios al final. Ahora hay algunas reglas que debemos seguir al nombrar cubos. La primera regla es que el nombre del bucket debe ser de 3-63 caracteres. Segundo, el nombre debe tener traqueteos más bajos, números, puntos y plumas altas Debe comenzar y terminar ya sea con una letra o un número. Por último, el nombre de su bucket debe ser único en AWS. Seleccione la región donde desea que se cree su bucket , y deje el resto de los ajustes predeterminados y continúe y cree el bucket. Ahora se ha creado el cubo, y no tardó más de un segundo. En esta página, puede ver el nombre del bucket, la región donde creó el bucket y el acceso al objeto bucket. Ahora vamos a la cubeta. Ahora aquí puedes ver las diferentes pestañas incluyendo propiedades, permisos, métricas, administración y puntos de acceso. Aquí está el objeto dentro de este cubo. Este es el lugar donde subimos nuestros archivos. Como hemos aprendido en la última sesión, podemos o bien subir objetos en el bucket S three o también podemos crear carpetas dentro del bucket para organizar nuestros datos. Vamos a seguir adelante y crear una carpeta y nombrarla como demo. Ahora podemos subir nuestro objeto en el bucket o esta carpeta. Vamos a hacer clic en Subir. Aquí tenemos dos opciones. O podemos subir archivos o subir carpetas. Vamos a subir un archivo aquí. Haga clic en Agregar archivos. Aquí podemos hacer algunos ajustes adicionales a nuestro objeto. Simplemente haga clic en Propiedades y verá Clase de almacenamiento. Es estándar por defecto. Lo cubriremos en detalle próximamente en este módulo. Conservemos esto por ahora y haga clic en Subir. Ahora nuestro archivo se ha subido correctamente. Saldré haciendo clic en Cerrar. Ahora tengo un objeto, mi S tres bucket con el nombre demo dot jpg. Si hacemos clic en nuestro objeto demo jpg, nos llevará al tablero de objetos, donde veremos el permiso de propiedades del objeto y la versión. Vamos a entrar en la pestaña Propiedades. Aquí podemos encontrar todos los detalles sobre nuestro objeto. Al igual que quién es el propietario del objeto, en qué región se carga el objeto y cuándo se modificó por última vez el objeto, El tamaño del objeto, la clave de objeto de tipo, la URL, la etiqueta de nombre del recurso de Amazon, y aquí está la URL del objeto. Es el enlace al archivo. Podemos abrirlo haciendo clic en esto, pero vamos a abrirlo en una nueva pestaña. Como pueden ver, me niegan el acceso porque este cubo no es público. Y no tengo derecho a acceder a este objeto. Si el bucket no es público e intentas abrir el archivo usando su URL pública, no se abrirá. Ahora volvamos al tablero de objetos. Tenemos otra forma de abrir este objeto simplemente haciendo clic en Abrir. Se abrirá una nueva pestaña y nos mostrará nuestra imagen demo. Ahora debes estar pensando, ¿por qué funciona esto, aunque el cubo no sea público? Bueno, cuando abrimos un objeto a través del open, se abre porque esta es una URL única. Como puedes ver, la URL es mucho, mucho más larga y no es similar a una URL pública. Esta es una URL especial para mí como propietario de este objeto, estoy autorizado para acceder a este objeto a través de esta URL. Ahora lo último que quería mostrarles es cómo eliminar un objeto de S tres. Para eso, volveré al bucket, seleccionaré el objeto, luego haré clic en eliminar. Aquí tendrás que escribir delete para confirmar que quieres eliminar el objeto, luego eliminar objeto, esto eliminará permanentemente este objeto. Estudiantes, espero que ahora tengan confianza en S tres y sus alcances. En esta sesión, hemos visto una demo donde hemos creado un S three bucket holder, subido el objeto con éxito y eliminado los mismos. Ahora adelante y hágalo usted mismo. 23. Descripción general de EBS (almacenamiento de bloques elásticos): Hola alumnos. Bienvenido de nuevo. En este video aprenderemos sobre una de las opciones de almacenamiento para EC two instancias, el almacenamiento de bloques elásticos, también conocido como EBS Comenzaremos con la definición y fundamentos de EBS seguido de sus casos de uso y tipos. Empecemos. Amazon EBS es como un disco duro en la nube que proporciona almacenamiento de bloques persistente para Amazon EC Twin Parties. El almacenamiento de Ebs se conoce como volúmenes de EBS en la terminología de AWS Por lo tanto, a partir de ahora lo llamaremos volumen EBS. Puede adjuntar volúmenes de EBS a sus posturas gemelas EC y crear un sistema de archivos encima de estos volúmenes Ejecute una base de datos o servidor encima de ellos, o utilícelos de cualquier otra manera, se usaría un almacenamiento de bloques. Pero, ¿qué es el almacenamiento en bloque? Es una tecnología que corta los datos en bloques y los almacena como piezas separadas cada bloque de datos se le da un identificador único, lo que permite que un sistema de almacenamiento coloque los datos más pequeños donde sea más conveniente. Un volumen de almacenamiento en bloque funciona de manera similar a un disco duro. Puede almacenar cualquier archivo en él o incluso instalar un sistema operativo completo. El volumen Ebs es una unidad conectada a la red. ¿Qué significa? Bueno, significa que el volumen de EBS no está realmente conectado a tu C a instancia, físicamente, está conectado a través de una red dentro de AWS Dado que está conectado a través de un enlace de red, volumen EBS se puede conectar o separar fácilmente Para las instancias C dos, esto significa que puede mover su volumen de EBS de una instancia en ejecución a otra y el cambio ocurrirá en cuestión de segundos. Se puede pensar en EBS como un disco duro de computadora que se puede conectar a cualquier separado de una instancia e inmediatamente volver a conectar a una instancia diferente a través Ahora, aquí surge una pregunta sobre por qué esto se llama almacenamiento de bloques elásticos. Cuando aprovisiona un volumen de EBS, tiene que definir su tamaño e IOPS Iops simplemente significa operaciones de entrada y salida por segundo. Tienes que decirle a AWS que quieres un volumen EBS de digamos, 100 B, que pueda hacer 1,000 IOP, es decir, 1,000 operaciones de entrada y salida por Pero solo porque definas que EBS es de 100 GB, no significa que estés atascado con unidad de 100 GB Puede cambiar el tamaño o la capacidad de IOPS volúmenes de EBS según sus necesidades en cualquier momento Esta es la elasticidad que proporciona EBS, y es por eso que EBS es un almacenamiento de bloques elásticos y no solo un almacenamiento de bloques Ahora veamos algunas características de EBS. Un punto importante a tener en cuenta sobre EBS es que solo se puede adjuntar a una instancia C dos a la vez No puede tener dos instancias C dos conectadas a un solo volumen de EBS Sin embargo, AWS lanzó recientemente una característica en la que volumen de IOPS SSD EBS se puede conectar a varias instancias No necesitamos entrar en detalles en este curso. Esencialmente, EBS es una unidad de red que se puede mover de una instancia a otra Pero este proceso tiene una limitación. Los volúmenes de Ebs están restringidos dentro de una zona de disponibilidad. Esto significa que aunque los volúmenes de EBS se pueden mover rápidamente de una instancia a otra, se pueden mover a través de la zona de disponibilidad Por ejemplo, un volumen de EBS en la zona de disponibilidad P, sur uno A, no se puede adjuntar a una instancia EC dos en AP sur una B. Sólo se puede mover entre instancias en AP sur una A. Sin embargo, si desea mover volúmenes de EBS de una zona de disponibilidad a otra, hay que tomar una instantánea de la Aprenderemos sobre las instantáneas en un tema extra. Tipos de volúmenes de EBS. Avancemos y comprendamos los diferentes tipos de volúmenes de EBS Tomemos un ejemplo aquí. Uno de los criterios importantes a la hora comprar un nuevo portátil es el almacenamiento, ¿verdad? Cuando se habla de almacenamiento de computadoras, significa discos duros. discos duros de su computadora podrían ser de diferentes tipos, como SSD, HDD, etc. De igual manera, el volumen de EBS también se clasifica en seis tipos. SSD de uso general, GP dos y GP tres. Vicent IOPSSD, I 01 y I 02 a través de SD optimizado un HDD, HDD antiguo, S uno HDD Una cosa a tener en cuenta aquí es que solo se pueden usar los SSD como volumen de arranque del sistema de todos estos tipos volumen de arranque es el volumen que contiene el sistema operativo. Aws solo permite los SSD rápidos como volumen de arranque. Eso es todo lo que necesitamos saber sobre el tipo de volumen EBS y EBS. 24. Resumen de EFS (Sistema de archivos elásticos): Hola alumnos. Bienvenido de nuevo. En este video conoceremos una de las opciones de almacenamiento de EC dos instancias, el sistema de archivos elástico, también conocido como EFS. Comenzaremos con lo básico y una pequeña descripción de EFS seguida de sus casos de uso. Así que comencemos. ¿Qué es el sistema de archivos? Antes de entender qué es EFS, debes saber qué es un sistema de archivos. Un sistema de archivos define cómo se nombran, almacenan, leen y utilizan los archivos en cualquier dispositivo de almacenamiento. Se instala en todos los dispositivos de almacenamiento, ya sea una unidad de disco o un CD. Cada vez que realiza alguna operación en un archivo de su computadora, como editar, eliminar o leer sus sistemas operativos, sistema de archivos lo maneja. El almacenamiento es simplemente una gran cantidad de datos. Sin un sistema de archivos, porque sin un sistema de archivos, el sistema operativo nunca sabrá dónde buscar tus datos. Imagina un trastero lleno de documentos y páginas esparcidas por todos lados. No se puede decir qué páginas están relacionadas con qué páginas pertenecen a la misma carpeta, ¿verdad? Se trata solo de datos dispersos aleatoriamente. Así será un dispositivo de almacenamiento sin un sistema de archivos. En comparación, una biblioteca es un ejemplo de la vida real de un sistema de archivos donde cada documento está organizado. Al igual que una biblioteca tiene un sistema. Su sistema operativo tiene un sistema de archivos que el equipo donde encontrar sus archivos. Los sistemas operativos tienen un sistema de archivos estándar de la industria que se administra como parte de su sistema operativo. Sin embargo, siempre es posible que hagas tu propio sistema de archivos para aplicaciones. Ahora que ya sabe lo que es un sistema de archivos, hablemos de EFS, Amazon EFS es un servicio de almacenamiento de archivos basado en la nube. Como su nombre indica, es una solución de almacenamiento escalable que crece automáticamente y las cadenas, medida que agrega y elimina archivos, no necesita decirle a AWS que cree un sistema de archivos de 100 GB o 200 GB, simplemente crea un EFS y crece y se reduce a medida que agrega o Esto asegura que su EFS siempre tenga el almacenamiento según sus necesidades. Puede crecer de un pequeño megabyte a un sistema de archivos a escala de petabyte automáticamente No hay tarifa mínima por usar EFS. Simplemente tienes que pagar por el almacenamiento que usas. Si usas solo 500 MBS de EFS, solo pagas los 500 MBS. Similar a EBS, EFS también es un servicio conectado a la red. Esto significa que el almacenamiento de su sistema de archivos está conectado a EC dos instancias a través de una red y no físicamente, pero a diferencia de EBS, que solo podría conectarse a una instancia de EC dos a la vez, podemos conectar EFS a cualquier número de instancias EC dos Una de las características más importantes de EFS es que almacena sus datos en todas las zonas de disponibilidad. Puede adjuntar EFS con varias instancias de EC dos en todas las zonas de disponibilidad. Digamos que tiene un EFS en la región de Mumbai. Este EFS puede ser utilizado por cualquier número de instancias EC dos de cualquier zona de disponibilidad en esta región, no solo EC dos. También puede usar EFS con servicios como ECS, EKS y funciones Lambda, o incluso su computadora local Puede conectar simultáneamente cientos de instancias EC two, funciones lambda y sus computadoras personales a EFS. A partir de ahora, EFS solo es compatible con instancias basadas en Linux. Es importante señalar aquí que las instancias de Windows no pueden usar EFS. Aws tiene un sistema de archivos diferente para instancias de Windows llamado SX. Ahora debe preguntarse por qué usar EFS y no crear su propio sistema de archivos. Sí, es posible crear un sistema de archivos en cualquier dispositivo de almacenamiento. Pero además de ser un servicio altamente escalable, EFS también es un servicio administrado Esto significa que administra la infraestructura de almacenamiento por usted. Y como usuario, todo lo que tienes que hacer es usar el sistema de archivos. No tiene que preocuparse por el almacenamiento subyacente o cualquier mantenimiento o aplicación de parches de su sistema de archivos Ets administrará todo este trabajo extra por usted en cualquier momento que haya un requisito para un almacenamiento de sistema de archivos que se pueda usar en múltiples servicios y computadoras locales. Piensa EFS, eso es todo para esta sesión. 25. Introducción a las redes: Hola y bienvenidos de nuevo al quinto módulo de esta formación. En este módulo, cubriremos la VPC, que es la sección de redes de computación en la nube Aquí profundiaremos temas como virtual private, cloud o subred VPC, cloud o subred VPC tabla de rutas de Internet Gateway y grupos de seguridad Nat gateway y grupos de seguridad Nat gateway También hacemos una demostración en AWS para crear una VPC y subredes públicas y privadas Al completar con éxito este módulo, tendrá una comprensión completa de la creación de VPC y la creación de subredes privadas y públicas Sabrás cómo funciona la subred pública y privada en VPC y cómo Internet Gateway conecta una VPC con También aprenderás a usar grupos de seguridad y NACL para controlar el tráfico hacia y desde los recursos en una VPC Alumnos. Para aprovechar al máximo esta formación, recomendamos que tomes notas a lo largo de esta formación. Espero que ya estés tomando notas. Eso es todo por esta introducción. 26. ¿Qué es una VPC?: Hola alumnos. Bienvenida de nuevo. En este video vamos a aprender sobre la nube privada virtual o VPC En definitiva, es el aspecto de redes de la computación en la nube. Y puede ser un poco difícil relacionarlo con nuestro día a día. Intentaremos hacerlo lo más sencillo posible. Ya que esta es una sección y bloque de construcción muy importante para el resto de temas de este módulo. Te recomiendo que prestes especial atención a este tema. Tomemos un ejemplo. Supongamos que hay un edificio residencial y tiene muchos pisos. Hay cientos de personas viviendo en estos pisos. Digamos que soy dueño del piso número 810 y usted posee el piso número B 20 en este edificio. También podemos decir que piso número B 20 es tu sección privada del edificio donde guardas tus cosas y tienes un control total sobre ellas. También puedes agregar características de seguridad como una cámara de bloqueo, vigilancia, etcétera, la misma manera que otras personas tienen áreas privadas de las que poseen Ahora conectemos este ejemplo con AWS y VPC, y reemplacemos el edificio con pisos de AWS con VPC's En nuestra cuenta de AWS, creamos y administramos todo tipo de recursos como EC two RDS y así sucesivamente Nos adentraremos en cuáles son estos recursos específicos en los módulos posteriores. Estos recursos en tu VPC son como tus cosas en tu piso, la VPC de AWS es como tu área privada en AWS en la que puedes colocar tus recursos y servicios Al igual que un departamento tiene diferente nivel de seguridad, también se puede poner un nivel de seguridad sobre estos recursos. En otras palabras, podemos decir que hay formas de otorgar a las personas acceso a tu otorgar a las personas acceso a base de datos o a tus recursos en la nube, o también puedes evitar que lo hagan. Ahora entendamos la definición de AWS VPC, una Nube Privada Virtual Una nube privada virtual es una red virtual dedicada a su cuenta de AWS. Está lógicamente aislado de otras redes virtuales en la nube de AWS en las que puede lanzar sus recursos de AWS como Amazon EC two instancias Vpc significa Nube Privada Virtual. No es más que un centro de datos virtual en los servicios de Amazon Wab Esto es privado porque es solo para ti y tienes un control total sobre él. Esta es una red lógica completamente aislada que puedes usar la manera que quieras al crear VPC Básicamente, se crea una red lógicamente aislada. Si estoy creando una VPC en mi cuenta y estás creando una VPC en tu cuenta, estas son dos redes aisladas Incluso dos o más VPC's con diferentes direcciones IP dentro la misma cuenta también se aislarán Puedes entender la dirección IP como la dirección de tu piso. Esta dirección IP se llama CIDR, que significa Enrutamiento Inter Domain sin Clase Se trata de un conjunto de estándares de Protocolo de Internet que se utilizan para crear identificadores únicos para redes. Cuando crea una VPC, especifica un rango de direcciones IP para la VPC en forma de bloque CIDR Por ejemplo, 10.0 0.0 0.0 por 16. A partir de ahora, entiende que VPC es una red dentro de su cuenta de AWS También puede crear subredes dentro de una red que también se conocen como subredes Cubriremos subredes en la próxima la. 27. Subred, puerta de enlace de Internet, tabla de rutas y puerta de enlace NAT: Hola alumnos. Bienvenido de nuevo. En este video, vamos a entender la subred, enlace de Internet y tabla de rutas. Empecemos. Como comentamos en el video anterior, VPC es una red en nuestra cuenta de AWS También podemos crear subredes dentro de nuestra VPC. Estas subredes también se conocen como subredes. Veamos nuestro ejemplo anterior. Somos dueños de un piso en el departamento, y este piso es nuestra sección privada. Tenemos una recámara, una sala y una cocina en este piso. Esencialmente, estas son diferentes subsecciones de nuestro piso utilizadas para diversos fines De igual manera, en AWS, VPC, creamos una subred como public submit y private submit Cuando creamos un submit, especificamos el bloque CIDR para el submit, que es un subconjunto del bloque CIDR de VPC Si el CID de nuestra VPC es 10.0 0.0 0.0 por 16, podemos usar 10.0 0.0 0.0 por 24.10 0.0 0.1 0.0 por Como el CIDR de nuestro Enviar, podemos lanzar recursos de AWS en un envío específico, como instancias fáciles Un punto importante para recordar es que cada subred debe residir completamente dentro de una disponibilidad, Joe, y no puede atravesar Jones Esto lo veremos mientras hacemos las manos en el mapa, hay dos tipos de subred Presentar público y enviar privado. Podríamos relacionarlo con nuestro piso. Contamos con una habitación de invitados con acceso directo desde el exterior. Es como una presentación pública, mientras que nuestra recámara es completamente privada para nosotros. Ahora entendamos qué es la subred pública. Se trata de una subred que interactúa con Internet y se puede acceder a través de Significa que cualquier recurso creado dentro de su subred pública, por ejemplo, servidores Wab, sería accesible a través de Dado que las subredes públicas interactúan con Internet, implementaremos nuestro balanceador de carga o aplicaciones orientadas a Internet en el envío público Voy a cubrir esto en detalle en el módulo EC dos. La siguiente es la subred privada. Se trata de una subred a la que no se puede llegar desde Internet. Significa que podemos crear los recursos de AWS que solo se usan dentro de la VPC para fines internos Ahora vamos a juntarlo todo. Tenemos una región en nuestra cuenta de AWS, y habrá una VPC en esa región La VPC tendrá lo que se llama un rango CIDR, que es un rango de direcciones IP permitidas dentro de nuestra La VPC también puede atravesar dos zonas de disponibilidad, Availability Joe one y Availability Joe two Disponibilidad Joe one contiene una presentación pública y una presentación privada. De igual manera, Disponibilidad Joe Z two también contiene una presentación pública y una presentación privada. De ahí que tengamos dos Jones de disponibilidad, una VPC y cuatro subredes En este ejemplo ahora debes estar pensando, ¿cuál es la diferencia entre una presentación pública y una presentación privada? Bueno, no hay diferencia en estas arquitecturas. El proceso de crearlos es exactamente el mismo. Pero lo que configures dentro de ellos determina si una subred es pública o privada Es necesario hacer dos cambios en una subred para hacerla pública Primero, es necesario agregar una puerta de enlace de Internet. Es un componente administrado por AWS que está conectado a su VPC Actúa como puerta de enlace entre tu VPC e Internet, básicamente el mundo exterior Agreguemos aquí una puerta de enlace de Internet. Ahora tenemos una puerta de enlace de Internet conectada a nuestra VPC, que establecerá la conexión desde Internet Ahora bien, si estás pensando que un envío público ahora tiene acceso a internet, bueno eso no es cierto. Hay otro componente llamado router dentro de la VPC. Lo que determina a dónde se dirigirá el tráfico entrante. Este proceso se conoce como enrutamiento. El enrutador usa algo llamado tablas de ruta para controlar el tráfico de red. Por lo tanto, cada subred dentro VPC debe estar asociada a una tabla de rutas Siempre que creamos una subred, vendrá con una ruta predeterminada, que es una ruta local Como podemos ver, esta tabla de rutas tiene un campo de destino y un campo de destino. El campo de destino contiene la dirección de destino a la que intentas llegar. El destino especifica la ruta, ese destino, eso significa que cualquier solicitud dentro la dirección IP de la VPC es local Para hacer un envío público, necesitamos agregar la dirección de destino como Internet, que es 0.0 0.0 0.0 por cero, y el target como puerta de enlace de Internet. Esta nueva ruta aquí en la tabla de rutas tiene un destino de 0.0 0.0 0.0 por cero. Significa que cualquier dirección IP no conocida dentro de la tabla de rutas la envía a este destino. En este caso, este objetivo es la puerta de enlace de Internet. Esta parte de aquí es simplemente el ID de la puerta de enlace de Internet. Significa que cualquier tráfico que no sea la red VPC irá a la puerta de enlace de Internet Y de ahí que esta presentación sea ahora una presentación pública. Ahora estas dos subredes son públicas y las otras dos son subredes privadas Espero que sea claro para ti. Si tienes una instancia en una subred privada, no será accesible a través de Internet No obstante, es posible que desee darle acceso a Internet para descargar archivos o para obtener las actualizaciones del sistema operativo. En este caso, podemos usar lo que se conoce como At Gateway, que es administrado por AWS o instancia. También puede ser autogestionado, esa manera puedes acceder a Internet dentro de tu subred privada At Gateway es un servicio administrado de AWS de alta disponibilidad que permite que sus instancias en subred privada se conecten a Internet Creamos un At Gateway en nuestro envío público. Creamos una ruta desde las subredes privadas hasta la puerta de enlace At y desde la puerta At hasta la puerta de Internet Esto permitirá que sus subredes privadas obtengan conectividad a Internet Eso es todo para esta sesión. Espero que ahora entiendas BPC y sus elementos. En caso de que tengas alguna duda, te recomiendo pasar por esta sesión una vez más ya que esto es muy importante para tu entrevista de certificación y en general también. 28. Grupos de seguridad y NACL: Hola alumnos. Bienvenido de nuevo. En este video, aprenderemos por qué necesitamos un grupo de seguridad y NCL ¿Cuáles son estos y las diferencias entre ellos? Los grupos de seguridad y los NSL actúan como firewalls virtuales. Controlan el tráfico hacia y desde los recursos en un BPC siguiendo algunas reglas de entrada y salida Entrante o saliente representa la dirección del tráfico entre redes La dirección se define con respecto a una red de referencia. tráfico entrante se refiere a la información que ingresa a una red Aquí, la red de referencia es su red interna. Podría ser tu computadora. También, como puede ver, los datos fluyen de Internet a su computadora. Se llama tráfico entrante. tráfico saliente se refiere a la información que sale de la red Nuevamente, aquí ves que los datos fluyen fuera de la red de referencia que es tu computadora. Nuevamente, el flujo de tráfico de datos es de su red a internet. Se llama tráfico saliente. Ahora volvamos al grupo de seguridad y a la NSA. Comenzaremos primero con el grupo de seguridad. Un grupo de seguridad es una solución de firewall de AWS para filtrar el tráfico entrante y saliente de una EC a una instancia. Actúa como un firewall virtual para C dos instancias para controlar el tráfico entrante y saliente en función de algunas reglas definidas, garantiza la seguridad a nivel de instancia Tanto las reglas de entrada como de salida funcionan de forma independiente. Por ejemplo, la regla entrante podría permitir que el tráfico de una dirección IP específica solo acceda a la instancia Mientras que una regla de salida podría permitir que todo el tráfico salga de la instancia ya los grupos de seguridad funcionan a nivel de instancia, en una VPC, también podemos aplicar un grupo de seguridad a una o más instancias Del mismo modo, una instancia también puede asociarse con uno o más grupos de seguridad. Veamos NSR ahora. Significa Control de Acceso a la Red, que controla el tráfico hacia o desde un envío de acuerdo con algunas reglas definidas. Esto significa que agrega una capa adicional de seguridad en la capa de envío. Por ejemplo, una regla entrante podría denegar el tráfico entrante de un rango de direcciones IP, mientras que una regla de salida podría permitir que todo el tráfico salga del envío Como los NSL funcionan en el nivel de presentación de una VPC, podemos aplicar una NCL a una o más entregas Sin embargo, cada envío debe estar asociado con un solo NCL solamente Ahora echemos un vistazo cuál es la diferencia entre el grupo de seguridad y NSL Security Group opera a nivel de instancia, pero NSL opera a nivel de envío El soporte para grupos de seguridad solo permite reglas, pero NSL permite reglas y reglas de denegar El grupo de seguridad tiene estado, significa que el tráfico de retorno se permite automáticamente independientemente de las reglas Como ya hemos comentado, no hay forma de agregar una regla de salida Todo el tráfico permitido regresa por defecto mantiene el estado de tráfico permitido. Por eso se le llama estado pleno NSL es apátrida. Significa que el tráfico de retorno no está permitido por defecto, debe haber reglas explícitamente permitidas para permitirlos. El grupo de seguridad se aplica a una instancia solo si alguien especifica el grupo de seguridad. Bueno, al lanzar la instancia o el grupo de seguridad con la instancia más adelante, NSL se aplica automáticamente a todas las instancias de la subred a la que está asociada, por lo tanto proporciona una capa adicional de defensa si las reglas del grupo de seguridad son demasiado Sin embargo, los grupos de seguridad y los NSL operan en diferentes capas en la VPC, que es la mejor manera de proteger su red, grupos de seguridad o NSL en la defensa en profundidad se trata de capas de grupos de seguridad de seguridad, y los NSL son solo dos Por lo tanto, una mejor solución es implementar ambos para bloquear su red. Eso es todo para esta sesión. 29. Crea una subred pública y privada de VPC: Hola alumnos. Bienvenida de nuevo. En esta demo, crearemos una VPC en nuestra cuenta de AWS. También veremos los parámetros y opciones que ofrece AWS para crear una VPC También crearemos una puerta de enlace de Internet y configuraremos los envíes públicos y privados Al final de este laboratorio, tendrá una comprensión completa de cómo crear VPC y hacer entregas privadas y públicas. Empecemos por ir a la consola de AWS. Primero, tenemos que seleccionar la región. Voy a elegir Mumbai ya que quiero crear una VPC en la región Asia Pacífico Mumbai Ahora para ir al tablero de VPC, buscaremos la VPC en la búsqueda y daremos clic en VPC para abrir Como puedes ver aquí en el tablero, ya tenemos una VPC creada en nuestra cuenta Esta es la VPC predeterminada que AWS crea. Esta VPC tiene un cable de enrutamiento y una puerta de enlace de Internet en todas las regiones Podemos usar la VPC predeterminada para fines de demostración, pero siempre se recomienda crear su propia VPC para desarrollo, prueba y entorno de producción para la configuración más adecuada Si vas a alguna región, encontrarás una VPC y algunas tablas de ruta y algunas tablas de ruta y una puerta de enlace de Internet asociada a ella Ahora vamos a crear nuestro propio VPC. Haga clic en VPC y luego haga clic en Crear VPC. Le estaremos dando el nombre Pa up. La siguiente opción para nosotros es seleccionar si queremos direcciones IPV cuatro o IPV seis en nuestra Optaremos por IPV cuatro y daremos 10.0 0.0 0.0 por 16 como el rango IP privado para esta VPC Entonces tenemos el arrendamiento, que especifica dónde está la provisión de su infraestructura Si seleccionamos la tenencia predeterminada, nuestras instancias C two estarán en hardware compartido con otros usuarios de AWS Si desea una VPC donde todas las instancias C dos estén en hardware dedicado, puede elegir crear una VPC dedicada La siguiente opción son las etiquetas. Como puede ver, AWS ya nos ha creado una etiqueta con su nombre. No necesitaremos más etiquetas. Vamos a hacer clic en Crear VPC. Ahora tenemos nuestro propio VPC creado en esta región. Volvamos a la página de VPC. Se puede ver que ahora tenemos dos VPC's en esta región. Ahora crearemos una puerta de enlace de Internet y la conectaremos a nuestra VPC Para eso, da clic en Internet Gateway. Y como pueden ver, ya tenemos Internet Gateway. Para la VPC predeterminada, vamos a hacer clic en Crear puerta de enlace de Internet y darle su nombre pack up, IGW Ahora haga clic en Crear una puerta de enlace a Internet. A continuación, tenemos que adjuntar esta puerta de enlace de Internet a nuestra VPC. Podemos hacerlo directamente haciendo clic adjunto a VPC en la barra verde superior aquí O haciendo clic en el botón de acciones aquí. Haga clic en Adjuntar a VPC y seleccione su VPC. Si está utilizando AWC LI, puede hacer click en esta barra de desplazamiento y adjuntarla a tu VPC Como no estamos usando AWS C, L, I, podemos dar click aquí y adjuntar esta puerta de enlace de Internet directamente. Ahora tenemos una VPC con puerta de enlace a Internet. Pero aún no podemos crear infraestructura en la VPC. Para eso, necesitamos tener subredes. Vamos a crear subredes. Haga clic en las subredes aquí en función de la región en la que se encuentre. Verás 34 subredes aquí. Estas son las subredes públicas predeterminadas asociadas a la VPC predeterminada A continuación, crearemos subredes para eso, haga clic en Crear subredes Primero, tenemos que elegir la VPC. Estamos eligiendo la VPC de Pat Cup que creamos. Ahora agrega un nombre a nuestro Enviar. Público Presentar uno. Seleccionaremos el AP sur, una zona de disponibilidad, y daremos un rango de IP de 10.0 0.0 0.0 por 24 al Enviar. Vamos a omitir etiquetas por ahora y dar clic en. Crear subred. Ya podemos ver nuestro submit en la lista, crearemos tres subredes más Seleccione la VPC empaquetada, dé el nombre de subred pública para seleccionar P una zona de disponibilidad y dar un rango de IP de 10.0 0.1 0.0 por 24 Vuelva a hacer clic en Crear subred y repita el proceso. Esta vez vamos a dar el nombre Subred privada uno Disponibilidad uno P uno, y el rango IP de 10.0 0.2 0.0 por 24 Estoy repitiendo esta última vez. Dar el nombre subred privada a la zona de disponibilidad P. Así que un rango de IP de 10.0 0.3 0.0 por 24 Tenga en cuenta que no puede tener rangos de IP superpuestos en las subredes Ahora tenemos cuatro subredes en dos zonas de disponibilidad en la región de Mumbai Pero, ¿cuál es la diferencia entre nuestras subredes privadas y públicas Los creamos usando el mismo método, solo que sus nombres son diferentes. A partir de ahora, las cuatro subredes que creamos son privadas La diferencia entre las subredes privadas y públicas es que tablas de ruta de las subredes públicas tienen una entrada de puerta de enlace de Internet Si vemos los detalles de las tablas de ruta en nuestras subredes, solo tenemos una entrada, 10.0 0.0 0.0 por 16 locales Esto simplemente significa que cualquier solicitud que vaya a rutas dentro de este rango se enrutará dentro de la VPC Sigamos adelante y creamos una tabla de rutas públicas para nuestras subredes Para eso, da clic en la tabla de rutas, y como puede ver, ya tenemos dos tablas de rutas en nuestra cuenta. Una se adjunta a la VPC predeterminada de la región, y la otra se adjunta a la nueva VPC que creamos Si ve la tabla de rutas predeterminada de la VPC predeterminada en la sección de ruta, puede ver que hay una entrada a la puerta de enlace de Internet Esto significa que todas las subredes predeterminadas de la VPC predeterminada tienen esta ruta que las hace públicas que se envíen Si ves la tabla de rutas de nuestra VPC, solo tenemos la ruta local lo que hace que nuestras subredes Ahora da clic en Crear tabla de rutas y darle el nombre de Pat Cup, Arch Public. A continuación seleccionamos nuestro VPC y damos clic en Crear tabla de rutas. Ahora tenemos otra tabla de rutas privadas. Ahora necesitamos agregar la ruta de Internet Gateway a la tabla. Para eso, haz clic en Editar rutas y haz clic en Agregar ruta. Seleccione 0.0 0.0 0.0 por cero como destino. Elija la puerta de enlace de Internet como destino. Y selecciona el pack up, IGWCreated. Después haga clic en Cambios seguros. Tenemos una nueva tabla de rutas públicas en nuestro VPC. Ahora asociemos nuestra tabla de rutas a subredes públicas. Podemos hacerlo haciendo clic en Acciones, Editar asociaciones de subarrendamiento, y seleccionando el público Enviar 1.2 y luego hacer clic en Guardar asociaciones Vamos a la página de subred y echemos un vistazo a nuestras subredes Verá que las subredes públicas están asociadas con la nueva tabla de rutas, que tiene la entrada de puerta de enlace de Internet También puede hacerlo haciendo clic en este botón Editar asociación de tablas de rutas para cambiar las tablas de ruta para una subred Ahora hemos creado una VPC con dos subredes públicas y dos privadas que estaremos usando a lo largo de esta sesión Como dije, crear y mantener VPC Internet Gateway y Route Tables es completamente gratuito No es necesario eliminarlos, alumnos. Espero que entendieras todo eso. Lo que hicimos en esta demo, eso es todo para esta sesión. 30. DNS y Amazon Route 53: Hola, alumnos. Bienvenida de nuevo. En este video, aprenderemos sobre DNS y el servicio DNS de AWS, la Amazon Route 53. Comenzaremos entendiendo DNS y Route 53 y luego un vistazo a sus características y casos de uso. Empecemos. Dns significa Sistema de nombres de dominio. Es la agenda telefónica de Internet. Es un sistema que te permite conectarte a sitios web haciendo coincidir el nombre de dominio legible por humanos, como Google.com o Facebook.com Básicamente, traduce el nombre de dominio a la dirección IP Ahora vamos a entender esto con un ejemplo. Cuando haces una llamada telefónica a tu amigo, buscas su número de teléfono en la aplicación de contacto, ¿verdad? Pero debido a que es difícil recordar un número de teléfono, guardamos los números de teléfono en la aplicación de contacto. Similar a los números de teléfono, los sitios web y las aplicaciones tienen direcciones IP. ¿Alguna vez has usado la dirección IP de Google.com o YouTube.com para conectarte a ellos No, porque de nuevo, es difícil de recordar. Esto se simplifica con DNS. Como dije, el DNS es similar a nuestra libreta telefónica, que almacena la IP de los sitios web. Los servidores DNS simplemente traducen nombres de dominio a direcciones IP. Cuando accedes a YouTube.com la solicitud primero va a un servidor DNS y luego a la dirección IP de YouTube.com Ahora entendemos DNS y cómo funciona Aws también ofrece un servicio DNS llamado Route 53. La ruta 53 realiza una tarea similar. Ahora vamos a entender la Ruta 53 en detalle. Route 53, servicio DNS escalable y de alta disponibilidad de AWS. También es el único servicio en AWS que reclama disponibilidad del 100%. Significa que el servicio de la Ruta 53 nunca baja. Digamos que tiene una aplicación web en su cuenta de AWS ejecutándose en la instancia de EC Two, si desea alojar este sitio web en el dominio yourname.com, puede crear un registro DNS en Route 53 para apuntar el dominio a la dirección IP de EC Ahora también hay algunas características más. El primero es Registro de dominio. La Ruta 53 también es un registrador de dominios. Esto significa que también te permite comprar nuevos nombres de dominio desde la propia consola de Route 53 si compraste tu nombre de dominio en otro sitio web como Go Daddy. La Ruta 53 también tiene una función para transferir nombres de dominio de otros registradores de dominio a la Ruta 53 El siguiente es alojado uno que podemos crear The Hosted Jones Hosted Joe es un contenedor para registros que incluyen información sobre cómo enrutar el tráfico para un dominio. La siguiente característica es la verificación de estado. Ruta 53 también tiene la capacidad de realizar chequeos de salud de tus recursos. Utiliza estas comprobaciones de salud para determinar el estado de tus recursos y enviar tráfico solo a recursos saludables. El último es el flujo de tráfico. También se llama flujo de tráfico que le brinda otro nivel de automatización para cómo envía su tráfico a sus recursos. Eso es todo lo que necesitas saber sobre Amazon Route 53. 31. VPN de AWS y AWS Direct Connect: Hola, alumnos. Bienvenido de nuevo. En esta sesión, analizaremos diferentes opciones de conectividad desde AWS hasta los centros de datos locales. Empecemos. Entendamos con un ejemplo. Suponga que su organización planea migrar una aplicación crítica para el negocio a la nube de AWS que tenga datos de cumplimiento. Su equipo de seguridad insiste en que pueda mover la aplicación a la nube, pero los datos deben permanecer en las instalaciones y cumplir con todos los requisitos de cumplimiento Ahora te has decidido por la región de Mumbai y creado VPC dentro de tu cuenta de AWS Para implementar su aplicación, creó una instancia EC two. Su aplicación también utiliza otros servicios de AWS como Amazon, S Three, Cloudwatch, etcétera. Este es tu centro de datos en las instalaciones donde tienes una base de datos. Finalmente, configuró su aplicación que se estaba ejecutando en un EC para instancia en base de datos local. Su equipo de seguridad se dio cuenta de que esta base de datos se conecta con la aplicación a través de Internet pública. Se quejan de que va en contra de los lineamientos de seguridad. Esta conexión debe ser privada y segura. Hay un par de opciones que puedes usar en AWS para que esta conexión sea privada. Uno de ellos es sitio a sitio VPN. Esto se llama VPN de sitio a sitio porque conectamos un sitio de AWS a otro centro de datos de sitio. Una VPN significa Red Privada Virtual. Vpn crea un túnel que usas para acceder a Internet y eludir tu proveedor de servicios de Internet, es decir, ISP Este proceso cifra todos los datos que envía y utiliza diferentes medidas de seguridad para garantizar que todos los datos estén seguros Lo que hacemos es crear una VPN entre su cuenta de AWS VPC y su red local Hay un par de componentes que necesitamos configurar. En el lado de la VPC, tenemos una puerta de enlace privada virtual implementada en AWS Entonces tenemos el Customer Gateway, que se despliega en el centro de datos corporativo. Ahora que es un dispositivo en el centro de datos corporativo que has configurado de cierta manera. Pero la puerta de enlace real del cliente se crea dentro de AWS. Es esencialmente un elemento de configuración que creas que apunta tu puerta de enlace privada virtual a cualquiera que sea tu dispositivo VPN en tu centro de datos corporativo. Una vez que los tengas, puedes establecer una conexión de red privada virtual. Esta es una conexión cifrada que va a través de Internet. Obtienes la protección del cifrado, pero sigues usando Internet. Ahora de nuevo, se tiene una auditoría de seguridad y se quejan de que esta conexión está encriptada, pero sigue pasando por Internet. Según los lineamientos de seguridad, esta conexión debe ser privada. Ahora, hay otro servicio. Contamos con AWS Direct Connect. Esta es en realidad una conexión privada entre AWS y su centro de datos u oficina AWS Direct Connect es una conexión de alta velocidad y baja latencia que le permite acceder a servicios en la nube de AWS públicos y privados desde su infraestructura local, es decir, en las instalaciones. La conexión se habilita a través de líneas dedicadas, pasa por alto la Internet pública para ayudar a reducir la imprevisibilidad y la congestión de la red Conecte un extremo del cable a su enrutador y el otro extremo a un enrutador de conexión directa de AWS. Mediante esta conexión, puede crear interfaces virtuales que están conectadas directamente a Amazon. ubicación de conexión directa de AWS de Vpc proporciona acceso a AWS en la región con la que está asociado Esto es mediante una conexión privada entre su centro de datos y la ubicación de AWS Direct Connect, y desde allí, una conexión privada a AWS. Ahora, es más caro que tener una VPN. La clave para llevar es que la conexión directa es una conexión privada, lo que significa que obtienes esa experiencia de red consistente, mientras que una VPN es pública, y aunque está encriptada, es pública. Eso es todo para esta sesión. 32. Servicios informáticos en AWS: Hola y bienvenidos de nuevo. La computación es otra de las ofertas principales en computación en la nube. Y hay varios servicios de cómputos rentables y flexibles disponibles en AWS para diferentes requisitos. En esta lección, entenderemos qué es exactamente computación y cuáles son los diferentes servicios informáticos disponibles en AWS. Tomemos un ejemplo. Imagina que tienes el trabajo de tus sueños como arquitecto en una empresa de tecnología espacial, donde tu trabajo es trabajar el equipo de ciencia de datos y procesar los datos. Para darle algún sentido, el equipo de investigación de su empresa ha recopilado enormes cantidades de datos de imagen que podrían llevar al descubrimiento de agua en Marte. Ahora es trabajo de tu equipo procesar esos datos de imagen y llegar a los hallazgos. Pero cuando empezaste a procesar los datos, te diste cuenta de que no tienes ningún servidor gratuito para hacer el trabajo. ¿Qué significa no tener servidores gratuitos? Bueno, necesitamos computadoras poderosas para procesar los enormes datos, y en este caso, la potencia de procesamiento que necesitas para procesar los datos no está disponible. Esta potencia de procesamiento se conoce como computación o cualquier programa o aplicación que desee ejecutar. Necesitas algo de memoria para abrir el programa y algo de CPU para procesar los comandos que das dentro del programa. De ahí que la combinación de memoria y CPU es lo que aquí denominamos cómputos. También podría incluir otros recursos como almacenamiento en red, etcétera Dependiendo del tipo de aplicación que esté ejecutando, computación en la nube ha hecho que sea muy fácil obtener la potencia de cómputos cuando lo desee, Configúrelas en función de sus requerimientos y pague solo por lo que use. Aws tiene varios servicios informáticos para diferentes requisitos, pero es importante comprender qué recursos informáticos se adaptan mejor a comprender qué recursos informáticos se adaptan mejor su carga de trabajo y cuáles son diferentes opciones de cómputos disponibles en AWS. En primer lugar, entendamos qué es la computación de AWS. Aws ofrece un servicio de computación bajo demanda para ejecutar aplicaciones basadas en la nube. Se trata de aplicaciones que se pueden implementar en un servidor remoto y acceder a través de Internet. Aws proporciona recursos informáticos como instancias y contenedores. Las instancias no son más que máquinas virtuales. Aw también proporciona computación sin servidor para ejecutar aplicaciones donde no requiere configuración o configuración de infraestructura Cuando opta por una opción de computación sin servidor AWS, los recursos informáticos están disponibles bajo demanda y se pueden crear con solo un clic del mouse Solo pagarás por los recursos que utilices y solo por el tiempo que los estés usando. Los recursos de cómputos de Aws se clasifican ampliamente en tres categorías. Instancias, que son contenedores de máquinas virtuales, y computación sin servidor En este módulo, los discutiremos todos. Te ayudará a decidir cuál es el mejor servicio de cómputos para tu requerimiento. Si desea obtener más información sobre la computación de AWS, consulte el enlace proporcionado en la sección de recursos. El documento tiene diferentes ejemplos y escenarios de donde podrías usar diferentes servicios de cómputos. Ahora estamos al tanto de lo que es la computación y los servicios que están disponibles en AWS. Con eso, terminemos este video. 33. Máquina virtual: Hola y bienvenidos de nuevo. Un par de veces, en lo que va de esta capacitación, hemos utilizado el término máquinas virtuales. Espero que ya tengas una idea al respecto. Pero antes de profundizar en las cosas, entendamos las máquinas virtuales en detalle. ¿Qué es una máquina virtual? Una máquina virtual es un entorno virtual que funciona como una computadora dentro de una computadora. Suena complejo, ¿verdad? Vamos a desglosarlo. Básicamente. Una máquina virtual se conoce comúnmente como VM. No es diferente cualquier otro sistema físico como una computadora portátil o un teléfono inteligente. Cuenta con una CPU discos de memoria para almacenar tus archivos y una red para conectarte a Internet. Tu laptop y smartphone suenan reales porque son físicos, VM pueden considerarse como computadoras virtuales dentro de una computadora física Ahora debes estar pensando en cómo es posible tener una computadora virtual dentro de una computadora física. Digamos que tienes un portátil. Tiene sistema operativo Windows en él. Ahora tienes ganas de aprender Linux. Para eso, necesitas un sistema operativo Linux. ¿Qué harías? ¿Comprarías un nuevo portátil e instalarías el sistema operativo Linux? No. Una forma más simple y eficiente de hacerlo es que puedes usar la técnica de virtualización para virtualizar tu laptop existente e instalar el sistema operativo Linux en él Básicamente, puedes usar ambos sistemas operativos en una misma computadora portátil. Ahora bien, ¿cómo utilizamos las técnicas de virtualización para crear una máquina virtual? Y esta animación aquí es tu computadora física. Esta computadora física puede ser su computadora personal, un servidor remoto o un servidor. En un centro de datos de proveedores en la nube, utilizamos un software llamado Hypervisor, que también se conoce como Virtual Machine Manager En tu caso, puedes usar Oracle VM Virtual Box. El Hipervisor creará una versión virtual o basada en software de una computadora con cantidad deseada de memoria de CPU y almacenamiento La máquina virtual siempre toma prestada memoria de la CPU y del equipo host físico Eso significa que una parte de la CPU, la RAM y el almacenamiento de su computadora ahora funcionarán como una computadora independiente. Para entenderlo mejor, suponga que tiene una computadora física con ocho GB de RAM, dos CPU y un disco duro de 40 GB Puede utilizar una herramienta de virtualización para crear dos o más máquinas virtuales y distribuir memoria de CPU y el disco duro entre estas dos máquinas virtuales. Aquí tenemos dos máquinas virtuales, VM uno y VM dos. Cuentan con cuatro GB de RAM una CPU, y 20 GB de disco duro. Cada uno y más importante, dos sistemas operativos diferentes. Como puede ver, una máquina virtual actúa como una computadora real y tiene un sistema operativo diferente. A pesar de utilizar el mismo hardware, la máquina virtual está completamente aislada del resto del sistema. El software insider VM, no puede interactuar con la computadora host u otra máquina virtual en el mismo equipo físico. Las máquinas virtuales funcionan como computadoras individuales con sistemas operativos separados. Permanecen completamente independientes de otra máquina virtual y de la máquina host física. Como las VM son independientes entre sí, también son altamente portátiles Eso significa que puede mover instantáneamente una máquina virtual en un hipervisor a otro hipervisor en una máquina completamente diferente Las máquinas virtuales son flexibles y portátiles. Ofrecen muchos beneficios como el ahorro de costos. Puede ejecutar varias máquinas virtuales en un único host físico. Esto puede reducir drásticamente el costo de su infraestructura física, ya que tendrá que comprar menos computadoras físicas Agilidad y velocidad. Hacer girar una máquina virtual es una tarea relativamente fácil y rápida. Es mucho más sencillo que aprovisionar una máquina física completamente nueva para sus desarrolladores. Así es como la virtualización hace que el proceso de ejecutar escenarios de prueba de Dave sea mucho más rápido. A continuación se baja el tiempo de inactividad. Las máquinas virtuales son tan portátiles y fáciles de mover de una máquina a otra. Esto significa que son una gran solución para backup si las máquinas host caen inesperadamente. Las máquinas virtuales de escalabilidad le permiten escalar fácilmente sus aplicaciones ya que crear una máquina virtual es más fácil que configurar una máquina física Simplemente puede agregar servidores virtuales y distribuir la carga de trabajo en varias máquinas virtuales Así es como puedes aumentar la disponibilidad y el rendimiento de tus aplicaciones. Estos son todos los beneficios de las máquinas virtuales. 34. EC2 Elastic Compute Cloud: Hola y bienvenidos de nuevo. En esta lección, vamos a comenzar con el servicio de computación más común que AWS tiene para ofrecer. Se trata de la Elastic Compute Cloud, comúnmente conocida como EC two. Empecemos. Ec dos significa Elastic Compute Cloud. Proporciona una opción de computación escalable en la nube de Amazon. Pero, ¿qué es la capacidad de cómputo? Bueno, ya hemos aprendido que no es más que máquinas virtuales, y EC two es un servicio de cómputos en AWS. C dos es escalable. Eso significa que puede aumentar o disminuir el tamaño de una máquina virtual en función de sus requisitos. Si eso no funciona, también puedes crear máquinas virtuales adicionales. Mediante el uso de Amazon EC Two. Puede evitar por completo configurar el hardware para ejecutar su aplicación y puede desarrollar e implementar aplicaciones más rápido. Otro beneficio de usar un EC Two es que no es necesario invertir en hardware. Puede tener máquinas virtuales de la capacidad deseada a las que se puede acceder usando sus computadoras normales. Ec Two es una infraestructura IAAS como servicio porque usted alquila una máquina virtual de AWS, y AWS se encargará de la compra y mantenimiento del hardware Se puede obtener la capacidad deseada sin tener que preocuparse por el hardware. Está diseñado para facilitar la computación en la nube a escala web computación en la nube a escala web para que los desarrolladores entiendan esto. Volvamos a los tiempos en que la computación en la nube no estaba ahí para alojar una aplicación, había que configurar un centro de datos o alquilar un servidor físico. Eso es completamente posible para las grandes organizaciones. Pero piensa en empresas medianas, startups o incluso desarrolladores individuales como tú y yo, no pueden darse el lujo de obtener los centros de datos y el hardware. Pero después de la computación en la nube, se hizo significativamente más fácil para los desarrolladores ir y obtener todas las máquinas virtuales. Gracias a la computación en la nube, puedes usar Amazon C two para lanzar tantas o tan pocas máquinas virtuales como necesites. No hay limitación. Si quieres una máquina virtual, puedes obtener una. Si necesitas 1,000 máquinas virtuales, puedes obtener 1,000 máquinas virtuales. Amazon C. Two hace que sea más fácil escalar hacia arriba o hacia abajo las máquinas virtuales para manejar cargas inesperadas. No necesita pronosticar el tráfico, puede escalar y reducir las máquinas virtuales en función del tráfico y la popularidad de sus aplicaciones. Amazon C two tiene una función de autoescalado que entenderemos más adelante Podemos configurar el escalado automático para aumentar o disminuir el número de máquinas virtuales en función de la carga en su aplicación. Le proporciona un control completo de sus recursos informáticos y le permite ejecutar en el entorno informático probado de Amazon. Como ya sabemos, EC dos máquinas virtuales están ubicadas en el Amazon Data Center. Dado que la seguridad es muy importante para sus aplicaciones, AWS le brinda un control completo de estos servidores para que pueda asegurar su aplicación como desee. También hay otras formas de asegurar esos servidores que cubriremos en videos posteriores. Es compatible con Macos. Recientemente, Amazon Web Services también ha comenzado a admitir máquinas virtuales basadas en sistemas operativos Mac . Si necesita máquinas virtuales basadas en Mac OS, también puede obtenerlas en los estudiantes de AWS. Estos son algunos de los principales beneficios de Amazon EC dos. 35. Componente de Amazon EC2: Bienvenidos de nuevo a los alumnos. En el último video, entendimos la computación elástica nube C dos y sus beneficios. Seguiremos con la misma discusión y entenderemos los elementos de Amazon C dos. Pero antes de comenzar, recapitulemos la definición de EC dos Es una máquina virtual en Amazon Web Services, pero AWS no las llama máquinas virtuales. En cambio, utiliza algunos términos específicos para el EC 21 de estos términos es la instancia que no es más que una máquina virtual Amazon C two. Cuando lanzamos una máquina virtual en Amazon, decimos que lanzamos una instancia de C two en el futuro. En lugar de llamarlo una máquina virtual E dos, llamaremos instancia EC two. Otro elemento importante en Amazon C two es AM I. Significa Amazon Machine Image, que es básicamente una plantilla que contiene un sistema operativo y software adicional necesario para lanzar EC two instancias. Vamos a hacerlo sencillo. C dos instancia es una máquina virtual, ¿verdad? Y una máquina virtual, es similar a tu laptop. Supongamos que compró una computadora portátil nueva. Necesitas instalar el sistema operativo y algún software general como drivers, navegadores, reproductores multimedia, etcétera, ¿verdad Porque sin estos sistemas operativos y software, tu laptop es solo una caja. Lo mismo ocurre con EC dos instancias también. También es como tu computadora y por eso requiere un sistema operativo y software adicional para poder usarlo en AWS. Puedes hacerlo usando AMI. Una vez que inicie una instancia de EC two, querrá acceder a ella para que pueda instalar su aplicación o hacer alguna configuración. Para acceder a tu instancia de EC two, necesitas algunas credenciales y esas credenciales no son más que un pago clave que estamos discutiendo ahora mismo. Un pagador de claves consiste en una clave pública y una clave privada. Se trata de un conjunto de credenciales de seguridad que usas para probar tu identidad cuando te conectas a un Amazon EC. Dos instancias, cuando lanza una instancia, AWS solicita un keypayer Puedes elegir un Keypair existente o crear uno nuevo. Cuando creamos un Keypair, AWS le permite descargar la clave privada y mantendrá la clave pública. Cuando lanza una instancia EC two, de forma predeterminada, Amazon almacena la clave pública en su instancia Básicamente, usarás tu clave privada para iniciar sesión en tu instancia. Esto lo veremos cuando hagamos la demo de EC. Dos cosas importantes a tener en cuenta aquí es que dado que usa una clave privada para iniciar sesión en sus dos instancias EC, ahí que cualquiera que tenga esta clave privada también puede conectarse a sus instancias. Asegúrese de almacenar su clave privada en un lugar seguro. Otro de los elementos esenciales de EC dos es el Grupo de Seguridad. Este es otro servicio que puede utilizar para proteger aún más sus instancias. El grupo de seguridad le permite controlar quién puede acceder a sus dos instancias EC. Actúa como un firewall virtual para sus dos instancias EC que controla el tráfico entrante y saliente Entrante significa que puede configurar quién puede conectarse a su instancia EC dos desde fuera, y saliente significa con qué pueden conectarse sus dos instancias Otro elemento de EC dos son las etiquetas. Una etiqueta es una etiqueta de sus recursos de AWS. Puede ser asignado por usted o AWS. Y cada etiqueta consiste en una clave y un valor. Cuando crea una instancia EC two, puede etiquetar sus máquinas virtuales con diferentes nombres. Podría ser el entorno, los propietarios del centro de costos o el nombre de la aplicación. Estas etiquetas te ayudarán a identificar tus servidores cuando tengas miles de servidores ejecutándose en tu cuenta. Cada clave de etiqueta debe ser única para cada recurso. Y cada clave de etiqueta solo puede tener un valor. Puede usar etiquetas para organizar sus recursos en su cuenta y realizar un seguimiento sus costos de AWS mediante etiquetas de asignación de costos. Entendamos las etiquetas de asignación de costos. Algunas organizaciones solían tener un centro de costos cuando iba a ejecutar varias aplicaciones en una cuenta de AWS. Puede etiquetar las instancias EC two con centro de costo, clave y valor, lo que le ayudará a rastrear el costo por centro de costos Hasta ahora estos son los diferentes términos y características que necesita conocer y comprender con respecto a Amazon EC two. Concluyamos aquí esta lección. 36. Convención de nomenclatura de instancias en EC2: Hola alumnos. Bienvenido de nuevo. En la última sesión, entendimos los diferentes elementos de una instancia EC two como Amazon Machine Image o AMI security Group, key payer e tax Hay una característica más importante de la CE dos instancias que nos queda que necesitamos entender. Es el tipo de EC dos instancias. Pero antes de eso entenderemos la convención de nomenclatura de instancias C dos Te enseñará a leer los nombres de EC dos instancias. En este video, primero aprenderá la convención de nomenclatura de dos instancias de EC No encontrará una explicación clara respecto a través de Internet, ni siquiera en la documentación de AWS. Te solicito que prestes especial atención a este video ya que también te ayudará mucho durante tu viaje con la nube de AWS. Empecemos. El nombre de instancia de Aws ve como se muestra en la pantalla M 6.2 grande. Como puede ver, el nombre contiene caracteres y números. El nombre completo no tiene realmente un significado. Lo descompondremos y trataremos de darle sentido. Una cosa está clara, si armamos todo, este es un tipo de instancia. Si miras un tipo de instancia, será algo así. Ahora vamos a desglosarlo. El nombre de este tipo de instancia se compone de cuatro componentes, instancia, familia, generación de instancias, capacidad adicional y lado de instancia. Puedes pausar el video aquí o tomar una foto o una captura de pantalla del mismo para referencia futura. Vamos a repasarlos uno por uno. La primera letra del tipo de instancia representa la familia de instancias EC dos. Aquí, la M representa la familia de instancias. Esta instancia AWC dos pertenece a la familia de instancias informáticas de propósito general El tipo AWS tiene cuatro categorías principales de tipos de instancias. Estos son cómputos de uso general optimizados, memoria optimizada y almacenamiento optimizado. Los vamos a cubrir en detalle en la siguiente lección. También hay subclasificaciones dentro de estas familias de cuatro instancias, pero eso no es esencial en este nivel, las saltaremos a continuación. El número seis en M seis representa la generación de la instancia AWS C two. La última o la generación actual de dos instancias de AWS C siempre es mejor. También es más barato que la generación anterior. Es por eso que AW siempre recomienda usar el tipo de instancia de última generación. Puedes relacionarlo con un auto. La compañía siempre lanza nuevos modelos de autos con algunas nuevas características adicionales. Recomienda los últimos modelos a sus clientes ya que incluye nuevas características por un mejor precio. Entonces tenemos en la misma que representa la capacidad adicional de la EC dos instancias. Esta tabla tiene todas estas capacidades. Amd y Graviton dos son los dos procesos dentro de estas dos instancias EC Si el procesador también está en sus requisitos, también puede seleccionar una instancia C two basada en procesador. Aws también ofrece almacenamiento SSD NVME local, que se conecta directamente con EC two para obtener un mejor rendimiento de la red Por lo tanto, la alta red y capacidad extra son las dos capacidades de este tipo de instancia. El componente final y más importante de este tipo de instancia es el tamaño de instancia. Las dos x grandes de M 6.2 x grandes representan el tamaño de la instancia. Vamos a entender lo que significan las dos x grandes. Las dos x grandes denota la representación del tamaño de camisa de la instancia AWS C dos. Representa la cantidad de memoria de CPU, almacenamiento y rendimiento de red de una instancia de C two. Esta instancia que dos x grandes tendrá el doble de cantidad de memoria de CPU y recursos de almacenamiento en comparación con el tamaño base que es X grande. ¿Cómo funciona? Vamos a entender esto. Con el tamaño de instancia cada tamaño de instancia dos x grande, tendremos el doble de cantidad de CPU y memoria que el tamaño anterior. Eso es grande, 26x grande equivale a 162x Del mismo modo, 262 xlarge equivale a 154x grande. Ahora vamos a verlo desde la perspectiva de la capacidad. Si va a la documentación de AWS y navega al tipo de seis instancias, verá esta imagen. X large tiene el doble de CPU y la memoria en comparación con grande. El costo de R bajo demanda también es dos veces. Ahora debes estar pensando, debería ir por 12x instancia grande o dos x instancias grandes Para eso, veamos el precio y la capacidad de cada instancia. Como puede ver, no hay diferencia entre ellos. Ya sea que seleccione dos x grandes o 12x grandes, terminará obteniendo la misma capacidad por un costo igual Pero siempre es mejor usar un tamaño de instancia más pequeño en lugar de uno más grande a menos que tenga necesidades específicas. Hay demasiadas clasificaciones de postura de AWS, CE dos Cubriremos los esenciales en el siguiente video, aunque esto no está bien documentado en ningún lado, AWS C two tiene una excelente convención de nomenclatura Espero que este video te haya ayudado a entender esto, en caso de que tengas alguna confusión, recomendaré volver a verlo. Eso es todo por esta lección. 37. Tipos de instancias: Hola, alumnos. Bienvenido de nuevo. En la última lección, aprendimos la convención de nomenclatura de tipos de instancia Aprendió sobre EC a tamaño de instancia, generación familiar y capacidades adicionales. Todo esto te ayudará mientras decides el EC al tipo de instancia para tu aplicación. En este video, profundizaremos un poco más y entenderemos diferentes tipos de instancias de EC dos. Una vez que complete con éxito esta lección, podrá decidir qué tipo de instancia se adapta mejor a sus requisitos. Empecemos con un resumen rápido de lo que es el tipo de instancia EC two Es una combinación de almacenamiento de memoria de CPU y capacidad de red. Tener diferentes combinaciones ayuda a elegir la mezcla adecuada para sus aplicaciones. Cuando inicias, el tipo de instancia de C dos es uno de los elementos obligatorios que debes decidir pero por qué es tan importante. Entendamos con un ejemplo. Cuando compra una computadora portátil, primero define sus requisitos. Y en base a estos requisitos, selecciona una configuración para su computadora portátil, como memoria, almacenamiento, gráficos, etcétera Lo mismo va para la instancia CE dos también. Cuando lanza una instancia C two en Amazon, debe proporcionar almacenamiento de memoria de CPU y configuraciones de red para que sea fácil para usted. Aws tiene tipos de instancias con diferentes int en términos de memoria de CPU, almacenamiento y redes. Cada tipo de instancia tiene múltiples opciones de tamaño para diferentes cargas de trabajo Ya hemos cubierto el tamaño de la instancia. En la última lección, deberías lanzar tipos de instancias que mejor se adapten a tus aplicaciones. Ahora entiende lo que queremos decir con mejor ajuste aquí. Cada aplicación está diseñada de manera diferente y requieren una configuración de hardware específica. Algunos necesitan más memoria, otros necesitan más CPU y así sucesivamente. Por lo tanto, debe utilizar la capacidad informática adecuada para su aplicación. Es fácil seleccionar la mejor configuración para sus aplicaciones en AWS. Como Amazon, los tipos de instancias se agrupan en familias para satisfacer diferentes casos de uso, vamos a ver cuatro tipos básicos y esenciales de EC a instancia. Incluyen una instancia de propósito general, instancia optimizada para computación y una instancia optimizada para el almacenamiento. Empecemos con el tipo de instancia de propósito general. Proporciona un equilibrio entre la memoria informática y los recursos de red y se puede utilizar para una variedad de cargas de trabajo Como su nombre indica, este es el AWS más básico y todo más redondo, tipo EC a instancia, utilizamos instancias de propósito general donde no estamos seguros de si la aplicación necesita más CPU o memoria porque esto viene con un equilibrio de memoria, cómputos y redes Si más tarde nos enteramos de que esta aplicación está más optimizada para la memoria u optimizada para computación, entonces podemos optar por tipos específicos de instancias. Ahora echemos un vistazo a los mejores casos de uso de instancias de propósito general. Son adecuados para servidores web que almacenan en caché flotas y aplicaciones de data store distribuidas Como estas aplicaciones requieren un buen equilibrio de memoria, CPU y redes, también son adecuadas para aplicaciones de entorno de desarrollo y demostración. El siguiente tipo de instancia es instancia optimizada para cómputos. Son ideales para aplicaciones vinculadas a cómputos que se benefician de procesos de alto rendimiento. Este tipo de instancia está optimizado para CPU en comparación con otras potencias de cómputos como almacenamiento de memoria y redes. Por lo tanto, el tipo de instancia que tiene CPU más potentes entra dentro de esta categoría Hablemos de sus casos de uso. Esto es lo mejor para aplicaciones que necesitan alta potencia informática. Las instancias optimizadas para computación son adecuadas para medios de procesamiento por lotes, transcodificación, servidores de onda de alto rendimiento, computación de alto rendimiento, modelado científico, servidores de juegos dedicados, agregar motores de servidor, inferencia de aprendizaje automático y otras aplicaciones de computación intensiva Lo siguiente son las instancias optimizadas para la memoria. Están diseñados para ofrecer un rendimiento rápido para cargas de trabajo que requieren una gran memoria para procesar grandes conjuntos de datos. Estas instancias están optimizadas en la memoria aquí cuando vamos a ver los tipos de instancias en la categoría de memoria optimizada y la familia de memoria optimizada. Más memoria que almacenamiento, CPU y redes. En otras palabras, los tipos de instancia optimizados para memoria están optimizados para la memoria sobre otras características. Veamos sus casos de uso. Las instancias optimizadas para la memoria se utilizan en aplicaciones como bases de datos de código abierto, en caches de memoria y análisis de big data en tiempo real El siguiente son las instancias optimizadas para el almacenamiento. Las instancias optimizadas para almacenamiento están diseñadas para cargas de trabajo que requieren un alto acceso secuencial de lectura y escritura a conjuntos de datos masivos y almacenamiento local Están optimizados para entregar decenas de miles de operaciones de entrada y salida aleatorias de baja latencia por segundo a las aplicaciones. Este tipo de instancia está optimizado en el lado de la red de la instancia EC two. Admite más acciones de lectura y escritura en el disco. Cuando nuestra aplicación hace mucha lectura y escritura en la base de datos del disco o en la red, debemos usar un tipo de instancia optimizada para almacenamiento. Este tipo de instancia maximiza el número de transacciones procesadas por segundo o cargas de trabajo intensivas de input output y críticas para el negocio Transacciones por segundo significa el número de transacciones que la red puede procesar en un segundo. Si la instancia EC two es capaz de completar diez transacciones hacia y desde el almacenamiento sin demora, se puede decir que la instancia puede procesar un máximo de diez transacciones por segundo. Veamos sus casos de uso. La aplicación tiene conjuntos de datos de tamaño mediano que necesitan un alto rendimiento de cómputos y una alta impresión de red Estas incluyen bases de datos relacionales que incluyen bases de datos Mysql, Mariadb, Post Gray Sql y NOSQL, incluyendo Ke, DB, Ilab Este tipo de instancia también es ideal para cargas de trabajo que requieren un acceso muy rápido a conjuntos de datos de tamaño mediano en almacenamiento local, como motores de búsqueda y cargas de trabajo de análisis de datos Es tanta información. Déjame resumirlo, te ayudará a tomar la mejor decisión sobre el tipo de instancia Lo más importante es entender estas cuatro clasificaciones principales Una vez que entiendas estos, te servirá a tus casos de uso más comunes. Además, al seleccionar cualquier tipo de instancia para su aplicación, pregúntese si su aplicación hace trabajo pesado de memoria o si es un trabajo pesado de cómputos. ¿Necesita trabajo alto? ¿O es sólo el trabajo genérico que va a hacer? Una vez que se tiene una comprensión de la clasificación principal, la subclasificación puede venir de forma natural Al igual que en una instancia optimizada de memoria, es posible que necesite una memoria RAM superior o una memoria optimizada superior. fin, una vez que conozca el tipo de instancia, siempre debe elegir la instancia de menor tamaño para ejecutar la experimentación basada en el experimento y la prueba, decidir el tamaño real de la instancia como regla general. Elija siempre un tamaño de instancia más pequeño que ahorre dinero. Eso es todo por esta lección. 38. Lanza tu primera instancia de EC2: Hola alumnos. Bienvenido de nuevo. En este video, lanzaremos nuestra primera instancia de EC two a través de la consola de AWS. También veremos los diferentes pasos y características que ofrece AWS al lanzar las dos instancias de EC. Al final de este video, podrás lanzar EC two instancias a través de la consola de administración. Mira el video hasta el final y luego pruébalo tú mismo. Vamos a la consola de administración de AWS escriba EC two en la barra de búsqueda y hagamos clic en el resultado de búsqueda de EC two. Entra directamente al tablero EC Two. Como pueden ver, no tengo instancias en mi cuenta. Si hacemos clic en instancias aquí, te llevará a la página de instancias. Esta página contiene la lista de todas las instancias en esta región. Como no tenemos ninguna instancia, la lista está vacía. Lanzemos nuestra primera instancia EC two. En primer lugar, asegúrate de elegir una región que esté cerca de ti o de tu cliente. Ya que estoy en la India, seleccionaré la región de Mumbai. Hagamos clic en Launch Instancias. Primero, tenemos que elegir una AMI llamada Amazon Machine Image. Aquí tenemos una lista de AMI para elegir. Cuenta con Amazon, Linux, dos, Max OS, Red Hat, y muchos más. Si miras el tablero de tu izquierda, verás otras opciones. Vayamos a mis AMI aquí, verás la lista de tus propias AMI hechas a medida. A partir de ahora, no tenemos ninguna AMI creada en nuestra cuenta. No podemos ver ninguna AMI listada aquí. La siguiente opción es AWS Marketplace, donde tenemos miles de AMI creadas por proveedores externos. Después tenemos las AMI comunitarias, las cuales son desarrolladas por AWS y sus usuarios. Son gratuitos para que todos los usen. Tenga en cuenta que siempre debe tener cuidado al usar AMI creadas por personas que no sean AWS o proveedores de AWS de confianza. Podría haber agujeros de seguridad en ellos. También hay un filtro para mostrar solo llantas libres. Esto nos mostrará solo las AMI elegibles para llantas libres si la verificamos para el propósito de esta demostración, crearemos un Linux a instancia con Amazon Linux dos. Ami. Esta AMI es elegible para llantas gratis, lo que significa que podremos lanzar la instancia sin gastar dinero en esto. Selecciona Amazon, Linux dos , nos llevará al paso dos. Elija un tipo de instancia. Ahora como puedes ver, tenemos muchos tipos de instancias disponibles. Simplemente desplácese hacia abajo y verá una larga lista de instancias. Tenemos la opción de filtrar estas instancias en función de su familia y generación. Contamos con variedades de instancias basadas en diferentes requerimientos. La lista incluye instancias con RAM optimizada, CPU optimizada, GPU optimizada, etc. En esta demo, usaremos Two point Micro porque no tenemos ningún requisito especial y también queremos quedarnos en la llanta libre. Como puedes ver, el Micro de dos puntos es la única instancia disponible de forma gratuita. En algunas regiones también verás Micro de tres puntos. Si solo estás practicando, asegúrate de elegir siempre el tipo de instancia elegible para llantas gratis para evitar cualquier código. Ahora podemos seguir adelante para revisar y lanzar nuestra instancia de inmediato con solo hacer clic aquí. Pero antes de hacerlo, vayamos a configurar los detalles de la instancia. Esto abrirá un montón de opciones. Exploremos algunos de los parámetros importantes uno por uno. La primera opción es el número de instancias. Si necesita más de una instancia, puede cambiarla y crear varias instancias de C dos con la misma configuración. También podemos lanzar una instancia de C two en el lanzamiento en el grupo Autoscaling haciendo clic el enlace Iniciar en grupo de Autoscaling Por ahora, apegémonos a una instancia. Esto es algo que cubriremos en el siguiente módulo. A continuación tenemos la opción de red para elegir nuestras VPC's. Escojamos la VPC de Pat Cup que creamos en el laboratorio anterior Seleccione la subred donde queremos lanzar la instancia. Como queremos que nuestra instancia sea accesible desde Internet, debemos elegir una subred pública La siguiente opción nos pregunta si queremos que AWS asigne una IP pública a esta instancia. Dejemos esto habilitado por ahora. El siguiente parámetro importante es el rol. Rol se utiliza para dar permisos cuanto a quién puede acceder a esta instancia de EC dos. Seleccionemos el rol que creamos en nuestro primer laboratorio. En caso de que desee crear un nuevo rol, puede navegar a IAM haciendo clic en el enlace Crear nuevo rol de IAM, y luego crear un rol y luego crear un Haga clic en Siguiente para ir a la página siguiente, Agregar Almacenamiento. Como puede ver, ya tenemos un volumen de EBS seleccionado para nosotros. Este es el volumen raíz que contiene el sistema operativo y otro software. Para esta instancia, agreguemos un nuevo almacenamiento a nuestra instancia. Haga clic en Agregar un nuevo Volumen, especifique los parámetros de nuestro volumen. Debajo de la columna del dispositivo, podemos ver la ruta SDB Es el camino donde se adjuntará nuestro volumen. Dejémoslo por defecto por ahora y sigamos adelante. En la opción snapshot, podemos elegir crear un nuevo EBS partir de una instantánea que creamos antes Como no tenemos tales requisitos, lo dejaremos vacío por ahora. A continuación está el lado del volumen. Cambiemos nuestro volumen a diez GBS. La siguiente columna es el volumen. Tenemos todos los SSD, HDD y almacenamiento magnético para elegir Si miramos el tipo de volumen para el volumen raíz, verá que tenemos opciones menores aquí. Esto se debe a que solo los SSD pueden ser un volumen raíz. Para una instancia EC two, no tenemos la opción HDD para el volumen raíz. Volviendo a nuestro nuevo volumen, dejemos esto como GP dos, que es el SSD de propósito general. La siguiente opción es IOPS. Como puede ver, no tenemos opción de cambiar esto. Volvamos y cambiemos nuestro tipo de volumen. Si elegimos IO 102 o GP tres, tenemos la opción de proporcionar IOPS Esto se debe a que las IOP son fijas para GP dos, volumen a tres IOPS por GB. Entendamos esto. Si seleccionamos GP dos, nuevamente, podrás ver las IOPS 100, que son más de tres IOPS por GB Dado que nuestro tamaño de volumen es de diez GB, tres por diez significa que solo deberíamos tener 30 IOP Esto se debe a que tenemos un mínimo de 100 IOP para GP dos. Si cambiamos el lado del volumen a, digamos, 100 GBS, se puede ver que tenemos 300 IOPS Ahora cambiemos el lado a diez y escojamos el tipo de volumen GP dos. La siguiente opción es el rendimiento, que nos dirá el rendimiento de nuestro volumen. Voy a cubrir el rendimiento en la pantalla de EBS. Podemos cambiar esto por solo un tipo de volumen, el tipo GP de tres volúmenes. La siguiente opción es la casilla de verificación eliminar al finalizar. Esta es la opción donde especificamos qué hacer con el volumen de EBS después de que se termine la instancia EC two Si hemos verificado la eliminación al finalizar, el volumen también se eliminará cuando se termine nuestra instancia. Recuerde que si desea que sus datos permanezcan incluso después de la terminación en instancia, no olvide desmarcar esto para esta demostración Dejémoslo por defecto, lo que significa que cuando se termina EC two, también se eliminará el volumen raíz. La siguiente página es agregar etiquetas. Saltemos esto por ahora y pasemos a la página siguiente. Configurar grupo de seguridad. La primera opción es crear un nuevo grupo de seguridad o usar uno existente. Como no hemos creado ningún grupo de seguridad en nuestra cuenta, vamos a crear uno aquí. Puede cambiar el nombre y la descripción del grupo de seguridad como desee. La siguiente y la opción más importante es configurar reglas de grupo de seguridad. Como puede ver, AWS ya ha agregado una S predeterminada que es un grupo de seguridad de shell seguro. Este grupo nos permite SSH en nuestro EC dos instancias. Pero, ¿por qué todavía tenemos una advertencia? Eso es porque si ves la columna de origen, esta regla SH está abierta a todas las direcciones IP, esto es un problema. Cambiemos este valor a algo así como 123.123 0.123 0.123 Y Como aquí no tenemos sistemas de misión crítica, volvamos a cambiarlo a 0.0 0.0 0.0 por cero. No es la mejor práctica permitir SSH desde cualquier IP en el mundo Si tiene dos instancias EC de producción, asegúrese de cambiar este valor a su propio rango de direcciones IP. Añadamos una nueva regla para permitir conexiones HTTP a nuestra instancia. Como puede ver, al elegir HTTP se fijaron nuestros protocolos al TCP y al puerto 28, que es el protocolo y puerto HTTP predeterminado. Queremos que todos puedan hacer conexiones HTTP a esta instancia. Dejaremos la fuente como predeterminada aquí. La última columna es para agregar una descripción a la regla. No agreguemos ninguna regla aquí. Ahora que hemos configurado el grupo de seguridad de la instancia C two, pasemos a revisar y lanzar. Puedes ver todos los parámetros para nuestra instancia de C two. Aquí, haz clic en Launch. Ahora necesitamos especificar un Keypair, ya que no tenemos ningún Keypair existente para nuestra cuenta, Vamos a crear uno elija crear un nuevo Keypair y agregar un nombre Keypair para nuestro ejemplo Nombraremos el Keypair empacado. Da clic en el guardián de descargas, verás que se descarga un archivo Pm. Es importante mantener este archivo seguro ya que esto será necesario para acceder a nuestra instancia EC two. Además, recuerda que no se puede volver a descargar. Haga clic en Launch Instance, y eso nos llevará a la página final. Si hace clic en la instancia View, verá que AWS está creando una instancia EC two para usted. Toda la ventaja de la Nube es que podría lanzar 100 instancias como esta en tan solo unos clics. La computación en la nube es muy flexible y le proporciona un acceso rápido a la potencia informática siempre que la necesite. Como puedes ver, la instancia se está ejecutando. Ahora si haces clic en la casilla de verificación, encontrarás todos los detalles de la instancia, los grupos de seguridad IP pública, verificaciones de estado y así sucesivamente. Siempre que necesites algún detalle sobre EC two instancias, aquí es donde las buscarás. Si haces clic en las Opciones de Volúmenes desde el panel izquierdo, también puedes ver los dos volúmenes de EBS que creamos, Un volumen raíz de ocho GB y un volumen extra de diez GB que creamos por separado con los han llegado al final de este lab En el siguiente lab, instalaremos HTTPD en nuestra instancia EC two y veremos un pequeño sitio web de HTTPD Estudiantes, así lanzamos EC dos instancias. En la siguiente lección, continuaremos con esta discusión y veremos cómo podemos evaluar H en nuestra instancia y así sucesivamente. Gracias. 39. Instancia de SSH EC2, instalación de Httpd: En el video anterior, creamos nuestra primera instancia EC two y miramos múltiples parámetros y opciones mientras creamos la instancia. En este video, vamos a SSH en la instancia C dos usando el sistema operativo Linux o Mac, instalaremos el servicio STTPD e iniciaremos una aplicación de prueba en También veremos cómo dar por terminada la instancia para evitar costos inesperados. Si te estás preguntando qué es SSH, entonces SSH es una forma de controlar una máquina remota usando la línea de comandos Al usar SSH, podemos iniciar sesión en la instancia EC two y realizar cualquier tipo de operaciones como lo hacemos en nuestras computadoras portátiles Empecemos por ir a la consola de AWS. Ahora, vamos a escribir EC dos en la barra de búsqueda y hacer clic en EC dos para ir directamente al tablero de EC dos. Como puede ver, tenemos nuestra instancia en estado de ejecución. Si recuerdas el laboratorio anterior, te dije que conservaras el archivo Pm que se descargó mientras creabas la instancia. No es que sin el archivo Pm no podamos SSH en la instancia En caso de que haya perdido o eliminado el archivo, deberá recrear la instancia con un nuevo pagador de claves Lo siguiente importante que debes asegurarte es que tu grupo de seguridad tenga reglas para permitir SSH en el puerto 22 y STTP en el puerto 80 Encontremos la IP pública de esta instancia. Haga clic en la casilla de verificación aquí, ahora podrá ver todos los detalles sobre la instancia EC two seleccionada Aquí está mi IP pública. Vamos a copiar este valor. Ahora sigamos adelante y SSH en nuestra instancia. Para ello es necesario abrir un terminal y teclear el comando S C dos como usuario en la dirección IP ate. C dos usuario es el nombre de usuario predeterminado para todos los Amazon Linux, AMI. Ejecutemos este comando. Como puede ver, el comando falló con permiso denegado. Esto se espera ya que no queremos que nadie pueda acceder a nuestra instancia de EC two solo desde una IP pública. Aquí es donde usaremos el archivo Pm que descargamos. Iremos a la carpeta donde he guardado el archivo es. Como pueden ver, tengo mi archivo pm en esta carpeta. Ahora ejecutaremos el mismo comando, pero también agregaremos el archivo clave. Ahora el comando es C dos usuario en la dirección IP. Ahora estamos haciendo lo mismo que antes, pero aquí también le estamos diciendo a AWS que tenemos un archivo clave para entrar en la instancia. Haga clic en Entrar. Ahora obtenemos otro error de permiso denegado. Esta es una etapa importante y una pregunta popular en los exámenes de AWS. ¿Por qué se nos deniega este acceso? Dice advertencia Archivo de clave privada desprotegida. Cuando descargamos por primera vez el archivo de AWS a una instancia de Linux, tiene los permisos 0644 Como puedes ver aquí, estos permisos son demasiado abiertos para un archivo clave ya que los permisos son inapropiados. Aws no permite SSH en la máquina. El arreglo que puedes ejecutar es mod 0400 embalado. Pagar. Esto cambiará los permisos del archivo, 0644-0400 que es el Ejecutemos el mismo comando. Nuevamente, como pueden ver, el comando ahora se ejecutó con éxito y estamos en la instancia de EC dos. Lo primero que debemos hacer cuando iniciamos sesión en la instancia de EC two es ejecutar el comando pseudo, um, update Este comando actualizará cualquier paquete desactualizado en la instancia, si hay alguno para instalar STTPD, ejecute el comando pseudo Ahora tenemos STTPD instalado en nuestro EC a máquina, pero también necesitamos iniciar el servicio STTTPD Para iniciar el servicio STTPD, necesitamos ejecutar otro comando, pseudo Iniciar STTPD. Este comando no tiene salidas. Comprobemos el estado de STT PD ejecutando pseudo sistema CTL Como puedes ver, tenemos un proceso en ejecución. Pasemos ahora al tablero EC two y seleccionemos la instancia EC two. Necesitamos copiar la dirección IP pública y pegarla en nuestro navegador. Ahora puede ver la aplicación STTPD predeterminada implementada en su instancia EC two Terminemos ahora la instancia de dos CE. Esto se puede hacer haciendo clic en la instancia. Vaya a Acentos, haga clic en Administrar estado de instancia y termine la instancia. Esto pondrá fin a su instancia EC two. Si recuerdas, adjuntamos un volumen de EBS a nuestra instancia en el laboratorio anterior que tenía el indicador de eliminación en terminación sin forma Esto significa que a pesar nuestra instancia está siendo terminada, una de las instancias de EBS permanecerá Echemos un vistazo en el tablero de Volúmenes. Se puede ver tanto la raíz como el volumen adicional. Si actualizas en algún tiempo, el volumen raíz, que era de ocho GB, desaparece de la lista, pero aún tenemos el volumen de diez GB en el tablero. Sigamos adelante y eliminemos también el volumen de EBS. Comprobemos ahora al grupo de seguridad. Como puedes ver, ni siquiera el grupo de seguridad que creamos tampoco ha sido eliminado. No lo eliminemos. Los grupos de seguridad son gratuitos. No hay daño en tener un grupo de seguridad a mano para nuestros próximos laboratorios. De igual manera, el Keypair empaquetado no ha sido eliminado y puedes guardarlo en tu cuenta sin ningún cargo En esta sesión, pudimos evaluar con éxito H en una instancia EC two install STTPD, y acceder a ella desde un navegador Eso es todo para esta sesión. 40. Creación de una instancia de Windows EC2: En los dos últimos videos, hemos lanzado Linux C two instance instalado STTPD y accedido a él desde nuestro navegador web En este video, te guiaremos por los pasos para lanzar una instancia de Windows C two y cómo acceder a ella. Esto va a ser bastante similar a la instancia de Linux C two, manos en demo, solo un par de configuraciones serán diferentes. Empecemos. Vamos a la consola de administración de AWS tipo C dos en la barra de búsqueda y hagamos clic en el resultado de búsqueda de EC dos para ir directamente al tablero de EC dos. Como siempre, es importante asegurarse elegir una región cercana a usted o a su cliente. Seleccionaré la región de Mumbai. Hagamos clic en Launch Instancias. Primero, tenemos que elegir una AMI llamada Amazon Machine Image. En esta ocasión vamos a seleccionar AMI de Windows. Vamos a escribir Windows en la opción Buscar y presionar Enter. Podemos ver AMI de Windows aquí, y esta AMI es elegible para llantas gratis, que significa que podremos lanzarla sin gastar dinero en esto. Seleccionemos esto y tomará el paso dos. Elija un tipo de instancia. La AMI es solo la diferencia entre lanzamiento de instancias EC dos basadas en Linux y Windows. El resto de la configuración será la misma o puedes cambiar otras cosas si quieres. Ahora como puedes ver tenemos muchos tipos de instancias disponibles. Nuevamente, usaremos micro de dos puntos porque no tenemos ningún requisito especial y también queremos quedarnos en la llanta libre. Hagamos clic en Configurar detalles de instancia. Como sabe aquí, le proporcionaremos todas las configuraciones relacionadas con las instancias. Vamos con la configuración predeterminada y solo comprobemos de nuevo si la IP pública asignada automática está habilitada. Como necesitamos IP pública para acceder a la instancia de EC dos, da clic en Siguiente para ir a la página siguiente, Agregar Almacenamiento. Como puede ver, ya tenemos un volumen de EBS seleccionado para nosotros. Este es el volumen raíz que contiene el sistema operativo para esta instancia. La siguiente página es Agregar etiquetas. Saltemos esto por ahora y pasemos a la página siguiente. Configurar Grupo de Seguridad. Cambiemos el nombre y la descripción del grupo de seguridad como quieras. Verá que tenemos el tipo RDS en lugar del rango de puertos SSH es 3398 en lugar Esto se debe a que Linux y Windows utilizan tecnología diferente para establecer una conexión remota. No vamos a tener que hacer nada más aquí, pasemos a revisar y lanzar. Puedes ver todos los parámetros para nuestra instancia EC two. Aquí, haz clic en Launch. Ahora necesitamos especificar un par de claves. Voy a usar la misma clave que creé la última vez. Eso voy a aceptar, tengo la llave. Haga clic en Launch Instance, y eso nos llevará a la página final. Si hace clic en la instancia, verá que AWS está creando un EC a instancia para usted. El estado de instancia está pendiente, lo que significa que la instancia está creando. Tomará un par de minutos cambiar de estado a correr. Como puedes ver, la instancia se está ejecutando ahora y si haces clic en la casilla de verificación, encontrarás todos los detalles de la instancia, los grupos de seguridad IP pública, verificaciones de estado, etc. Siempre que necesites algún detalle sobre EC two instancias, aquí es donde las buscarás. Seleccionemos la instancia EC dos. Aquí en la parte superior haces clic en Conectar. Ahora aquí tenemos tres opciones para conectar con esta instancia EC dos. Seleccionaré la segunda pestaña, cliente RDP. Aquí puedes descargar el cliente RDS que usaremos para RDS a la instancia Ahora haga clic en Obtener contraseña. O los copia y pega aquí el contenido clave o lo subes haciendo clic en el navegador. Voy a subir y hacer clic en Descript password. Ahora bien, esta es la contraseña que usaré para conectarme a la instancia de C dos. Copia la contraseña desde aquí. Ahora vamos a abrir el cliente que descargó en función su computadora portátil o sistema operativo de computadora. Tendrá una interfaz diferente. Estoy usando una Mac. Voy a publicar la contraseña aquí. Ya ha seleccionado un usuario para mí y continuará. Vuelvo a hacer clic en Continuar. Ahora aquí estoy en mi EC dos máquinas Windows. Eso es más o menos lo que haces para lanzar una instancia de Windows. Con esto, hemos llegado al final de este laboratorio. Eso es todo para esta sesión. 41. Servicio de contenedores elásticos de ECS: Hola, alumnos. Bienvenido de nuevo. En este video, conoceremos uno de los servicios de cómputos de AWS, que es Elastic Container Service, también conocido como ECS Entenderemos qué es ECS, sus tipos y lo más importante, sus casos de uso. Empecemos. Antes de entender el servicio de contenedores elásticos, comprendamos rápidamente qué es un contenedor. Porque ECS se desarrolla en tecnología de contenedores. Cuando desarrollamos aplicaciones, funcionan en nuestra computadora. Pero se rompen en cuanto trasladamos estas aplicaciones a otra máquina. Esto puede deberse a múltiples razones. Puede ser el sistema operativo diferente, una versión diferente de la dependencia, etcétera ¿Cómo resolvemos este problema? Bueno, los contenedores son la solución a este problema. Los contenedores de aplicaciones son unidades de soporte que contienen código de aplicación y dependencias, configuración, redes y, a veces, incluso una parte del sistema operativo Esencialmente, todo el software requerido para ejecutar su aplicación se coloca dentro de un contenedor. Los contenedores le permiten ejecutar sus aplicaciones en cualquier máquina. Puedes estar seguro de que si funciona en un solo sistema, funcionará en todos los sistemas. Docker es la plataforma de software más utilizada que permite a sus usuarios crear aplicaciones y contenedores Puede instalar Docker en su máquina y hacer un contenedor para cualquier aplicación No necesitamos discutir a detalle Docker en este momento. Sigamos adelante y entendamos qué es ECS. Amazon ECS es un servicio de orquestación de contenedores completamente administrado que le facilita la implementación, administración y escala de aplicaciones en contenedores Significa que ECS facilita el uso y la administración de contenedores Docker Cuando usa ECS, no necesita instalar, operar o escalar sus contenedores Ecs se encarga de todas estas tareas por ti. Se integra profundamente con el resto de la plataforma AW para proporcionar una solución segura y fácil de usar para ejecutar cargas de trabajo de contenedores en la nube Para entender ECS, debe conocer algunos términos que se utilizan con frecuencia en la definición de tareas de ECS La definición de tarea es un script de Jason que contiene múltiples parámetros para ejecutar su aplicación. En palabras simples, la definición de tarea le dice a ECS cómo ejecutar un contenedor Por ejemplo, puede definir exactamente qué cantidad de RAM y CPU necesitará un contenedor o en qué puerto EC debería comenzar su aplicación. Ecs se asegurará entonces de que se cumplan todos sus requisitos cuando ECS ejecute un contenedor Según la definición de su tarea, se conoce como función de tarea. Sus contenedores pueden ejecutar múltiples operaciones en AWS. Por ejemplo, un contenedor podría necesitar leer mensajes de un SQSQ o interactuar con S three o cualquier otro servicio de AWS Por lo tanto, es necesario dar permiso para realizar sus tareas. Esto se hace usando el rol de tarea. Un rol de tarea es un rol de AWS IAM que se define en la definición de tarea Esta función se utiliza para proporcionar acceso de AWS a las tareas de ECS. Ahora veamos cómo se ve todo esto en ECS. Necesita un clúster ECS para ejecutar su aplicación contenedora Este clúster ECS se compone de dos o más instancias EC dos llamadas instancias de contenedor Luego tenemos servicios que abarcan estas dos instancias disponibles. Ahí es donde ECS crea un contenedor de tareas o Docker. Una de las primeras cosas a hacer al usar ECS es pro visión y mantener la infraestructura Ecs luego se encarga de iniciar y detener los contenedores por usted Puede hacer esto de dos maneras mediante el uso tipos de lanzamiento ECS que están lejos de obtener el tipo de lanzamiento y el tipo de lanzamiento EC two En el tipo de lanzamiento C dos, configuramos e implementamos instancias de EC dos en su clúster para ejecutar sus contenedores. Ecs administra los contenedores en estas dos instancias EC. Para usar el tipo de lanzamiento EC two en ECS, debe crear instancias EC two manualmente o usar grupos de escalado automático Tipo de lanzamiento Farget, esta es una opción de pago por uso sin servidor. Puede ejecutar contenedores sin necesidad de administrar su infraestructura. Podemos usar el tipo de lanzamiento Farget y olvidarnos de crear EC two Le decimos a ECS el número de contenedores a ejecutar y cuánto Ram y CPU debe tener un contenedor Ecs Farget asegura que siempre tengamos los recursos suficientes para lanzar contenedores Eso es todo para esta sesión. 42. Beanstalk Elastic de AWS: Hola, alumnos. Bienvenida de nuevo. En este video, conoceremos uno de los servicios de cómputos de AWS, el Elastic Beanstock Cubriré qué es Elastic Beanstock, sus características y lo más importante, sus aplicaciones . Empecemos. Aws es un líder en computación en la nube con cerca de 200 servicios. Es por eso que uno debe conocer la mayoría de los servicios. Para implementar aplicaciones en AWS y administrarlas de manera eficiente. Primero hay que conocer múltiples servicios de AWS y cómo usarlos de manera rentable. Esto está bien cuando tienes varias aplicaciones o una aplicación grande. Pero, ¿y si solo tienes una aplicación web? Pasar días aprendiendo AWS solo para implementar una aplicación web no es un enfoque muy eficiente. Incluso después de aprender AWS, tiene que pasar por el esfuerzo de mantener su infraestructura en AWS. Como desarrollador, no quiere preocuparse por la escalabilidad de la infraestructura, configuración de conexiones, bases de datos y más Desea implementar y descansar rápidamente las aplicaciones. Este es el problema que Elastic Beanstock resuelve AWS. Elastic Beanstock es un servicio fácil de usar para implementar y escalar aplicaciones web También se le conoce como B. trata de una plataforma como un servicio ofrecido por AWS. Para usar elastic beanstock, crea una aplicación, carga una versión de la aplicación en forma de un paquete fuente de aplicación, por ejemplo, un archivo Java a elastic beanstock y, a continuación, se proporciona información sobre la aplicación Elastic Beanstock lanza automáticamente una invonación y crea y configura los recursos de AWS necesarios para Después de que se inicie su participación, puede administrar su entorno e implementar nuevas versiones de aplicaciones. Después de crear e implementar su aplicación, la información sobre la aplicación, incluidas las métricas, los eventos y el estado del entorno, está disponible a través de las API de consola de Elastic Beanstock o las interfaces de línea de comandos, incluida la CLI unificada de AWS Como desarrollador, si usa EB, puede implementar aplicaciones sin aprovisionar la infraestructura subyacente. Aws se asegurará de que su infraestructura esté lista y esté altamente disponible. Internamente, EB Re utiliza todos los componentes que hemos visto antes como RDS, balanceadores de carga, EC dos para ejecutar aplicaciones, pero puede usar EB sin ningún otro conocimiento de estos componentes internos Es un servicio gratuito por sí solo, pero se paga por la infraestructura subyacente aprovisionada mediante el uso de frijol Ahora echemos un vistazo a cómo funciona Elastic Beanstock en AWS Tenemos una cuenta de AWS y VPC dentro de ella. Aquí crearemos un ambiente elástico de Beanstock. Como sabemos, Beanstock creará toda la infraestructura subyacente como EC, dos instancias, balances de carga, bases de datos, grupo de seguridad, etcétera. Como desarrollador, solo te preocupas por tu código. Quieren asegurarse de dedicar su tiempo a escribir un gran código, probarlo y tener toda esa infraestructura subyacente administrada para ellos. En este caso, tenemos un desarrollador que tiene un archivo war con su código. Realmente no necesita ser un archivo de guerra. También podría ser código postal o Github. Puede implementar este archivo de guerra usando la consola de administración de EB o EVCLI Beanstock luego implementará la aplicación y hará el resto de la configuración, como el equilibrio de carga elástico, el grupo de escalado automático, las instancias e incluso una base de datos, eso es Ahora el escalado de aplicaciones, la actualización del sistema operativo, los parches, las métricas de registro y todo se encarga de Elastic Beanstock Como desarrollador, puedes enfocarte en tu aplicación y en las características de tu negocio. Ahora echemos un vistazo a las características de Elastic Beanstock. Admite diferentes lenguajes de programación como Java.net PHP, Node JS, Python, Ruby, Go y Docker Se integra con Amazon VPC y lanza recursos de AWS como EC two instancias en la VPC Se integra con la administración de identidades y accesos de AWS y le ayuda a controlar de forma segura el acceso a sus recursos de AWS. También puede integrar cloudfront. Cloudfront se puede usar para distribuir el contenido en S three después de crear e implementar un material de frijol elástico Admite la ejecución de instancias RDS en el entorno de frijol elástico, que es ideal para el desarrollo Elastic Beanstock es una excelente opción para implementar su aplicación en la nube de AWS en cuestión de minutos No necesitas ninguna experiencia y conocimiento de computación en la nube para comenzar con Elastic Beanstock Usted crea entornos de aplicaciones EV y especifica algunos parámetros y ya está. Eso es todo por este video. 43. Informática sin servidores: Hola alumnos. Bienvenida de nuevo. En este video, entenderemos el concepto de servidor menos y por qué es más popular en la computación en la nube. Empecemos. En la mayoría de los servicios que hemos visto hasta ahora, el proceso de desarrollo e implementación ha sido el mismo. Desarrolle su aplicación, asigne infraestructura y luego implemente y ejecute la aplicación en esta infraestructura asignada. Así es como debería ser. Siempre necesitas un servidor subyacente para ejecutar el código de tu aplicación. Siempre ha habido la necesidad de aprovisionar y mantener nuestra infraestructura. Aquí es donde entra en escena el serverless. Serverless ha sido la palabra clave. En el mundo de la computación en la nube, muchas aplicaciones siguen la arquitectura sin servidor El término proviene de la idea que la infraestructura utilizada para ejecutar sus aplicaciones ya no necesita ser aprovisionada o mantenida por usted o su equipo Server less también puede ser un chump confuso, porque en arquitecturas sin servidor, No significa que su aplicación no tenga ningún servidor subyacente. Es solo que no hay necesidad preocuparse por administrar el servidor. Si eres un usuario final, bien podría no existir porque nunca tienes que preocuparte por los servidores, ahí el término serverless Pero hay un servidor y es aprovisionamiento y mantenimiento totalmente atendidos por el proveedor. Si lo ponemos en la terminología de AWS, ya no necesita crear una instancia fácil y configurar y mantener un sistema operativo para su aplicación. Eso significa que delegamos toda esa responsabilidad de administrar el servidor subyacente y todo está cuidado. El servidor puede escalar automáticamente y cobrarle de acuerdo a su uso. Los servicios sin servidor se han vuelto extremadamente populares entre muchas aplicaciones modernas en la nube. Ahora veamos los beneficios de serverless. Con serverless, no hay instancias que administrar. No es necesario aprovisionar ningún hardware. No hay gestión de sistemas operativos ni software. El aprovisionamiento de capacidad y los parches se manejan automáticamente por usted También puede ser muy económico ejecutar servidores menos servicios. Solo se te cobra por lo que usas. El código solo se ejecuta cuando el servidor necesita funciones back-end menos servidor de aplicaciones menos escala automática y elásticamente También cuenta con construido en alta disponibilidad. Simplemente implementa el código como desarrollador y se escala automáticamente según sea necesario. Supongamos que una función necesita ser ejecutada en varias instancias. En ese caso, los servidores comenzarán a ejecutarse y terminarán según sea necesario, a menudo usando contenedores. Como resultado, una aplicación sin servidor manejará un número inusualmente alto de Pero en una aplicación estructurada tradicional con una cantidad limitada de espacio de servidor, se ve abrumada cuando hay un aumento repentino en el uso Eso es todo por este video. 44. AWS Lambda: Hola, alumnos. Bienvenido de nuevo. En este video, entenderemos AWS Lambda. Empecemos. Lambda es un servidor menos servicio que le permite ejecutar código sin aprovisionar ni administrar servidores. A diferencia de dos instancias donde nuestra aplicación necesita estar funcionando continuamente, AWS Lambda nos permite escribir funciones que se pueden ejecutar bajo demanda. Las funciones de Aws Lambda pueden ser activadas por eventos dentro o fuera de la cuenta de AWS, y no tienen que seguir ejecutándose. Por ejemplo, puede escribir una función para realizar una tarea de procesamiento de archivos. Y se activará cuando se carguen datos en el servicio S three. Cada vez que se carga un archivo a S three, ahora tiene una función que se ejecutará y procesará automáticamente este archivo. O puede tener una función lambda que obtenga valores de una base de datos para su aplicación front-end Hay múltiples formas de usar las funciones lambda. Se puede utilizar para cualquier cosa, desde ejecutar pequeñas tareas individuales hasta reemplazar aplicaciones completas de backend. También debe tener en cuenta que las funciones lambda de AWS solo están pensadas para ejecuciones cortas. Solo puedes ejecutar código en Lambda durante un máximo de 15 minutos, lo que es una cantidad de tiempo razonable para la mayoría de los casos de uso. Tenga en cuenta aquí que esto sigue cambiando todo el tiempo. Recomendaría consultar la documentación de AWS para ver las actualizaciones recientes. Pero si tienes un solo proceso que tarda más de 15 minutos en ejecutarse, tendrás que implementarlo un servidor como EC two instancias o contenedor. Echemos un vistazo a algunas otras características de AWS Lambda. La primera característica viene aquí, el escalado automático. Cuando usamos EC two instancias, aunque tenemos un grupo de autoscaling para escalar nuestra infraestructura, todavía tenemos que crear políticas de escalado manualmente Tenemos que indicarle a AWS que agregue o elimine instancias basadas en alarmas de vigilancia en la nube. En comparación, AWS Lambda puede escalar automáticamente. Tomemos el mismo ejemplo del procesamiento de archivos Lambda que se ejecuta cada vez que se carga un archivo a S tres. ¿Qué pasa cuando subes, digamos 500 archivos? Tendrás 500 funciones lambda ejecutando tus tareas de procesamiento de archivos. Este es el poder de los sin servidores. No necesita preocuparse por escalar su infraestructura. Aws asegura que siempre tengas suficientes recursos para ejecutar tu código. Tenga en cuenta aquí que AWS tiene un límite de cuota de servicio de 1,000 Lambdas que ejecutan simultáneamente por región. En nuestro ejemplo, es posible que veas algunas fallas lambda cuando subes más de 1,000 archivos al S three. Este límite se ha colocado para evitar el mal uso de su cuenta y evitar cargos no deseados. Si sus casos de uso requieren más de 1,000 funciones de Lambda ejecutándose simultáneamente, puede aumentar este límite con el soporte de AWS La siguiente característica viene pagar por precio de usuario. siguiente y más lucrativa característica de Lambda es que es pago por uso Esto significa que pagas por el tiempo que se ejecuta tu código. No hay cargos cuando tu código no se está ejecutando. Supongamos que su lambda de procesamiento de archivos se ejecuta durante 1 minuto. Solo pagas el costo de cómputos de 1 minuto. Si tienes diez Lambdas funcionando por 1 minuto, pagas 10 minutos de tiempo de cómputo, y así sucesivamente El siguiente largometraje es Ram. Las funciones Lambda pueden obtener recursos de hasta GB de Rams. También es importante tener en cuenta que cuando aumentas la RAM de tu función Lambda, tu CPU y la capacidad de red de Lambda también mejorarán. Este es un tema de examen Trendy. ¿Cómo aumentarás la CPU y la red de Lambda? La respuesta es necesidad de aumentar el Ram. La siguiente característica es la integración. Como dije antes, AWS Lambda tiene muchos casos de uso y se ha integrado con muchos servicios de AWS. Echemos un vistazo a algunas de las principales integraciones y sus casos de uso El primer caso de uso en S tres, como en el ejemplo que hemos tomado hasta ahora, puede tener una lambda ejecutada en diferentes tipos de eventos en S tres. El siguiente es Dynamodb. Puedes crear un disparador para que Lambda se active cada vez que ocurra un evento en nuestro Dynamodb, que es un servicio de base El siguiente es la puerta de enlace API. La integración de puerta de enlace Lambda y API es uno de los casos de uso más utilizados en Lambda. Api Gateway es un servicio de AWS que se utiliza para crear APIs de descanso. En AWS, puede poner lambda detrás una puerta de enlace API y crear un punto final de API Rest para llamar a su función lambda. El siguiente es SNS, puedes tener una función lambda que reaccione a las notificaciones en un tema de SNS Sns se integra aún más con posiblemente todo tipo de eventos en la consola de AWS Con esta integración, todos estos eventos se pueden utilizar para activar funciones Lambda. El siguiente es SQS. Lambda se puede utilizar para procesar mensajes en SQS Qs. El último son los eventos de Cloud Watch. También puedes ejecutar funciones lambda con eventos de Cloud Watch. Veamos finalmente algunos pequeños ejemplos de funciones Lambda. Como puede ver, tenemos nuestra aplicación front-end ejecutándose en EC two instancias. Entonces tenemos una puerta de enlace API que llama a nuestras funciones lambda para el back end. Esta función lambda también se ha integrado con RDS y obtiene y almacena datos en la base de datos RDS otro lado, tenemos la aplicación front-end, empujando las tareas a las señales SQS, que se ha integrado con otra Para el procesamiento de mensajes, puede crear un evento de cloudwatch que se active a intervalos regulares Dado que puede activar Lambda desde un evento de Cloudwatch, puede tener una función Lambda que se ejecute regularmente Este es un caso de uso popular y pregunta de examen sobre cómo ejecutar una lambda para ejecutar un trabajo basado en comandos. La respuesta son los activadores de eventos de Cloudwatch. Eso es todo para esta sesión. 45. Tipos de datos: Hola, alumnos. Bienvenida de nuevo. Como saben, este módulo es todo acerca de bases de datos. Pero antes de entrar en las bases de datos, entenderemos rápidamente los datos y sus tipos. Decidimos una base de datos adecuada en función de la naturaleza de nuestros datos. Por lo tanto, es muy importante entender los datos y su tipo. Comencemos con los tipos de fuentes de datos. Existen tres tipos de fuentes de datos, estructuradas, no estructuradas y semiestructuradas Primero entendamos los datos estructurados. Se trata de datos que tienen tipos de datos predefinidos y se almacenan en un formato especificado. Entendamos el tipo de datos predefinidos y el formato específico con un ejemplo de libreta de teléfonos. En esta tabla, puede ver que la fila superior tiene diferentes nombres los cuales definen qué tipo de datos están presentes en diferentes columnas. Por ejemplo, el número de serie representa el número de conjuntos de datos que tenemos. La columna del primer nombre tendrá el nombre de cada entrada en nuestros datos. Este es un formato si queremos agregar cualquier otro detalle personal estos datos, entonces tendremos que crear una nueva columna para ello. Digamos que también quieres agregar una dirección. En ese caso, es necesario agregar un encabezado adicional, dirección con nombre. Entonces solo puedes agregar direcciones a estos datos. Básicamente, este es un formato específico. Ahora vamos a entender los tipos de datos. Como puede ver que tenemos números en las columnas de número de serie y número de teléfono, y las columnas de nombre y apellido tienen correctores Según las columnas definidas, se espera que ingrese números en las columnas de número de serie y número de teléfono y caracteres en la columna de nombre y apellido . Eso significa que se define qué tipo de datos podemos ingresar en diferentes columnas. Los datos de estructura se almacenan como una serie de valores de datos en tablas definidas administradas por un motor de base de datos como mi Esque. Estos datos están altamente estructurados. Por eso es muy fácil de analizar y se puede utilizar en consultas altamente complejas. El siguiente tipo de datos son los datos no estructurados. Los datos no estructurados tienen una estructura interna, pero no contienen un modelo de datos predefinido Considera un video, por ejemplo. También son datos, pero la forma en que se almacenan es diferente de los datos estructurados. Este tipo de datos suele ser en forma de archivos que se almacenan en un almacenamiento como Dropbox. Dropbox es como una unidad de almacenamiento donde puedes almacenar archivos de texto, fotos, videos, etcétera Los datos no estructurados en su conjunto son información irrelevante Ejemplos de datos no estructurados son mensajes de texto, documentos, videos, fotos y otras imágenes Estos archivos no están organizados, solo se pueden colocar en un sistema de archivos o almacén de objetos. Si quieres obtener información significativa de estos datos, necesitas procesarla. Se requieren herramientas especiales para consultar y procesar los datos no estructurados El último tipo de datos son datos semiestructurados. Los datos semiestructurados son una forma de datos estructurados. La única diferencia es que los datos semiestructurados son flexibles y pueden actualizarse sin cambiar el esquema para cada registro individual de una tabla Este es un ejemplo de datos semiestructurados. Como puedes ver aquí, hay dos conjuntos de datos y tienen el mismo aspecto, ¿verdad? Si nota el segundo dato tiene una dirección de información adicional. Los datos semiestructurados permiten al usuario capturar datos en cualquier estructura a medida que los datos evolucionan y cambian con el tiempo Semis, los datos de estructura se almacenan en archivos Jason que se cargan en un motor de base de datos como Mongo Devi Estos datos son altamente flexibles porque la estructura no es estricta y se puede cambiar según sea necesario dentro de la tabla. También se pueden analizar datos semiestructurados. Eso es todo lo que quería cubrir en esta sesión. 46. Bases de datos relacionales: Hola alumnos. Bienvenido de nuevo. En el último video, entendiste tres tipos de tipos de datos, estructurados, no estructurados y semi estructurados Como la naturaleza de estos datos es diferente, se almacenarán de manera diferente. En este video, vamos a entender dónde y cómo se almacenarán estos datos. Al final de este video, sabrás por qué almacenamos datos estructurados en una base de datos relacional Empecemos con un ejemplo. A menudo usamos una hoja ex Cel para almacenar datos, ¿verdad? Eso es porque es más fácil organizar y administrar los datos en Excel que en cualquier otra herramienta. Este tipo de datos se conoce como datos de estructura. Esto lo discutimos en la última sesión. Las hojas de Excel están bien para los datos personales, pero si piensas en las grandes empresas, ese es un mundo completamente diferente. Se ocupan de enormes cantidades de datos, lo que es muy difícil de almacenar y administrar. Cuando los datos crecen, a menudo también conducen a la inconsistencia y redundancia de los datos Supongamos que tenemos una hoja de cálculo almacena los datos de registro del curso del estudiante Ahora echa un vistazo a Sham Singh estudiante con número de identificación de estudiante 101 se almacena más de una vez Esto se llama redundancia de datos. Otro problema podría ser, digamos que Samsung cambia su apellido. En ese caso, su apellido debe ser cambiado en todas partes en nuestros datos. De lo contrario, podría llevar a la inconsistencia de los datos. Para sistemas de datos pequeños, podría ser más fácil de resolver. Pero cuando el sistema de datos es enorme, es difícil administrar los datos. Para evitar estos problemas, utilizamos tecnología basada en datos. Se trata de una recopilación organizada de datos para que pueda ser fácilmente accedida y gestionada. Ahora digamos que quieres enviar un correo electrónico a Kishor. Así, hay otra hoja que contiene detalle de los alumnos como correo electrónico, DNI, número de teléfono, etcétera Desde la primera hoja, sabemos que Kiss está en RRHH, pero no podemos encontrar a Kiss en la ficha de datos del estudiante. Esto significa que nuestros datos son inconsistentes. Podemos resolver este problema con algunas reglas, como un estudiante no puede registrarse en el curso sin registrarse. De esta manera tendremos todas las hojas pobladas para cada alumno. El punto aquí es que las dos hojas de Excel tienen una relación y siguen cierta regla a los datos organizados. Esto se conoce como datos de relación, lo que trae consigo el concepto de base de datos relacional Una base de datos es una colección organizada de datos relacionados. Es una colección organizada porque en una base de datos, todos los conjuntos de datos se describen y se relacionan entre sí. Los datos se organizan en relaciones como en una base de datos relacional Cada tabla tiene un conjunto de que definen la estructura de datos, esquema de datos almacenado en la tabla. Un registro es un conjunto de campos en una tabla. Se puede pensar en los registros como filas o tuplas de la tabla y los campos como columnas En este ejemplo, usted tiene una tabla de datos de estudiante con cada uno representando un registro de estudiante, y cada columna representa un campo del registro de estudiante. Un campo especial o una combinación de campos que determina el registro único se llama clave primaria. Por ejemplo, identificación de estudiante. Es único para cada alumno. Esta clave suele ser el número de identificación único de los registros. Utiliza una estructura que le permite identificar y acceder a datos en relación con otro dato en la base de datos. Como puedes ver, cada alumno tiene una identificación única que puede ser utilizada para encontrar el registro del mismo alumno en el registro del estudiante. Como ves, estos datos tienen una cierta estructura, que se conoce como esquema. Las bases de datos relacionales almacenan datos de estructura, que le permiten recopilar rápidamente consultados utilizando un modelo de datos estructurados El uso de tablas para almacenar datos en columnas y filas facilita el acceso y la administración de los datos. Aws ofrece una solución de base de datos para bases de datos relacionales que cubriremos en la introducción al módulo RDS. Eso es todo para esta sesión. 47. Bases de datos NoSQL: Hola, alumnos. Bienvenida de nuevo. En este video, entenderemos la base de datos Nosql. Empecemos con una revisión rápida del video anterior. Entendimos que los datos dentro una base de datos relacional están organizados de manera que los valores de una tabla puedan definir o cambiar los valores en otra tabla Es decir, existe una relación entre las distintas tablas de datos. Tomemos el mismo ejemplo de una base de datos relacional que almacena los datos de inscripción al curso de los estudiantes Una tabla contiene detalles de los alumnos y otra define el curso en el que se inscribieron los estudiantes en una base de datos relacional Se puede ejecutar una sola consulta SQL que devuelva un resultado que muestre a todos los alumnos que se registraron desde la contabilidad, aunque los datos estén en dos tablas. Esta es la superpotencia de las bases de datos relacionales. Ahora hablemos de bases de datos no relacionales. Este tipo de base de datos almacena los datos de manera diferente. Debido a la naturaleza de los datos, almacenamos datos semiestructurados en una base de datos no relacional Ahora tomemos el mismo ejemplo de base de datos de registro de cursos de estudiantes . Si tiene que almacenar los registro del curso del estudiante en una base de datos no relacional, cada información de un estudiante, incluido el curso asociado, se almacenaría en un solo elemento dentro de la tabla de la base Ahora profundicemos y entendamos cómo se almacenan los datos en una base de datos no relacional Digamos que después de un año, el colegio decidió agregar la calificación estándar 12 a la tabla de inscripción de estudiantes en la base de datos. ¿Cómo tendría que cambiar cada tipo de base de datos? Bueno, en el caso de las bases de datos relacionales, es necesario actualizar el esquema para agregar las calificaciones de los alumnos Esto significa agregar una nueva columna para la calificación. Una vez que agregue la nueva columna , estará vacía para los datos existentes, ¿verdad? Lo cual puede ocasionar problemas. Porque como regla general, las bases de datos relacionales requieren que ingreses valores en cada columna si está establecida para probar para la base Es necesario crear un proceso para agregar la calificación para cada registro en la tabla. Una vez que se complete este proceso, comenzará a agregar nuevos registros para calificación. Todo bien. Alguna conjetura sobre lo que necesitas hacer en una base de datos no relacional Bueno, no hay necesidad de adivinar. Todo lo que necesitas hacer es crear nuevos artículos. Con los nuevos atributos, podrías volver atrás y mirar los registros existentes. No estás obligado a hacer nada con ellos. Esta es una de las ventajas que tienen las bases de datos no relacionales sobre las bases de datos relacionales Los esquemas no relacionales no requieren que defina nuevos atributos de datos antes de usarlos Mientras esté en una base de datos relacional, debe actualizar el esquema antes de poder agregar nuevos campos de datos Cuando se trata de almacenar y tratar con semiestructurados o no estructurados, la elección suele ser una base de datos no relacional Eso es todo por esta lección sobre bases de datos no relacionales. 48. Alojamiento de base de datos en la nube: Hola, alumnos. Bienvenida de nuevo. En este video, aprenderás cómo usamos para administrar bases de datos en el escenario local, y cuáles son las diferentes opciones de base en la nube de AWS. Empecemos con bases de datos en las instalaciones. Operan en hardware que su organización posee y mantiene. Estos sistemas son manejados por un equipo de administradores de bases de datos, DBA, quienes son responsables toda la configuración y el trabajo con la base En el caso de on premise, la compañía despliega varios servidores y dispositivos de red para manejar la carga máxima del sistema Una vez que obtienen el servidor del equipo de infraestructura, instalan el sistema operativo y preparan un programa de parcheo del SO El siguiente es una instalación de software de base de datos. Nuevamente, necesitan planificar y hacer parches de base de datos. Una vez que la base de datos esté lista, puede ser utilizada por la aplicación. Ahora, estas bases de datos necesitan ser administradas, actualizadas, actualizadas y optimizadas a lo largo del tiempo. El siguiente esfuerzo considerable va al respaldo de bases de datos y configuración de alta disponibilidad para las aplicaciones críticas para el negocio en caso de configuración de alta disponibilidad. Nuevamente, el DBS de su equipo necesita seguir los mismos pasos para otro servidor de base de datos que actuará como standby para escenarios de failover Además de eso, también eres responsable de escalar tu servidor de base de datos ahora. Y entonces eso es mucho trabajo. Ahora cuando se trata de la Nube, tenemos dos opciones. El primero es como una base de datos on premises donde se alquila una máquina virtual que viene con redes y un servidor que es administrado y atendido por AW. No obstante, el resto de las cosas serán manejadas por ti mismo. Nuevamente, requiere esfuerzo y un equipo de DBS para encargarse de parches de SO, instalación y parches de software de base de datos, respaldo de base de datos, escalado de alta disponibilidad, etc. El segundo es Amazon RDS. Amazon RDS es una base de datos administrada por AWS donde se obtiene la base de datos de la caja en unos pocos clics que cubriremos en la siguiente lección Eso es todo para esta sesión. 49. Servicio de base de datos relacional de Amazon: Hola alumnos. Bienvenida de nuevo. En este video, aprenderás sobre el Amazon Relational Database Service, comúnmente conocido como Amazon Ardis Empecemos. Echemos un vistazo a la descripción general de Amazon Ardis Es un servicio de base de datos relacional que llevó, configuró, opera y escala una base de datos relacional en la nube Como sabes, administrar una base de datos ya sea en un local o fácil de instancia no es una tarea fácil. Amazon Ardis está diseñado para minimizar los esfuerzos involucrados en la administración de tareas de bases de datos relacionales como aprovisionamiento de hardware, configuración de bases de datos, copias de seguridad de parches, etc. Solo tienes que seleccionar la base de datos que deseas lanzar y nosotros tendremos una base de datos lista en tan solo unos clics. Entendamos con un ejemplo. Supongamos que tienes un equipo de cuatro personas y quieres lanzar una aplicación que estará respaldada por una base de datos my SQL. Instalaste mi SQL en la instancia EC dos. Como sabemos que se requiere mucho trabajo para configurar la copia de seguridad de la base de datos del sistema operativo, la aplicación de parches, es probable que el trabajo de desarrollo pueda quedarse atrás que podría retrasar aún más el lanzamiento de la aplicación ya que solo dos personas pueden enfocarse en el desarrollo Imagínese de nuevo el mismo ejemplo, pero esta vez con Amazon RDS. Como RDS es un servicio administrado, AWS se encargará de todo el trabajo relacionado con la base de datos por usted Sus desarrolladores pueden enfocarse en el desarrollo de aplicaciones. Rds fue diseñado para ayudarle a reducir el costo de administración de bases de datos Se trata de un servicio gestionado que automatiza el aprovisionamiento de bases de datos Aws hará el parcheo del sistema operativo. Tendrá copias de seguridad continuas y opciones de restauración con un punto en el tiempo de restauración. También tendrás paneles de monitoreo para ver si nuestra base de datos está funcionando bien Puede escalar las lecturas creando una réplica de RID y mejorando el rendimiento de RID. Tendrá una forma de configurar zonas de disponibilidad múltiple para asegurarse de que su aplicación tenga un plan recuperación ante desastres en caso una zona de disponibilidad completa caiga. Por último, también puede configurar ventanas de mantenimiento para actualizaciones y puede escalar vertical u horizontalmente. Lo único que no podemos hacer con una base de datos RDS es que no podemos SSH en tu instancia de base de datos RDS Ahora veamos algunas características y elementos de Amazon RDS. Echemos un vistazo a la disponibilidad de los primeros RDS. Amazon Adis proporciona mayor disponibilidad y durabilidad mediante el uso de implementaciones de Jones de disponibilidad múltiple Esto significa que Amazon Dias crea múltiples instancias de la base de datos en diferentes zonas de habilidad. En caso de cualquier falla de infraestructura, Amazon Adis cambia automáticamente al modo de espera en otras zonas de disponibilidad Las operaciones de la base de datos se reanudarán tan pronto como se complete la conmutación por error Dado que Amazon Dias utiliza un servicio DNS para identificar la nueva instancia maestra, no es necesario actualizar su punto de conexión de base de datos. Esa es una muy buena característica. El segundo es el tipo de instancia Dias. Cuando construyes tu primera base de datos de Amazon Dias, tienes que tomar algunas decisiones clave. Primero, debes decidir tu tipo de instancia de base de datos, que determina los recursos de tu base como CPU y memoria. Es algo similar al tipo de instancia AW, EC dos. El siguiente es Motor de Base de Datos Dias. A continuación se encuentra el tipo de motor de base de datos que desea ejecutar. Puede elegir entre Postgresql, SQL, Maria DB, Oracle Database, Quel server y Amazon Aurora Amazon Aurora es una base de datos relacional compatible con MyESQUL y Post GrayQul una base de datos relacional compatible con MyESQUL y Post GrayQul creada para la nube. La base de datos está diseñada y desarrollada por AWS para proporcionar un rendimiento de base de datos de clase empresarial. Cada motor de base de datos tiene sus propias características y características únicas que puede seleccionar en función de sus requisitos de aplicación y negocio. Ahora echa un vistazo a los precios de dis. Ahora uno de los mayores beneficios de Amazon Ardis es que pagas a medida que avanzas El proceso de facturación de Amazon Ardis consta de dos partes, costo de instancia Lo primero que pagas es la instancia que aloja las bases de datos. Hay dos modelos de precios bajo demanda y reservados bajo demanda. Los precios de instancias le permiten pagar por la capacidad de cómputos cada hora. Esto es cuando su base de datos se ejecuta intermitentemente o es un poco impredecible precios de instancias reservadas son excelentes cuando comprende bien el consumo de recursos de su base de datos. Con este tipo de instancia, puede asegurar un plazo de uno o tres años y recibir un descuento significativo sobre los precios bajo demanda. Ahora echemos un vistazo al costo de almacenamiento. Segundo, que pagues por el almacenamiento y por consumido por tu base de datos el almacenamiento se factura por gigabyte, por mes Por se factura por millón de solicitudes. Espero que tengas un buen entendimiento de Amazon Dis. Vuelve a ver el video. Si tienes alguna duda eso es todo por este video. 50. Amazon DynamoDB: Hola, alumnos. Bienvenido de nuevo. En esta sesión, vamos a entender la base de datos AWS NOSQL que ofrece Dynamo DV Empecemos. Echemos un vistazo a la descripción general de Dynamo DV Es un servicio de base de datos Nosql totalmente administrado que proporciona un rendimiento rápido y predecible con escalabilidad perfecta Dynamo DB es una de las mejores opciones para almacenar datos de estructura semis NOSQL Como se trata de una base de datos completamente administrada, no es necesario lidiar con el aprovisionamiento de hardware, configurar la replicación de configuración, los parches de software o el escalado de clústeres cuando usa Dynamo DB, otra gran cosa de Dynamo DB es que ofrece cifrado en reposo por defecto Lo que elimina la carga operativa y la complejidad que implica la administración de encriptaciones. Cree para proteger datos sensibles. Si no tiene sentido, no te preocupes, solo recuerda que soporta encriptación por defecto. Cubriré el cifrado en detalle en el módulo de administración de AWS. Creamos una tabla de base de datos en Dynamo DB para almacenar y recuperar nuestros datos Es importante entender aquí, permítame simplificar esto. Cuando crea una instancia de Amazon RDS, crea una base de datos dentro de ella y luego dentro de la base de datos creará una tabla Pero en el caso de Dynamodb, crea la tabla directamente dentro de Cuando vayas al tablero de Dynamodb, crearás una tabla Una mesa Dynamodb puede escalar horizontalmente. Distribuye los datos a través de diferentes servidores backend para asegurarse de que puede escalar cuando sea necesario y obtener un excelente rendimiento Ahora vamos a entender cómo almacenamos los datos dentro de Dynamodb. Una mesa Dynamo DB está compuesta por tres componentes diferentes Tablas, elementos y atributos. Primero, tienes la tabla en sí, y ahí es donde todos tus datos se almacenan dentro de la tabla. Una mesa es una colección de artículos. Cada elemento es una colección de atributos. Los elementos son como filas en una base de datos relacional. Por ejemplo, el alumno con identificación de estudiante 101 es un ítem. Cada ítem tiene una serie de atributos asociados a cada uno. Son los datos que vemos en estos campos aquí, como el apellido, nombre y correo electrónico. Dynamo DB utiliza claves primarias para identificar de manera única elementos en una tabla e índices secundarios para proporcionar más flexibilidad de consulta Puede usar transmisiones de Dynamo DB para capturar eventos de modificación de datos en tablas Dynamodb rendimiento de la mesa Dynamodb se basa en la capacidad de rendimiento Puede escalar o reducir la capacidad de rendimiento de sus mesas sin ningún tiempo de inactividad o degradación del rendimiento. Puede utilizar la consola de administración de AWS para supervisar la utilización de recursos y las métricas de rendimiento. Dynamo DB proporciona la capacidad de backup bajo demanda que le permite crear copias de seguridad completas de sus tablas para retención y archivado a largo plazo para las necesidades de cumplimiento normativo También puede crear copias de seguridad bajo demanda y habilitar recuperación Point in Time para su tabla Amazon Dynamodb Point in Time Recovery ayuda a proteger sus tablas de derechos accidentales o operaciones de eliminación. Con Point In Time Recovery, puede restaurar una tabla a cualquier punto en el tiempo durante los últimos 35 días. También le permite eliminar automáticamente los elementos caducados de las tablas para ayudarle a reducir el uso de almacenamiento y el costo de almacenar datos que ya no son relevantes. Ahora veamos algunos casos de uso para Dynamodb. Debido a su modelo de datos flexible y rendimiento confiable, es ideal para aplicaciones móviles, aplicaciones basadas en web, aplicaciones de juegos, aplicaciones tecnológicas e IOT. También podrías usar Dynamodb para otras aplicaciones. Estudiantes, espero que ahora entiendan características y aplicaciones de Amazon Dynamodb 51. Crea una instancia RDS: Hola, alumnos. Bienvenida de nuevo. En esta sesión, estaremos creando una instancia de RDS. Veremos qué otros recursos y configuraciones se necesitan para poner en marcha una instancia RDS SQL Pasemos ahora a la consola de AWS. Escriba RDS en la barra de búsqueda. Haga clic en la opción RDS y lo llevará al tablero de RDS. Lo primero que debes hacer al crear instancias RDS es crear un grupo de envío Un grupo de subredes es simplemente una agrupación lógica de subredes donde se proporciona la instancia de Dias Vamos a la página de grupos de subredes dando click aquí. Como pueden ver, no tengo ningún grupo de subredes en mi cuenta. Haga clic en Crear grupo de subredes asigne un nombre al grupo de subredes Deberá agregar una descripción aquí ya que es un campo obligatorio. Voy a añadir Enviar Grupo para mi SQL DB. A continuación, seleccione BPC. Yo sólo tengo uno y voy a elegir éste. Aquí, es necesario seleccionar la zona de disponibilidad. Seleccione las zonas de disponibilidad en las que desea que se implementen las instancias de Ardis Para mí, solo tengo envíos en P uno y P Sur uno B. Si tienes envíos en la otra zona de disponibilidad, también puedes seleccionar AP sur uno A continuación seleccionamos las subredes en estas zonas de disponibilidad. Como pueden ver, tengo una presentación pública y una presentación privada en cada una de las zonas de disponibilidad. Por lo general, querría crear instancias RDS en envíos privados, seleccione las subredes privadas Aquí, las instancias RDS generalmente se crean en subredes privadas y se accede a ellas desde dentro de las VPC En aplicaciones de producción, no desea que sus bases de datos sean accesibles a través de Internet. Ahora haz clic en Crear. Como puede ver, ahora hemos creado con éxito un grupo de subredes para nuestra base Vamos a crear ahora la base de datos RDS. Haga clic en las bases de datos. A partir de ahora, no tengo DBs RDS en mi cuenta Antes de pasar al botón Crear Base de Datos aquí, si ves junto a este botón, tenemos un botón de restauración desde S tres. Cuando tomamos copias de seguridad de nuestros DBs RDS, se restauran en AWS S three Al hacer clic en este botón Aquí, podemos crear una nueva instancia a partir de una de nuestras copias de seguridad en S tres. Volviendo a crear la base de datos, haga clic en Crear base de datos. La primera opción que puedes ver es Crear Estándar o Como Crear. Si elige la opción Como crear, AWS utilizará algunos valores predeterminados para crear su base de datos. Echemos un vistazo. He seleccionado Como Crear. Ahora las únicas opciones que tengo son los tipos de base de datos y algunas otras opciones. Aquí, si nos desplazamos hacia abajo y abrimos la vista desplegable, configuración predeterminada para As Create, podemos ver que AWS tiene algunos valores codificados para nosotros. No quiero crear nuestra B así. Volvamos a la Creación Estándar y escojamos nosotros mismos los parámetros. Haga clic en Crear estándar. En la parte superior, elija el tipo Mi motor SQL. A continuación tenemos la opción de elegir la versión de Mi SQL. Voy a elegir la última versión disponible para mí en este momento, que es mi 8.0 0.28 La siguiente opción que tenemos es elegir la plantilla según nuestro caso de uso Si elige producción aquí, AWS elegirá algunas opciones predeterminadas para nosotros. Por simplicidad, como cuando tengo seleccionada una plantilla de producción y me desplazo hacia abajo hasta disponibilidad y durabilidad, se puede ver que la opción predeterminada seleccionada para mí es crear una instancia en espera. Ahora cuando cambie la plantilla a Dave y vuelva a desplazarme hacia abajo, notará que el valor predeterminado elegido para mí ahora no es crear una base de datos en espera. Al seleccionar una plantilla, simplemente se establecerán algunos valores predeterminados para nosotros. Vamos a ceñirnos a la llanta libre y seleccionar la plantilla de neumático libre. La siguiente opción que tenemos es el identificador DB. Este es el nombre de nuestra instancia de base de datos. Debe tener en cuenta aquí que este no es el nombre de la base de datos sino el nombre de la instancia de RDS Déjame cambiarlo a la asesoría en la nube, mi SQL DB. A continuación, tenemos que crear el nombre de usuario maestro y contraseña para la instancia de RDS Cambiando el nombre de usuario a RDS master y voy a escribir mi contraseña aquí Podemos tener la contraseña autogenerada de AWS para este nombre de usuario aquí Por ahora, permítame agregar mi propia contraseña. La siguiente opción que tenemos es seleccionar la clase de instancia para nuestro DB. Como seleccionamos la plantilla de neumático libre, no podemos cambiar los tipos de instancias aquí. Como puedes ver, solo tenemos una opción, micro de dos puntos. Si seleccionamos las plantillas de Dave o Prod, aquí obtendremos todas las opciones de instancia. A continuación tenemos que seleccionar el tipo de almacenamiento para nuestra instancia RDS La opción actual que tenemos es la SSD GP dos de propósito general. Podemos cambiar este valor a I 01 para cargas de trabajo más complejas. Ahora vamos a ceñirnos al GP dos tipo SSD. También podemos habilitar el escalado automático para nuestro almacenamiento RDS. Si esta casilla de verificación está seleccionada, podemos agregar el almacenamiento máximo Queremos que nuestra instancia de RDS se escale hasta que el valor predeterminado para este campo es 1,000 ZB Si el almacenamiento de mi base de datos se llena, AWS escalará automáticamente el almacenamiento hasta 1,000 GB La siguiente opción es disponibilidad y durabilidad. Vimos antes que teníamos esta opción cuando habíamos seleccionado las plantillas de Dave y producción. Sin embargo, esta opción no es compatible con llantas libres. A continuación, tenemos la opción de seleccionar la conectividad para nuestra instancia RDS Podemos seleccionar la VPC en que creamos nuestro grupo de subredes, y luego seleccionar el grupo submit En la siguiente opción, tenemos la siguiente opción. Si queremos que nuestra instancia RDS sea accesible fuera de la VPC Aws nos da otra opción aquí para no permitir el acceso público a nuestro DB. A continuación, tenemos que especificar el grupo de seguridad para nuestro RDS. Optemos por crear un nuevo SG. Dale el nombre RDS, mi SG SQL. Podemos ver el puerto predeterminado para mi base de datos SQL aquí. Dejemos esto como está. La siguiente opción es la autenticación de base de datos. Tenemos tres opciones aquí para nosotros. Estaremos eligiendo la autenticación de contraseña. Si quieres más seguridad y control sobre el acceso RDS, puedes elegir las otras opciones aquí Veamos también las opciones adicionales para RDS haciendo clic en este menú desplegable aquí. La primera opción es el nombre de la base de datos. Si recuerdas antes, teníamos la opción de agregar el identificador de base de datos que era el nombre de la instancia de base de datos RDS Aquí podemos pedirle a AWS que cree una base de datos como usuarios, empleados, etcétera, dentro de la nube, asesorar a mi DB SQL Si dejamos este valor vacío, AWS no creará una base de datos para nosotros. Y tendremos que hacerlo usando mis comandos SQL cuando nos conectemos a esta instancia. Vamos a crear la base de datos de un usuario. Para nuestro ejemplo, estoy dejando los otros valores por defecto. A continuación tenemos la opción de respaldo automático. Podemos elegir aquí con qué frecuencia queremos realizar copias de seguridad de nuestra base de datos e incluso especificar la ventana de tiempo para la copia de seguridad. La siguiente opción es el monitoreo mejorado. Esta es una pregunta popular en los exámenes AW. La diferencia entre el monitoreo normal de cloudwatch y monitoreo mejorado es que en el caso del monitoreo normal, RDS recopila las métricas del hipervisor Para una instancia de base de datos, monitoreo mejorado recopila sus métricas de un agente en la instancia Si desea métricas de nivel de SO, deberá habilitar el monitoreo mejorado para nuestro caso de uso, no seleccionaremos la opción de monitoreo mejorado. Ahora podemos elegir las exportaciones de troncos. Puede hacer que AWS envíe registros a los registros de Cloud Watch seleccionando las opciones. Aquí tenemos la siguiente opción para permitir que WS realice actualizaciones de versiones menores en nuestra base de datos y seleccione las ventanas de tiempo para estas actualizaciones. Dejemos estos valores por defecto. La última opción que tenemos es habilitar la protección de eliminación. La opción simple no nos permitirá eliminar nuestra instancia de RDS Haga clic en Crear base de datos. Ahora en la página de la base de datos podemos ver nuestra base de datos mi SQL creando. Permítanme saltarme el video hasta que se haya creado esta instancia. Como puedes ver ahora se crea mi instancia de RDS. Ahora hagamos clic en la instancia y veamos los detalles de la conexión. En la pestaña Conectividad y seguridad, puede ver el punto final y el puerto de esta instancia de RDS Estos valores serán necesarios para acceder a la instancia de RDS. Con esto, llegamos al final de la sesión. Analizamos todos los parámetros que tenemos al crear los grupos de subredes RDS y Creamos nuestra propia base de datos RDS. Eso es todo para esta sesión. Te veo en la siguiente lección. 52. Amazon Elasticache: Hola alumnos. Bienvenida de nuevo. En este video, conoceremos uno de los servicios principales de AWS, Amazon Elastic Cache. Comencemos con la Ms básica involucrada en la caché elástica. caché de servicios es la técnica de almacenar datos en una caché Permite reutilizar datos que han sido recuperados previamente La solicitud futura de datos Dat se atiende más rápido en lugar de recuperarla desde la ubicación principal Ahora debes estar preguntándote qué es un caché. Una caché es una ubicación de almacenamiento reservada que recopila datos temporales. Podría ser la memoria de la computadora o su propia aplicación. Un ejemplo sencillo será almacenar documentos en un escritorio de computadora. Más a menudo, guardamos una copia del documento al que se accede con frecuencia en el escritorio. No necesitamos ir a la ubicación del documento cada vez. Otro buen ejemplo será un marcador. Marcar enlaces que usamos con más frecuencia. No hay necesidad de buscar cada vez. Ahora entendamos qué es la caché elástica. Elastic Cache es una solución de almacenamiento en caché de bases de datos completamente administrada en memoria de AWS Es compatible con una variedad de casos de uso personalizables y en tiempo real. La caché elástica es adecuada para el almacenamiento en caché, lo que mejora el rendimiento de las aplicaciones y bases Ponemos esto frente a otras bases de datos, tal vez frente a RDS o frente a Dynamo DB También se puede utilizar como almacén de datos principal para casos de uso como tiendas CSN, juegos, tablas de líderes, streaming y análisis que no requieren durabilidad. caché elástica es la implementación de los motores de base de datos de código abierto conocidos como Dies y Memcached Ahora veamos algunos casos de uso de caché elástica. Acelera el rendimiento de las aplicaciones. Como he mencionado, caché elástica funciona como un almacén de datos en memoria y caché para soportar las aplicaciones más exigentes que requieren tiempos de respuesta de submilisegundos El siguiente caso de uso es que es carga de base de datos back-end aparte de la aplicación. También ayuda a reducir la carga en la base de datos. Una vez que almacene en caché los datos de acceso frecuente a la caché elástica, disminuirá drásticamente las llamadas a la base de datos y reducirá la presión sobre su base de datos back-end El siguiente es construir almacenes de datos de baja latencia. Esta es una excelente solución para una base de datos de baja latencia cuando desea almacenar conjuntos de datos no duraderos en la memoria y admitir aplicaciones en tiempo real con latencia de microsegundos Ahora veamos cómo funciona la caché elástica. Tiene una aplicación configurada e instalada en EC para instancia en su cuenta de AWS. Esta aplicación utiliza la base de datos RDS para almacenar datos de backend. Ahora la aplicación va a escribir algunos datos a RDS. La aplicación también puede leer la base de datos en la base de datos RDS Ahora, ¿qué puedes hacer? Ponga la caché elástica entre la aplicación y RDS y almacene la sesión, o acceda con frecuencia a los datos en la caché elástica Esos datos luego se cargan en caché elástica. Lo que significa que la próxima vez que la aplicación necesite leer los datos de la base de datos, obtiene lo que aquí se llama caché. Eso significa que se encuentra en la base de datos y se va a recuperar mucho más rápido que viniendo de RDS Eso es todo para esta sesión. 53. Amazon Redshift: Hola, alumnos. Bienvenida de nuevo. En este video, entenderemos qué es el data warehouse, por qué lo necesitamos. Servicio de almacén de datos Aws, Red Shift. Empecemos. Es probable que haya oído hablar los almacenes de datos pero no está seguro exactamente de qué se trata. Déjame explicarte. Como su nombre indica, se trata de un almacén de datos. Permite almacenar grandes cantidades de datos de múltiples fuentes. Que podría ser de archivos de registro de aplicaciones, sistemas transaccionales, bases de datos relacionales, marketing, ventas, finanzas, aplicaciones orientadas al cliente, sistemas de socios externos y otras fuentes Básicamente, un almacén de datos es una gran colección de datos comerciales utilizados para ayudar a las organizaciones a tomar decisiones. Ahora debes estar pensando, ¿cómo ayudarán estos datos a tomar una decisión de negocio? El objetivo de cada negocio es tomar una mejor decisión de negocio que sus competidores, ¿verdad? ¿Cómo se toma una mejor decisión? O viene de la experiencia o puedes hacer algunas matemáticas. Acepto hacer matemáticas, necesitas datos. Cuando se trata de grandes empresas y organizaciones, utilizan herramientas de inteligencia de negocios. Las herramientas B I analizan los datos y generan el reporte. Hoy en día, la mayoría de los usuarios empresariales dependen de informes, paneles y herramientas de análisis para extraer información de sus datos Los almacenes de datos potencian estos tableros de informes y herramientas analíticas al almacenar datos de manera eficiente El almacén de datos no es un concepto nuevo y existe desde los años 90, 80, pero no ha estado en uso debido al enorme costo de almacenar los datos en las instalaciones. La computación en la nube revoluciona esto ya que almacenar datos en la nube es fácil y barato Ahí es donde AWS tiene un servicio llamado Amazon Redshift. ¿Qué es Amazon Redshift? Amazon Redshift es una oferta de almacén de datos a escala de petabytes rápida y completamente administrada oferta de almacén de datos Petabytes significa que puede satisfacer las necesidades de escalabilidad de la mayoría de las empresas No se limita sólo a los terabytes, sino mil múltiplos del Este nivel de escalabilidad es difícil lograr con la implementación in situ Se trata de un servicio sencillo y rentable para analizar datos manera eficiente utilizando herramientas de inteligencia de negocios. Es un almacén de datos basado en SQL y su caso de uso principal son las cargas de trabajo de Analytics Redshift usa C dos instancias. Debe elegir un tipo de instancia y una familia. Se paga según marcha en función de las instancias que haya aprovisionado. Redshift siempre mantendrá copias gratuitas de sus datos, y proporciona copias de seguridad continuas e incrementales Cada vez que vea que la base de datos necesita ser un almacén y hacer análisis sobre ella, entonces Redshift será la solución Eso es todo por esta lección. 54. Autoescalado: Hola, alumnos. Bienvenida de nuevo. En este video, ¿ aprenderás qué es el escalado automático? ¿Qué es el escalado automático en AWS? Y cuáles son los beneficios de usar los servicios de escalado. Pero antes de comenzar, veamos cómo funciona el escalado en un centro de datos tradicional. Bueno, el escalado es reactivo y manual. En los centros de datos tradicionales, escalado reactivo significa que los servidores se suben y bajan manualmente según los cambios en la carga de trabajo. Eso significa que a medida que aumenta la carga de trabajo, agregamos más servidores, y cuando la carga de trabajo disminuye, eliminamos los servidores. Entendamos esto con un ejemplo. Supongamos que hay servidores de aplicaciones que acceden los usuarios de la aplicación. A medida que los usuarios de esta aplicación aumentarán con el tiempo, la carga en el servidor también aumentará si el número de usuarios sigue aumentando. Habrá un momento en el que tu servidor alcanzará su plena capacidad y no habrá suficiente memoria y CPU para atender a los nuevos usuarios. El administrador de la aplicación necesita monitorear la capacidad del servidor. Él puede monitorearlo manualmente o con la ayuda de cualquier herramienta. Cuando vea que el servidor de aplicaciones ha alcanzado su plena capacidad, agregará un nuevo servidor y configurará la aplicación en el nuevo servidor. Nuevamente, este proceso puede llevar algún tiempo en función de la disponibilidad de los servidores o la disponibilidad del servidor. Los ingenieros agregan el servidor. A veces escalar significa comprar nuevos servidores. Para ello, deberá obtener la aprobación de la dirección. Los servidores pueden tardar varios meses en llegar. Como puede ver, este es un proceso que consume mucho tiempo y no es sustentable. Otro problema con este proceso es que una vez que la carga en el servidor baja, tendrás que quitar el servidor extra, lo contrario estará funcionando inactivo. Cloud Computing resuelve todos estos problemas ya que es mucho más fácil agregar y eliminar recursos informáticos dependiendo de la carga en la aplicación. Ahora la pregunta principal es, ¿cómo sucederá automáticamente? Bueno, se logra a través del escalado automático. Es una característica de la computación en la nube que agrega y elimina automáticamente los recursos informáticos dependiendo de los usos y la demanda reales. Esta función solo está disponible en un entorno de nube. El escalado automático proporciona flexibilidad y elasticidad a sus demandas de cómputos De ahí que a veces también se le refiera como elasticidad. Elasticidad significa agregar o eliminar recursos de cómputos en función de los usos y la demanda. Si la demanda sube , aumentará el número de recursos, y si baja, eliminará recursos. El escalado automático garantiza un aumento continuo de los recursos cuando la demanda aumenta y una disminución sin fisuras cuando la demanda cae Por lo tanto, garantiza un desempeño consistente de la aplicación a un costo menor. autoescalado es tan eficiente que solo agregará los recursos cuando la demanda suba, e inmediatamente los elimina cuando baja. Nuevamente, de esta manera no es necesario seguir ejecutando los recursos adicionales todo el tiempo para que coincidan con la demanda de horas pico. Autoescalado es un término general en computación en la nube. Ahora entendamos qué es el autoescalado en AWS. Aws. El escalado automático es un servicio que monitorea su aplicación y ajusta automáticamente la capacidad para mantener un rendimiento estable y predecible de la aplicación al menor costo Los puntos clave son que monitorea su aplicación y en función de la necesidad, agrega o elimina capacidad adicional para mantener el rendimiento de la aplicación al menor costo posible. ¿Cómo monitorea exactamente tu aplicación? Aws Auto Scaling utiliza un servicio de AWS llamado Cloudwatch para monitorear la demanda de la aplicación Y genera alarmas para escalar hacia arriba o hacia abajo los recursos dependiendo de las necesidades de su aplicación. Cubriremos Cloudwatch en detalle en el próximo módulo Por ahora, Cloudwatch es un servicio de monitoreo. Y monitorea métricas de aplicaciones como el uso de la CPU, la red de memoria y muchas más. Puede establecer un valor umbral y el servicio activará una alarma cuando alcance ese umbral. Por ejemplo, si la utilización de la CPU va más allá del 80% entonces agregará un servidor y lo eliminará. Si va por debajo del 30% Auto Scaling utiliza Cloud Watch para monitorear la aplicación y en función de los requisitos, ya sea o elimina servidores para satisfacer la demanda. Ahora veamos algunos beneficios del escalado automático de AWS. Con la ayuda del grupo AWS Auto Scaling, podemos automatizar la adición y eliminación instancias EC two para satisfacer la demanda real. Este es uno de los logros más importantes de la nube. Como mencioné anteriormente, aporta agilidad para agregar recursos y eliminar recursos para satisfacer la demanda de los clientes. De ahí que elimine todo el trabajo reactivo de los centros de datos tradicionales. Otro beneficio significativo es la optimización de costos. Esto vuelve a ser un gran triunfo en la nube. No es necesario ejecutar recursos adicionales para satisfacer el pico de demanda. Se asegurará de que usted pague solo por lo que se requiere para atender a su cliente. Ya no es necesario pagar por los recursos no utilizados. Lo último y lo más importante es el rendimiento de las aplicaciones. Debido a que le ayuda a agregar y eliminar recursos para satisfacer la demanda, la aplicación siempre funciona mejor. Tu cliente no enfrentará ninguna latencia y lentitud en la aplicación Eso es todo para esta sesión. 55. Grupo de auto escalado EC2: Hola alumnos. Bienvenida de nuevo. Continuaremos con el escalado automático en este video y entenderemos los elementos del grupo EC dos autoscaling Empecemos. Hasta ahora ha entendido que el escalado automático agrega y elimina EC dos instancias Ahora vamos a entender cómo funciona esto. Debe crear un grupo de escalado automático que escalará dos instancias de Amazon C. Aquí es donde el ajuste de escala automático agrega y elimina EC dos instancias Esto significa que el grupo de escalado automático EC two garantiza que tenga suficientes instancias de Amazon C two disponibles para manejar la carga en su aplicación Se realiza con C dos configuración de grupo de autoescalado. Hay tres configuraciones, Tamaño mínimo, capacidad deseada y tamaño máximo. Con base en estas configuraciones, escalado automático ajustará el número de instancias dentro del número mínimo y máximo de instancias EC dos La configuración de capacidad deseada determinará el tamaño de un grupo de escalado automático. Por definición, un grupo de escalado automático es una colección de dos instancias de Amazon C agrupadas lógicamente para el escalado y la administración automáticos Eso está bastante claro, esto es lo que hemos estado discutiendo hasta ahora. Un grupo de escalado automático también le permite utilizar dos funciones de escalado automático de Amazon EC, como reemplazos de comprobación de estado y políticas de escalado Mantiene el número de instancias mediante realización de comprobaciones periódicas de estado de las instancias. Si alguna instancia se vuelve insalubre, el grupo de autoescalado terminará la instancia no saludable y lanzará otra instancia para reemplazarla Otra política de escalado de que voy a cubrir en la próxima sesión. Ahora vamos a entender la configuración de tamaño de grupo de autoescalado Ya que es crucial entender desde la perspectiva de la certificación y entrevista del practicante en la nube . tamaño mínimo define el número mínimo de instancias que deben ejecutarse en un grupo de escalado automático. En este caso tenemos uno. El tamaño mínimo garantiza que siempre tenga un número fijo de instancias ejecutándose. El grupo de escala automática nunca terminará instancias por debajo de este número La capacidad deseada determina cuántas instancias EC dos desea ejecutar. Idealmente, en este caso tenemos dos. autoescalado intentará mantener dos instancias C dos todo el tiempo La capacidad deseada es redimensionable entre los límites de tamaño mínimo y máximo Debe ser mayor o igual al tamaño mínimo del grupo y menor o igual al tamaño máximo del grupo. tamaño máximo es el número de instancias EC dos permitidas para ejecutarse. Este es el número máximo de instancias que se ejecutan en el grupo de autoescalado Los grupos de escala automática nunca crearán más del número máximo de instancias especificadas Para resumir, el grupo de escalado automático de Amazon C two mantiene el número de instancias y escala automáticamente Eso es todo lo que quería cubrir en este video. 56. Políticas de autoescala en EC2: Alumnos, bienvenidos de nuevo. Hasta ahora hemos entendido que el autoscaling necesita autoscaling group para mantener y escalar C dos instancias, Esto depende prácticamente configuración del grupo de autoescalado Como tamaño mínimo, tamaño máximo y capacidad deseada. También entendimos en el último video que la capacidad deseada debería cambiar en función de la carga y el tráfico en su aplicación. Ahora viene la pregunta, ¿cómo cambiará este número? ¿Cómo aumenta y reduce el número de instancias ? Bueno, el escalado comienza con un evento o una acción de escalado instruye al grupo de escalado automático para lanzar o terminar el Amazon EC Dos instancias, ahí es donde entran en existencia las políticas de autoescalado Existen diferentes tipos de políticas de autoescalado que están diseñadas para diversos fines Vamos a entender estos. Como nota, este es un tema muy importante por ejemplo y el punto de vista de la entrevista. Recomendaré prestar especial atención y tomar notas. También agregaré un enlace de aprendizaje adicional en la sección de recursos. La primera política de escalado automático es el escalado manual, y esta es la forma más básica de escalar sus recursos Aquí cambia sus grupos de autoescalado, capacidad máxima, mínima o deseada, Amazon C dos escalado automático administra el proceso de creación o terminación de instancias acuerdo con estas actualizaciones Si sabe cuándo es probable que fluya más tráfico hacia su aplicación, puede cambiar manualmente el tamaño de un grupo de escalado automático existente Puede actualizar la capacidad deseada del grupo de autoescalado o actualizar las instancias que se adjuntan al grupo de autoescalado La báscula manual puede ser útil cuando se necesita mantener un número fijo de instancias. El siguiente es el escalado dinámico. En el escalado dinámico, definimos cómo escalar la capacidad del grupo de escalado automático en respuesta a la demanda cambiante. Significa que puede aumentar el número de instancias durante la demanda pico, también conocida como escalado, y disminuir las instancias durante la demanda de carga, también conocida como escalado en. Ahora vamos a entender con un ejemplo. Digamos que tienes una aplicación web que actualmente se ejecuta en dos instancias C dos. Su objetivo es mantener la utilización de la CPU de estas instancias en alrededor del 50% independientemente de las cargas de las aplicaciones. Significa que necesita agregar una instancia EC two adicional cada vez que la utilización de la CPU cruza el 50%, pero no sabe cuándo alcanzará el 50%, no se preocupe. Puede configurar su grupo de escalado automático para escalar dinámicamente para satisfacer esta necesidad mediante la creación un paso de seguimiento de destino o una política de escalado simple Ahora entendamos estas políticas de escalado dinámico. Paso y escalado simple le permiten elegir las métricas de escalado y los umbrales para la alarma de CloudWatch que inicia Aprenderemos Cloud watch en el módulo de administración de AWS. Usted define cómo se debe escalar su grupo de escalado automático cuando un umbral alcanza un número específico de veces Tomemos el mismo ejemplo. Siempre que el uso promedio de CPU de todas las instancias C two supere el 50% durante 5 minutos, agregue 12 instancias al grupo de escalado automático. Alternativamente, siempre que la utilización de la CPU sea inferior al 30% durante 10 minutos, elimine una instancia C dos del grupo de escalado automático Esto es simple o escalado por pasos porque definimos el punto de activación para tomar acción y cuántas instancias agregar o eliminar. Seleccione una métrica de escalado y establezca un valor objetivo en el objetivo. Seguimiento de políticas de escalado, eso es todo. Es una manera muy fácil de definir una política de escalado dinámico. Ahora Amazon C two auto scaling creará y administrará las alarmas de cloudwatch que activan la política de escalado Y calcule el ajuste de escala basado en la métrica y el valor objetivo. La política de escalado agrega o elimina s dos instancias para mantener la métrica en o cerca del valor objetivo especificado. Por ejemplo, puede configurar una política de escalado de seguimiento de destino para mantener de su grupo de escalado utilización de CPU agregada promedio al 50% Luego, el ASG escalará automáticamente para garantizar que se mantenga alrededor ese objetivo de 50%. El siguiente es el escalado programado escalado programado ayuda a configurar su programa de escalado de acuerdo con los cambios de carga predecibles. Por ejemplo, digamos que cada semana el tráfico a su aplicación de olas comienza a aumentar el miércoles, mantiene alto el jueves y comienza a disminuir el viernes. Puede configurar un horario para Amazon EC two, auto scaling para aumentar la capacidad el miércoles, disminuir la capacidad el viernes. Esto es muy útil cuando sabemos que los cambios van a ocurrir antes de tiempo. Anticipamos el escalado basado en el patrón de usuarios conocidos. El siguiente es el escalado predictivo. Ayuda a escalar más rápido lanzando capacidad antes de la carga prevista La diferencia es que el escalado dinámico es reactivo y se escala cuando surge la demanda. Por otro lado, el escalado predictivo escala la capacidad base tanto en métricas en tiempo real como en datos históricos. Por ejemplo, considere una aplicación que tenga alto uso durante el horario comercial y un uso bajo. escalado predictivo nocturno puede agregar capacidad antes de la primera entrada de tráfico al inicio de cada día hábil Ayuda a su aplicación mantener una alta disponibilidad y rendimiento cuando pasa de un período de utilización más bajo a un período de utilización más alto. No hay que esperar a que el escalado dinámico reaccione ante el cambio de tráfico. Tampoco tiene que dedicar tiempo a revisar los patrones de carga de sus aplicaciones e intentar programar la cantidad correcta de capacidad mediante el escalado programado. Por lo tanto, el escalado predictivo utiliza el aprendizaje automático para predecir el tráfico futuro con anticipación. Analizará los patrones de tráfico pasados y pronosticará lo que sucederá con el tráfico en el futuro. Proporcionará automáticamente el número correcto de instancias EC dos por adelantado para que coincida con ese período previsto. Es beneficioso cuando se tienen patrones recurrentes de carga de trabajo o aplicaciones que tardan mucho en inicializarse y aplicaciones que tardan mucho que provocan una latencia notable Ahora volvamos y entendamos cómo se completa la política de escalado automático. El proceso de escalado automático. Como sabemos, el escalado automático depende varios factores como eventos, métricas y umbrales Y en base a nuestro requisito, configuramos una política de escalado automático. Esta política instruye al escalado automático para agregar y eliminar instancias C dos Eso es todo para esta sesión. 57. Configuración de lanzamiento y plantilla de lanzamiento: Hola, alumnos. Bienvenida de nuevo. Hasta el momento hemos entendido que el autoescalado aumenta y disminuye el número de instancias de EC Two para satisfacer la demanda Como sabes, cuando lanzas la instancia EC two, necesitamos proporcionar alguna configuración. También necesitamos predefinir esta configuración para el escalado automático. Esto es lo que hacemos con configuración de lanzamiento y la plantilla de lanzamiento. Sigamos adelante y entendamos esto con más detalle. Tanto la configuración de lanzamiento como la plantilla de lanzamiento definen las características de la EC. Dos instancias que queremos lanzar cuando surja la demanda. Aws introdujo la configuración de lanzamiento en 2014 y desde entonces hemos estado usando configuración de lanzamiento con EC dos grupos de escalado automático. Por otro lado, la plantilla de lanzamiento se introdujo recientemente y realiza una tarea similar a la configuración de lanzamiento. Dado que la plantilla de lanzamiento es el último servicio, tiene algunas características y capacidades adicionales para facilitarnos un poco el trabajo. Empecemos con una configuración de lanzamiento, luego pasaremos a la plantilla de lanzamiento. Una configuración de lanzamiento es una plantilla de configuración de instancia E dos donde definimos configuraciones de nuestra instancia EC two que queremos que escalado automático lance cuando llegue el lanzamiento de la demanda. configuración es la plantilla de configuración de las instancias EC two que el escalado automático utilizará para lanzar nuevas instancias EC two Cuando creamos una instancia EC two, ya sea desde la consola de administración de AWS o mediante la CLI de AWS, proporcionamos diferentes configuraciones de instancia de EC dos como AM ID, el tamaño del tipo de instancia, la configuración del almacenamiento Qué instancia usa el Keypair que se usa para conectarse a esa instancia También definimos la configuración de redes y grupos de seguridad. Esto decide la dirección IP y puerto desde el que se podrá acceder a la instancia. Podemos definir datos de usuario, que es un conjunto de comandos o scripts que se ejecutan mientras se inicia una instancia. También podemos definir los roles de IAM, los cuales se adjuntarán a la instancia y darán permiso para acceder a los servicios Esencialmente, esto incluye todo lo que solemos definir al lanzar una instancia. Podemos definir y guardar todos los ajustes en la configuración de lanzamiento, que actuará como una plantilla para el escalado automático al lanzar nuevas instancias. La configuración de lanzamiento no es editable. Se define una vez y esa configuración se registra. Si queremos ajustar la configuración de una configuración de lanzamiento, es necesario crear una nueva y usar esa nueva configuración de lanzamiento. Hay algunos desafíos con configuración de lanzamiento que se mejoran en la plantilla de lanzamiento. Como hemos visto anteriormente, la plantilla de lanzamiento es similar a la configuración de lanzamiento. Proporciona la configuración EC dos que es utilizada por el grupo de escalado automático EC dos al lanzar C dos instancias. Además, la plantilla de lanzamiento también se puede utilizar para lanzar EC two instancias o flota de EC two instancias directamente desde la consola de administración de AWS o AWS CLI Dado que la plantilla de lanzamiento es el último servicio, incluye varias características adicionales. Además de las características de configuración, vamos a echarles un vistazo una por una. Nos permite crear múltiples versiones de la plantilla de lanzamiento a través de diferentes configuraciones. Podemos especificar múltiples tipos de instancias, incluso tipos de instancia basados en atributos de tipo de instancia como memoria, almacenamiento de CPU, etc. Tiene la capacidad de usar instancias tanto a pedido como puntuales, lo que conlleva aún más grandes ahorros. También cubre de dos por tres características ilimitadas. Los grupos de ubicación, la capacidad , las reservas, los gráficos elásticos y las funciones de host dedicado están disponibles en la plantilla de lanzamiento, pero estas características faltaban en la configuración de lanzamiento. Además, permite EBS, etiquetado de volumen e interfaz elástica Aws recomienda usar la plantilla de lanzamiento en lugar de la configuración de lanzamiento, ya que ofrece más beneficios arquitectónicos. Ahora entendamos dónde encaja la configuración de lanzamiento, una plantilla de lanzamiento en el proceso de escalado automático. Si recuerda de la sesión anterior, escalado automático depende de varios factores como eventos, métricas y umbrales Basándonos en nuestro requisito, configuramos una política de escalado automático Esta política instruye al escalado automático para agregar y eliminar instancias EC two Ahora, el escalado automático necesita la configuración de lanzamiento de instancia para lanzar la instancia EC two ¿Correcto? Para lanzar C dos instancias, utilizamos la configuración de lanzamiento y la plantilla de lanzamiento para proporcionar configuraciones de EC dos al grupo de escalado automático Cada vez que el autoscaling lanza una instancia EC two, se refiere a la configuración de lanzamiento que configuramos con autoscaling Eso es todo para esta lección sobre configuración de lanzamiento y la plantilla de lanzamiento. 58. Balanceador de carga: Hola, alumnos. Bienvenido de nuevo. En el último video, entendimos cómo el escalado automático EC two escalaría automáticamente hacia arriba y hacia abajo sus instancias EC dos según la demanda. En esta lección, aprenderemos el concepto general de equilibrio de carga, ya que esta será la base nuestro próximo video, Elastic Load Balancer Empecemos. Supongamos que ingresa a un hotel de cinco estrellas para registrarse. Hay diez recepcionistas revisando reservas, check-in y check out La mayoría de los clientes están parados en unas pocas líneas, lo que resulta en una distribución desigual de los clientes por línea, mientras que otros recepcionistas están de pie por ahí haciendo nada más que esperar Los clientes están entrando y no tienen idea de a dónde ir. Pero si piensas en la situación, sería útil si tenemos un anfitrión en la entrada. Cualquier cliente que entre necesita saber cuál tiene menos gente y quién es eficiente. este momento, los clientes serán recibidos por un anfitrión en la puerta Él los dirigirá a la línea correspondiente en el hotel para el check out, check out. El anfitrión vigila a los recepcionistas y cuenta el número de personas en línea a las que atiende cada recepcionista Ahora, cualquier nuevo cliente será dirigido a la recepcionista con la línea más corta, que es la que menos banda up. En consecuencia, incluso habrá colas entre recepcionistas, permitiendo que los clientes sean atendidos de la manera más eficiente posible Ahora piensa en AWS, Auto Scaling Group. Tiene varias instancias EC dos que ejecutan la misma aplicación. Cuando entra una solicitud, ¿cómo sabe la solicitud qué instancia de EC two la manejará? ¿Cómo puede garantizar una distribución uniforme de la carga de trabajo en C dos instancias? Necesita una forma de enrutar las solicitudes por igual a diferentes instancias para procesar estas solicitudes. Ahí es donde entra en escena el balanceador de carga. Es una solución de red que distribuye el tráfico entre múltiples servidores para mejorar el rendimiento de las aplicaciones. Nuevamente, este es un software que puedes instalar, administrar, actualizar y escalar. puede instalar un balanceador de carga para dos o más instancias C dos, pero el problema es la escalabilidad Entendamos esto. Tiene un equilibrador de carga frente dos instancias C dos y su número de instancias EC dos aumentará en función de la carga Especialmente si tiene fuera escalado , entonces no hay limitación en C dos instancias. Se puede escalar de la nada a 100 o incluso más C dos instancias, ¿verdad? Ahora bien, ¿cómo manejará un equilibrador de carga todas las solicitudes? También necesita ser escalado, ¿verdad? Ahí es donde AWS brinda otro servicio llamado balanceador de carga elástico 59. ¿Qué es un balanceador de carga elástica (ELB)?: Hola, alumnos. Bienvenido de nuevo. En este video, entenderemos otro servicio de AWS que es Elastic load Balancer Este servicio trabaja muy de cerca con el escalado automático para distribuir el tráfico por igual a dos instancias. Empecemos. ¿Qué es el balanceador de carga elástico? Este es un servicio de AWS que se utiliza para distribuir la carga. Está diseñado para abordar el levantamiento pesado indiferenciado del equilibrio de carga En la lección anterior, aprendió sobre un balanceador de carga que es responsable la distribución del tráfico entrante entre instancias EC dos disponibles Elb escala automáticamente a medida que el tráfico a sus servidores cambia si el tráfico crece Elb permite que el balanceador de carga maneje la carga adicional distribuyéndola cada vez que su grupo de escalado automático EC dos escale y agregue una nueva instancia de EC two, el servicio de escalado automático envía una notificación al balanceador de carga elástico de que una nueva instancia está lista para manejar el una nueva instancia está lista para Del mismo modo, cuando el grupo de escalado automático EC dos en eso significa que si inicia el proceso para terminar una instancia, envía una notificación al balanceador de carga elástico Ahora es trabajo de ELB dejar de enviar el tráfico a la instancia seleccionada Después de eso, espera completen las solicitudes existentes Una vez que se cumplen todas las solicitudes existentes, el escalado automático termina las instancias sin molestar a se cumplen todas las solicitudes existentes, el escalado automático termina los clientes existentes El balanceador de carga elástico enruta automáticamente el tráfico de aplicaciones entrante a través de diferentes instancias Actúa como punto de contacto para el tráfico entrante. Cualquier tráfico que llegue a su aplicación primero se reúne con el equilibrador de carga y luego se envía a una instancia disponible También monitorea el estado de las dos instancias EC en ejecución , ya que envía las solicitudes de tráfico solo a las instancias sanas. Bien, a partir de ahora, ha aprendido cómo balanceador de carga elástico enruta tráfico externo a sus dos instancias EC No sólo eso, sino que también se utiliza para el tráfico interno re, ruteo. Entendamos con un ejemplo de ML. Supongamos que muchos usuarios están usando su Gmail. Abren el Invox, luego la página actúa como servidor web Un usuario compila el mensaje y hace clic en el botón enviar Si hablamos de lo que sucede en el servidor de correo, un servidor de aplicaciones está procesando tus correos electrónicos, incluyendo almacenarlos en una base de datos, enviarlos a los respectivos usuarios, etcétera Si cada vez son más los usuarios que empiezan a usar Gmail, también aumentará el número de servidores web. De ahí que C a auto scale también tendrá que aumentar el número de servidores de aplicaciones. Se debe reconocer a cada servidor Ab que un nuevo servidor de aplicaciones está disponible para aceptar el tráfico. Ahora imagina que tienes potencialmente cientos de instancias de servidor en ambas llantas. También podemos resolver el caos de tráfico de Appserver con un ELB interno Elb dirigirá el tráfico al servidor de aplicaciones que tenga las solicitudes menos pendientes El servidor Wave no sabe y no le importa cuántas instancias de Appserver se están ejecutando Solo ELB maneja dirigir el tráfico a Apservers disponibles Esto se conoce como arquitectura desacoplada. En esta arquitectura, todos los componentes informáticos permanecen completamente autónomos e inconscientes unos de otros haciendo la tarea instruida de forma independiente. balanceador de carga elástico es el servicio que podemos usar frente a un Waveserver para distribuir También se llama balanceador de carga pública. También podemos usar el balanceador de carga elástico detrás del Waveserver para distribuir igualmente el tráfico al servidor distribuir igualmente el tráfico Como esto está funcionando internamente, se le llama balanceador de carga privado interno Estudiantes, eso es todo por este video. 60. Balanceador de carga elástica de AWS (ELB): Hola, alumnos. Bienvenida de nuevo. En este video, vamos a entender diferentes tipos de ELB Empecemos. Aws, equilibrio de carga elástico, admite cuatro balanceadores de carga, equilibradores de carga de aplicaciones, equilibradores de carga de red, equilibradores de carga clásicos y equilibradores de carga de puerta de enlace Vamos a entenderlos uno por uno. Estos balanceadores de carga funcionan con diferentes modelos OSI. Osi Reference Model significa Modelo de Referencia de Interconexión de Sistema Abierto Describe cómo la información se transforma de un software en una computadora a otra mediante el uso de una red. Esto se logra dividiendo la comunicación de datos en varias capas, dando control sobre el envío de datos de una capa a otra. Como su nombre indica, balanceadores de carga de aplicaciones funcionan en la séptima capa del modelo OSI, la capa de aplicación El balanceador de carga de red funciona en la capa cuatro, que es la capa de red El balanceador de carga clásico es el más antiguo y el primer servicio de balanceador de carga elástico Está diseñado para funcionar tanto en la aplicación como en la capa de red. El balanceador de carga de puerta de enlace es el servicio más nuevo de la familia de balanceadores de carga elásticos, el servicio más nuevo de la familia de balanceadores de carga elásticos, que funciona en la capa 3.4 Lo siguiente es la lista de protocolos, lo que significa los diferentes protocolos donde estos balanceadores de carga pueden escuchar balanceador de carga de aplicaciones solo admite protocolos HTTP y STTPS El balanceador de carga de red maneja los protocolos TCP y UDP. El balanceador de carga de puerta de enlace solo escucha en IP. Como mencionamos anteriormente, un balanceador de carga clásico puede funcionar tanto en reproductores de aplicaciones como en redes Por lo tanto, soporta protocolos tanto de aplicación como de reproductor de red como TCP, SSL por TLS, TTP, TTP Ahora veamos diferentes casos de uso para estos balanceadores de carga El caso de uso más común para el balanceador de carga de aplicaciones es para aplicaciones web Una aplicación web construida en el marco de microservicios puede usar ALB como equilibrador de carga antes de que el tráfico entrante llegue a su EC, dos instancias o los contenedores alojados para una red de servicios balanceador de carga cubre los escenarios restantes en los que ALB, por ejemplo, las aplicaciones que dependen de un protocolo aparte de STTP, las aplicaciones sensibles al tiempo, el flujo de datos en tiempo real y las aplicaciones que dependen de la transmisión de audio, video, códigos de moneda, etc., se beneficiarán El balanceador de carga de puerta de enlace funciona en la capa tres. Hace que sea fácil y rentable implementar, escalar y administrar la disponibilidad de dispositivos virtuales de terceros. El clásico balanceador Lode se puede usar con casi todos los casos de uso de balanceador Lode de aplicación y red Pero como la aplicación y el balanceador Lode de red son los más nuevos y están diseñados para un propósito específico, los usas para sacarle el máximo partido Aws retira el clásico balanceador de carga 15 de agosto de 2022 No se recomienda su uso. El siguiente es el tipo de destino, lo que significa dónde el equilibrador de carga puede dirigir el tráfico Podría ser C dos instancias direcciones IP fijas, AWS, funciones Lambda, entre otras. Simplemente puede relacionarlo con los casos de uso anteriores. El balanceador de carga de la aplicación admite instancias IP C dos, y el balanceador de carga de red Lambda admite IP C dos Y también el balanceador de carga de aplicaciones puede enviar tráfico a ALB también El balanceador de carga Gateways admite dos instancias IP y EC El balanceador de carga clásico también admite dos instancias IP y EC Podemos entrar en detalle en cada balanceador de carga, pero eso no es necesario para este curso Solo necesita recordar estos cuatro tipos de balanzas de carga, tipos, protocolos y casos de uso. Eso es todo por esta lección. 61. Usando ELB y auto escalado juntos: Hola, alumnos. Bienvenido de nuevo. En el laboratorio anterior, en el módulo EC two, hemos desplegado el servicio STTDP a la instancia EC two, que creamos desde la consola de AWS En este lab, crearemos EC dos instancias usando el grupo AWS Autoscaling Veremos cómo configurar los grupos de autoescalado de AWS. Implementará automáticamente el servicio STTDP en todas las instancias del grupo de escalado automático y verá el acceso a grupo de escalado automático y verá el la aplicación STTDP resultante a través del equilibrador de carga de la aplicación través Vamos a la consola de AWS y tecleemos C dos en la barra de búsqueda. Haga clic en C dos para ir directamente al tablero EC two. En el panel izquierdo, encuentra un clic en Lanzar plantillas. Especifican la configuración de EC dos instancias. Echemos un vistazo. Haga clic en Crear. Plantilla de lanzamiento. Agrega un nombre de plantilla de lanzamiento empaquetado, Elting. Añadamos Plantilla de Lanzamiento para Auto Scaling. Demostración como la descripción, podemos agregar impuestos haciendo clic en este botón desplegable aquí. Si quieres copiar, modificar o crear una nueva plantilla a partir de una plantilla de lanzamiento existente, puedes hacerlo haciendo clic en el siguiente menú desplegable aquí. La siguiente opción que tenemos es elegir el AMI. Escribamos Amazon, Linux, dos en la barra de búsqueda y seleccionemos la primera AMI. Como puede ver, esta AMI es elegible para llantas gratis, lo que significa que no tendremos que pagar nada por esto. La siguiente opción es elegir el tipo de instancia. Podemos ver varios tipos de instancias si garabateas aquí abajo. Como no tenemos ningún requisito de instancia especial y también queremos quedarnos en la llanta libre, escojamos la micro instancia de dos puntos. A continuación, tenemos que elegir el par de claves. Lo necesitaremos cuando evaluemos H en la instancia. Además, debes especificar un par de claves, ya que no evaluaremos H a la instancia en este laboratorio Dejemos esto por defecto. Si quieres probar SSH y ejecutar comandos tú mismo, puedes elegir un par de teclas existente como este o crear un nuevo par de teclas haciendo clic en Tenemos que especificar la configuración de red para nuestras dos instancias EC. No necesitamos seleccionar subredes aquí. Dejemos este defecto por ahora. A continuación, tenemos que configurar el grupo de seguridad. Tenga en cuenta que este grupo de seguridad en última instancia se adjuntará a la CE dos instancias que creamos. A partir de esta plantilla de lanzamiento, podemos crear un nuevo grupo de seguridad o seleccionar un grupo de seguridad existente. Tengo el grupo de seguridad del laboratorio anterior. Yo puedo elegir esto. Pero permítanme demostrar el proceso de creación de un grupo de seguridad. Una vez más, haga clic en Crear grupo de seguridad y agregue el nombre y la descripción del grupo de seguridad. Elija la VPC correcta. A continuación agregaremos reglas. Haga clic en Agregar regla de grupo de seguridad y luego Agregar reglas de grupo de seguridad. Seleccione STTP en la columna tipo en esta fuente. Seleccione Cualquier Lugar. No he agregado la regla SSH ya que no vamos a estar haciendo eso en este laboratorio Si planea probar SSH, debe seleccionar un pagador clave y agregar la regla SSH Ahora hemos configurado el grupo de seguridad para nuestra plantilla de lanzamiento. A continuación, podemos agregar la configuración de volúmenes de EBS aquí. Vamos a saltarnos esto. Para este laboratorio, podemos ags a la plantilla de lanzamiento haciendo clic aquí, pero no tenemos tales requisitos. Vamos a saltarnos esto también. Haga clic en Opciones avanzadas. No necesitamos cambiar ninguna opción aquí. Sigue adelante y garabea hasta la parte inferior de la página. Verás la opción de datos de usuario aquí. Aquí podemos ingresar los comandos que queremos ejecutar cuando comience nuestra instancia. En el laboratorio anterior, instalamos STTPD manualmente. En este lab, agregaremos nuestros comandos en este cuadro de texto aquí Aws los ejecutará automáticamente cuando se inicie nuestra instancia. En los siguientes comandos actualizar. Esto es para actualizar los paquetes predeterminados en nuestra instancia, instalar STTPdoy Este comando instalará STTPD en nuestro sistema de instancias, Iniciar STTPD. Este comando iniciará el servicio SttPD en las dos instancias EC Este comando en la pantalla nos mostrará una página STML personalizada Haga clic en la plantilla Crear lanzamiento. Hemos creado con éxito una plantilla de lanzamiento. Haga clic para ver las plantillas de lanzamiento. Ya puedes ver tu plantilla de lanzamiento en la lista. Pasemos ahora al panel de control de Autoscaling Group. Haga clic en Grupos de autoescalado en el panel izquierdo y haga clic en Crear grupo de autoescalado Ingresa el nombre empaquetado ASG y elige la plantilla de lanzamiento que acabamos de crear Tenga en cuenta que también puede ir a la página Crear plantilla de lanzamiento la página Crear plantilla de lanzamiento desde este enlace aquí. Haga clic en Siguiente, elija la VPC empaquetada y seleccione submt pública uno y submate pública dos Seleccione cualquiera de las dos subredes predeterminadas de la lista. Si no tienes tu propia VPC en tu cuenta, haz clic en Siguiente Podemos agregar un balanceador de carga a nuestro grupo de autoescalado, directamente desde esta página aquí, pero lo haremos más adelante desde el panel del balanceador de carga Vamos a saltarnos esto por ahora. Haga clic en siguiente, vemos tres opciones importantes y útiles. Capacidad deseada. Este valor especifica el número deseado de instancias que desea tener. Cambiemos esto a tres. A continuación tenemos la capacidad mínima. Este valor especifica el número mínimo de instancias que desea que tenga el grupo de escalado automático. Si tiene una capacidad mínima de dos, AWS se asegurará de que siempre tendrá un mínimo de dos instancias. Cambiemos este valor a dos. A continuación tenemos la capacidad máxima. Este valor especifica el número máximo de instancias que desea que tenga el grupo de autoescalado cuando se escala. Si tiene una capacidad máxima de cuatro, permítanos cambiar este valor a cuatro instancias. Podemos agregar la política de escalado de seguimiento de destino seleccionando la opción aquí para nuestro ejemplo, agregaremos políticas de escalado simples luego agregaremos políticas de escalado simples a nuestro grupo de escalado automático Haga clic en siguiente, podemos agregar notificación en esta página. Por ejemplo, podemos crear un tema SNS que nos envíe un correo electrónico cada vez que grupo de escalado automático escala o hacia abajo, no tenemos tales requisitos Haga clic en siguiente, podemos agregar etiqueta aquí, omita esto. Haga clic en Siguiente, Revise su grupo de ajuste de escala automática y, a continuación, haga clic en Crear grupo de ajuste de escala automática Podemos ver nuestro grupo de autoescalado listado con la capacidad deseada de tres, capacidad mínima de dos y una capacidad máxima de cuatro El estado, por lo que actualizando la capacidad ya que tenemos la capacidad deseada de tres y actualmente este grupo de autoescalado no tiene instancias, intentará crear tres instancias C dos para nosotros. Puedes ver esto seleccionando tu grupo de autoescalado y haciendo clic en la actividad Verás tres lanzamientos de instancias exitosos. En la columna de causa, puedes ver que el servicio Autoscaling Group está tratando de aumentar la capacidad 0-3 Antes de ir al panel EC two y ver nuestras instancias, agreguemos políticas de escalado al grupo Autoscaling Haga clic en la pestaña de escalado automático. Al lado de la pestaña de actividad, verás que no tenemos políticas agregadas a nuestro grupo de escalado automático Vamos a crear una política de escalado dinámica. Elija escalado simple del tipo de política y agregue el nombre. Agregar una instancia. Cuando la utilización de la CPU es menor que grupo de escalado automático necesita la alarma de Cloudwatch para realizar un seguimiento de la utilización de la CPU Vamos a crear la alarma haciendo clic aquí en la página de alarmas CW. Haga clic en Seleccionar métrica, haga clic en dos. Para C dos métricas, necesitamos la métrica de grupo de escalado automático general y no la métrica por instancia para esta alarma Seleccione por grupo de autoescalado y busque utilización de la CPU bajo el nombre de la métrica Seleccione la fila de utilización de CPU y haga clic en Seleccionar métrica. Puede ver el gráfico de utilización de CPU a su izquierda. Queremos que nuestro grupo de autoescalado se escale. La utilización de la CPU es superior al 80% Desplácese hacia abajo y en el cuadro de condición, seleccione mayor e ingrese el valor 80. Esto significa que nuestra alarma se activará cuando el valor de utilización de la CPU sea superior a 80. No necesitamos cambiar los otros parámetros para la alarma. Haga clic en siguiente, podemos agregar notificaciones y acciones en esta página, pero omita esto por ahora. Añadiremos una acción de alarma en la página del grupo Autoscaling Haga clic en Siguiente, ingrese el nombre y la descripción y vuelva a crear la alarma en la página Grupo de Autoscaling Actualizar la opción de alarma. Encuentra tu alarma de escala en la lista. Seleccione la alarma en la acción. Elija agregar una unidad de capacidad. Esto agregará una instancia a nuestro ASG cada vez que se active esta alarma Hemos creado nuestra política de escalado simple para escalar la sala de escalado automático. Creemos otra política para reducir la escala. Haga clic en Crear política de escalado dinámico. Seleccione Escalado simple. Agrega el nombre. Elimine una instancia cuando la utilización de la CPU sea inferior a 30. También tendremos que crear una nueva alarma. Haga clic en el enlace Crear alarma. Haga clic en seleccionar Métrico. Ec a métrica por grupo Autoscaling y seleccione la métrica de utilización de CPU Esta vez queremos que nuestra alarma se active cuando la utilización de la CPU esté por debajo del 30% en la caja de condición de alarma. Selecciona inferior y suma el valor 30. Haga clic en Siguiente, omita las notificaciones, agregue un nombre y una descripción y cree la alarma en la página Grupo de escalado automático Refresca, selecciona la alarma. Elija eliminar una unidad de capacidad y crear la política. Veamos estas políticas en acción. Acabamos de agregar una política para reducir la escala cuando la utilización de la CPU está por debajo del 30% Dado que no tenemos ninguna carga de trabajo en nuestro EC dos, la utilización promedio de la CPU estará por debajo del 30% activando esta alarma Si ve la pestaña de actividad de su grupo de escalado automático, pronto notará que AWS disminuyó la capacidad deseada 3-2 y ahora está terminando la instancia En la sección de casos, verá que esto se debe a que acabamos de crear la política incluso después de que nuestro ASG se haya reducido. Si lo ve en la pestaña Cloudwatch, la alarma de reducción de escala sigue en el estado activado Esto se debe a que todavía no tenemos procesos ejecutándose en nuestras instancias EC dos y la utilización de la CPU es baja. Idealmente, AWS disminuirá otra instancia de nuestro ASG. Pero como especificamos la capacidad mínima ya que dos AWS no escalará su instancia AWS cambia su capacidad deseada como para las políticas de escalado, pero nunca cambia los valores de capacidad mínima y máxima. Si editas el grupo de escalado automático y cambias el valor mínimo de capacidad a uno, muy pronto verás terminada otra instancia. No hagamos eso y mantengamos nuestras dos instancias funcionando. Vaya a la página de instancias desde el panel izquierdo. Podemos ver que tenemos dos instancias en el estado de ejecución y una instancia en el estado terminado. Seleccione cualquiera de las instancias en ejecución y copie su página de direcciones IP públicas las direcciones IP del navegador de instancias. Encontrarás que aunque no ejecutamos manualmente ningún comando en la instancia, tiene HTTPD instalado y ejecutándose Ahora vamos a crear un balanceador de carga de aplicaciones y ver esta página web desde la URL del balanceador de carga Haga clic en Equilibradores de carga. Desde el tablero izquierdo, puedes ver que no tenemos balanceadores de carga en nuestra cuenta a partir de ahora Haga clic en Crear balanceador de carga, seleccione Equilibrador de carga de aplicaciones, Ingrese el nombre de Cloud Advisory ALB La siguiente opción es elegir si queremos un balanceador de carga interno o orientado a Internet Los balances de carga internos solo son accesibles localmente dentro de la VPC Como queremos ver nuestro sitio web a través del ALV desde cualquier parte del mundo, necesitamos seleccionar la opción de cara a Internet en la caja de red Elija la VPC y las subredes públicas en la sección del grupo de seguridad Creemos un nuevo grupo de seguridad. Agrega el nombre y la descripción. Seleccione la misma VPC que las instancias EC dos. Y agregue una regla STTP para permitir conexiones STTP desde Vuelva a crear el grupo de seguridad en la página del equilibrador de carga. Actualizar la opción de grupo de seguridad. Elige el que acabas de crear. Los alb's requieren algo llamado el grupo objetivo. Un grupo objetivo es un grupo de C dos instancias u otros recursos donde ALB reenvía sus solicitudes Vamos a crear un nuevo grupo objetivo haciendo clic en este enlace aquí. Ingresa el nombre del grupo objetivo y deja los demás valores por defecto. Haga clic en Siguiente, elija sus Instancias y agréguelas como pendientes a continuación. Haga clic en Grupo objetivo, de nuevo en la página de creación de ALB. Reformule la opción Grupo objetivo y elija la que acaba de crear Haga clic en Crear el balanceador de carga. Hemos creado con éxito nuestro ALB. Haga clic en Ver balanceadores de carga. Ya podemos ver nuestro balanceador de carga en la consola. Da clic en el balanceador de carga, amapola, el valor DNS y pegarlo en tu navegador Puedes ver la página del camino y la dirección IP de la instancia que está atendiendo nuestra solicitud. Dado que el balanceador de carga reenvía aleatoriamente nuestras solicitudes a las dos instancias de EC, verá que la dirección IP cambia cada vez que recarguemos la página Así es como implementas aplicaciones web en el mundo real. Hemos implementado con éxito una arquitectura escalable y de alta disponibilidad utilizando Autoscaling group y ALB Sigamos ahora y eliminemos nuestra infraestructura. Para ello, vaya a la consola de grupo de autoescalado y elimine el grupo de autoescalado haciendo clic en Acciones Elimine el equilibrador de carga en la página del equilibrador de carga. Elimine el grupo objetivo en la página del grupo objetivo en la página del grupo de seguridad. Elimina todos los grupos de seguridad excepto el grupo de seguridad predeterminado para tus VPC's. Eso es todo para esta sesión. Nos vemos en la siguiente. Escucha.