Transcripciones
1. Cuentas de AWS: Hola alumnos, bienvenidos
a otro video. Antes de pasar a AWS y
comenzar a explorar sus servicios, lo primero que
necesitamos es una cuenta de AWS. Pero antes de crear
su cuenta de AWS, hay algunas cosas que
necesita saber. En este video. Estaremos
hablando de los elementos de
una cuenta de AWS y de las cosas que
necesitamos para crear una
cuenta para nosotros mismos. Vamos a meternos en ella. Esta es una cuenta de AWS. Estoy asumiendo que ya no
tiene cuenta. Entonces vamos a crear
uno en la siguiente lección. Y la cuenta de AWS es un
contenedor en el que crea y administra todos sus recursos y servicios de
AWS. Lo primero que necesita
para crear y administrar una cuenta de AWS es una identidad. Estaremos cubriendo la
identidad en el módulo IAM. Pero por ahora, puedes
entenderlo como usuario. Este usuario controlará y
gestionará toda su cuenta. Entonces estarás creando
una cuenta para ti mismo. Actuarás como identidad. Ahora como usuario, crearás
algunos recursos en tu cuenta que
eventualmente generarán algunas facturas. También puedes gestionar todo tipo de facturación en la misma
cuenta. De ahí que cada cuenta tenga sus recursos,
identidad y construcción de AWS. Una cuenta de AWS es un entorno naturalmente
seguro. Nadie fuera de tu cuenta puede acceder a tus recursos y
obtendrás las facturas. Solo por los recursos que
aportes en tu cuenta. Puede comenzar su viaje en AWS
con una sola cuenta. Pero cuando tu organización
crece en tamaño y complejidad, puede ser difícil
gestionar todo en
una sola cuenta. Es por eso que AWS recomienda
usar varias cuentas. Por ejemplo, puede crear cuentas separadas
para equipos de desarrollo, pruebas y producción
en su organización. Porque simplifica
el control de seguridad y el proceso de facturación
para cada equipo y proporciona a diferentes equipos la flexibilidad requerida para que
puedan enfocarse en la innovación. Ahora, veamos lo que necesita para crear
una cuenta de AWS. En primer lugar, se
necesita un id de correo electrónico, que debe ser único. Eso significa que no debe
usarse en ninguna otra cuenta de AWS. También se necesita una
tarjeta de crédito o débito, cual es necesaria para fines
de facturación. Con estas dos piezas
de información, podrá
crear una cuenta de AWS. Cuando crea una
nueva cuenta de AWS, básicamente está creando
un usuario que tenga control sobre todos los servicios y
recursos de su cuenta. Esta identidad o usuario se conoce como la cuenta de AWS,
el usuario raíz. El usuario root puede iniciar sesión
con la dirección de correo electrónico y contraseña que utilizó al crear la cuenta
en primer lugar. Hablaremos de usuario root en
detalle en el módulo de
seguridad de AWS. Cuando inicia sesión en
su cuenta de AWS, el primer panel
que ve se conoce como consola de administración de AWS. Se trata de una consola basada en la que se puede acceder
a través de un navegador web. También hay otras formas de
acceder a las cuentas de AWS, que veremos
en el siguiente módulo. También se te
pedirá que
autentiques tu identidad cuando
inicies sesión por primera vez. Esa es básicamente la administración de identidad
y acceso, comúnmente conocida como servicio IAM, garantiza un acceso seguro a su cuenta de AWS y a
los recursos que hay en ellas. También exploraremos en
detalle en un módulo posterior. Por lo que ahora estamos todos dispuestos a
crear una cuenta de AWS.
2. Crea una cuenta de AWS: Hola alumnos, bienvenidos de vuelta. En este video, crearemos
una cuenta de AWS Free Tier. El propósito de AWS Free, vinculado a permitir que los clientes y nuevos usuarios exploren
AWS y obtengan la
experiencia práctica
necesaria antes
de que realmente comiencen a construir
su infraestructura en la nube. Entonces como su nombre indica, el tiempo libre consiste en
servicios y recursos que son de uso gratuito en la AWS con algunos
términos y condiciones. Hemos discutido en
el video anterior. Necesita una identificación de correo electrónico única y una tarjeta de crédito para crear
su cuenta de AWS. También necesitarás un formulario para recibir un código de
verificación SMS, que forma parte de
abrir la cuenta. Ahora podría estar
pensando que si
vas a utilizar solo servicios CAS
gratuitos, ¿por qué necesitas ingresar los datos de
tu tarjeta? Bueno, eso es porque la
llanta libre es una oferta limitada. Y en caso de
agotar el límite o servicio de
usuario que no
viene debajo de la llanta libre. Tenemos un
color bonito la cantidad. Por lo tanto, es
obligatorio configurar nuestro método de facturación como
crear su cuenta de AWS. Pero eso no es algo
de qué preocuparse. En este entrenamiento. Sólo estaremos
utilizando servicios nefastos. Y si te apegas a lo que
hacemos en este entrenamiento, no
te cobrarán
para asegurarlo aún más. También estableceremos un presupuesto
para nuestra cuenta y configuraremos una alerta para que
obtengamos una notificación. Si cruzamos el proyecto CIP. Vamos a abrir un navegador web y empezar a crear
nuestra cuenta gratuita. He abierto un navegador
web aquí, y lo hice para el nivel gratuito de
AWS. Y el primer resultado aquí, tiempo libre de
AWS es lo que queremos. La primera página
te ayuda a entender qué es
una cuenta gratuita y cuáles son los servicios que
vienen bajo la dieta gratuita? Estaré cubriendo un
retiro tonto en la próxima lección. Así que vamos a saltarlas y
crear una cuenta gratuita. A continuación, deberá
rellenar los detalles requeridos. Tu dirección de correo electrónico única
para el usuario raíz, y luego elige un nombre
para tu cuenta. También puede cambiar el nombre
y la letra LES. Si quieres. Después haga clic en Verificar, Dirección de
correo electrónico,
verifique su correo electrónico. Ingresa
aquí el código de verificación y haz clic en Verificar. Serás recibido. Eres tú, tu dirección de correo electrónico
ha sido completamente verificada. Ahora ingresemos una contraseña para el usuario root y
confirmemos la contraseña. Y haga clic en Continuar. Has terminado el paso uno. Y luego nos llevará a dar un paso a través de la primera pregunta. ¿ Cómo planea usar AWS? Simplemente elige Poznan. Después agrega tu nombre, número de
teléfono, tu país
o región, dirección. Y luego dar click en aceptar los términos y condiciones y
continuar con el siguiente paso. A continuación se encuentra la página de facturación que necesitas para rellenar
tu información de facturación. Ingrese su
número de tarjeta de crédito, fecha de vencimiento, nombre de
los titulares de tarjetas y fórmula, riesgo
alcista, y luego
continúe con el paso cuatro. Se le puede pedir que
confirme su identidad. Por lo que de nuevo, deberá ingresar su número de teléfono y
al cheque de seguridad. Y obtendrás una cotización en tu teléfono que
necesitas ingresar aquí. No he tenido aquí mi código de
verificación. Y hagamos click en Continuar. Aquí tenemos el plan de apoyo. Es una forma de obtener ayuda en tiempo
real de AWS relacionada con sus
recursos y servicios. Para nuestro propósito,
elegiremos el soporte básico. Es completamente
gratuito y solo te
ayuda con las cuestiones relacionadas con la cuenta
o facturación. Por último, haga clic en Completar inscribirse. Y eso es todo. Ahora podemos ir a la consola de administración de
AWS. Haga clic en el botón en
medio de la pantalla. Aquí, nos pedirá un ID de
cuenta o alias de cuenta. No hemos especificado
ningún alias para cuenta. Y no sé cuál es
el ID de cuenta. Tampoco tenemos
un nombre de usuario porque se
trata de un nombre de usuario de IAM. Lo que sí tenemos es
el correo de usuario raíz. Entonces optemos por iniciar
sesión usando routing, un e-mail e ingresamos dirección de correo electrónico con
la que
acabamos de inscribirnos. Ingrese la contraseña
y haga clic en Iniciar sesión. Felicidades. Vietnam inició sesión en nuestra cuenta. Y esta es la Consola
de Administración. Por lo que ahora es tu momento de crear una cuenta para ti mismo para
seguir adelante con este entrenamiento. Eso es todo por esta lección. Entenderemos ofertas de gyre gratuito de
AWS
en la próxima sesión. Nos vemos pronto.
3. Nivel libre de AW: Bienvenidos de vuelta a los estudiantes. En el último video, ha creado
una nueva cuenta de AWS y ha agregado los
detalles de su tarjeta para la facturación. Esto nos recuerda
que necesitamos utilizar los servicios de
AWS de una manera
planificada. De lo contrario, terminarás
pagando algunos servicios. Bueno, no te preocupes. En esta sesión, te
guiaré a través de cómo usar tu cuenta de AWS para
que no te cobren las
próximas dos sesiones. También te ayudaré a
asegurar tu cuenta, establecer un presupuesto para tu
cuenta, y una alarma. Por lo que se le notifica si
cruza el límite presupuestario. Así que comencemos
con la llanta gratuita de AWS. La llanta gratuita te permite
probar ciertos servicios de AWS por un periodo definido sin
tener que pagar nada. Significa que AWS proporciona una lista
de los servicios de AWS que
puede utilizar de forma gratuita en la plataforma de AWS para obtener
cierta experiencia práctica. Ahora, déjame llevarte a la página web de nivel gratuito de
AWS. Esta es la página de AWS Free Tier. Puedes ver todos los detalles
sobre la llanta libre de AWS, que se clasifica
en tres categorías. El primero son los juicios gratuitos. En virtud de esta oferta, puede utilizar algunos servicios de AWS
durante un corto período. Y luego estos servicios, y al final de ese periodo, el segundo es de
12 meses gratuitos. Significa que tienes 12 meses para probar estos servicios de forma gratuita. Y se inicia a
partir de la fecha en que creó su cuenta de AWS. El último siempre es gratis. Estos servicios están a su
disposición para siempre, pero hay un
límite en cuanto a comer en qué cantidad puede
utilizar estos servicios. Por lo que nunca caducan hasta que
cruces el límite disponible. A continuación, tenemos una
opción aquí para filtrar productos de
AWS en función diferentes categorías
y prueba gratuita. Bastante simple, ¿verdad? Vamos a probarlo para
entender mejor. Vamos a seleccionar Siempre gratis. Aquí
solo se pueden ver estos servicios que
siempre son gratuitos dentro de
un determinado límite. Ahora, toma AWS Lambda. Se trata de una opción de
cómputo sin servidor, que veremos
en un módulo posterior. Pero aquí
también puedes filtrarlo desde la categoría de producto.
A partir de hoy. Permite 1 millón de pacientes
invocados al mes. Eso significa que si te quedas bajo
1 millón de invocaciones, siempre será gratis. Este tiempo libre nunca expira. Ahora selecciona 12 meses gratis. En esta categoría,
vamos a ver, almacenamiento. S3 por ejemplo. Se trata de un
Servicio de Almacenamiento de Objetos el cual es gratuito por 12 meses o hasta cinco
gigabytes de almacenamiento. Después de eso, tendrás que
pagar una cierta cantidad. S3 es una gran opción para
probar un sitio web estático. Veremos que en el
modelo de almacenamiento de esta formación. El último ejemplo es Amazon EC2, que utiliza para implementar
su aplicación. Aws ofrece una
prueba de doce meses de hasta 750 horas de uso cada mes para
el tipo de micro instancia T2, significa
que puedes ejecutar tu
aplicación de forma gratuita durante 12 meses. Este es un
periodo significativo para dominar AWS. Puedes probar y aprender
casi todos los servicios principales. Y espero que hagan
el mejor uso de ella. Eso es todo por esta lección. Recomendaría revisar
esta página antes. Y al usar los servicios de AWS, hay tantos servicios que
puedes probar de forma gratuita, pero se asegura de que conozcas la disponibilidad gratuita del
servicio antes de utilizarlo. Eso es todo por este video.
4. Cómo asegurar una cuenta de AWS: Hola alumnos. En este video, vamos a entender
cómo puede asegurar su cuenta de AWS con política de
contraseñas y autenticación
multifactor, o MFA en resumen. También veremos el acceso
y la clave secreta más adelante
en este video. Entonces comencemos con la autenticación
multifactor. Es decir, MFA. Tiene un ID de correo electrónico y contraseña para iniciar sesión en
su cuenta de AWS. Y una vez que inicie sesión, puede acceder a la consola
de administración de AWS y realizar diferentes
operaciones en ella. Supongamos que alguien ha
robado tu contraseña. Ahora esta persona puede iniciar sesión y hacer cualquier cosa en
su cuenta, ¿verdad? Sobre todo si tiene acceso de
administrador, puede eliminar recursos de
producción, transferir
datos confidenciales, cambiar la
configuración de la aplicación, y lo que sea. Entonces, ¿cómo proteges tu cuenta
encima de la contraseña? Bueno, puedes usar una
autenticación multifactor o MFA. ¿ Qué es la
autenticación multifactor? Se trata de un método de
autenticación que requiere que cualquier usuario proporcione al menos
dos tipos de verificación, los
cuales se conocen como factores para obtener acceso a una
cuenta o recurso como un sitio web o un
teléfono móvil app, o servicios. Aparte de nombre de usuario
y contraseña, los usuarios tendrán que introducir una
contraseña única u OTP, entregada a través de SMS, correo electrónico, o una aplicación de autenticador como Google y Microsoft
Authenticator. Un buen ejemplo de autenticación de dos factores
es un inicio de sesión
de Gmail desde un nuevo dispositivo. Cada vez que alguien intenta
iniciar sesión en tu cuenta de Gmail, solicita la contraseña y
una contraseña de una sola vez
generada por el sistema, es decir OTP. Se envía en el número de móvil
registrado. La autenticación multifactor se utiliza en la combinación de una contraseña y un dispositivo de seguridad que posee, como su teléfono. Una vez que configure MFA
en su cuenta de AWS, deberá proporcionar un
token MFA cada vez que inicie sesión
en su cuenta de AWS. Mfa básicamente agrega otra capa de seguridad sobre tu contraseña. Entonces, incluso si alguien tiene la
contraseña de tu cuenta, todavía no podrán
iniciar sesión en ella Ya que necesitan MFA también para hacer qué? De ahí que sea una buena práctica
configurar MFA en
su cuenta de AWS. Mfa y la seguridad son temas
importantes tanto
desde los puntos de vista de la entrevista
como del examen. Podrías esperar preguntas como, ¿cómo agrega una
capa extra de seguridad a tu usuario de AWS Route o IAM? La respuesta a esta pregunta será la
autenticación multifactor. Aparte de la consola de
administración, también
podemos acceder a AWS
a través de CLI y el SDK. Esto lo entenderemos en el siguiente tema,
interactuando con AWS. Pero cuando accede a AWS a través de
cualquiera de estos métodos, utiliza una clave de acceso
y una clave secreta. Estas claves se parecen a los
códigos presentes en la pantalla, lo que podría no ser un usuario fácil de usar como nombre de
usuario y contraseña. Pero tendrá que usarlos en su código para iniciar sesión
en su cuenta de AWS, ya sea a través de CLI o SDK. Estas son conocidas como claves de acceso, y se utilizan para el acceso
programático. Crearemos algunas claves de
acceso más adelante en el curso y veremos cómo
usarlas para iniciar sesión. Entonces ahora pasemos
al siguiente tema, que es la política de contraseñas. La política de contraseñas es
una forma de hacer cumplir una contraseña segura para los usos de
su cuenta de AWS, porque su cuenta es más segura cuando tiene
una contraseña segura. Esto lo podemos lograr
vía política de contraseñas. Todo lo que necesitas hacer es habilitar
todas las reglas que
quieres que tus usuarios sigan
al crear o
restablecer su contraseña. Y eso es todo. En la política de contraseñas. Puede establecer una regla de longitud mínima de
contraseña. Entonces puedes imponer tipos de caracteres
específicos. Por ejemplo, es
posible que desee tener al menos una letra mayúscula, una letra minúscula y un número también. Aparte de eso, también se pueden
especificar caracteres no alfanuméricos como porcentaje, Calle, etc., deben incluirse. Entonces puedes habilitar la caducidad de la
contraseña, lo que significa que el usuario necesita
rotar su contraseña
después de ciertos días. Por ejemplo, después de 90
días, 120 días, etc. A continuación, puede permitir que el usuario
cambie su contraseña, o también puede optar por sólo el administrador
cambie la contraseña. Por último, también puedes evitar reutilización de
contraseñas para que los usuarios, cuando cambien
sus contraseñas, no la cambien por
la que
ya habían usado en el pasado. Entonces esto es genial. Una política de contraseñas es realmente útil contra
todo mi colega. Intento en tu cuenta. La política de contraseñas es un tema
importante bajo seguridad de
AWS desde el punto de vista del examen de
certificación o entrevista. Eso es todo lo que quería
cubrir en este video.
5. Configurar la MFA y la política de contraseña: Hola alumnos. Espero que haya creado
su cuenta de AWS. Por lo que en este video, aseguraremos nuestras
cuentas agregando autenticación
multifactor y
configurando una política de contraseñas. Antes de comenzar
la configuración, comprendamos rápidamente qué es MFA. Se trata de un
método de autenticación que valida la identidad del usuario. Entonces cuando cualquier usuario intenta acceder a algo que está
asegurado con MFA, necesita proporcionar
dos o más piezas de evidencia para obtener acceso. Así que vamos a entrar en nuestra
cuenta de AWS y asegurarla con MFA. Para ello, necesitamos acudir al Servicio
de
Gestión de Identidad y Acceso. Por lo que aquí estamos en
el tablero del IAM. Y como pueden ver, ya
tenemos un par de recomendaciones de seguridad
de AWS. Lo primero que está
diciendo es que
debes agregar un MFA
para el usuario root. Así que agreguemos seleccione mi cuenta, luego haga clic en las credenciales
de seguridad. Aquí puedes ver los detalles de la
cuenta. Desplazemos un poco hacia abajo. Aquí. Se puede ver que no
tenemos ninguna asignada a dispositivos. Así que vamos a hacer clic en
Administrar dispositivo MFA. Aquí vamos a utilizar un dispositivo MFA
virtual. Tendrás que instalar una aplicación de autenticador en tu dispositivo móvil
o tu computadora. Solía usar la aplicación Google
Authenticator en mi teléfono porque eso es
completamente gratuito de usar. Entonces usaré eso. Pero si aún no tienes una instalada en tu teléfono, instala la aplicación Google
Authenticator y luego haz clic en Continuar. Lo siguiente que hay que hacer es hacer
clic en Mostrar código QR. Una vez que veas el
QR en tu pantalla, simplemente escanéalo usando tu teléfono. Y debería abrir la App
Google Authenticator. Si lo haces correctamente. Se generará un código y lo
mostrará en su pantalla. Entonces lo que hay que hacer
es agregar ese código aquí. Justo como he agregado el mío. Y luego hay que
esperar a que este código caduque. Porque
generará un nuevo código. Tendrás que introducir el nuevo código en la caja de herramientas de código
MFA. Una vez que hagas eso, haz clic en Asignar MFA. Ahora tienes MFA
habilitado para tu cuenta. Y puedes ver que
tenemos un nombre de recurso ARN o Amazon para
nuestro dispositivo virtual aquí. Por lo que es bastante fácil habilitar
MFA en tu cuenta. Ahora, vamos a configurar también
una política de contraseñas. Vamos al tablero del IAM. Nuevamente. Encontrará la configuración de contraseña en
la configuración de la cuenta. Del lado izquierdo,
haremos click en Cambiar política de contraseñas y hacer cumplir una política en nuestra cuenta. Puedes cambiar muchas
cosas sobre la contraseña. Por ejemplo, la longitud mínima de
la contraseña. Vamos a cambiarlo a 16. ¿ El usuario requiere
mayúsculas, minúsculas o número? Puedes seleccionar todos
o cualquiera de ellos. Voy a seleccionar todo como. Esta es una buena práctica para usar mayúsculas y
minúsculas en la contraseña. Y te recomiendo que hagas lo mismo. Puedes más o menos personalizar tu
política de contraseñas como desees, y luego hacer clic en guardar cambios, lo que hará el trabajo. Por lo que ahora, cada nuevo usuario en
tu cuenta debe seguir esta política de contraseñas al crear o restableciendo
su contraseña, lo que mejorará la seguridad de
tu cuenta. Entonces estudiantes, estas son
las pocas medidas de
seguridad iniciales que todo
ingeniero en la nube debe conocer. seguridad en la nube en general
es un tema muy importante, tanto desde su examen
de
certificación punto de vista entrevistado. Y espero que
lo entiendas a fondo. Eso es todo por este video.
6. Configura presupuesto y alerta: Hola alumnos, bienvenidos de vuelta. Ahora tienes nuestra propia cuenta de
prueba gratuita y la has asegurado con autenticación
multifactor
y política de contraseñas. También entiende AWS, llanta
gratis y las diferentes
ofertas bajo tarifa. En esta capacitación,
solo utilizaremos gratuitamente para agregar servicios para la
práctica práctica en AWS. Entonces si te apegas a
estas ofrendas gratuitas, sólo, no se te cobrará. Pero en caso de que accidentalmente
use un servicio de pago o se olvide de eliminar un servicio que podría pagarse
después de cierto tiempo. Es fundamental establecer
un presupuesto y una facturación. Mucho que recibas notificación vía correo electrónico o SMS cuando alcanzas
el cierto límite. En este video,
vamos a configurar el presupuesto y alertar
para nuestra cuenta de AWS. Así que vayamos a la consola de
administración de AWS. Como puedes ver, he iniciado sesión en mi
cuenta con usuario root. Y arriba en la esquina superior
derecha aquí, debajo de mi nombre de cuenta, seleccionaremos tablero de
facturación. Esto nos llevará
al tablero de instrumentos. Desplazemos hacia abajo hasta la sección de gestión de costos
y haga clic en los presupuestos. Aquí tenemos alguna información
adicional sobre presupuesto y alerta, como cómo funciona,
beneficios y características. Haga clic en Primeros pasos
si desea leerlo más. Te recomiendo encarecidamente
que hagas eso ya que
te dará más ideas. Ahora, nos desplazaremos hacia atrás y
pulsaremos en crear un presupuesto. Aquí. El presupuesto de costos recomendado
se selecciona por defecto. Por lo que haremos click en Siguiente. Deja todo por defecto. Y aquí, introduce tu monto
presupuestado. Entraremos a nuestro
presupuesto. Para esta demo. Seleccionaré $3. Desplázate hacia abajo e introduce
el nombre de tu presupuesto. Nombrar tu presupuesto
es importante ya que puedes tener múltiples
presupuestos en el futuro. Vamos a llamarlo alerta de $3. Por lo que será fácil
identificarlo último, y haga clic en Siguiente. Ahora, haz clic en Agregar umbral de alerta. Aquí puedes crear
múltiples umbrales. Entonces si entramos 50
en el umbral, eso significa que recibirá
una notificación cuando su gasto en AWS alcance el
50% de $3, que es de $1.5. En este caso. También puede agregar umbral
múltiple. Agreguemos un
umbral más para que obtengamos una notificación más antes la cantidad alcance
el límite establecido. Vamos a sumar 80% en esta ocasión. Aquí. En la opción de notificación. Tenemos un par de opciones en cuanto a cómo queremos que nos notifiquen. Optemos por la
notificación por correo electrónico. Ingresa la dirección de correo electrónico en que deseamos
recibir el correo electrónico. Y luego haga clic en Siguiente. Deje todo como predeterminado en la
página de acción de adjuntar y haga clic en Siguiente. Ahora revisemos todo y luego haga clic en Crear presupuesto. Tomará unos
segundos y veremos un mensaje diciendo que el presupuesto
se crea con éxito. Aquí, se puede ver que el estado del
umbral está bien. Puedes utilizar este enlace
presupuestario para ver los detalles y el gráfico
de nuestros gastos. Actualmente, no tenemos
ningún detalle aquí ya que se tarda alrededor de 24 horas en
poblar los datos. Entonces cuando creas un presupuesto,
te sugeriría que
vuelvas aquí después de un día o dos
y veas a estos DJs. Vamos a desplazarse hacia atrás hacia arriba. Y en la esquina superior desde aquí, puedes editar y eliminar
el presupuesto también. Esto es muy importante
ya que podría necesitar ajustar el
presupuesto en el futuro. Adelante y
pruébalo. Para este video. Eso es más o menos
sobre el presupuesto. Recibiremos la primera alerta cuando nuestra factura de AWS alcance el 50% de $3. Y la segunda alerta al 80%. Según la alerta, podemos volver y comprobar
qué servicios se están ejecutando. Y si no los necesitamos, podemos terminarlos
para ahorrar el costo. En el siguiente video, resumiremos el tema
entender la cuenta de AWS y la llanta libre. Nos vemos en la siguiente.
7. Métodos para interactuar con AWS: Hola alumnos, bienvenidos de vuelta. Anteriormente discutimos los diferentes modelos de
implementación en la nube, que IS Pass y dice, Pero ¿sabías
que también podemos usar los servicios de
AWS como cualquiera de
estos modelos si no lo hace. Bueno, no te preocupes. Vamos a entender
eso en este video. Aquí, vamos a
entender cuáles son
los diferentes métodos
para interactuar con su cuenta y servicios de AWS. Hasta ahora, hemos estado interactuando con AWS a través de la consola de
administración, que es una interfaz web. Además de eso, tenemos dos formas más de
interactuar con AWS. Primero es la CLI de AWS, o interfaz de línea de comandos. Se trata de una herramienta que instala y configura
en su computadora, que le permite acceder a los servicios de AWS y
automatizarlos a través de los scripts
terminales de su computadora. El segundo método es SDK, que significa Kit de
Desarrollo de Software. Es utilizado por programadores
y desarrolladores para interactuar con los servicios de AWS directamente
desde el código de la aplicación. Si eso no tiene sentido
completo, no se preocupe. Los
entenderemos en detalle. Empecemos con
la consola de AWS. Nuevamente. Se trata de una interfaz web para
interactuar con los servicios de AWS. Y como se puede acceder
a ella a través de su navegador web, es la forma más fácil de
administrar recursos en AWS. Simplemente inicie sesión en su cuenta de AWS
y haga lo que quiera. Lo que es más o versión móvil de la consola de administración de AWS también
está disponible. Puedes instalarlo
en tu teléfono y acceder a casi todos los
servicios de AWS desde tu teléfono. ¿ No es eso genial? Ahora veamos
algunas ventajas de usar AWS Management Console. Si es principiante, AWS Management Console
es el comienzo correcto. Como puede
interactuar muy fácilmente con los servicios de AWS. Es como navegar
solo por otro sitio web. Pero como comentamos, es más fácil debido a su interfaz de
usuario muy limpia, paso a paso. Por todas estas razones, la consola de administración
es la mejor opción para realizar
tareas administrativas como principiante. Ahora, blanco solo para principiantes. Bueno, eso se debe a que
algunas operaciones en la consola de AWS o
manual y toman tiempo. De ahí que no sea posible
automatizar todo a través de
la consola de administración. Y por eso usamos una Interfaz de Línea de
Comandos o CLI. Ahora, vamos a entender esto. La interfaz de línea de comandos de AWS, o CLI, es una herramienta unificada para
administrar sus servicios de AWS. Se trata de una
interfaz de línea de comandos que le
permite administrar su servicio de AWS
utilizando su terminal informático. Esta es una herramienta que puedes
instalar fácilmente en tu computadora. Es compatible con los sistemas operativos Windows, Mac y Linux. Puedes hacer todo lo
que puedas hacer con el ejemplo de la
consola de administración de AWS. Si desea enumerar todos
los usuarios de su cuenta, entonces abrirá un terminal en su computadora y
escriba usuarios de lista de AWS. Te conseguirá una lista de todos los usuarios disponibles
en tu cuenta. Y si desea
eliminar un usuario, podría usar el
comando AWS eliminar usuario,
nombre de usuario , y eliminará a
ese usuario de su cuenta. También puedes combinar estos dos comandos para ejecutar
qué tareas en un solo paso. Esa es una
ventaja significativa del uso de AWS CLI sobre la consola
de administración. Puedes automatizar tareas en CLI. Supongamos que tiene 50
usuarios en su cuenta. Y quieres eliminar usuarios
cuyo nombre empiece M. Si tienes que hacerlo
desde la consola de administración de AWS, tendrás que encontrar a cada usuario y eliminar
uno por uno, ¿verdad? Pero ese no es el
caso de CLI. Aquí, puedes escribir
el script y usar los dos comandos anteriores para
realizar la misma tarea. Y esto se hará rápidamente. Del mismo modo, puede administrar varios servicios de AWS
utilizando el mismo script. Para acceder a AWS a través de la CLI, debe
autenticarse, al igual que en la consola de
administración de AWS. Pero aquí, en lugar de usar
nombre de usuario y contraseña, tendrás que
proporcionar acceso y clave
secreta de acceso actúa como nombre de usuario y
clave secreta es tu contraseña. Si algo suena confuso. Vamos a
instalar y configurar CLI de
AWS en la siguiente lección. Ahora, veamos algunas
ventajas de usar AWS CLI. Es una excelente manera de interactuar con
AWS
a través de un terminal
informático y es una excelente manera de automatizar tareas y lograr la
infraestructura como código. Por último, tenemos el SDK, significa Kit de
Desarrollo de Software. Dave chico. En resumen, como su nombre indica, es un conjunto de herramientas de software y programas utilizados por los desarrolladores
para crear aplicaciones. Ahora, si está pensando que
es similar a la CLI de AWS, Eso no es cierto
porque no puede usar AWS SDK en su terminal
informático. Esto solo se utiliza para leer o dentro del código de su
aplicación, lo que permite que su aplicación interactúe con los servicios de AWS. Sdk admite muchos lenguajes de
programación diferentes, como C plus plus, Java, javascript.net, Node.js,
PHP, Python y Ruby. También hay SDK móviles para Android e iOS tienen nivel. Entendamos esto
con un ejemplo. Suponga que está desarrollando una aplicación móvil que
permitirá a los usuarios
compartir sus fotos. Para eso, usarás
Amazon S3 como almacenamiento. Hablaremos de S3 en
detalle en otro módulo. Pero en este caso, su aplicación necesita
interactuar con AWS, servicio
Amazon S3, ¿verdad? No puede usar la
consola de administración de AWS ni la CLI de AWS en este escenario porque desea que su código de aplicación
interactúe con el servicio de AWS. Por lo tanto, utiliza AWS SDK. Le permitirá acceder y administrar sus servicios de AWS
a través de su código de aplicación. Es posible que ya conozcas las
ventajas de usar SDK. Es una herramienta perfecta para interactuar con
AWS
a través del código de aplicación. Es genial para interactuar con AWS dentro del código de aplicación. Entonces estudiantes, espero que ahora entiendan los tres métodos
para interactuar con AWS.
8. Uso de la consola de gestión de AWS: Hola alumnos, bienvenidos de vuelta. En la última lección, analizamos diferentes formas de
interactuar con los servicios de AWS. En esta lección,
profundizaremos en la consola de
administración de AWS y entenderemos cuáles son
las diferentes formas iniciar sesión en la consola de
administración de AWS. Cómo crear una cuenta, LES, cómo seleccionar una
región de AWS en nuestra cuenta, y cómo llegamos a diversos servicios de AWS
y su panel de control. Así que vamos a entrar directamente en ello. En primer lugar, debe iniciar sesión en su cuenta de AWS para acceder a
la consola de administración de AWS. Y las credenciales
que usas para iniciar sesión determinan qué tipo
de usuario eres. A partir de ahora. Conoces al usuario root que
es el propietario de la cuenta. Este usuario tiene acceso a todos los recursos y
servicios dentro de la cuenta. Luego hay otros
tipos de usuarios en tu cuenta
llamados usuarios de IAM. Estos usuarios tienen
acceso limitado a recursos
y servicios. Ahora vamos a entender
la diferencia entre usuario
raíz y usuario de IAM. usuario root es el usuario que se creó cuando creamos la cuenta
por primera vez. Entonces si iniciamos sesión usando credenciales
root, tendremos acceso a toda
la cuenta. Por otro lado, los usuarios de IAM son creados por el usuario root. Hablaremos más de
ellos en los módulos posteriores. Inicie sesión en AWS. Como usuario root, necesita el ID de correo electrónico y la
contraseña que utilizamos y autenticación
multifactor que
habilitamos cuando creamos
la cuenta de AWS. No obstante, iniciar sesión como usuario de IAM, necesita un nombre de usuario,
contraseña, y bien
un duodév dígito, AWS, ID de cuenta
o ideas de cuenta. Ya que no tenemos un
usuario de IAM ni la cuenta. Entonces vamos a iniciar sesión con el usuario
root que ya hemos creado y
creamos una cuenta LES. Aquí estamos en la página de firma de
AWS. Introduciré el
ID de correo electrónico y luego haga clic en Siguiente. Daré mi contraseña. Después haga clic en iniciar sesión. Como he configurado la autenticación
multifactor, tendré que introducir
un código único
además de mi contraseña
para poder iniciar sesión. Entonces ingresaré el código. Ahora, estoy conectado
a la consola de AWS. Ahora que estamos en la consola, hay algunas cosas que
debemos revisar rápidamente. Uno de ellos es la cuenta. Aquí puedes ver la configuración de la
cuenta que contiene detalles de tu cuenta como información de
contacto, contacto
alterno para facturación,
operaciones y seguridad. ¿ Recuerdas la puesta en marcha del presupuesto? En el último tema, revisaremos rápidamente
nuestro tablero de facturación. Haga clic en el panel de facturación. Verás el resumen de
facturación y otros detalles incluyendo la
factura del mes en curso, las construcciones
anteriores
y el control presupuestario. A pesar de que creo que has
configurado un presupuesto y
habilitado una alerta, aún así, te recomiendo revisar
regularmente esta página para ver si
tienes alguna factura no deseada. Ahora, volvamos y creemos un alias de cuenta tipo IAM
en este cuadro de búsqueda aquí, y haga clic en el panel de control de IAM Identidad y Access Management
Service. Y como se puede ver en el
lado derecho aquí, tenemos un ID de cuenta y
debajo está el alias de la cuenta. Tenga en cuenta que
el alias de cuenta es el mismo que el ID de cuenta. Entonces aquí está nuestro ID de cuenta de 12
dígitos. Pero recordarlo
podría ser un reto. Entonces vamos a crear un alias que sea mucho
más fácil de recordar. Para eso, haz clic en
Crear, agrega tu ID, la asesoría de Cloud 2050
y, a continuación, guarda los cambios. Eso creará una identificación para usted. Usaremos este ID o alias cada vez que iniciemos sesión
usando el usuario de IAM. Ahora, volvamos al enlace de
la cuenta de usuario. Para ello, basta con hacer clic
en el logotipo de AWS. Junto a esto, tenemos otro desplegable para
seleccionar la región de AWS. Entonces seleccionemos una
región para nuestra cuenta. Actualmente estamos
en Virginia del Norte. Nosotros Oriente, Uno es
la razón llamada. Cada región tiene un código
específico y usamos este código cuando usamos
AWS, CLI y SDK. Hablaremos de ello en
las próximas sesiones. Ya hemos discutido la infraestructura global de
AWS. Y puede ver que hay muchas regiones y regiones
admitidas en AWS. Iniciaremos sesión en la consola
de administración de AWS, seleccionaremos una región de AWS para crear estos servicios
en una región específica. Esto es lo primero que haces cuando creas algún servicio nuevo, excepto algunos que
no son sensibles a la región. Si cambiamos y seleccionamos
la región de Asia Pacífico, que no es más que
la región de Mumbai. Cualquier servicio que ahora creamos se
lanzará únicamente en la región de
Mumbai. Por lo tanto, es crucial
decidir y seleccionar la región en la que desea
crear sus servicios de AWS. Y lo más importante, si crea algunos recursos de AWS y no ve esos recursos
en la consola. Significa que lo creaste en diferente región y
tendrás que cambiar a su
región para verlos. Ahora sigamos adelante y veamos cómo navegar a los servicios de AWS. La
consola de administración de AWS proporciona varias formas de navegar a tableros
de servicio individuales. En el cuadro de búsqueda de
la barra de navegación, introduzca el nombre del servicio. Verás los resultados. Elija el servicio que desea en la lista
de resultados de búsqueda. Por ejemplo, vamos
al servicio S3. Simplemente podemos escribir
deuda y
obtendremos una lista de todos los
servicios que incluye S3. En este caso, estaríamos
buscando aquí solo para S3. Y si hacemos clic en
él, nos llevará al tablero de ese servicio en particular. A continuación, también podemos volver a la página de inicio haciendo clic
en el logotipo de AWS. A continuación, elija servicios para abrir
una lista completa de servicios. Aquí en la parte superior
derecha de la página. Elija grupo para ver los
servicios enumerados por categoría, o elija un jet para ver
un listado alfabético. Entonces selecciona el
servicio que quieras. Por ejemplo, desplácese hacia
abajo y seleccione la categoría de almacenamiento que
incluye AWS Backup, EFS, S3 y muchos más. Hablaré más de los
de uno de los módulos posteriores. Pero esto nos da una forma de
alto nivel de mirar los servicios en
función de su categoría. A continuación se encuentra la pestaña
visitada recientemente. Aquí puedes ver los servicios recientes que he
visitado dentro de la consola, incluyendo S3, RDS, ec2. Entonces estos son los servicios con los
que trabajé recientemente. En caso de que solo
trabajes con un puñado de servicios. Esta puede ser una
forma muy rápida de simplemente hacer clic en estos e ir a los tableros de
servicios específicos. Eso es todo por esta sesión.
9. Instalar AWS CLI: Bienvenidos de vuelta a los estudiantes. Continuaremos
nuestra discusión sobre cómo interactuar
con los servicios de AWS. Y en este video demo, instalaremos AWS
CLI en nuestro sistema. Ya que tengo un Mac, iré con las instrucciones de
instalación de Mac. No obstante, el proceso sigue siendo el mismo para otros sistemas
operativos, incluyendo Windows y Linux. Entonces vamos al navegador y encontremos la
documentación de instalación. En esta barra de búsqueda. Instalé AWS CLI en Mac. También puede buscar
sus sistemas operativos como AWS CLI instalado en línea. A continuación, instale la CLI de AWS
en Windows también. Abriremos el carril rápido, instalando y actualizando
su prueba fue una CLI de AWS. Esta página tiene instalador
deberá instrucciones para los tres sistemas operativos, incluyendo Linux, Mac
OS, y Windows. Iré por Mac OS
y seguiré el proceso. Desplazemos hacia abajo. Y aquí está la instrucción
de instalación. Necesitamos un archivo EKG oscuro, que es un instalador gráfico. Por lo que descargaré
el archivo desde aquí. Una vez que lo descargues,
ábrelo, y haz clic en, continúa, continúa,
continúa y acuerda. Dar permiso para instalar para todos los usuarios en este equipo. Haga clic en Continuar y
haga clic en, instálelo. Instalamos el
CLI en su sistema. Esperemos a
que todo se haga. El sistema está escribiendo los archivos. Y por último, la instalación ahora
tiene éxito. Ya que ya no necesito
el instalador, lo
moveré a la basura. Verificar la instalación. Voy a abrir una terminal, ir a la opción Buscar, y teclear un minuto. Y luego agregaré AWS. Si tiene una
CLI en ejecución en su sistema, debe devolver una versión
de la tabla de ejecución de AWS. Esperemos un rato. Aquí tenemos la
respuesta a nuestro comando, que muestra que todo
ha sido instalado correctamente. Por favor, descargue el CLI en su sistema ya que lo estaremos
utilizando en futuras lecciones. En caso de algún problema, por favor echar un vistazo a este tipo.
10. Uso de la CLI de AWS: Hola alumnos, bienvenidos de vuelta. Continuaremos
nuestra discusión sobre cómo interactuar
con los servicios de AWS. Y en esta demostración,
aprenderá a usar AWS CNI para interactuar
con los servicios de AWS. Así que empecemos. Déjame abrir el
terminal en mi laptop. En primer lugar, asegúrese de que ya
ha instalado AWS CLI. Se puede comprobar escribiendo. Aws no estaba en su terminal y
devuelven fácilmente la CLI de AWS. En segundo lugar, debe autenticar la CLI de
AWS para acceder a los servicios de AWS. Y como comentamos, los usuarios de la CLI de
AWS acceden a
claves para la autenticación. Cubriremos la autenticación
y autorización en
detalle en el tema de gestión de identidades y
accesos. Pero para esta demo, vayamos a la consola de
administración de AWS y creemos una clave de acceso. Aquí. Haga clic en Cuenta, luego en credenciales
de seguridad. Ahora estamos en mi clave de acceso
credenciales de seguridad. Y aquí podemos crear
nuevas claves de acceso. Las claves de acceso son críticas
porque se utilizan para
controlar la autenticación y autorización al usar la CLI y el SDK para
acceder a la cuenta de AWS. Ahora, como nota, estaremos creando claves de
acceso aquí. No obstante, voy a eliminar estas claves inmediatamente
después de esta tabla. Tampoco debe usar claves de acceso de usuario
root
en el día a día. Esta no es una buena práctica. Nuevamente, vamos a aprender esto en detalle en el tema de gestión de identidad y
acceso. Por ahora, clicemos en Crear nueva clave de acceso y
luego mostrar Clave de acceso. Aquí tenemos tanto nuestro eje como la clave
de acceso secreta. Esto es lo que usaremos
para acceder a nuestros recursos de AWS
a través de la CLI. Copiemos ambas
claves en un archivo de texto. También puedes descargarlo haciendo clic en Descargar y permitir. Ahora volvamos a AWS CLI
y tecleemos en la terminal. Aws configuran. Ahora ingresó primero la clave de acceso y la
clave de acceso secreta. Ahora introduzca el nombre
predeterminado de la región. Y en este caso, vamos a
elegir el API salt one. Por fin, elegiremos
el formato de salida predeterminado. En este caso, escojamos
el formato gestual. Una vez que tengamos todo eso
en su lugar, pulsa Enter. Hemos configurado con éxito la CLI de AWS significa que
deberíamos poder
usar la CLI de AWS para obtener información sobre
los recursos de AWS. Vamos a comprobarlo rápidamente. Ejecutaremos un comando que
enumerará el bucket S3. Vamos a teclear AWS. Y devolverá
una lista de todos
los diferentes bucket S3 que he creado
dentro de esta cuenta. Si no tienes cubeta, no devolverá nada. Así que para revisar rápidamente lo
que hemos hecho en esta lección, creamos claves de acceso para
nuestros usuarios con una precaución de que generalmente no
queremos
crear claves de acceso
para el usuario root. Todavía se
crea para esta demo. Pero mientras lo elimines, eso debería estar bien. Y por último, accedemos al S3 para verificar que pudiéramos
acceder a los recursos de AWS. Eso es todo por este video.
11. Regiones y zonas de disponibilidad: Hola alumnos, bienvenidos de vuelta. En este video, aprenderemos
sobre las regiones de AWS, las diferentes
zonas de disponibilidad, y la importancia de las regiones
y julios de disponibilidad. Así que empecemos. Supongamos que desea alojar
nuestra aplicación web. Para eso, necesitarías
tu propio centro de datos ¿verdad? Ahora que conoce AWS
y otros servicios en la nube, no
necesita
configurar nuestro centro de datos y puede alojar fácilmente su
aplicación en la nube de AWS. Pero supongamos que todavía está utilizando un centro de datos on-premise. Ahora aquí hay una pregunta. ¿ Y si un desastre
golpea tu centro de datos? Ese es un cojín válido, ¿verdad? Cualquier cosa puede pasar. Y como eres dueño y
gestiona el centro de datos, tendrás que averiguar qué
vas a hacer en
una situación tan extrema. Una forma de evitar un apagado
completo de su aplicación es ejecutando un segundo centro de datos en
alguna otra ubicación. Entonces cuando uno baje, el otro estará
ahí como respaldo. Pero mantener
otro centro de datos duplicará los costos de hardware
y mantenimiento. No te preocupes. Eso
fue sólo un ejemplo. Un AWS tiene una mejor solución
a esta posibilidad, que es la región de AWS. Una región de AWS
no es más que las
ubicaciones geográficas en todo el mundo, somos diferentes
centros de datos están agrupados. Eso significa que AWS mantiene varios centros de datos
en un solo lugar. De acuerdo con los estándares de AWS, debe
haber al menos dos
centros de datos en una región. Y cada centro de datos debe
tener electricidad redundante, refrigeración, calefacción, redes
y conectividad. Una vez más, todas
estas regiones están
conectadas a través de la red troncal de
AWS, que es básicamente una red de
muy alta velocidad. Cada una de estas regiones tiene
diferentes nombres y códigos. Estos nombres se basan en su ubicación
geográfica mundial. Ubicación geográfica significa ubicación
física
como Mumbai, Tokio ,
Frankfurt,
Norteamérica, Sudamérica ,
China, Sudáfrica
y Oriente Medio. Estos son algunos ejemplos. Bueno, mi AP Sur uno. Moon Bay es un
lugar físico, ¿verdad? Por lo que la llaman
región de una manera y ha
llamado episodio uno. Lo mismo va para Singapur
y otras ubicaciones. Singapur, API
sureste, uno, Sydney, API sureste a
Ciudad del Cabo, sur uno. Entonces, cuando tenga una cuenta de AWS, puede elegir por
qué motivo
desea implementar
sus servicios de AWS, ya sea que desee
lanzarla en Mumbai o en Tokio. Esto también depende de
diferentes factores de los que hablaré de
seguir adelante en este video. Entonces, en palabras simples, se
puede decir que AWS es un proveedor de servicios en la nube y tiene centros de datos
en todo el mundo. A partir de ahora, existen 26 regiones geográficas con 84 zonas de disponibilidad
en todo el mundo. Y AWS sigue
agregando nuevas regiones. Entonces para cuando estés
viendo esta sesión, estos números pueden haber cambiado. Para que pueda mirar
el enlace proporcionado en la sección de recursos bajo este video y comprobar el
último número de AWS. Vamos a seguir adelante y
hablar de disponibilidad Jones. Ahora, cuál es nuestra
disponibilidad Jones, es uno o más centros de datos
separados individualmente y
distintos con potencia redundante, redes y conectividad
en una región de AWS. En otras palabras, no es más
que un centro de datos aislado. Dentro de lo razonable, la única
diferencia
es que tiene potencia redundante,
redes y conectividad. Por lo que cada
zona de disponibilidad tiene un conjunto de
centros de datos aislados de
otras zonas de disponibilidad. Entonces creo que lo hicimos. Joan no es más que un
grupo de centros de datos. Y según el estándar de AWS, una región de AWS debe tener
dos zonas de disponibilidad. Así que tomemos un ejemplo de
la región de Moon Bay. Cuenta con tres zonas de disponibilidad. Como hemos visto antes. Cada región tenía
algún código específico. De igual manera, la disponibilidad
Jones también tiene código
correspondiente el
cual consiste en un código de región
seguido del alfabeto. Si lo recuerdas, el código de
región de Mumbai es ap salt one. Ahora veamos. El código para la
zona de
disponibilidad, disponibilidad John one tiene
el código API Sur uno. Y de igual manera, disponibilidad
John código dos es una pieza out1 y la zona de disponibilidad tercera
tiene el código episodio uno. Ver, espero que quede claro
que el código de región seguido del alfabeto hace que
la disponibilidad junio sea fría. Hasta ahora, sabemos que cada región de AWS tiene dos o
más disponibilidad Jones, igual que Mumbai tiene
tres zonas de disponibilidad. Virginia del Norte tiene
Avenida de Jones y así sucesivamente. Ahora comprendamos por qué estas zonas de disponibilidad
son importantes para nosotros. Por lo que sabemos que una región consta de múltiples zonas de
disponibilidad. Aquí. Permítanme decirles que cada disponibilidad Junio
no es un solo centro de datos, sino que consiste en clústeres
de centros de datos. Alguna disponibilidad Jones
puede tener dos centros de datos, mientras que otros pueden
tener tres o más. Todas estas
zonas de disponibilidad se encuentran en algún lugar entre 5200
kilómetros de distancia. Volviendo a la importancia
de la disponibilidad Jones, supongamos que si una
zona de disponibilidad baja, todo
el clúster de
centros de datos bajaría allí. Pero los centros de datos en otras zonas de disponibilidad
seguirán funcionando. Y por lo tanto, no se enfrentará a un cierre completo de su
aplicación o sitio web. La infraestructura de Aws está diseñada para garantizar la alta disponibilidad
de las aplicaciones. Y si piensas, cómo
te importa, déjame decirte. Supongamos que desea desplegar su aplicación en
la región de Mumbai. Y como saben,
una región de Moon Bay tiene tres zonas de
disponibilidad diferentes. Entonces lo primero que
harías es lanzar un servidor en cualquiera de los Jones
según tu requisito. Una vez que se lanza el servidor, ahora se
puede acceder a él a
través de Internet. No necesitas
preocuparte por en qué zona de disponibilidad
has lanzado tu servidor, siempre y cuando puedas acceder a
él a través de Internet. Pero supongamos que esa zona de
disponibilidad en la que lanzaste tu servidor
desciende por completo. Eso significa que también
se hará la aplicación. Pero eso no es todo. No podrás acceder a los datos de
tu aplicación también. Si no tienes esos datos, no
podrás
revivir tu solicitud. Entonces para evitar este tipo de situaciones, AWS tiene disponibilidad Jones. Echemos un vistazo a las ventajas de la
disponibilidad Jones. El primer beneficio es la
mayor disponibilidad. Cuando diseñas
tus aplicaciones, te aseguras de haber puesto todos tus servidores y bases de datos en múltiples zonas de
disponibilidad. Entonces si uno baja, tienes otra zona que
cubrir por un segundo. Si recuerdas,
hablamos de la distancia entre dos zonas estando en algún lugar
entre 5200 kilómetros. Ahora supongamos que tiene una base de datos
primaria en un John. En ese caso, se puede tener la réplica de esta base de datos
en la secundaria Jones. También es posible tener replicación
síncrona
entre dos bases de datos. Esto copiará todos sus datos en ambas bases de datos
simultáneamente. Ahora bien, si uno John baja, tenemos otro
para operar normalmente, lo que se llama tolerancia a fallas. Tenga en cuenta que este no es
un diseño predeterminado de AWS. Tendrás que diseñar
tu aplicación en múltiples zonas de disponibilidad para lograr una alta disponibilidad
y tolerancia a fallas. Estudiantes, espero que la zona de
disponibilidad sea clara. Ahora, echemos un
vistazo ahora a una arquitectura de muestra
en la que
veremos cómo usamos disponibilidad Jones para que
nuestra aplicación sea altamente disponible. Supongamos que en una región de AWS, tenemos dos
zonas de disponibilidad que
llamaremos zona de disponibilidad uno
y zona de disponibilidad dos. Lo primero que
haríamos es lanzar un servidor EC2 y la base de datos correspondiente en
la zona de disponibilidad uno. De igual manera, lanzaríamos otro servidor web y base de datos
correspondiente en
la zona de disponibilidad. Ahora tu aplicación y
base de datos ambos están altamente disponibles y pueden sostenerse
si uno John baja. Ahora los estudiantes, en pocas palabras, la región de AWS es la ubicación
geográfica en todo el mundo y la disponibilidad Joan es el clúster
de centros de datos. Región particular.
Muy bien, entonces ahora sigamos adelante y comprendamos por qué hay una necesidad de
tantas regiones hoy en día. Por supuesto, le da
la flexibilidad para implementar su aplicación
en cualquier región de AWS que sea beneficiosa para usted. Aparte de eso,
la razón principal es el acceso de baja latencia
a las aplicaciones. Si tu base de usuarios está en EE. UU., desplegar tu aplicación
en Estados Unidos solo tiene sentido. Del mismo modo, si tiene
su base de usuarios en India, elegirá la región
Moon Bay. El segundo motivo es el cumplimiento
normativo. Diferentes países
tienen diferentes reglas para regular los datos. Por lo tanto, tener
múltiples regiones
te da la libertad de elegir
qué funciona mejor para ti. El tercer motivo es sostener
cualquier tipo de desastre. Todas estas regiones de AWS
se encuentran en todo el mundo y la distancia mínima entre dos regiones
cualquiera debe
ser de 300 kilómetros, lo que llamamos como sitio de recuperación
ante desastres. Esto es para asegurarse de que su aplicación se ejecute
en uno de los sitios. Y el otro lado debe
estar al menos a 300 kilómetros de
distancia para asegurar que no
sean parte
de los mismos sistemas. De ahí que también se pueda aprovechar el beneficio
de múltiples regiones. Aparte de los requisitos de
latencia, cumplimiento
normativo
y la recuperación ante desastres, hay algunas
consideraciones adicionales que también
se pueden observar al
usar varias regiones. Por ejemplo, para la aplicación
global, las organizaciones quieren proporcionar la mejor experiencia de usuario a
sus usuarios en todo el mundo. Una forma de
lograrlo es desplegando tu aplicación en la región
más cerca de tus audiencias. Por ejemplo, la
aplicación basada en Estados Unidos utilizará la región de
Mumbai para proporcionar al usuario
indio una mejor experiencia. El costo es otro beneficio del
uso de múltiples regiones. Dado que cada país tiene
una economía diferente, los precios de usar AWS variarían de un
país a otro. Por lo tanto, obtendrá servicios
más baratos
en algunos países. Y como nuestra organización, Esa es una gran manera
de ahorrar dinero. A continuación, tienes un radio de explosión
reducido. Muchas personas y
organizaciones quieren que en caso de que caiga una
región completa, tal vez
quieran aprovechar otra región como recuperación
ante desastres. Muchas veces, también
distribuyen sus cargas de trabajo a través de las regiones en caso de que algo le suceda
a una región. Otra región está
activa y así es como reducen el
radio de explosión del desastre. Entonces los estudiantes, eso fue todo acerca las regiones de AWS y
disponibilidad Jones se
asegura de que usted
entiende todo bien ya que son importantes
desde el punto de vista de Entrevista. Eso es todo por este video.
12. Ubicaciones de AWS: Hola alumnos, bienvenidos de vuelta. En el último video, entendimos las regiones de AWS
y las zonas de disponibilidad. En este video, discutiremos otro aspecto importante de la infraestructura global de
Amazon, que es la ubicación de borde. Comencemos con nuestra
comprensión de la región de AWS y
cómo elige una región
para su aplicación? Hay muchos factores detrás de
elegir una región de AWS. El criterio principal es la cercanía con tus clientes
objetivo. Siempre elegimos
una región que sea más cercana a nuestros clientes objetivo. Pero, ¿y si tienes
clientes en todo el mundo? Apenas supongamos que tienes una aplicación de
streaming de video en que los usuarios pueden publicar el time-lapse del paisaje
indio. Has guardado
tu aplicación y sus datos en Mumbai razón, ya que tus clientes
son de India. Pero después de unos meses, ¿quién vio una buena cantidad de
tráfico proveniente de Japón? A partir de ahora, está atendiendo todas las solicitudes
de clientes japoneses de la región de Moon Bay solamente. Pero debido a la gran distancia
entre India y Japón, es posible que
tus usuarios japoneses no tengan una buena experiencia de usuario
debido a un problema de baja latencia. Ahora puedes lanzar correctamente
tu aplicación en Japón copiando tus datos
en una región Cloud en Japón, Tokio en caso de AWS. Y así es como puedes
servir a tus clientes allí. Este fue un ejemplo de almacenamiento en caché. Por definición, el brote es
el proceso de almacenar una copia de datos en nuestra ubicación temporal o de
almacenamiento en caché. Por lo que se puede acceder con
mayor rapidez. Por lo que en este caso, puedes almacenar en caché tus datos en
el centro de datos de Tokio y darnos una experiencia de usuario fluida
a los clientes japoneses. Otro concepto que hay que
entender es la red de
entrega de contenidos, comúnmente conocida como cdn. No es más que un término
técnico que utilizamos para caché copia de datos en un centro de datos más cercano
a los clientes. Tenga en cuenta que CDN no es
un término específico de AWS. Una
red de entrega de contenido o CDN, contenido de
caché
como imágenes, videos o páginas web en
servidores proxy que se
encuentran más cerca de
los usuarios finales que los servidores de origen. Nuevamente, estos servidores proxy
viven en el centro de datos, y estos centros de datos se
denominan ubicaciones perimetrales. Ahora debes estar pensando, ¿cuál es la diferencia
entre región y
ubicación de borde como ambos nuestros
centros de datos, verdad? La diferencia de fomentar es que las ubicaciones de
borde son centros de datos
más pequeños y están disponibles en todas
las grandes ciudades del mundo. Si compara el número
total de ubicaciones de borde es más de
12 veces el número de región. Por lo que tienes más
opciones para almacenar en caché tus datos y resolverlos
rápidamente a tus clientes. La segunda diferencia es que
las ubicaciones de borde están separadas de las regiones y se
encuentran en otras ubicaciones. Esto le permite
empujar su contenido desde las regiones a una colección de ubicaciones de borde
alrededor del mundo. La diferencia es la
ubicación de borde de AWS host I
servicio espacial para entregar este contenido más rápido se llama
Amazon CloudFront. Mientras que la región de AWS aloja
casi todos los servicios de AWS. Aparte de CloudFront. Las ubicaciones de borde de Aws también ejecutan
nuestro servicio de nombres de dominio, o DNS, conocido como
Amazon Route 53. Cubriremos Cloudfront y
Route 53 en módulos posteriores. De acuerdo, hay
mucho más que esto sobre la infraestructura global de AWS. Pero vamos a mantenerlo
simple y echar un vistazo rápido a los puntos clave sobre la infraestructura global de AWS. Número uno, las regiones son ubicaciones
geográficamente aisladas en las que puede acceder a los servicios de AWS necesarios
para ejecutar su aplicación. Número dos, las regiones contienen zonas de
disponibilidad que
están físicamente separadas. Edificios con su
calefacción eléctrica, refrigeración, y red. Disponibilidad Jones te
ayuda a resolver alta disponibilidad y recuperación
ante desastres escenarios de
alta disponibilidad y recuperación
ante desastressin ningún esfuerzo
adicional. El número tres, AWS, las ubicaciones de
borde ejecutan
Amazon CloudFront para
ayudar a acercar el contenido a sus clientes sin importar
dónde se encuentren en la naturaleza. Eso es todo por este video.
13. ¿Qué es la gestión de la identificación y el acceso?: Hola, alumnos. Bienvenido de nuevo. ¿Sabes por qué tus institutos
educativos te
dan el DNI? Porque las tarjetas de
identificación de un instituto
les dan control sobre quién puede
acceder a sus instalaciones. Tu DNI actúa como comprobante de que estudias
en esa universidad, y de ahí puedes usar
sus instalaciones. De igual manera, AWS cuenta
con un servicio que ayuda a las empresas a gestionar su
identidad en la Nube. En este video, aprenderemos conceptos
del servicio de
administración de identidad y acceso relacionados con IAM, identificación, autenticación
y autorización Empecemos con ¿qué es la gestión de
identidad y acceso? administración de identidad y acceso La administración de identidad y acceso es un marco que garantiza que las personas adecuadas en
su organización puedan acceder al único servicio
que necesitan para hacer su trabajo. Recuerda, no es una
buena práctica usar tu cuenta raíz para todo lo
que tú y tu equipo hagan, ya que podría llevar a algunos problemas de seguridad
serios. Tomemos una analogía aquí. Supongamos que está trabajando
en una organización, y todos los días cuando
ingresa a la entrada principal, tiene
que mostrar su tarjeta de identificación
al guardia de seguridad o necesita
deslizar su tarjeta de inicio de sesión. De esta manera, tu organización
asegura que eres la persona adecuada que puede acceder a las instalaciones de la
organización. Y así es exactamente
como funciona IAM. Cuando muestras tu tarjeta de identificación, demuestras que
eres la persona adecuada. Tú como persona es una identidad. Ahora cuando le muestras tu
tarjeta de identificación al guardia de seguridad, él mira la foto de tu tarjeta de
identificación y tu cara y verifica
si ambas concuerdan Una vez verificado
con éxito, obtienes acceso a través de
todo este proceso. Usted como persona obtiene acceso a las instalaciones adecuadas.
Eso no es. Esta tarjeta de identificación sirve
como comprobante para acceder
a muchos otros servicios e instalaciones de
su organización. Por ejemplo, algunas personas solo
pueden usar la sección de
cuentas, mientras que otras solo pueden usar recursos
humanos y así sucesivamente. Existe un
sistema bien definido de quién puede usar qué de la misma manera. Identity and Access Management, o IAM, en definitiva, es un servicio en AWS que asegura que la persona adecuada tenga acceso a lo correcto Aws IAM proporciona control de acceso a todos los
servicios y recursos de AWS Se puede especificar quién
puede acceder a qué servicios y recursos y
en qué condiciones. También está el
concepto de política de IAM, que puede usar para
administrar permisos a su fuerza laboral y sistema para garantizar permisos de menor
privilegio Si no tiene
sentido, entonces no te preocupes. Voy a cubrir todo esto en el próximo
par de temas. Por ahora, comprendamos tres conceptos importantes de administración de identidad y acceso, identificación, autorización
y autenticación. Estos tres términos
están estrechamente relacionados, pero no son los mismos. Ahora vamos a entenderlos. identificación es la capacidad de identificar
a un usuario de manera única. Significa cómo se puede identificar a una persona o
sistema. En el último ejemplo, te identificas
con una tarjeta de identificación. ¿Correcto? Y eso
varía de un sistema a otro. Cuando inicias sesión en
tu cuenta bancaria, usas nombre de usuario y contraseña. Te identificas
al portal bancario con tu
nombre de usuario y contraseña. Su identificación es su nombre de usuario y
contraseña de identificación básicamente es para identificar a cada usuario único que está accediendo a sus servicios
o instalaciones. El segundo concepto
habla de autenticidad. autenticación es el proceso de
reconocimiento de la identidad de un usuario. Cuando le muestras tu tarjeta de identificación
al guardia de seguridad, él verifica tu
foto de DNI con tu cara Eso es autenticación. Cuando inicias sesión en
tu cuenta bancaria, proporcionas tu
nombre de usuario y contraseña. El sistema backend bancario
compara su nombre de usuario y contraseña con el
nombre de usuario y las contraseñas almacenadas en su sistema El sistema se asegura de que se le dé el nombre de
usuario y la contraseña correctos. Si conoces el nombre de
usuario y contraseña correctos, eres el propietario
de la cuenta. Si se le ha dado
una identidad única, tiene que
haber un
sistema para
reconocerla cada vez que usa
su identidad única. Ese proceso de reconocimiento de la autenticidad
de tu identidad se conoce como autenticación. Por último, la autorización
es el proceso de darle
a alguien permisos para tener acceso a algo. Una vez que esté autorizado, puede ingresar a las instalaciones de la
oficina y puede ir a su área de oficinas. Pero no se puede ir a la cocina de la cantina porque no se
le permite o podemos decir que no está
autorizado para acceder al área de la cocina de
la cantina
según Ahora entendamos la administración de identidad
y acceso con
respecto a AWS. administración de identidades y
accesos de AWS La administración de identidades y
accesos de AWS es un servicio de AWS que ayuda a una organización a
administrar el acceso de su cuenta y
servicios de AWS para las personas de su
organización. Proporciona un control
de acceso preciso en todos los servicios de AWS De grano fino significa que
puede especificar quién puede acceder a qué servicios y recursos y bajo
qué condiciones Si quieres que la persona
solo acceda al servicio AWS EC two y que la persona Y acceda solo al servicio
S three, eso es completamente posible. Esto se hará
con la política de IAM.
14. Usuarios, grupos y roles: Hola, alumnos. Bienvenido de nuevo. En el último video,
entendimos AWS IAM. En esta lección,
vamos a estar hablando de los
elementos de IAM, que incluye
grupo de usuarios y roles Empecemos por los usuarios. Un usuario es una persona que utiliza un servicio de AWS en
una cuenta de AWS. Como comentamos en
la lección anterior, AWS tiene dos tipos de usuarios, usuario
root y usuario de IAM El nombre de usuario raíz en sí mismo da una pista de que este es
el usuario espacial. Se crea cuando se creó la cuenta de
AWS. Cuando cree una cuenta de AWS, AWS creará una
identidad o un usuario para usted. Ese usuario de identidad se
llama usuario raíz de AWS. Este usuario tiene acceso a todos los servicios y
recursos de AWS en la cuenta. Algunos puntos importantes
sobre los usuarios raíz de AWS. Puedes iniciar sesión como usuario root usando
la dirección de correo electrónico y contraseña que usaste
para crear la cuenta. El usuario root tiene acceso completo a todos los servicios y
recursos de AWS en la cuenta. De ahí que no sea una buena práctica utilizar
al usuario root
para las tareas cotidianas. Nunca, nunca debes compartir las credenciales de usuario
root
con todos. Solo muy pocas personas confiables deberían tener las credenciales
raíz. Ahora sabemos que no podemos usar usuario root para
nuestro trabajo diario. Ahí es donde
entra en juego el usuario de IAM. Iam user es una entidad
que usted, usuario root, crea en una
cuenta de AWS para representar
al usuario que interactúa con los recursos de
AWS en su Ahora vamos a entender
esto con un ejemplo. Digamos que eres
el líder de equipo en una organización y
tienes una cuenta de AWS. Tienes dos desarrolladores, Ram Sham y dos
administradores, Ta y Geta En tu equipo, tu equipo necesita
acceso a una cuenta de AWS para alojar una aplicación porque no
quieres darles
acceso a tu cuenta raíz. Puedes crear usuarios de IAM
para los miembros de tu equipo y proporcionarles el acceso a los servicios que
necesitan para su trabajo Aquí, cada miembro del equipo
representa a un usuario de IAM, ya que cada miembro del equipo necesita interactuar con una
cuenta de AWS para hacer su trabajo Crearás cuatro usuarios de IAM
para Ram Shamtha y Geta. Bien, ahora entendemos
al usuario IM. Veamos la forma en que funciona el usuario de
IAM y cómo asignamos permisos
a diferentes usuarios de IAM Cuando crea un usuario,
el usuario tiene una contraseña de nombre de
usuario y claves de acceso
que comparte con las personas respectivas para
acceder a la cuenta de AWS. usuario y la contraseña se
utilizarán para acceder a consola de administración de
AWS y clave de
acceso para el
acceso programático con AWS CLI, cada usuario se ha agregado
a una sola cuenta de AWS Cada usuario tiene sus
propias credenciales para acceder a la cuenta de AWS. Ahora bien, la pregunta importante es, ¿qué tipo de
recursos de AWS pueden usar? Bueno, cualquier nuevo usuario de IAM no tiene ningún
permiso predeterminado para acceder a sus recursos de AWS para proporcionar a sus usuarios de IAM el permiso necesario que necesita para otorgarles los permisos
requeridos Puede hacerlo agregando
políticas de IAM a cada usuario de IAM. política de IAM define los
permisos que se otorgan a cualquier usuario que interactúa
con una cuenta de AWS Vamos a cubrir la
política de IAM en el siguiente tema. En pocas palabras,
crea usuarios de IAM, adjunta políticas para
otorgar permisos y el usuario puede usar estas credenciales para
acceder a estos recursos Un punto importante
aquí a tener en cuenta es que usuario de
IAM no tiene que
representar a una persona real Podría ser una aplicación. Además, digamos que tiene una aplicación en marco que necesita acceder a un servicio de AWS. Puede configurar la clave de
acceso dentro la aplicación para
acceder a los servicios de AWS. Ese es otro caso de
uso importante de la clave de acceso. Bien, ahora
entendamos al grupo IAM. Un grupo de IAM es una colección de usuarios y permisos
asignados a esos usuarios Volvamos al
mismo ejemplo. En tu equipo, tienes dos desarrolladores Sham y dos
administradores, Ta y Gier. ¿Correcto? Ambos desarrolladores estarán haciendo y accediendo a
los mismos servicios de AWS. Y lo mismo va para ambos
administradores también. En lugar de asignar permisos
a usuarios individuales, puede agruparlos también
puede agruparlos y asignar permisos
a ese grupo a la vez En nuestro caso, puedes
crear dos grupos. Un grupo para desarrolladores y
un grupo para administradores. Iam Group proporciona
una manera fácil administrar los permisos para los usuarios acuerdo a sus funciones
laborales Cuando crea un usuario, asigna una política
al usuario individual. Pero en el caso de un grupo, agregas una política
al grupo y el permiso se aplicará a
todos los usuarios de ese grupo. Tomemos otro buen caso de
uso para el grupo IAM. Como sabes, cualquier usuario de
un grupo de usuarios específico tiene
automáticamente
los permisos que se le asignan
al grupo de usuarios. Si un nuevo usuario se une a su organización y necesita privilegios de
administrador, puede asignar los permisos
adecuados
simplemente agregando el nuevo usuario a ese grupo de
usuarios administradores. De igual manera, si un empleado
existente se está moviendo a un nuevo proyecto, en un nuevo rol en la
misma organización, lugar de editar el permiso de ese
usuario, puede eliminarlo
del grupo de usuarios anterior y agregarlo a los
nuevos grupos de usuarios apropiados. El grupo IM es una forma de adjuntar políticas a múltiples
usuarios a la vez. Cuando se adjunta una política
basada en identidad a un grupo de usuarios, todos los usuarios
del grupo de usuarios reciben el permiso,
el grupo de usuarios. Ahora vamos a entender el rol de IAM. Un rol de IAM es una
identidad de IAM que
puede crear en su cuenta
que tiene permisos específicos Un rol de IAM es similar a
un usuario de IAM asociado con política de
IAM que determina
lo que un rol puede y
no puede hacer Ahora debes estar pensando, ¿cuál es la diferencia
entre rol de IAM y usuario Bien, déjame explicarte. Un usuario de IAM es una
persona única que tiene nombre de usuario, contraseña y clave de acceso con los permisos
adjuntos a él Sin embargo, el rol de IAM no
tiene ni una
contraseña de nombre de usuario ni una clave de acceso El rol de IAM no puede vincularse directamente con una
persona o un servicio En cambio, puede ser asumida por una persona o recurso
para una sesión definida. ¿Qué significa? explicarte con este ejemplo de imagen. Digamos que tiene
una aplicación ejecutándose en una instancia de EC two. Y una instancia de EC dos necesita acceder a una
imagen de S tres. En este caso, EC dos asume el rol y con
base en política, accederá a
imagen desde S tres. Como mencioné, los roles no tienen claves de
acceso ni credenciales
asociadas a ellos. Las credenciales son temporales y anímicamente asignadas por AWS Aws da las
credenciales temporales
al rol para completar la
tarea cuando sea necesaria. Eso es todo por este video.
15. Crea un usuario y grupo de IAM: Ayudar a los alumnos. Bienvenida de nuevo. En esta lección,
crearemos usuarios y grupos de IAM. Al final de este laboratorio, podrá
crear estas entidades de IAM
y navegar cómodamente a través de la consola de AWS IAM Empecemos. Aquí estamos en la página de inicio de la
consola de AWS. Vamos a navegar a IAM usando la opción de búsqueda en la
parte superior de la consola de AWS Como puede ver, puede usar la
barra de navegación izquierda para navegar en grupos de usuarios, políticas, roles e identidad proporcionados
para el alcance de este laboratorio, solo
trabajaremos con
grupos de usuarios y sus políticas. Empecemos por crear
dos usuarios, Ram y Sham. En nuestro ejemplo, Ram es desarrollador y Sham es
administrador de AWS. Puede navegar a
la página del usuario haciendo clic
en las opciones de usuario en el panel de IAM Esta es la
página del usuario donde
verás todos los usuarios creados
para tu cuenta. Ahora vamos a crear
nuestro primer usuario de AWS haciendo clic en el botón Usuarios de
anuncios. Empezamos dando un
nombre de usuario a tu usuario. Llamemos a este usuario Ram. Al crear más de un
usuario en las mismas propiedades, simplemente
puede agregar
otro nombre de usuario haciendo clic en este botón Agregar
otro usuario. No obstante, para este ejemplo, vamos a hacer esto uno por uno. La siguiente opción que vemos es
el tipo de credencial de AWS. Debe seleccionar Cess, Key Programmatic access para permitir que este usuario
pueda acceder a los comandos de la CLI de
AWS o utilizar
AWS SDK y AW API No necesitamos esto
para nuestro ejemplo. Solo seleccionaremos contraseña de acceso a AWS Management
Console, lo que le dará al
usuario Ram para acceder a AWS mediante
la selección de la
consola de administración. Esto nos da algunas opciones más. Puede hacer que AWS cree una
contraseña generada automáticamente o
puede agregar manualmente una
contraseña simple para este usuario. Para nuestro ejemplo, dejaremos que AWS nos dé una contraseña
autogenerada. La siguiente opción es
requerir restablecimiento de contraseña. Debes marcar
esta casilla si quieres que tu usuario restablezca su contraseña cuando acceda por
primera vez a la consola. Vamos a desmarcar para esta demo, Haga clic en Permisos Siguiente Aquí tenemos tres opciones. Puede agregar usuarios
a un grupo de usuarios. Puedes copiar permisos de un usuario existente que
ya tengas en tu cuenta, o puedes adjuntar
políticas directamente. No tenemos usuarios ni
grupos de usuarios en nuestra cuenta, no
tenemos opciones. Pero si haces clic en
la tercera opción, adjunta
políticas existentes directamente, verás una
lista completa de políticas aunque nunca hayas creado
una póliza en tu cuenta. Estas son las políticas
administradas por AWS. Esto significa que estas
políticas son administradas por AWS y que si se requiere algún
cambio, serán realizadas por AWS. Estos son muy útiles para aplicaciones
simples donde no
quieres crear y mantener tus propias políticas
y deja que A's se encargue de
todo esto por ti. Podemos seleccionar una política
aquí como Amazon S Three, Read Only Access, y dar
este permiso a nuestro usuario. Primero creemos un
usuario sin permisos. Haga clic en Etiquetas Siguiente. Aquí podemos agregar
etiquetas a nuestros usuarios. Añadamos una
etiqueta de ejemplo, Departamento de Finanzas. Después haga clic en Siguiente, que abrirá
la página de revisión, donde verá los
detalles finales sobre su usuario. Haga clic en Crear usuario. Esto nos lleva al
paso final de crear un usuario de AWS. Aquí podemos ver que el
usuario Ram fue creado. Incluso puedes ver la
contraseña de este usuario. Haga clic en Descargar CSV,
que descargará un archivo CSV con
credenciales de usuario a su computadora. Es importante saber
que debes guardar estas credenciales en algún lugar
después de crear el usuario. Si puede alejarse
de esta página, ya no
podrá volver a
obtener las credenciales. Da click en cerrar, podemos ver que nuestro usuario Ram se agrega
a la página del usuario. Vamos a crear otro usuario, Sam. Seguimos el mismo proceso. Agregar el nombre de usuario Sham. Permitir el acceso de AWS a través de la consola. Deje todos los valores por defecto excepto requerir restablecimiento de
contraseña. Y haga clic en siguiente, no
estaremos agregando ningún permiso. Haga clic en Siguiente,
agregaremos la etiqueta de muestra, igual que hicimos para las finanzas del
departamento de usuario. Haga clic en Siguiente y haga clic en Crear un usuario Descargar CSB
para guardar las credenciales, tenga en cuenta nuevamente que
no podrá
obtener credenciales después de
cerrar esta página Ahora que hemos
creado nuestros dos usuarios, Ram y Sham, vamos a
crear nuestro grupo de usuarios. Haga clic en Grupos de usuarios
y luego haga clic en Crear Grupo para crear
nuestro primer grupo de usuarios, agregar el nombre desarrolladores. Podemos agregar usuarios a este
grupo desde la siguiente tabla. Añadamos a este grupo Ram, quien es
desarrollador. El siguiente paso es agregar
políticas a este grupo. Queremos que nuestros desarrolladores
puedan acceder
completamente a C dos y S tres. Por lo que comprobaremos Amazon C
dos acceso completo y Amazon S tres acceso completo desde la tabla de políticas aquí
y haga clic en Crear grupo. Ahora tenemos un
grupo de desarrolladores que solo tiene uno. Creemos también un grupo de
administradores. Haga clic en Crear grupo, Ingrese el
grupo, nombre Administradores. Esta vez no vamos a estar sumando farsa a este grupo en estos momentos. Vamos a crear un grupo
sin ningún usuario. Adjuntemos ahora
políticas a este grupo. Adjuntaremos la política de acceso
del administrador. Haga clic en Crear grupo, y podremos ver que nuestro
grupo está creado. Pero el
grupo de administradores
no tiene ningún usuario a partir de ahora. Ahora agreguemos a esto Sham. Ir a la página del usuario. Cuenta tanto con los
usuarios Ram como Sham. Da click en Sham, podrás ver que este usuario no
tiene ningún permiso. Pasar de los permisos a
los grupos de apuñalar del grupo. Esto te dará una
lista de grupos de usuarios. Agreguemos aquí a Sham a su grupo de
administradores. Ahora si vuelves a
la puñalada de permiso, puedes ver que el
permiso se ha agregado a esta farsa de usuario ahora tiene la política de
acceso de administrador adjunta desde el grupo de
administradores Hemos creado dos grupos
con acceso a AWS. Estos usuarios asignaron políticas administradas por
AWS. Eso es todo lo que quería
cubrir en esta estación.
16. Inicia sesión con el usuario de IAM y crea roles: Hola alumnos. Bienvenido de nuevo. En esta lección
iniciaremos sesión con el usuario de
IAM a la
consola de AWS y crearemos rol Supongo que has
completado la última demo y tienes un usuario llamado
Sham y su contraseña. Empecemos. Primero iniciemos sesión como administrador Sham y
utilícelo para crear un rol. Ahora vamos a abrir el archivo CSV que descargaste mientras
creabas el simulacro de usuario. Aquí puede ver esto
contiene nombre de usuario, clave de acceso de
contraseña, ID clave
secreta y
enlace de inicio de sesión de consola ya que no hemos seleccionado el acceso
programático Es por ello que la clave de acceso
y secreta está vacía. Vamos a copiar el
enlace de inicio de sesión de la consola y abrirlo en el navegador. Aquí ves que el
alias de cuenta ya está lleno, y esto es algo que hemos
creado en otra demo. También puedes usar ID de cuenta. En caso de que lo recuerde, agregue su nombre de usuario y
contraseña como se muestra en el CSV. Esto nos llevará
a la consola de AWS. Ahora podemos ver la
consola de AWS como antes, pero si ves la
esquina superior derecha de tu pantalla, puedes ver que estamos
conectados como una farsa de usuario. Navegue a la consola de IAM. Nuevamente, haga clic en la opción Roles desde el panel izquierdo y haga clic en el botón Crear rol. La primera opción que tenemos es
seleccionar la entidad de confianza. Esto significa que debemos seleccionar para
qué sirve este rol. Quién o qué servicio
va a utilizar este rol. La primera opción es
el servicio AWS. Debe elegir cuándo
desea asignar este rol a servicios de
AWS como EC
Two Lambda o ECS Que es lo que haremos aquí. El siguiente es la cuenta de AWS. Esto se utiliza para
crear un rol al que se
puede acceder desde
otras cuentas de AWS. Si quieres que alguien pueda
iniciar sesión desde otra cuenta a la
tuya, elige esta opción. La siguiente opción es la entidad B. Esto es cuando quieres que
los usuarios puedan asumir
este rol y acceder a la consola de AWS a través de una entidad B como
Google Facebook login. La siguiente opción es
SAML 2.0 Federation. Saml es un
servicio de mantenimiento de usuarios que es utilizado por grandes organizaciones para permitir a sus empleados acceder a diferentes servicios en
las organizaciones Esto se puede integrar con AWS para dar acceso
a la consola de AWS. La última opción que tenemos
es una política de confianza personalizada. Puedes usar esto para definir
una política de confianza de Jason. No te preocupes si las tres
últimas opciones no tenían sentido para ti. Las dos primeras opciones son
importantes para este curso. Elija el servicio AWS
y seleccione EC Two. partir de las opciones a continuación, crearemos un rol que
se puede adjuntar a una instancia de
EC dos. Haga clic en siguiente, aquí podemos ver lista de políticas que
podemos adjuntar a este rol. Adjunte la política de acceso
completo de Amazon S three. Y haga clic en Siguiente,
ingrese el nombre del rol. Ves una descripción ya llena de un mensaje
significativo. Permita que dos instancias de EC
llamen a los servicios de AWS
en su nombre. Revisa el rol y
haz clic en Crear rol. Tomará unos segundos. Ahora puedes ver el rol que
creaste en la página de roles. Vamos a utilizar este
papel en las próximas demostraciones. Estudiantes, los usuarios de IAM son los mejores para dar acceso
a tu cuenta de AWS, incluso deberías usarla Te recomendaré
crear un usuario de IAM para ti mismo con permiso de
administrador y uso en el futuro Y también asegúrese de habilitar
MFA para los usuarios de IAM también. Creo que ya borraste tu acceso de usuario root
y tu clave secreta, que creamos
en la última demo. En esta etapa,
sabes que también puedes crear una
clave de acceso y secreta para tu IAM también Puedes encontrar el enlace en
la sección de recursos. Eso es todo para esta sesión.
17. Políticas de IAM: Bienvenidos de nuevo a los alumnos. La última sesión fue sobre grupos de usuarios de
IAM, y roles También discutimos brevemente las políticas de
IAM para
dar permisos, pero eso no es suficiente Comprender
las políticas es crucial para trabajar eficazmente con IAM En esta lección,
hablaremos de las políticas de IAM en detalle, incluyendo su
definición y tipos Empecemos.
Déjame hacerte una pregunta. ¿Qué te viene a la mente cuando
escuchas la palabra política? Si pensaste en reglas
o lineamientos. Lo tengo bien. La política de iam es más o
menos lo mismo. En la sesión anterior, habrías
notado que dimos ciertos permisos
a grupos de usuarios y roles que creamos. Entonces solo ellos pudieron realizar las acciones según esos
permisos otorgados. Estos permisos no
son más que
políticas de las que vamos a
hablar en esta sesión. Por definición, la
política de IAM es una entidad, cuando se adjunta a cualquier identidad o recursos, define
sus permisos Como dije antes, las políticas contienen
permisos que determinan si una solicitud
está permitida o denegada. Significa que sea cual sea la acción que
realice una identidad, el permiso viene
dado por su política. Puede usar la
política de IAM cuando tenga que
establecer los permisos para
una identidad en IAM Ahora vamos a entender esto
con el mismo ejemplo. Tienes un equipo de
dos desarrolladores, Ram y Sham, y dos
administradores, Ta y Geta Creó dos grupos, grupo
desarrollador y grupo
administrador. Según el rol de trabajo
y el permiso, los desarrolladores de
su organización pueden iniciar y detener la instancia EC two y
los administradores pueden crear y eliminar
la instancia EC two. C dos no es más que un servicio de
cómputos en AWS. Hablaremos de ello
en los próximos módulos. Crearás dos políticas. Una política para los
desarrolladores que
permitirá iniciar la lista y
detener C dos instancias. Otra política para
los administradores que les
permitiría crear y
eliminar instancias EC two. Adjuntará estas políticas
a los respectivos grupos. Lo que pasaría aquí
es que la política
se aplicaría en consecuencia a
todos en estos grupos. Eso significa que tanto Ram
como Sham tendrán permisos como desarrolladores y Ta y Geta como administradores De ahí que en este ejemplo, al adjuntar la política de desarrollador
al grupo de desarrolladores, estamos permitiendo que los
miembros del grupo
realicen acciones específicas
y nada más que eso. Ahora sabemos cómo funcionan las políticas. Entendamos los diferentes
tipos de políticas de IAM. Si volvemos de nuevo a la definición de
política, política de
IAM es una entidad que, cuando se adjunta a cualquier identidad o recurso, define
sus permisos De acuerdo con la definición, se puede adjuntar
una política a las identidades
o a los recursos. Como ya sabrás, la
identidad
no es más que grupos y roles de usuarios de IAM El recurso significa servicios de AWS como C dos instancias S
tres bucket lambda, que vamos a
cubrir en módulos posteriores. Con base en las dos formas en que se puede adjuntar una
política. Es de dos tipos, política basada en
identidad y política basada en
recursos. Ahora vamos a entender
ambos uno por uno. Las
políticas basadas en identidad se adjuntan a una identidad que es IAM, grupo de
usuarios y rol Estas políticas controlan qué
acción e identidad pueden realizar sobre qué recursos
y bajo qué condiciones. Tenga en cuenta que estas
políticas son específicas del usuario, lo que permite al usuario acceder
a los recursos de AWS en
sus propias cuentas. Un grupo de usuarios
o rol de IAM puede tener varias políticas que en conjunto representan los permisos
para ese usuario en particular Por ejemplo, puede adjuntar la política al usuario de IAM llamado Ram indicando que se
le permite
realizar la acción de instancia de
ejecución de Amazon C two Se puede afirmar además
que Ram puede
obtener artículos de un cubo
amazon S three. Mi bucket, combinando
tanto los permisos, Ram sólo puede lanzar C
dos instancias y acceder. Mi cubo. El otro tipo
es la política basada en recursos. Estas políticas se adjuntan
a un recurso de AWS, como un bucket de tres instancias
S de Amazon C two , etcétera Estas políticas
controlan qué acción un servicio o
identidad de AWS específico puede realizar
un servicio o
identidad de AWS específico sobre otros recursos y
bajo qué condiciones. Entendamos
con un ejemplo. momentos
habrá escenarios donde EC dos instancias quisieran
acceder al S three bucket. También es necesario
adjuntar la póliza a C dos instancia y dar el permiso requerido
para acceder a S tres. Ahora más allá,
las políticas basadas en identidad son de dos tipos, las políticas
administradas y las políticas
en línea. La política administrada se clasifica
además en AWS, Política
administrada y Política administrada por el
cliente. Ahora vamos a
mirarlos uno por uno. Las políticas administradas por AWS son políticas que son creadas
y administradas por AWS. Como su nombre indica, tendría claro que
esta política es creada y administrada por AWS y
no puede realizar ningún cambio. Por ejemplo, Amazon S Three Read Only Access o
S Three Full Access. Esencialmente, están diseñados para
alinearse estrechamente con las funciones de trabajo de
la industria de TI de
uso común como administrador,
desarrollador o lector. Se puede dar a S tres permiso de
acceso completo
al administrador y S tres acceso de solo lectura
al auditor. El objetivo es
facilitar la concesión permisos para estas funciones laborales
estándar. Las políticas administradas por AWS
no se pueden cambiar y AWS administrará y actualizará
las políticas según sea necesario. Las políticas administradas por el cliente son creadas y administradas
por el cliente. Básicamente, como cliente, puedes crear y
administrar estas políticas. Si desea una política totalmente
controlada que pueda mantener,
puede utilizar una política
administrada por el cliente, que crea y administra
en su cuenta de AWS. Proporciona un control más preciso sobre sus políticas que las políticas administradas por
AWS. Otra ventaja de la política administrada por el
cliente es que puedes adjuntar a múltiples entidades
dentro de tu cuenta, lo que
facilita mucho la escalabilidad. Por ejemplo, tienes cuatro usuarios lectores
en tu cuenta para un equipo diferente que todos necesitan el mismo tipo de Amazon
C para acceder de solo lectura. Puede crear una política administrada por el
cliente y adjuntarla a los cuatro usuarios. Si necesita
cambiar esa política, puede cambiarla en una
política que se aplique a todo lo que le proporciona una administración
de
cambios integrada y centralizada. Para esas políticas administradas, tienes un control completo
y puedes administrar permisos en cualquier nivel
que consideres necesario. Lo siguiente y último es la política en línea. La política en línea se
adjunta directamente al usuario o grupo. Mantiene una estricta relación uno a uno con la
política y la identidad. Eso significa que una política en línea se adjunta a una sola entidad. Generalmente se crea
cuando se crea una identidad y se elimina
cuando se elimina la identidad. Es beneficioso
cuando se tiene que
dar permiso a un usuario o grupo
temporal. Se crea una política en línea mientras se crea un usuario o grupo. Y cuando elimines al usuario, también se eliminará
la política. Muy bien, eso es
más o menos sobre las políticas. Resumamos rápidamente lo que
aprendimos en esta sesión. Una política es básicamente el
permiso que decide qué acciones se deben
tomar en las cuentas de AWS. Y aprendemos sobre los diferentes
tipos de políticas de IAM,
que son políticas basadas en identidad
y políticas basadas en recursos Las políticas basadas en identidad dividen
además en dos tipos, políticas
administradas y políticas
en línea. Las políticas administradas podrían ser administradas por
AWS o administradas por el cliente.
18. Mejores prácticas de IAM: Hola, alumnos. Bienvenida de nuevo. En este video,
aprenderemos algunas prácticas recomendadas de IAM para garantizar la seguridad
de nuestras cuentas de AWS Empecemos. La primera mejor práctica de IAM es evitar compartir credenciales de inicio de
sesión En lugar de compartir credenciales de usuario
raíz con diferentes usuarios
de su organización. Debe crear usuarios de IAM para las personas que van
a utilizar sus recursos de AWS Entendamos esto
con un ejemplo. Supongamos que tienes dos desarrolladores y dos administradores
en tu equipo. Lo que a veces
hace la gente es crear un usuario de mensajería instantánea y compartir credenciales de
usuario con estas
cuatro personas. Pero no es una buena práctica. En su lugar, debemos crear cuatro
usuarios diferentes de acuerdo con los roles de estos miembros del equipo y compartir las
credenciales de usuario con ellos. El objetivo aquí es que
cada usuario tenga sus propias credenciales de IAM
para acceder a su cuenta No importa si están accediendo a
la cuenta a través de la consola
de administración o
usando AWS CLI o cualquier SDK La siguiente mejor práctica
es crear grupos. Siempre se recomienda
crear grupos y asignar solo los
permisos requeridos a estos grupos. Eso significa que si hay varios usuarios en
su organización con el mismo rol de trabajo, en lugar de asignar permisos
a usuarios individuales, puede crear un grupo, asignar un permiso
a este grupo y agregar todos los usuarios que tengan el mismo
rol de trabajo en el grupo Cada usuario asumirá
estos permisos. Entendamos esto
con el mismo ejemplo. Supongamos que tienes dos desarrolladores y dos administradores
en el equipo. En lugar de dar permisos a estos cuatro usuarios individuales, debes crear dos grupos. Uno para los administradores y otro para los desarrolladores, y agregar los
permisos requeridos a estos grupos. Ahora puede agregar usuarios a
sus respectivos grupos. Los usuarios asumirán
automáticamente los permisos asignados a
sus respectivos grupos. Esta práctica te
ayudará a administrar los permisos a nivel
de grupo lugar de la etiqueta de usuario. Pasemos a la siguiente mejor práctica, que
es el permiso. Aws recomienda que siempre
debemos crear permisos para lo que el usuario necesita de acuerdo a su rol. Estos permisos se conocen como permisos de menor privilegio. Por ejemplo, si el trabajo de un usuario es iniciar y detener las dos instancias de
EC, entonces en lugar de dar acceso
completo a EC dos, solo
debemos
dar permiso para iniciar y detener la instancia de
EC dos. Siempre debemos crear permisos y
políticas de privilegios
mínimos mientras
diseñamos el permiso. Ahora en el futuro, la mejor
práctica
más es la auditoría. Aws dice que siempre
debemos habilitar el seguimiento
en la nube dentro de todas
y cada una de las cuentas de AWS. Si no conoces Cloud Trail, es un servicio de AWS que es gratuito,
excepto el almacenamiento. Siempre que un usuario interactúe
con su cuenta de AWS, Cloud Trail registrará
todas y cada una de las actividades que eventualmente le ayudarán durante la auditoría Aprenderemos Cloud Trail en
detalle en el módulo de seguridad
y administración de AWS. Entendamos
con un ejemplo. Digamos que un usuario inició sesión en
su cuenta de AWS, creó una instancia de EC two
y luego la terminó. Aws Cloudtrail registrará
las tres actividades. De esta manera
tendrás un registro de todas las actividades que los usuarios están realizando
dentro de tu cuenta. La siguiente mejor práctica en la lista es agregar políticas de
contraseña. Aws dice que siempre se
deben configurar las políticas de
contraseña, lo cual hemos hecho en
el video anterior. Las políticas de contraseña garantizan que cada usuario tenga una
contraseña segura. La siguiente mejor práctica es MFA,
autenticación multifactor Siempre debe habilitar autenticación
multifactor
para usuarios privilegiados. Yo recomendaría que haga
cumplir MFA para cada usuario. Puede crear una política y adjuntar esa política
a todos los grupos. Ahora, cada vez que algún usuario
inicie sesión en una cuenta de AWS, tendrá
que autenticar
su identidad dos veces Entonces sólo ellos podrán
hacer cualquier cosa en tu cuenta. Esta es una muy buena
práctica para garantizar que su cuenta y
los recursos de AWS estén seguros. La siguiente mejor práctica es rotar las credenciales de inicio de sesión. Todos los que accedan a
su cuenta de AWS deben cambiar sus
credenciales de usuario de vez en cuando. Incluso puedes hacer cumplir
esta política a
los usuarios de que tendrán que
rotar sus credenciales
cada dos meses, o tres meses, o seis meses. Esto es una parte de su política de
contraseñas dentro su cuenta de AWS que nos han visto en
la demostración anterior. Bajo esta política, el usuario
no sólo tendrá que rotar
sus contraseñas, sino también las claves de acceso y
secretas. Por último, pero no menos importante, es el usuario root. No debes usar
usuario root para tus
actividades diarias , ya que podría exponer
tus credenciales de usuario root. Además,
también debe limitar el acceso
del usuario raíz tan pronto como
tenga una cuenta de AWS, almacenar
las credenciales del usuario raíz en algún lugar privado y crear un usuario de IAM,
incluso para usted mismo Estudiantes, espero
que entiendas ahora que la seguridad de la cuenta
es un problema real y deben emplear
estas prácticas para salvaguardar su cuenta
de cualquier posible amenaza. Eso es todo por este video.
19. Descripción general de Amazon S3: Bienvenido de nuevo. En este video, conoceremos uno
de los servicios principales de AWS, el Simple Storage Service, conocido como S three. Empezaremos con
la visión general de S tres. Entender el
cubo S tres y también la carpeta. Empecemos con lo que es S3s3 significa Simple
Storage Service Como puedes ver los
primeros personajes de Simple Storage Service RS, por
eso se llama S three. Permite almacenar, recuperar el acceso y realizar
copias de seguridad de cualquier cantidad de datos en cualquier momento desde
cualquier lugar a través de Internet S Three es una solución
de almacenamiento perfecta para almacenar grandes
cantidades de datos. Por ejemplo,
archivos de audio, películas, almacenamiento de fotos a
gran escala, conjuntos de
big data, etcétera. Podemos acceder a S Three ya sea
desde la consola de administración, AWS CLI o AWS SDK Ahora hablemos de cómo
almacenamos los datos en S tres. Para almacenar cualquier dato
dentro de S three, necesitamos crear un bucket
dentro de una cuenta de AWS. Un bucket S tres es
un contenedor lógico en el que los datos se
almacenan dentro de S tres. Para almacenar cualquier dato en S tres, necesitamos crear un bucket. También podemos crear múltiples
depósitos para organizar nuestros datos. Bucket se identifica por
su nombre y debe ser globalmente único en
todas las regiones y cuentas. Por ejemplo, si creo un
bucket y lo nombro mi bucket, entonces nadie más puede
usarlo en ninguna cuenta de AWS. En otras palabras, una vez que se crea un bucket S
three, ninguna otra cuenta de AWS puede crear el bucket S three
con un nombre similar. S three bucket simplemente funciona como un almacenamiento en el que podemos almacenar datos
ilimitados ya sea
directamente dentro del bucket o crear una carpeta y luego poner los datos
en esa carpeta. Ahora vamos a entender
qué es una carpeta. Las carpetas se utilizan para agrupar
y organizar archivos. A diferencia de un sistema de
archivos tradicional, Amazon S three no utiliza jerarquía para
organizar sus archivos. En aras de la simplicidad
organizacional, la
consola Amazon S three admite el concepto de carpeta como
medio de agrupar datos. Puedes tener múltiples carpetas o archivos dentro de un solo bucket. Básicamente, la carpeta es un espacio de
nombres dentro del bucket. Entendamos
con un ejemplo. Dentro de la cuenta de AWS, tenemos servicio S three. En este servicio, podemos crear cubos como hemos
aprendido hasta ahora Dentro de este cubo,
podemos almacenar nuestros archivos, imágenes, videos o datos. Además, si queremos
organizar nuestros datos, podemos crear carpetas dentro del bucket y también
carpetas dentro de carpetas. Entonces también podemos almacenar nuestros datos
dentro de estas carpetas. Tendrá más sentido cuando hagamos la demo en
la siguiente lección. Otro concepto importante
en S tres es objeto. Cuando almacenamos cualquier dato que
pudiera ser archivos, documentos, imágenes, videos, etcétera, se
les conoce como
objetos en AWS De ahí que el objeto
no sea más que su archivo documento, imagen, video, etcétera Cualquier cosa que se encuentre en su
disco duro se conoce como un archivo. Pero cuando subas
este archivo en S tres, se le conocerá como un objeto. Y el bucket en S three es similar al directorio de archivos
en tu disco duro. Ahora hablaremos sobre las características de los objetos
que necesitas conocer. El tamaño máximo de un
solo objeto que
puedes subir a S tres
es de 5 terabytes Tenga en cuenta que
cinco terabyte
no es el tamaño de los
datos totales que puede cargar En cambio es el tamaño
máximo de un solo archivo que S tres te
permite subir. Pero eso no quiere
decir que no se puedan subir objetos
mayores a 5 terabytes Si tienes un objeto
mayor de 5 terabytes, entonces tienes que dividirlo
en varias partes y luego usar algo llamado multiparte
para subirlos El tamaño máximo del objeto
es de 5 terabytes, pero debes usar una carga
multiparte tan pronto como
subas un objeto de
tamaño superior Otra característica
es el empeoramiento del objeto. No es más que mantener
múltiples variantes
de un mismo objeto cuando estamos
haciendo algunos cambios en él. En S tres, puedes objetos
para protegerlos de cualquier acción no intencionada o incluso de la
eliminación accidental de un objeto Esto significa que siempre
conservas las
versiones anteriores de un objeto. Las siguientes características
es la clase de almacenamiento. Puede crear múltiples
cubos y
almacenarlos en diferentes
clases o llantas de datos Las clases son diferentes
niveles de almacenamiento con diferentes costos en función de la frecuencia con la que
use sus datos. Puedes elegir una clase si
no usas mucho tus datos, podrías elegir una clase más barata y dejar tus datos
ahí y así sucesivamente. Hablaremos de ello a
detalle en la próxima. Por último, pero no menos importante, puedes crear
permisos para limitar quién puede acceder
o ver tus objetos. Una de las políticas más comunes
en la política de bucket es una política basada en recursos
que puede usar para otorgar permisos a su
bucket y sus objetos. En esta sesión, nos fijamos en los objetos S three bucket
folder y sus características.
20. Disponibilidad, durabilidad y replicación de datos en S3: Hola alumnos. Bienvenido de nuevo. En este video,
vamos a entender tres conceptos importantes
que son Disponibilidad, durabilidad y replicación de datos que serán utilizados mucho
en la próxima sesión. Mientras comprendemos
diferentes clases de almacenamiento, comencemos
con la disponibilidad. Se refiere al tiempo de funcionamiento del sistema. Esto simplemente significa que por cuánto tiempo
está disponible el sistema. En otras palabras, es el
momento para el cual el sistema está operativo y capaz de
entregar datos a pedido. Medimos esta
disponibilidad en porcentaje. Esto también se conoce como SLA, que significa Acuerdo de
Nivel de Servicio. Básicamente es una promesa
que los proveedores de servicios tienen con sus clientes para la disponibilidad de sus
servicios o sistemas. Si cumplen su promesa y los clientes obtienen todo
dentro del tiempo prometido, eso significa que se completa el SLA. Tomemos un ejemplo. Los supermercados dicen que
están abiertos 24 en siete. Significa que está disponible las 24
horas del día para ti. Si cumplen su promesa y están abiertos durante todo
el día, semana, mes y año, entonces
podemos decir que su disponibilidad es del 100%
y cumplen con el SLA. El siguiente concepto es la durabilidad. Se refiere a la protección de datos
a largo plazo. Eso simplemente significa qué tan
bien están tus datos protegidos de cualquier posible
pérdida o corrupción. Además de la disponibilidad, sus datos no
deben perderse ni corromperse si los almacena en un
dispositivo de almacenamiento durante mucho tiempo. La durabilidad también se
mide en porcentaje. Entendamos esto
con un ejemplo. Supongamos que almacenó 1,000 kilogramos de papa en cámara
frigoríficas durante seis meses. Cuando los tienes de vuelta, solo eran 800 kgs. Significa que o 200 kgs de papas estaban podridas o
comidos por ratas, ¿verdad? Eso significa que el
servicio de almacenamiento en frío no era duradero. La próxima vez te asegurarás de
almacenar las papas en una cámara frigorífera bien
equipada, no
habrá pérdidas. Esto se llama durabilidad. Ahora entendemos qué son la durabilidad
y disponibilidad de los datos. También es importante saber cómo se almacenan
los datos en S tres. Se basa en un concepto
llamado replicación de datos. Entendamos esto. Si recuerdas
del último laboratorio, hemos creado
un cubo S three dentro de la región de Mumbai
y hemos subido una imagen. Cuando subas algún
dato en tu bucket, estos datos irán a una de las
zonas de disponibilidad de la región. En nuestro caso, creamos un
cubo en la región de Mumbai. Nuestra imagen fue subida en una
de las zonas de disponibilidad. Pero para proteger nuestros datos, AWS realiza copias adicionales de nuestros datos y los replica
en otras zonas de disponibilidad Los datos se almacenan
y replican en toda la disponibilidad Jones
dentro de la misma región Ahora surge la pregunta, ¿por qué AWS hace eso? Aquí debemos
recordar que AWS prometió 11 nueves
de durabilidad de datos. Simplemente significa que AWS promete
99 puntos nueve adicionales, número de 9% de garantía de
durabilidad de datos. Aws no asegura
una durabilidad de datos al
100%, pero dicen que hay 99 puntos adicionales nueve, 9% de probabilidad de que tus
datos no se pierdan. ¿Cómo se asegura AWS cuando
estamos cargando
datos dentro de S tres, no sufrirá
ninguna pérdida por eso Aws mantiene copias de nuestros datos en toda la disponibilidad Jones en la misma región. En caso de cualquier pérdida de datos, recuperan los datos de otras
zonas de disponibilidad a la perdida. Así es como los datos
están siempre presentes en todas las
zonas de disponibilidad de una región. Y esa es la razón como promete 119 de durabilidad
en casos extremos. Si alguna
zona de disponibilidad baja, nuestros datos
seguirán estando disponibles en otras zonas
de disponibilidad de esa región en particular. Bien. Este es uno de los beneficios significativos
de usar Amazon S three. Este es un ejemplo sencillo de
cuando subimos nuevos datos. Ahora entendamos qué sucede cuando hacemos algún
cambio en nuestros datos. Supongamos que tenemos esta imagen
en tres disponibilidad en, y cambiamos el color de
esta imagen y la subimos. Entonces AWS actualiza automáticamente las dos
copias restantes de sus datos. En otros Jones, lo mismo
va para eliminar también. Cuando elimines tus
datos de One Joe, se eliminarán de todas las
zonas de disponibilidad de la región. Estudiantes, comprendimos durabilidad de la disponibilidad de
datos y cómo AWS promete 11 noventuras de durabilidad de datos
con replicación de datos Eso es todo para esta sesión.
21. Clases de almacenamiento: Hola, alumnos. Bienvenido de nuevo. En este video,
entenderemos diferentes clases
de almacenamiento. Esta sesión
estará llena de hechos. Les recomiendo a todos tomar notas. Hemos agregado algunos recursos de
aprendizaje suplementarios en la sección de recursos. Por favor, asegúrate de hacer el mejor uso de ellos.
Empecemos. En uno de los videos anteriores, almacenamos la imagen en un cubo
Amazon S three. Al subir el objeto, notamos que las clases de
almacenamiento se mostraban debajo de
las propiedades Aws ofrece diversas opciones para almacenar nuestros datos en la nube. Estas opciones se conocen como clases
de almacenamiento y podemos elegir cualquier clase
en función de la frecuencia con la
que accedemos a nuestros datos. Estas tres
clases de almacenamiento S están diseñadas específicamente para proporcionar el almacenamiento de menor costo para diferentes patrones de acceso. Significa que diferentes tipos
de clases de almacenamiento están diseñados para cumplir con diferentes
propósitos de almacenamiento de datos. Estudiantes Ingeniero en la nube,
es muy importante
entender estas clases ya que pueden ahorrarle
tiempo y dinero. Vamos a
entenderlos uno por uno. El primero es
S tres estándar. Es una clase de almacenamiento de
propósito general utilizada para datos de
acceso frecuente. Ofrece alta durabilidad,
disponibilidad y rendimiento. El estándar S tres está diseñado para disponibilidad de
99.999
y una durabilidad del 11 9%. En otras palabras, están apenas 0.001% en sus datos
podrían perderse y así sucesivamente Le brinda baja latencia
y altos rendimientos y puede soportar hasta dos fallas
simultáneas en las instalaciones Eso significa que si dos
junes de disponibilidad tienen problemas, sus datos siguen estando seguros, ya que ofrecen baja
latencia y alto rendimiento El estándar S tres es apropiado
para una amplia variedad de casos de uso como aplicaciones
en la nube, sitios web
dinámicos, distribución de
contenido, aplicaciones
móviles y de juegos y análisis de big data. La siguiente es la clase de almacenamiento de
acceso poco frecuente. Como su nombre indica, esta clase de almacenamiento se utiliza para datos de
acceso menos frecuente. Datos a los que solo accedes de
vez en cuando. Pero también quieres que estos datos estén disponibles de inmediato
siempre que los
necesites, debe estar disponible
tan pronto como lo solicites. Si ese es el caso, puede usar la clase de almacenamiento de
acceso poco frecuente Está diseñado para 99.9% disponibilidad y
11 9% de durabilidad. La disponibilidad de
clases poco frecuentes es inferior al estándar S tres porque
no accedemos a nuestros archivos con
mucha frecuencia Es más económico que el estándar
Amazon S three. Pero cuando accedemos a los archivos, pagamos un cargo por
recuperación por GB. Esta es la
pisada de esta clase. Pagamos menos por el almacenamiento
, pero necesitamos pagar una tarifa de recuperación cada
vez que accedemos a nuestros datos. Esta combinación de bajo costo y alto
rendimiento hace que acceso
poco frecuente estándar de
S Three sea ideal para almacenamiento a largo plazo, backup y recuperación ante desastres Nuestros datos en esta clase también
son resistentes frente a los eventos de una falla completa de la
zona de disponibilidad. A continuación, tenemos una zona de acceso
poco frecuente. Esto es muy similar a la clase de acceso
infrecuente, pero la única
diferencia es que en una clase de
acceso infrecuente de zona, los datos se almacenan en un
solo Joe de disponibilidad, mientras que en la clase de
acceso poco frecuente
se almacena en al menos
tres Básicamente, tus datos
están menos disponibles
porque están presentes en una
sola disponibilidad, junio. La mejor parte es
que aún tienes baja latencia y alto
rendimiento de rendimiento. Además, dado que los datos se almacenan
en una disponibilidad junio, es 20% más económico que el acceso
poco frecuente El
acceso infrecuente de zona S31 es ideal para clientes que necesitan
una opción de menor costo para los datos a los que se accede con frecuencia, pero no necesitan la
disponibilidad y resiliencia de S tres estándar o S
tres estándar de acceso
poco Esta es una buena opción para almacenar
copias de seguridad secundarias
de datos locales o los datos
que se pueden crear fácilmente. Nuevamente, también puede usar replicación entre regiones
S tres para almacenar de manera
rentable los datos que se replican desde
otra región de AWS El siguiente es S three
Intelligent Caring. Como su nombre indica, esta clase de almacenamiento viene con una inteligencia incorporada
que
mueve automáticamente los datos a la llanta de acceso más
rentable según su patrón de acceso Aquí, el
patrón de acceso indica frecuencia con la que se accede a un shat de
datos Aquí los objetos se
moverán automáticamente
de una clase de almacenamiento
a otra
clase de almacenamiento en función los
patrones de acceso cambiantes de estos objetos. Como resultado, los datos de acceso
frecuente se
moverán al almacenamiento de acceso
frecuente
y los datos a los que se
accede con poca frecuencia se moverán mediante organización
en niveles inteligente de
S tres a la categoría correcta Tiene la misma baja
latencia y alto rendimiento
a través de put
que el estándar S tres. Pero esto es altamente optimizado en
costos. Por ejemplo, si los datos se mueven a la clase de
acceso poco frecuente, se ahorrará hasta un
40% en costos de almacenamiento Si se traslada a
la clase glaciar, ahorrará hasta
68% en costos de almacenamiento. También está diseñado
para una durabilidad 119 y disponibilidad
del 99.9% durante un año determinado en
múltiples disponibilidades Jos, como usuario de este servicio, solo
tienes que pagar un pequeño cargo mensual de monitoreo
y auto agotador Esto te dará la
mayor optimización de costos sin pensarlo
demasiado. También es resistente frente eventos que pueden afectar a toda
una disponibilidad. Joe. Ahora la siguiente clase
de almacenamiento es Glacier Amazon S three. Glacier es la clase de almacenamiento de menor
costo en S tres y admite retención a
largo plazo y la preservación
digital para los datos a los que se accede una
o dos veces al año. Es útil para los clientes, particularmente aquellos en industrias
altamente reguladas como los servicios financieros, la atención médica y los sectores públicos. Estas industrias
conservan conjuntos de datos durante siete a diez años o más para cumplir con los requisitos de
cumplimiento normativo. Está diseñado para una durabilidad
119 de objetos en múltiples zonas de
disponibilidad. Como su nombre indica, espera
que sus
datos se congelen, lo
que significa que se
mantendrán por un periodo de tiempo
más largo. Significa que la
validez de recuperación de objetos es muy larga. Ahora, AWS admite tres tipos de glaciares para un
patrón de acceso diferente en el futuro. Ahora comparemos rápidamente
diferentes tipos de glaciares. Amazon S tres, recuperación
instantánea glaciar. Tres, la recuperación instantánea de glaciares ofrece un tiempo de recuperación
en milisegundos con el mismo rendimiento que S tres estándar Amazon tres, recuperación flexible
glaciar En la recuperación flexible de glaciares, el tiempo de recuperación se puede configurar de
minutos a horas. Con la recuperación masiva gratuita, es la más adecuada para escenarios de
copia de seguridad y
recuperación ante desastres donde grandes cantidades de datos
deben recuperarse de manera rápida
y rentable Amazon Es tres
Glacier Deep Archive. En el Archivo Profundo de Tri Glacier, el tiempo de recuperación de
los datos es de 12 horas. Es la clase de
almacenamiento de menor costo diseñada para retención de datos a
largo plazo que se conservará
durante siete a diez años. Es una alternativa ideal
a las bibliotecas de cintas magnéticas. Estudiantes, espero que ahora
entiendan la clase de almacenamiento. En caso de que tengas alguna duda, te
recomiendo pasar por
esta sesión una vez más.
22. Demostración de S3 Bucket: Bienvenido de nuevo. En
esta sesión de demostración, aprenderemos a crear un portacubos S three
y subir datos en él. Vamos a la consola de
administración de AWS. Recuerde, primero tenemos que
seleccionar la región de AWS. Seleccionaré la región de Mumbai. Después de eso, iremos
a la consola S three. Hay tres formas en las que podemos encontrar el
servicio S three en la consola. El primer método es
buscar S tres en el cuadro de búsqueda y nos
dará S tres en el resultado. El segundo método es encontrar
el S tres en el menú de
todos los servicios. Simplemente expanda el menú, ubique el servicio S tres, y haga clic para abrirlo. Por último, si
previamente has usado S
three en tu cuenta, esta será listada bajo los servicios visitados
recientemente. Vamos a escribir S tres aquí
y dar clic para confirmar. Cuando lleguemos por primera vez a
la consola S three, veremos una lista de buckets
dentro de la cuenta de AWS Dado que S three usa un espacio de nombres
global, no es necesario seleccionar una región mientras
usa la consola. Ahora bien, si estás pensando, ¿por qué seleccionamos la región? S three es un servicio global. Bueno, seleccionar la región
correcta cada vez que estés trabajando en tu cuenta
es una buena práctica. No importa si el servicio es sensible a la región. Ahora vamos a seguir adelante y
crear un cucharón S tres. Para ello, haz clic en Crear
Bucket y elige un nombre. Ahora una cosa a tener en cuenta aquí es que el nombre del bucket
debe ser único. Para que este nombre sea único, agreguemos algunos
números aleatorios al final. Ahora hay algunas reglas que debemos seguir
al nombrar cubos. La primera regla es
que el nombre del bucket debe ser de 3-63 caracteres. Segundo, el nombre debe
tener traqueteos más bajos, números, puntos y plumas altas Debe comenzar y terminar
ya sea con una letra o un número. Por último, el nombre de su bucket
debe ser único en AWS. Seleccione la región donde desea que se cree su bucket
, y deje el resto de los ajustes predeterminados y
continúe y cree el bucket. Ahora se ha creado el cubo, y no tardó
más de un segundo. En esta página, puede
ver el nombre del bucket, la región donde creó el bucket y el acceso
al objeto bucket. Ahora vamos a la cubeta. Ahora aquí puedes ver las diferentes pestañas
incluyendo propiedades, permisos, métricas,
administración y puntos de acceso. Aquí está el objeto
dentro de este cubo. Este es el lugar donde
subimos nuestros archivos. Como hemos aprendido
en la última sesión, podemos o bien subir objetos
en el bucket S three o también
podemos crear carpetas dentro del bucket para
organizar nuestros datos. Vamos a seguir adelante y crear una
carpeta y nombrarla como demo. Ahora podemos subir nuestro objeto en el
bucket o esta carpeta. Vamos a hacer clic en Subir. Aquí tenemos dos opciones. O podemos subir
archivos o subir carpetas. Vamos a subir un archivo aquí. Haga clic en Agregar archivos. Aquí podemos hacer algunos
ajustes adicionales a nuestro objeto. Simplemente haga clic en Propiedades y
verá Clase de almacenamiento. Es estándar por defecto. Lo cubriremos en
detalle próximamente en este módulo. Conservemos esto por ahora
y haga clic en Subir. Ahora nuestro archivo se
ha subido correctamente. Saldré haciendo
clic en Cerrar. Ahora tengo un objeto, mi S tres bucket con
el nombre demo dot jpg. Si hacemos clic en nuestro
objeto demo jpg, nos llevará
al tablero de objetos, donde veremos el permiso de
propiedades del objeto y la versión. Vamos a entrar en la pestaña
Propiedades. Aquí podemos encontrar todos los
detalles sobre nuestro objeto. Al igual que quién es el
propietario del objeto, en qué región se carga el
objeto y cuándo se modificó por última vez el
objeto, El tamaño del objeto,
la clave de objeto de tipo,
la URL, la etiqueta de nombre del
recurso de Amazon, y aquí está la URL del objeto. Es el enlace al archivo. Podemos abrirlo haciendo
clic en esto, pero vamos a abrirlo en una nueva pestaña. Como pueden ver, me
niegan el acceso porque este
cubo no es público. Y no tengo derecho a acceder
a este objeto. Si el bucket no es
público e intentas abrir el archivo usando su
URL pública, no se abrirá. Ahora volvamos al tablero
de objetos. Tenemos otra forma de abrir este objeto simplemente haciendo
clic en Abrir. Se abrirá una nueva pestaña y nos
mostrará nuestra imagen demo. Ahora debes estar pensando, ¿por qué funciona esto, aunque el cubo no
sea público? Bueno, cuando abrimos un
objeto a través del open, se abre porque esta
es una URL única. Como puedes ver, la URL es mucho,
mucho más larga y no es
similar a una URL pública. Esta es una URL especial para mí
como propietario de este objeto, estoy autorizado para acceder a
este objeto a través de esta URL. Ahora lo último que
quería mostrarles es cómo eliminar un
objeto de S tres. Para eso,
volveré al bucket, seleccionaré el objeto,
luego haré clic en eliminar. Aquí tendrás que
escribir delete para confirmar que quieres
eliminar el objeto, luego eliminar objeto, esto
eliminará permanentemente este objeto. Estudiantes, espero que ahora tengan confianza en S
tres y sus alcances. En esta sesión,
hemos visto una demo donde hemos creado un
S three bucket holder, subido el objeto con éxito
y eliminado los mismos. Ahora adelante y hágalo usted mismo.
23. Descripción general de EBS (almacenamiento de bloques elásticos): Hola alumnos. Bienvenido de nuevo. En este video
aprenderemos sobre una de las opciones de almacenamiento
para EC two instancias, el almacenamiento de bloques elásticos, también conocido como EBS Comenzaremos con la
definición y fundamentos de EBS seguido de sus casos de uso y
tipos. Empecemos. Amazon EBS es como un disco
duro en la nube que proporciona almacenamiento de
bloques persistente para Amazon EC Twin Parties. El almacenamiento de Ebs se conoce como volúmenes de EBS en la terminología de
AWS Por lo tanto, a partir de ahora lo llamaremos volumen
EBS. Puede adjuntar volúmenes de EBS a sus posturas gemelas EC y crear un sistema de archivos encima
de estos volúmenes Ejecute una base de datos o
servidor encima de ellos, o utilícelos de cualquier otra manera, se usaría
un almacenamiento de bloques. Pero, ¿qué es el almacenamiento en bloque? Es una tecnología
que corta los datos en bloques y los almacena
como piezas separadas cada bloque de datos se le da
un identificador único, lo que permite que un
sistema de almacenamiento coloque los
datos más pequeños donde sea
más conveniente. Un volumen de almacenamiento en bloque funciona de
manera similar a un disco duro. Puede almacenar cualquier archivo en él o incluso instalar un sistema operativo
completo. El volumen Ebs es una unidad
conectada a la red. ¿Qué significa?
Bueno, significa que el volumen de EBS no está realmente conectado a
tu C a instancia,
físicamente, está conectado a
través de una red dentro de AWS Dado que está conectado
a través de un enlace de red, volumen
EBS se puede
conectar o separar fácilmente Para las instancias C dos, esto significa que puede
mover su volumen de EBS de una instancia en ejecución
a otra y el cambio ocurrirá
en cuestión de segundos. Se puede pensar en EBS como
un disco duro de computadora
que se puede conectar a cualquier separado de
una instancia e inmediatamente volver a conectar a
una instancia diferente a través Ahora, aquí surge una pregunta sobre por qué esto se llama almacenamiento de bloques
elásticos. Cuando aprovisiona
un volumen de EBS, tiene
que definir
su tamaño e IOPS Iops simplemente significa operaciones de entrada y
salida por segundo. Tienes que decirle a AWS que
quieres un volumen EBS
de digamos, 100 B, que pueda hacer 1,000 IOP, es
decir, 1,000
operaciones de entrada y salida por Pero solo porque
definas que EBS es de 100 GB, no significa que estés
atascado con unidad de 100 GB Puede cambiar el tamaño
o la capacidad de IOPS volúmenes
de EBS según sus
necesidades en cualquier momento Esta es la elasticidad
que proporciona EBS, y es por eso que EBS es un almacenamiento de bloques elásticos y
no solo un almacenamiento de bloques Ahora veamos
algunas características de EBS. Un punto importante a
tener en cuenta sobre EBS es que solo se
puede adjuntar a una instancia
C dos a la vez No puede tener dos instancias
C dos conectadas a un
solo volumen de EBS Sin embargo, AWS
lanzó recientemente una característica en la que volumen de
IOPS SSD EBS se
puede conectar a
varias instancias No necesitamos entrar en
detalles en este curso. Esencialmente, EBS
es una unidad de red que se puede mover de
una instancia a otra Pero este proceso
tiene una limitación. Los volúmenes de Ebs están restringidos
dentro de una zona de disponibilidad. Esto significa que aunque
los volúmenes de EBS se
pueden mover rápidamente de
una instancia a otra, se
pueden mover a través de
la zona de disponibilidad Por ejemplo, un volumen de EBS
en la zona de disponibilidad P, sur uno A, no
se puede adjuntar a una instancia EC dos
en AP sur una B. Sólo
se puede mover entre
instancias en AP sur una A. Sin embargo, si desea mover volúmenes de
EBS de una zona de
disponibilidad a otra, hay
que tomar
una instantánea de la Aprenderemos sobre las
instantáneas en un tema extra. Tipos de volúmenes de EBS. Avancemos
y comprendamos los diferentes tipos
de volúmenes de EBS Tomemos un ejemplo aquí. Uno de los
criterios importantes a la hora comprar un nuevo portátil
es el almacenamiento, ¿verdad? Cuando se habla de almacenamiento de
computadoras, significa discos duros. discos duros de su computadora
podrían ser de diferentes tipos, como SSD, HDD, etc. De igual manera, el volumen de EBS también se
clasifica en seis tipos. SSD de uso general,
GP dos y GP tres. Vicent IOPSSD, I 01 y I 02 a través de SD optimizado un HDD, HDD
antiguo, S uno HDD Una cosa a tener en cuenta aquí es que solo se pueden
usar los SSD como volumen de arranque del sistema
de todos estos tipos volumen de arranque es el volumen que contiene el sistema
operativo. Aws solo permite los
SSD rápidos como volumen de arranque. Eso es todo lo que necesitamos saber
sobre el tipo de volumen EBS y EBS.
24. Resumen de EFS (Sistema de archivos elásticos): Hola alumnos. Bienvenido de nuevo. En este video
conoceremos una de
las opciones de almacenamiento
de EC dos instancias, el sistema de archivos elástico, también conocido como EFS. Comenzaremos con
lo básico y una pequeña descripción de EFS
seguida de sus casos de uso. Así que comencemos. ¿Qué es el sistema de archivos? Antes de entender
qué es EFS, debes saber qué es
un sistema de archivos. Un sistema de archivos define
cómo se nombran, almacenan, leen y utilizan los archivos
en cualquier dispositivo de almacenamiento. Se instala en
todos los dispositivos de almacenamiento, ya sea una unidad de
disco o un CD. Cada vez que realiza alguna operación en un
archivo de su computadora, como editar, eliminar o leer sus sistemas operativos, sistema de
archivos lo maneja. El almacenamiento es simplemente una
gran cantidad de datos. Sin un sistema de archivos, porque sin un sistema de archivos, el sistema operativo nunca
sabrá dónde
buscar tus datos. Imagina un trastero lleno de documentos y páginas esparcidas por
todos lados. No se puede decir qué
páginas están relacionadas con qué páginas pertenecen a
la misma carpeta, ¿verdad? Se trata solo de datos
dispersos aleatoriamente. Así
será un dispositivo de almacenamiento sin un sistema de archivos. En comparación, una biblioteca
es un ejemplo
de la vida real de un sistema de archivos donde cada
documento está organizado. Al igual que una biblioteca tiene un sistema. Su sistema operativo
tiene un sistema de archivos que el equipo donde
encontrar sus archivos. Los sistemas operativos tienen un sistema de archivos estándar de la
industria que se administra
como parte de su sistema operativo. Sin embargo,
siempre es posible que hagas tu propio
sistema de archivos para aplicaciones. Ahora que ya sabe lo que es
un sistema de archivos, hablemos de EFS,
Amazon EFS es un servicio de almacenamiento de
archivos basado en la nube. Como su nombre indica, es una solución de
almacenamiento escalable que
crece automáticamente y las cadenas, medida que agrega y elimina archivos, no necesita
decirle a AWS que cree un sistema de archivos de
100 GB o 200 GB, simplemente crea un EFS y
crece y se reduce a medida que
agrega o Esto asegura que su EFS siempre tenga el almacenamiento
según sus necesidades. Puede crecer de
un pequeño megabyte
a un sistema de archivos
a escala de petabyte automáticamente No hay
tarifa mínima por usar EFS. Simplemente tienes que pagar
por el almacenamiento que usas. Si usas solo 500 MBS de EFS, solo
pagas los 500 MBS. Similar a EBS, EFS también es
un servicio conectado a la red. Esto significa que el almacenamiento de su
sistema de archivos está conectado a EC dos instancias a través de una
red y no físicamente, pero a diferencia de EBS, que
solo podría conectarse a una instancia de
EC dos a la vez, podemos conectar EFS a cualquier
número de instancias EC dos Una de las
características más importantes de EFS es
que almacena sus datos
en todas las zonas de disponibilidad. Puede adjuntar EFS con varias instancias de EC dos
en todas las zonas de disponibilidad. Digamos que tiene un
EFS en la región de Mumbai. Este EFS puede ser utilizado
por cualquier número de instancias
EC dos de cualquier
zona de disponibilidad en esta región, no solo EC dos. También puede usar EFS
con servicios como ECS, EKS y funciones Lambda, o incluso su computadora local Puede conectar simultáneamente cientos de instancias EC two, funciones
lambda y sus computadoras
personales a EFS. A partir de ahora, EFS solo es compatible con instancias
basadas en Linux. Es importante señalar aquí que
las instancias de
Windows
no pueden usar EFS. Aws tiene un sistema de
archivos diferente para instancias de
Windows llamado SX. Ahora debe
preguntarse por qué usar EFS y no crear
su propio sistema de archivos. Sí, es posible crear un sistema de archivos en cualquier
dispositivo de almacenamiento. Pero además de ser un servicio
altamente escalable, EFS también es un servicio administrado Esto significa que administra la
infraestructura de almacenamiento por usted. Y como usuario, todo lo que tienes que hacer es
usar el sistema de archivos. No tiene que preocuparse por el almacenamiento subyacente o
cualquier mantenimiento o aplicación de parches
de su sistema de archivos Ets administrará todo este trabajo extra por
usted en cualquier momento que haya un requisito para un almacenamiento de sistema de
archivos que se pueda usar en múltiples servicios
y computadoras locales. Piensa EFS, eso es todo
para esta sesión.
25. Introducción a las redes: Hola y bienvenidos de nuevo
al quinto módulo
de esta formación. En este módulo,
cubriremos la VPC, que es la
sección de redes de computación en la nube Aquí
profundiaremos temas como virtual private,
cloud o subred VPC, cloud o subred VPC tabla de rutas de
Internet Gateway y
grupos de seguridad
Nat gateway y grupos de seguridad
Nat gateway También hacemos una demostración en AWS para crear una VPC y subredes públicas
y privadas Al completar
con éxito este módulo, tendrá una
comprensión completa de la creación de VPC y la creación de subredes privadas
y públicas Sabrás cómo funciona la subred pública
y privada en VPC y cómo Internet Gateway conecta una VPC
con También aprenderás a
usar grupos de seguridad y NACL para controlar el tráfico hacia
y desde los recursos en una VPC Alumnos. Para aprovechar al
máximo esta formación, recomendamos que
tomes notas a lo largo de
esta formación. Espero que
ya estés tomando notas. Eso es todo por
esta introducción.
26. ¿Qué es una VPC?: Hola alumnos. Bienvenida de nuevo. En este video
vamos a aprender sobre la
nube privada virtual o VPC En definitiva, es el
aspecto de redes de la computación en la nube. Y puede ser un poco difícil relacionarlo
con nuestro día a día. Intentaremos hacerlo lo más sencillo
posible. Ya que esta es una sección y bloque de
construcción muy
importante para el resto
de temas de este módulo. Te recomiendo que prestes especial
atención a este tema. Tomemos un ejemplo. Supongamos que hay un edificio
residencial y tiene muchos pisos. Hay cientos de personas
viviendo en estos pisos. Digamos que soy dueño del piso número 810 y usted posee el piso número
B 20 en este edificio. También podemos decir que piso número B 20 es
tu sección privada
del edificio donde guardas tus cosas y tienes un control
total sobre ellas. También puedes agregar
características de seguridad como una cámara de bloqueo, vigilancia, etcétera, la misma manera que otras personas tienen áreas
privadas de las que poseen Ahora conectemos este
ejemplo con AWS y VPC,
y reemplacemos el edificio
con pisos de AWS con VPC's En nuestra cuenta de AWS, creamos y
administramos todo tipo de recursos como EC
two RDS y así sucesivamente Nos adentraremos en cuáles son
estos recursos específicos en los módulos posteriores. Estos recursos en tu VPC son como tus
cosas en tu piso, la VPC de AWS es como
tu área privada en
AWS en la que puedes colocar
tus recursos y servicios Al igual que un departamento tiene
diferente nivel de seguridad, también se
puede poner un nivel de seguridad sobre
estos recursos. En otras palabras, podemos decir
que hay formas de otorgar a las personas acceso a
tu otorgar a las personas acceso a base de datos o a tus recursos
en la nube, o también puedes evitar
que lo hagan. Ahora entendamos la
definición de AWS VPC, una Nube Privada Virtual Una nube privada virtual es una red virtual dedicada
a su cuenta de AWS. Está lógicamente aislado de otras redes virtuales
en la nube de AWS en las que puede lanzar sus recursos de AWS como
Amazon EC two instancias Vpc significa Nube
Privada Virtual. No es más que
un centro de datos virtual en
los servicios de Amazon Wab Esto es privado porque es solo para ti y tienes un control
total sobre él. Esta es una red
lógica completamente aislada que puedes usar la manera que quieras
al crear VPC Básicamente, se crea una red
lógicamente aislada. Si estoy creando una VPC en mi cuenta y estás creando
una VPC en tu cuenta, estas son dos redes aisladas Incluso dos o más VPC's con diferentes direcciones IP dentro la misma cuenta
también se aislarán Puedes entender
la dirección IP como la dirección de tu piso. Esta dirección IP se llama CIDR, que significa Enrutamiento
Inter Domain sin Clase Se trata de un conjunto de estándares de
Protocolo de Internet que se
utilizan para crear
identificadores únicos para redes. Cuando crea una VPC, especifica un rango
de direcciones IP para la VPC en forma
de bloque CIDR Por ejemplo, 10.0 0.0 0.0 por 16. A partir de ahora, entiende que VPC es una red dentro de
su cuenta de AWS También puede crear subredes dentro de una red que
también se conocen como subredes Cubriremos subredes
en la próxima la.
27. Subred, puerta de enlace de Internet, tabla de rutas y puerta de enlace NAT: Hola alumnos. Bienvenido de nuevo. En este video, vamos
a entender la subred, enlace de
Internet y
tabla de rutas. Empecemos. Como comentamos en
el video anterior, VPC es una red en
nuestra cuenta de AWS También podemos crear
subredes dentro de nuestra VPC. Estas subredes
también se conocen como subredes. Veamos nuestro ejemplo
anterior. Somos dueños de un piso en el departamento, y este piso es nuestra sección
privada. Tenemos una recámara,
una sala y una cocina en este piso. Esencialmente, estas son
diferentes subsecciones de nuestro piso utilizadas para
diversos fines De igual manera, en AWS, VPC, creamos una subred como public submit
y private submit Cuando creamos un submit, especificamos el
bloque CIDR para el submit, que es un subconjunto del bloque CIDR
de VPC Si el CID de nuestra VPC
es 10.0 0.0 0.0 por 16, podemos usar 10.0 0.0 0.0 por
24.10 0.0 0.1 0.0 por Como el CIDR de nuestro Enviar, podemos lanzar recursos de AWS en un envío específico,
como instancias fáciles Un punto importante
para recordar es que cada subred debe residir completamente
dentro de una disponibilidad, Joe, y no puede
atravesar Jones Esto lo veremos mientras
hacemos las manos en el mapa, hay dos tipos de subred Presentar público y enviar
privado. Podríamos relacionarlo con nuestro piso. Contamos con una habitación de invitados con acceso
directo desde el exterior. Es como una presentación pública, mientras que nuestra recámara es
completamente privada para nosotros. Ahora entendamos
qué es la subred pública. Se trata de una subred que
interactúa con Internet y se puede
acceder a través de Significa que cualquier recurso creado
dentro de su subred pública, por
ejemplo, servidores Wab, sería accesible
a través de Dado que las subredes públicas
interactúan con Internet, implementaremos nuestro balanceador de carga o aplicaciones orientadas a Internet
en el envío público Voy a cubrir esto en detalle
en el módulo EC dos. La siguiente es la subred privada. Se trata de una subred a la que no se puede
llegar desde Internet. Significa que podemos crear
los recursos de AWS que solo se usan dentro de la
VPC para fines internos Ahora vamos a juntarlo todo. Tenemos una región en
nuestra cuenta de AWS, y habrá una
VPC en esa región La VPC tendrá lo que
se llama un rango CIDR,
que es un rango de direcciones IP
permitidas dentro de nuestra La VPC también puede atravesar
dos zonas de disponibilidad, Availability Joe one y
Availability Joe two Disponibilidad Joe one contiene una presentación pública y
una presentación privada. De igual manera, Disponibilidad Joe Z two también contiene una
presentación pública y una presentación privada. De ahí que tengamos dos Jones de
disponibilidad, una VPC y cuatro subredes En este ejemplo ahora
debes estar pensando, ¿cuál es la diferencia entre una presentación pública y
una presentación privada? Bueno, no hay diferencia
en estas arquitecturas. El proceso de
crearlos es exactamente el mismo. Pero lo que
configures dentro de ellos determina si una subred
es pública o privada Es necesario hacer dos cambios en una subred para hacerla pública Primero, es necesario agregar
una puerta de enlace de Internet. Es un componente administrado por AWS que está conectado a su VPC Actúa como puerta de enlace entre
tu VPC e Internet, básicamente el mundo exterior Agreguemos aquí una puerta de
enlace de Internet. Ahora tenemos una puerta de
enlace de Internet conectada a nuestra VPC, que establecerá la
conexión desde Internet Ahora bien, si estás pensando que un envío público ahora tiene
acceso a internet, bueno eso no es cierto. Hay otro componente
llamado router dentro de la VPC. Lo que determina
a dónde se
dirigirá el tráfico entrante. Este proceso se
conoce como enrutamiento. El enrutador usa algo llamado tablas de
ruta para controlar el tráfico
de red. Por lo tanto, cada subred dentro VPC debe estar
asociada a una tabla de rutas Siempre que creamos una subred, vendrá con
una ruta predeterminada, que es una ruta local Como podemos ver, esta tabla de rutas tiene un campo de destino
y un campo de destino. El campo de destino contiene la dirección de destino a la
que intentas llegar. El destino especifica la
ruta, ese destino, eso significa
que cualquier solicitud dentro la dirección IP de la VPC es local Para hacer un envío público, necesitamos agregar la
dirección de destino como Internet, que es 0.0 0.0 0.0 por cero, y el target como puerta de enlace de
Internet. Esta nueva ruta aquí en la tabla de
rutas tiene un destino de 0.0 0.0 0.0 por cero. Significa que cualquier dirección IP no conocida dentro de la tabla de rutas la
envía a este destino. En este caso, este objetivo
es la puerta de enlace de Internet. Esta parte de aquí es simplemente el
ID de la puerta de enlace de Internet. Significa que cualquier tráfico que no sea la red VPC irá
a la puerta de enlace de Internet Y de ahí que esta presentación
sea ahora una presentación pública. Ahora estas dos subredes son públicas y las otras
dos son subredes privadas Espero que sea claro para ti. Si tienes una instancia
en una subred privada, no
será accesible
a través de Internet No obstante, es posible que desee
darle acceso a Internet para descargar archivos o para obtener las actualizaciones del sistema
operativo. En este caso, podemos usar lo que
se conoce como At Gateway, que es administrado por
AWS o instancia. También puede ser autogestionado, esa manera puedes acceder a Internet dentro
de
tu subred privada At Gateway es un servicio administrado de AWS de alta
disponibilidad que permite que sus instancias en subred privada se
conecten a Internet Creamos un At Gateway
en nuestro envío público. Creamos una ruta desde
las subredes privadas hasta la puerta de enlace At y desde la puerta At hasta la puerta de
Internet Esto permitirá que sus subredes
privadas obtengan conectividad
a Internet Eso es todo para esta sesión. Espero que ahora entiendas
BPC y sus elementos. En caso de que tengas alguna duda, te
recomiendo
pasar por esta sesión una vez más ya que esto es muy importante para tu entrevista de
certificación y en general también.
28. Grupos de seguridad y NACL: Hola alumnos. Bienvenido de nuevo. En este video, aprenderemos por qué necesitamos un
grupo de seguridad y NCL ¿Cuáles son estos y las
diferencias entre ellos? Los grupos de seguridad y los NSL
actúan como firewalls virtuales. Controlan el tráfico hacia
y desde los recursos en un BPC siguiendo algunas reglas de
entrada y salida Entrante o saliente representa la dirección del
tráfico entre redes La dirección se define con respecto a una red de referencia. tráfico entrante se refiere a la información que
ingresa a una red Aquí, la red de referencia
es su red interna. Podría ser tu computadora. También, como puede ver, los datos fluyen de
Internet a su computadora. Se llama tráfico entrante. tráfico saliente se refiere a la información que
sale de la red Nuevamente, aquí ves que los datos fluyen fuera de
la red de referencia que es tu computadora. Nuevamente, el flujo de tráfico de datos es de su red
a internet. Se llama tráfico saliente. Ahora volvamos al grupo de
seguridad y a la NSA. Comenzaremos primero con el grupo de
seguridad. Un grupo de seguridad es una solución de firewall de
AWS para filtrar el tráfico entrante
y saliente de una EC a una instancia. Actúa como un firewall virtual
para C dos instancias para controlar el tráfico entrante
y saliente en
función de algunas reglas definidas, garantiza la seguridad a
nivel de instancia Tanto las
reglas de entrada como de salida funcionan de forma independiente. Por ejemplo, la
regla entrante podría permitir que el tráfico de una dirección IP específica
solo acceda a la instancia Mientras que una regla de salida podría permitir que todo el
tráfico salga de la instancia ya los grupos de
seguridad funcionan
a nivel de instancia, en una VPC, también podemos aplicar un grupo de seguridad a una o
más instancias Del mismo modo, una
instancia también puede asociarse con uno o
más grupos de seguridad. Veamos NSR ahora. Significa Control de
Acceso a la Red, que controla el
tráfico hacia o desde un envío de acuerdo con
algunas reglas definidas. Esto significa que agrega una capa adicional de
seguridad en la capa de envío. Por ejemplo, una regla
entrante podría denegar el tráfico entrante de
un rango de direcciones IP, mientras que una regla de salida podría permitir que todo el tráfico
salga del envío Como los NSL funcionan en el nivel de
presentación de una VPC, podemos aplicar una NCL a
una o más entregas Sin embargo, cada envío debe estar asociado con un
solo NCL solamente Ahora echemos un vistazo cuál es la diferencia entre el grupo de
seguridad y NSL Security Group opera
a nivel de instancia, pero NSL opera a nivel
de envío El soporte para grupos de seguridad solo
permite reglas, pero NSL permite reglas
y reglas de denegar El grupo de seguridad tiene estado,
significa que el tráfico de retorno se permite
automáticamente
independientemente de las reglas Como ya hemos comentado, no
hay forma de
agregar una regla de salida Todo el tráfico permitido regresa por defecto mantiene
el estado de tráfico permitido. Por eso se le llama
estado pleno NSL es apátrida. Significa que el tráfico de retorno
no está permitido por defecto, debe
haber reglas explícitamente
permitidas para permitirlos. El grupo de seguridad se aplica a una instancia solo si alguien
especifica el grupo de seguridad. Bueno, al lanzar la instancia o el grupo de seguridad
con la instancia más adelante, NSL se aplica automáticamente a todas las instancias de la subred a la
que está asociada, por lo tanto proporciona una capa
adicional de defensa si
las reglas del grupo de seguridad son demasiado Sin embargo, los grupos de seguridad y los NSL operan en diferentes
capas en la VPC, que es la mejor manera de
proteger su red, grupos de
seguridad o NSL en la defensa en profundidad se trata de capas de grupos de seguridad de seguridad, y los NSL son solo
dos Por lo tanto, una mejor
solución es
implementar ambos para
bloquear su red. Eso es todo para esta sesión.
29. Crea una subred pública y privada de VPC: Hola alumnos. Bienvenida de nuevo. En esta demo, crearemos
una VPC en nuestra cuenta de AWS. También veremos
los parámetros y opciones que ofrece AWS
para crear una VPC También crearemos una puerta de enlace de Internet y configuraremos los envíes públicos y
privados Al final de este laboratorio, tendrá una
comprensión completa de cómo
crear VPC y hacer entregas
privadas y públicas. Empecemos por ir
a la consola de AWS. Primero, tenemos que
seleccionar la región. Voy a elegir
Mumbai ya que quiero
crear una VPC en la región Asia
Pacífico Mumbai Ahora para ir al tablero de VPC, buscaremos la VPC en
la búsqueda y daremos clic en VPC
para abrir Como puedes ver aquí
en el tablero, ya
tenemos una VPC
creada en nuestra cuenta Esta es la
VPC predeterminada que AWS crea. Esta VPC tiene un cable de enrutamiento y una puerta de enlace de Internet
en todas las regiones Podemos usar la
VPC predeterminada para fines de demostración, pero siempre se recomienda
crear su propia VPC
para desarrollo, prueba y entorno de producción para la configuración más adecuada Si vas a alguna región, encontrarás una VPC y
algunas tablas de ruta y algunas tablas de ruta y una puerta de enlace de Internet
asociada a ella Ahora vamos a crear nuestro propio VPC. Haga clic en VPC y luego
haga clic en Crear VPC. Le estaremos dando
el nombre Pa up. La siguiente opción para nosotros
es seleccionar si queremos direcciones
IPV cuatro o IPV seis en nuestra Optaremos por IPV
cuatro y daremos 10.0 0.0 0.0 por 16 como el rango
IP privado para esta VPC Entonces tenemos el arrendamiento, que especifica dónde está la provisión de su
infraestructura Si seleccionamos la tenencia predeterminada, nuestras instancias C two estarán en hardware
compartido con
otros usuarios de AWS Si desea una VPC donde todas las instancias C dos estén
en hardware dedicado, puede elegir
crear una VPC dedicada La siguiente opción son las etiquetas. Como puede ver, AWS ya nos
ha creado
una etiqueta con su nombre. No necesitaremos más etiquetas. Vamos a hacer clic en Crear VPC. Ahora tenemos nuestro propio VPC
creado en esta región. Volvamos a la página de VPC. Se puede ver que ahora tenemos
dos VPC's en esta región. Ahora crearemos
una puerta de enlace de Internet y la conectaremos a nuestra VPC Para eso, da clic en
Internet Gateway. Y como pueden ver, ya
tenemos
Internet Gateway. Para la VPC predeterminada, vamos a hacer clic en Crear puerta de enlace de
Internet y darle su
nombre pack up, IGW Ahora haga clic en Crear
una puerta de enlace a Internet. A continuación, tenemos que adjuntar esta puerta de enlace de
Internet a nuestra VPC. Podemos hacerlo
directamente haciendo clic adjunto a VPC en la barra verde
superior aquí O haciendo clic en el botón de
acciones aquí. Haga clic en Adjuntar a VPC
y seleccione su VPC. Si está utilizando AWC LI, puede hacer click en esta barra de desplazamiento y adjuntarla a tu VPC Como no estamos usando AWS C, L, I,
podemos dar click aquí y adjuntar esta
puerta de enlace de Internet directamente. Ahora tenemos una VPC con puerta de enlace
a Internet. Pero aún no podemos crear
infraestructura en la VPC. Para eso, necesitamos
tener subredes. Vamos a crear subredes. Haga clic en las subredes aquí
en función de la región en la que se encuentre. Verás 34 subredes aquí. Estas son las subredes
públicas predeterminadas asociadas a la VPC predeterminada A continuación, crearemos
subredes para eso, haga clic en Crear subredes Primero, tenemos que
elegir la VPC. Estamos eligiendo la VPC
de Pat Cup que creamos. Ahora agrega un nombre a nuestro Enviar. Público Presentar uno. Seleccionaremos el AP sur,
una zona de disponibilidad, y daremos un rango de IP de 10.0
0.0 0.0 por 24 al Enviar. Vamos a omitir etiquetas por
ahora y dar clic en. Crear subred. Ya podemos
ver nuestro submit en la lista, crearemos
tres subredes más Seleccione la VPC empaquetada, dé el nombre de
subred pública para seleccionar P una zona de disponibilidad y dar un rango de IP de 10.0
0.1 0.0 por 24 Vuelva a hacer clic en Crear subred
y repita el proceso. Esta vez vamos a
dar el nombre
Subred privada uno Disponibilidad
uno P uno, y el rango IP de
10.0 0.2 0.0 por 24 Estoy repitiendo esta
última vez. Dar el nombre subred privada
a la zona de disponibilidad P. Así que un rango de IP de
10.0 0.3 0.0 por 24 Tenga en cuenta que no puede tener rangos de IP
superpuestos en las subredes Ahora tenemos cuatro
subredes en dos
zonas de disponibilidad en la región de Mumbai Pero, ¿cuál es la
diferencia entre nuestras subredes privadas y públicas Los creamos usando
el mismo método, solo que sus nombres son diferentes. A partir de ahora,
las cuatro subredes que
creamos son privadas La diferencia entre las subredes privadas
y públicas es que tablas de ruta de
las subredes públicas tienen una entrada de puerta de enlace de
Internet Si vemos los detalles de las tablas de
ruta en nuestras subredes, solo
tenemos una entrada, 10.0 0.0 0.0 por 16 locales Esto simplemente significa que
cualquier solicitud que vaya a rutas dentro de este rango se
enrutará dentro de la VPC Sigamos adelante y creamos una tabla de rutas públicas
para nuestras subredes Para eso, da clic en
la tabla de rutas, y como puede ver, ya
tenemos dos
tablas de rutas en nuestra cuenta. Una se adjunta a la VPC
predeterminada de la región, y la otra se adjunta
a la nueva VPC que creamos Si ve la tabla de
rutas predeterminada de la VPC predeterminada en
la sección de ruta, puede ver que hay una entrada a la puerta de enlace de
Internet Esto significa que todas
las subredes predeterminadas de la VPC predeterminada tienen esta ruta que las hace públicas que se
envíen Si ves la
tabla de rutas de nuestra VPC, solo
tenemos la ruta local lo que hace que nuestras subredes Ahora da clic en Crear tabla de
rutas y darle el nombre de Pat
Cup, Arch Public. A continuación seleccionamos nuestro VPC y damos
clic en Crear tabla de rutas. Ahora tenemos otra tabla de rutas
privadas. Ahora necesitamos agregar la
ruta de Internet Gateway a la tabla. Para eso, haz clic en Editar rutas
y haz clic en Agregar ruta. Seleccione 0.0 0.0 0.0 por
cero como destino. Elija la puerta de
enlace de Internet como destino. Y selecciona el pack
up, IGWCreated. Después haga clic en Cambios seguros. Tenemos una nueva tabla de
rutas públicas en nuestro VPC. Ahora asociemos nuestra
tabla de rutas a subredes públicas. Podemos hacerlo haciendo clic en Acciones, Editar
asociaciones de subarrendamiento, y seleccionando el público Enviar 1.2 y luego hacer clic en
Guardar asociaciones Vamos a la página de subred y echemos un vistazo a nuestras subredes Verá que las subredes
públicas están asociadas con la
nueva tabla de rutas, que tiene la entrada de
puerta de enlace de Internet También puede
hacerlo haciendo clic en este botón Editar
asociación de tablas de rutas para cambiar
las tablas de ruta para una subred Ahora hemos creado una
VPC con dos subredes públicas y dos privadas que estaremos usando a
lo largo de esta sesión Como dije, crear y mantener VPC Internet Gateway y Route
Tables es completamente gratuito No es necesario
eliminarlos, alumnos. Espero que entendieras todo eso. Lo que hicimos en esta demo, eso es todo para esta sesión.
30. DNS y Amazon Route 53: Hola, alumnos. Bienvenida de nuevo. En este video,
aprenderemos sobre DNS y el servicio DNS de AWS, la Amazon Route 53. Comenzaremos entendiendo DNS y Route 53 y luego un
vistazo a sus características y casos de uso.
Empecemos. Dns significa Sistema
de nombres de dominio. Es la agenda telefónica
de Internet. Es un sistema que te
permite conectarte a sitios web haciendo coincidir el nombre de dominio
legible por humanos, como Google.com o
Facebook.com
Básicamente, traduce el
nombre de dominio a la dirección IP Ahora vamos a entender
esto con un ejemplo. Cuando haces una
llamada telefónica a tu amigo, buscas su número de teléfono
en la aplicación de contacto, ¿verdad? Pero debido a que es difícil
recordar un número de teléfono, guardamos los números de teléfono
en la aplicación de contacto. Similar a los números de teléfono, los sitios web y las aplicaciones
tienen direcciones IP. ¿Alguna vez has usado
la dirección IP de Google.com o YouTube.com
para conectarte a ellos No, porque de nuevo,
es difícil de recordar. Esto se simplifica con DNS. Como dije, el DNS es similar
a nuestra libreta telefónica, que almacena la IP
de los sitios web. Los servidores DNS simplemente traducen nombres de dominio
a direcciones IP. Cuando accedes a YouTube.com la solicitud primero va
a un servidor DNS y luego a la dirección IP de YouTube.com Ahora entendemos
DNS y cómo funciona Aws también ofrece un
servicio DNS llamado Route 53. La ruta 53 realiza una tarea similar. Ahora vamos a entender la
Ruta 53 en detalle. Route 53, servicio DNS
escalable y de alta disponibilidad de AWS. También es el único servicio en AWS que reclama disponibilidad
del 100%. Significa que el
servicio de la Ruta 53 nunca baja. Digamos que tiene
una aplicación web en su cuenta de AWS ejecutándose
en la instancia de EC Two, si desea alojar este sitio web en el dominio
yourname.com, puede crear un registro DNS en Route 53 para apuntar el dominio
a la dirección IP de EC Ahora también hay algunas características
más. El primero es
Registro de dominio. La Ruta 53 también es un registrador
de dominios. Esto significa que también te
permite comprar nuevos nombres de
dominio desde la
propia consola de Route 53 si
compraste tu nombre de dominio en otro sitio web
como Go Daddy. La Ruta 53 también tiene una
función para transferir nombres de
dominio de otros
registradores de dominio a la Ruta 53 El siguiente es alojado uno que
podemos crear The Hosted
Jones Hosted Joe es un contenedor para
registros que incluyen información sobre cómo
enrutar el tráfico para un dominio. La siguiente característica
es la verificación de estado. Ruta 53 también tiene la capacidad de realizar
chequeos de salud de tus recursos. Utiliza estas comprobaciones de salud
para determinar el estado de tus recursos y enviar tráfico solo a recursos
saludables. El último es el flujo de tráfico. También se llama flujo de
tráfico que le brinda otro
nivel de automatización para cómo envía su
tráfico a sus recursos. Eso es todo lo que necesitas saber
sobre Amazon Route 53.
31. VPN de AWS y AWS Direct Connect: Hola, alumnos. Bienvenido de nuevo. En esta sesión,
analizaremos diferentes
opciones de conectividad desde AWS hasta los centros de
datos locales. Empecemos.
Entendamos con un ejemplo. Suponga que su organización
planea migrar una
aplicación crítica para el negocio a la nube de AWS que
tenga datos de cumplimiento. Su equipo de seguridad
insiste en que
pueda mover la aplicación
a la nube,
pero los datos deben permanecer en las instalaciones y cumplir con todos los requisitos de
cumplimiento Ahora te has decidido por
la región de Mumbai y creado VPC dentro de
tu cuenta de AWS Para implementar
su aplicación, creó una instancia EC two. Su aplicación también utiliza otros servicios de AWS como Amazon, S Three, Cloudwatch, etcétera. Este es tu centro de datos en las
instalaciones donde tienes una base de datos. Finalmente, configuró
su aplicación que se estaba ejecutando en un EC para instancia
en base de datos local. Su equipo de seguridad se dio cuenta de que esta base de datos se conecta con la
aplicación a través de Internet
pública. Se quejan de que va en
contra de los lineamientos de seguridad. Esta conexión debe
ser privada y segura. Hay un par
de opciones que puedes usar en AWS para que esta
conexión sea privada. Uno de ellos es sitio a sitio VPN. Esto se llama VPN de sitio a
sitio porque
conectamos un sitio de AWS a
otro centro de datos de sitio. Una VPN significa Red
Privada Virtual. Vpn crea un túnel
que usas para acceder
a Internet y eludir tu
proveedor de servicios de Internet, es decir, ISP Este proceso cifra todos los
datos que envía y utiliza diferentes medidas de seguridad para garantizar que todos los datos estén seguros Lo que hacemos es crear una VPN
entre su cuenta de AWS VPC y su red local Hay un par de componentes que necesitamos configurar. En el lado de la VPC, tenemos una puerta de
enlace privada virtual implementada en AWS Entonces tenemos el
Customer Gateway, que se despliega en el centro de datos
corporativo. Ahora que es un dispositivo en el centro de datos corporativo que has configurado de
cierta manera. Pero la puerta de
enlace real del cliente se crea dentro de AWS. Es esencialmente un elemento de
configuración que creas que apunta tu
puerta de enlace privada virtual a cualquiera que sea tu dispositivo VPN en tu centro de datos
corporativo. Una vez que los tengas, puedes establecer una conexión de red
privada virtual. Esta es una conexión cifrada que va a través de Internet. Obtienes la protección
del cifrado, pero sigues
usando Internet. Ahora de nuevo, se tiene una auditoría de seguridad y
se quejan de que esta conexión
está encriptada, pero sigue
pasando por Internet. Según los lineamientos de seguridad, esta conexión debe ser privada. Ahora, hay otro servicio. Contamos con AWS Direct Connect. Esta es en realidad una
conexión privada entre AWS y su centro de datos u oficina AWS Direct
Connect es una conexión de alta velocidad y
baja latencia
que le permite acceder a servicios en la nube de AWS
públicos y privados desde su
infraestructura local, es
decir, en las instalaciones. La conexión se habilita
a través de líneas dedicadas, pasa por alto la
Internet pública para ayudar a reducir la imprevisibilidad
y la congestión de la red Conecte un extremo del
cable a su enrutador y el otro extremo a un enrutador de conexión
directa de AWS. Mediante esta conexión,
puede crear interfaces
virtuales que están conectadas
directamente a Amazon. ubicación de conexión directa de AWS de Vpc proporciona acceso a AWS en la región
con la que está asociado Esto es mediante una
conexión privada entre su centro de datos y la ubicación de AWS
Direct Connect, y desde allí, una
conexión privada a AWS. Ahora, es
más caro que tener una VPN. La clave para llevar es que la conexión directa es
una conexión privada, lo que significa
que obtienes esa experiencia de
red consistente, mientras que una VPN es pública, y aunque está
encriptada, es pública. Eso es todo para esta sesión.
32. Servicios informáticos en AWS: Hola y bienvenidos de nuevo. La computación es otra de
las ofertas principales en computación
en la nube. Y hay varios servicios de
cómputos
rentables y flexibles disponibles en AWS para
diferentes requisitos. En esta lección,
entenderemos qué es exactamente computación y cuáles son los diferentes
servicios informáticos disponibles en AWS. Tomemos un ejemplo. Imagina que
tienes el trabajo de tus sueños como arquitecto en una empresa de tecnología
espacial, donde tu trabajo es trabajar el equipo de ciencia de datos
y procesar los datos. Para darle algún sentido, el equipo
de investigación de su empresa ha recopilado enormes cantidades de datos de imagen que podrían llevar al descubrimiento
de agua en Marte. Ahora es trabajo
de tu equipo
procesar esos datos de imagen y
llegar a los hallazgos. Pero cuando empezaste a
procesar los datos, te diste cuenta de que no tienes ningún servidor gratuito para hacer el trabajo. ¿Qué significa
no tener servidores gratuitos? Bueno, necesitamos computadoras poderosas para procesar los enormes datos, y en este caso,
la potencia de procesamiento que necesitas para procesar
los datos no está disponible. Esta potencia de procesamiento
se conoce como computación o cualquier programa o aplicación
que desee ejecutar. Necesitas algo de memoria para
abrir el programa y algo de CPU para procesar los comandos que
das dentro del programa. De ahí que la combinación
de memoria y CPU es lo que aquí
denominamos cómputos. También podría incluir
otros recursos como
almacenamiento en red, etcétera Dependiendo del tipo de
aplicación que esté ejecutando, computación
en la nube ha hecho que sea muy fácil obtener la
potencia de cómputos cuando lo desee, Configúrelas
en función de sus requerimientos y pague solo por lo que use. Aws tiene varios servicios informáticos para diferentes requisitos, pero es importante
comprender qué recursos
informáticos se
adaptan mejor a comprender qué recursos
informáticos se
adaptan mejor su carga de trabajo y cuáles son diferentes opciones de cómputos
disponibles en AWS. En primer lugar, entendamos
qué es la computación de AWS. Aws ofrece un servicio de
computación bajo demanda para ejecutar aplicaciones
basadas en la nube. Se trata de aplicaciones
que se pueden implementar en un servidor remoto y
acceder a través de Internet. Aws proporciona recursos informáticos como instancias y contenedores. Las instancias
no son más que máquinas virtuales. Aw también proporciona
computación sin servidor para ejecutar aplicaciones donde no requiere
configuración o configuración de infraestructura Cuando opta por una opción de
computación sin servidor AWS, los recursos
informáticos
están disponibles bajo demanda y se pueden crear
con solo un clic del mouse Solo pagarás por
los recursos que utilices y solo por el tiempo
que los estés usando. Los recursos de cómputos de Aws se clasifican
ampliamente en tres categorías. Instancias, que son contenedores de
máquinas virtuales, y computación sin servidor En este módulo, los
discutiremos todos. Te ayudará a decidir cuál es el mejor servicio de cómputos
para tu requerimiento. Si desea obtener
más información sobre la computación de AWS, consulte el enlace proporcionado
en la sección de recursos. El documento tiene
diferentes ejemplos y escenarios de donde
podrías usar diferentes servicios de
cómputos. Ahora estamos al tanto
de lo que es la computación y los servicios que están
disponibles en AWS. Con eso, terminemos este video.
33. Máquina virtual: Hola y bienvenidos de nuevo. Un par de veces, en
lo que va de esta capacitación, hemos utilizado el término máquinas
virtuales. Espero que ya
tengas una idea al respecto. Pero antes de
profundizar en las cosas, entendamos las
máquinas virtuales en detalle. ¿Qué es una máquina virtual? Una máquina virtual es
un entorno virtual que funciona como una computadora
dentro de una computadora. Suena complejo, ¿verdad?
Vamos a desglosarlo. Básicamente. Una máquina virtual
se conoce comúnmente como VM. No es diferente cualquier otro sistema físico
como una computadora portátil o un teléfono inteligente. Cuenta con una CPU discos de memoria para almacenar tus archivos y una red para conectarte
a Internet. Tu laptop y smartphone suenan reales porque
son físicos, VM pueden considerarse como computadoras
virtuales dentro de una computadora física Ahora debes estar
pensando en cómo es posible tener una computadora
virtual dentro de una computadora física. Digamos que tienes un portátil. Tiene sistema
operativo Windows en él. Ahora tienes ganas de
aprender Linux. Para eso, necesitas un sistema operativo
Linux. ¿Qué harías? ¿Comprarías un nuevo portátil e instalarías el sistema operativo
Linux? No. Una
forma más simple y eficiente de hacerlo es que puedes usar la
técnica de virtualización para virtualizar tu laptop existente e instalar el sistema
operativo Linux en él Básicamente, puedes usar ambos sistemas operativos
en una misma computadora portátil. Ahora bien, ¿cómo utilizamos las técnicas de
virtualización para
crear una máquina virtual? Y esta animación aquí es
tu computadora física. Esta computadora física puede
ser su computadora personal, un servidor remoto o un servidor. En un centro de
datos de proveedores en la nube, utilizamos un software
llamado Hypervisor, que también se conoce como
Virtual Machine Manager En tu caso, puedes usar
Oracle VM Virtual Box. El Hipervisor creará
una versión
virtual o basada en software de
una computadora con cantidad
deseada de
memoria de CPU y almacenamiento La máquina virtual
siempre toma prestada memoria de la
CPU y del equipo host
físico Eso significa que una parte de la CPU, la
RAM y el almacenamiento de
su computadora ahora funcionarán
como una computadora independiente. Para entenderlo mejor, suponga que tiene una
computadora física con ocho GB de RAM, dos CPU y un disco duro de 40 GB Puede utilizar una
herramienta de virtualización para crear dos o más
máquinas virtuales y distribuir memoria de
CPU y el disco duro entre estas dos máquinas
virtuales. Aquí tenemos dos máquinas
virtuales, VM uno y VM dos. Cuentan con cuatro GB de RAM una CPU, y 20 GB de disco duro. Cada uno y más importante, dos sistemas operativos diferentes. Como puede ver, una
máquina virtual actúa como una computadora real y tiene un sistema
operativo diferente. A pesar de utilizar el mismo hardware, la máquina virtual está completamente aislada
del resto del sistema. El software insider VM, no puede interactuar con
la computadora host u otra máquina virtual en
el mismo equipo físico. Las máquinas virtuales funcionan como computadoras
individuales con sistemas operativos
separados. Permanecen completamente
independientes de otra máquina virtual y de
la máquina host física. Como las VM son independientes
entre sí, también
son altamente portátiles Eso significa que puede mover
instantáneamente una máquina virtual en un hipervisor a
otro hipervisor en una máquina completamente
diferente Las máquinas virtuales son
flexibles y portátiles. Ofrecen muchos beneficios
como el ahorro de costos. Puede ejecutar varias máquinas
virtuales en un único host físico. Esto puede reducir drásticamente el costo de
su
infraestructura física, ya que tendrá que comprar
menos computadoras físicas Agilidad y velocidad. Hacer girar una máquina virtual es una tarea relativamente fácil
y rápida. Es mucho
más sencillo que aprovisionar una
máquina física completamente nueva para sus desarrolladores. Así es como la virtualización
hace que el proceso de ejecutar
escenarios de prueba de Dave sea mucho más rápido. A continuación se baja el tiempo de inactividad. Las máquinas virtuales son tan portátiles y fáciles de mover de
una máquina a otra. Esto significa que son
una gran solución para backup si las máquinas host
caen inesperadamente. Las máquinas virtuales de escalabilidad le
permiten escalar fácilmente sus aplicaciones ya que crear una máquina virtual es más fácil que configurar
una máquina física Simplemente puede agregar servidores
virtuales y distribuir la carga de trabajo
en varias máquinas virtuales Así es como puedes aumentar la disponibilidad y el
rendimiento de tus aplicaciones. Estos son todos los beneficios
de las máquinas virtuales.
34. EC2 Elastic Compute Cloud: Hola y bienvenidos de nuevo. En esta lección,
vamos a comenzar con el
servicio de computación más común que AWS tiene para ofrecer. Se trata de la Elastic Compute Cloud, comúnmente conocida como EC
two. Empecemos. Ec dos significa
Elastic Compute Cloud. Proporciona una opción de
computación escalable en la nube de Amazon. Pero, ¿qué es la capacidad de cómputo? Bueno, ya hemos aprendido que
no es más que máquinas virtuales, y EC two es un
servicio de cómputos en AWS. C dos es escalable. Eso significa que puede
aumentar o disminuir el tamaño de una máquina virtual en
función de sus requisitos. Si eso no funciona, también
puedes crear máquinas
virtuales adicionales. Mediante el uso de Amazon EC Two. Puede evitar por completo
configurar el hardware para ejecutar su aplicación y puede desarrollar e implementar
aplicaciones más rápido. Otro beneficio de usar un EC Two es que no es necesario
invertir en hardware. Puede tener máquinas virtuales de la capacidad
deseada a las que
se puede acceder usando sus computadoras
normales. Ec Two es una
infraestructura IAAS como servicio porque usted alquila
una máquina virtual de AWS, y AWS se encargará de la compra y
mantenimiento del hardware Se puede obtener la capacidad deseada sin tener que
preocuparse por el hardware. Está diseñado para
facilitar la computación en la nube a escala
web computación en la nube a escala
web para
que los desarrolladores entiendan esto. Volvamos a los tiempos en que la computación
en la nube no estaba ahí
para alojar una aplicación, había
que configurar un centro de datos o alquilar un servidor físico. Eso es completamente posible
para las grandes organizaciones. Pero piensa en empresas
medianas,
startups o incluso
desarrolladores individuales como tú y yo, no
pueden darse el lujo de obtener los centros de
datos y el hardware. Pero después de la computación en la nube, se hizo significativamente
más fácil para los desarrolladores ir y
obtener todas las máquinas virtuales. Gracias a la computación en la nube, puedes usar Amazon
C two para lanzar tantas o tan pocas
máquinas virtuales como necesites. No hay limitación. Si quieres una
máquina virtual, puedes obtener una. Si necesitas 1,000 máquinas
virtuales, puedes obtener 1,000 máquinas
virtuales. Amazon C. Two hace que
sea más fácil escalar hacia arriba o hacia abajo las máquinas virtuales para manejar cargas inesperadas. No necesita
pronosticar el tráfico, puede escalar y
reducir las máquinas virtuales en
función del tráfico y la
popularidad de sus aplicaciones. Amazon C two tiene una función de autoescalado que
entenderemos más adelante Podemos configurar el escalado automático
para aumentar o disminuir el número de máquinas virtuales en
función de la carga en
su aplicación. Le proporciona un control
completo de sus
recursos informáticos y le permite ejecutar en el entorno
informático probado de Amazon. Como ya sabemos, EC dos máquinas virtuales están ubicadas en el
Amazon Data Center. Dado que la seguridad es muy importante
para sus aplicaciones, AWS le brinda un control
completo de estos servidores para que pueda asegurar su aplicación
como desee. También hay otras formas
de asegurar esos servidores que
cubriremos en videos posteriores. Es compatible con Macos. Recientemente, Amazon Web
Services también ha comenzado a admitir máquinas virtuales
basadas en sistemas operativos
Mac . Si necesita máquinas virtuales
basadas en Mac OS, también
puede obtenerlas
en los estudiantes de AWS. Estos son algunos de los principales
beneficios de Amazon EC dos.
35. Componente de Amazon EC2: Bienvenidos de nuevo a los alumnos.
En el último video, entendimos la
computación elástica nube C dos y sus beneficios. Seguiremos con
la misma discusión y entenderemos los
elementos de Amazon C dos. Pero antes de comenzar, recapitulemos la
definición de EC dos Es una máquina virtual
en Amazon Web Services, pero AWS no
las llama máquinas virtuales. En cambio, utiliza
algunos términos específicos para el EC 21 de estos términos es la instancia que
no es más que una máquina virtual Amazon
C two. Cuando lanzamos una
máquina virtual en Amazon, decimos que lanzamos una instancia de C
two en el futuro. En lugar de llamarlo una máquina virtual
E dos, llamaremos instancia
EC two. Otro elemento importante
en Amazon C two es AM I. Significa Amazon
Machine Image, que es básicamente una
plantilla que contiene un sistema operativo y software
adicional necesario
para lanzar EC two instancias. Vamos a hacerlo sencillo.
C dos instancia es una máquina virtual, ¿verdad? Y una máquina virtual, es similar a tu laptop. Supongamos que
compró una computadora portátil nueva. Necesitas instalar
el sistema operativo y algún
software general como drivers, navegadores, reproductores multimedia,
etcétera, ¿verdad Porque sin estos
sistemas operativos y software, tu laptop es solo una caja. Lo mismo ocurre con
EC dos instancias también. También es como tu computadora
y por eso requiere un sistema operativo y software
adicional para
poder usarlo en AWS. Puedes hacerlo usando AMI. Una vez que inicie una instancia de
EC two, querrá acceder a
ella para que pueda instalar su aplicación
o hacer alguna configuración. Para acceder a tu instancia de EC two, necesitas algunas credenciales
y esas credenciales no
son más que un pago clave que estamos
discutiendo ahora mismo. Un pagador de claves consiste en una clave
pública y una clave privada. Se trata de un conjunto de
credenciales de seguridad que usas para probar tu identidad cuando te
conectas a un Amazon EC. Dos instancias, cuando
lanza una instancia, AWS solicita un keypayer Puedes elegir un
Keypair existente o crear uno nuevo. Cuando creamos un Keypair, AWS le permite descargar la clave
privada y
mantendrá la clave pública. Cuando
lanza una instancia EC two, de forma
predeterminada, Amazon almacena la clave pública en su instancia Básicamente, usarás tu clave privada para iniciar sesión
en tu instancia. Esto lo veremos cuando
hagamos la demo de EC. Dos cosas importantes
a tener en cuenta aquí es que
dado que usa una clave privada para iniciar sesión en sus dos instancias EC, ahí que cualquiera que tenga esta clave privada también puede
conectarse a sus instancias. Asegúrese de almacenar su clave privada
en un lugar seguro. Otro de los elementos esenciales de EC dos es el Grupo de Seguridad. Este es otro
servicio que puede utilizar para proteger aún más
sus instancias. El grupo de seguridad le permite controlar quién puede acceder a
sus dos instancias EC. Actúa como un
firewall virtual para sus dos instancias EC que controla el tráfico entrante
y saliente Entrante significa que
puede configurar quién puede conectarse a su
instancia EC dos desde fuera, y saliente significa con qué pueden conectarse
sus dos instancias Otro elemento de
EC dos son las etiquetas. Una etiqueta es una etiqueta de
sus recursos de AWS. Puede ser asignado
por usted o AWS. Y cada etiqueta
consiste en una clave y un valor. Cuando crea una instancia
EC two, puede etiquetar sus
máquinas virtuales con diferentes nombres. Podría ser el entorno, los propietarios del centro de
costos
o el nombre de la aplicación. Estas etiquetas te
ayudarán a identificar tus servidores cuando tengas miles de servidores
ejecutándose en tu cuenta. Cada clave de etiqueta debe ser
única para cada recurso. Y cada clave de etiqueta solo puede
tener un valor. Puede usar etiquetas para
organizar sus recursos en
su cuenta y realizar un seguimiento sus costos de AWS mediante etiquetas de asignación de
costos. Entendamos las etiquetas de
asignación de costos. Algunas organizaciones solían
tener un centro de costos
cuando iba a ejecutar
varias aplicaciones en una cuenta de AWS. Puede etiquetar las instancias EC two con
centro de costo, clave y valor, lo que le ayudará a
rastrear el
costo por centro de costos Hasta ahora estos son los diferentes términos y
características que necesita
conocer y comprender
con respecto a Amazon EC two. Concluyamos aquí esta lección.
36. Convención de nomenclatura de instancias en EC2: Hola alumnos. Bienvenido de nuevo. En la última sesión,
entendimos los diferentes
elementos de una instancia EC two como
Amazon Machine Image o AMI security Group, key payer e tax Hay una
característica más importante de la CE dos instancias que
nos queda que necesitamos entender. Es el tipo de
EC dos instancias. Pero antes de eso
entenderemos la convención de nomenclatura de
instancias C dos Te enseñará a leer los nombres de
EC dos instancias. En este video, primero
aprenderá la convención de
nomenclatura de dos instancias de EC No encontrará una explicación
clara respecto a través de Internet, ni
siquiera en la documentación de AWS. Te solicito que prestes especial atención
a este video ya que también te ayudará
mucho durante tu viaje
con la nube de AWS. Empecemos.
El nombre de instancia de Aws ve como se muestra en la
pantalla M 6.2 grande. Como puede ver, el nombre
contiene caracteres y números. El nombre completo no tiene
realmente un significado. Lo descompondremos y
trataremos de darle sentido. Una cosa está clara, si
armamos todo, este es un tipo de instancia. Si miras un tipo de instancia, será algo así. Ahora vamos a desglosarlo. El nombre de este tipo de
instancia se
compone de cuatro componentes, instancia, familia, generación de instancias, capacidad
adicional
y lado de instancia. Puedes pausar el
video aquí o tomar una foto o una captura
de pantalla del mismo para referencia futura. Vamos a repasarlos uno por uno. La primera letra
del tipo de instancia representa la familia de instancias EC
dos. Aquí, la M representa
la familia de instancias. Esta instancia AWC dos pertenece a la familia de instancias
informáticas de propósito general El tipo AWS tiene cuatro
categorías principales de tipos de instancias. Estos son
cómputos de uso general optimizados, memoria optimizada y
almacenamiento optimizado. Los vamos a cubrir en
detalle en la siguiente lección. También hay
subclasificaciones dentro de estas familias de cuatro
instancias, pero eso no es
esencial en este nivel, las
saltaremos a continuación. El número seis en M seis representa la generación
de la instancia AWS C two. La última o la generación
actual de dos instancias de AWS C siempre
es mejor. También es más barato que
la generación anterior. Es por eso que AW siempre recomienda usar el tipo de instancia de última
generación. Puedes relacionarlo con un auto. La compañía siempre lanza nuevos modelos de autos con algunas
nuevas características adicionales. Recomienda los
últimos modelos a sus clientes ya que incluye nuevas características
por un mejor precio. Entonces tenemos en la misma que representa la capacidad
adicional de la EC dos instancias. Esta tabla tiene todas
estas capacidades. Amd y Graviton dos son los dos procesos dentro de
estas dos instancias EC Si el procesador también está
en sus requisitos, también
puede seleccionar una instancia C two
basada en procesador. Aws también ofrece almacenamiento SSD
NVME local, que se conecta directamente con EC two para obtener un mejor rendimiento de la
red Por lo tanto, la alta red y capacidad
extra son
las dos capacidades de este tipo de instancia. El componente final y más
importante de este tipo de instancia
es el tamaño de instancia. Las dos x grandes de M 6.2 x grandes representan
el tamaño de la instancia. Vamos a entender lo que significan
las dos x grandes. Las dos x grandes denota la representación del tamaño
de camisa de la instancia AWS C dos. Representa la
cantidad de memoria de CPU, almacenamiento y rendimiento
de red de una instancia de C two. Esta instancia que dos x grandes tendrá el
doble de cantidad de memoria de CPU y recursos de almacenamiento en
comparación con el
tamaño base que es X grande. ¿Cómo funciona?
Vamos a entender esto. Con el tamaño de
instancia cada tamaño de instancia dos x grande, tendremos el doble de cantidad de CPU y memoria que
el tamaño anterior. Eso es grande, 26x grande equivale a 162x Del mismo modo, 262 xlarge
equivale a 154x grande. Ahora vamos a verlo desde
la perspectiva de la capacidad. Si va a la
documentación de AWS y navega al tipo de
seis instancias, verá esta imagen. X large tiene el doble de CPU y la memoria
en comparación con grande. El
costo de R bajo demanda también es dos veces. Ahora debes estar pensando, debería ir por
12x instancia grande o dos x instancias grandes Para eso, veamos
el precio y la capacidad
de cada instancia. Como puede ver, no hay
diferencia entre ellos. Ya sea que seleccione dos
x grandes o 12x grandes, terminará obteniendo la misma capacidad
por un costo igual Pero siempre es mejor usar un
tamaño de instancia más pequeño en lugar de uno más grande a menos que
tenga necesidades específicas. Hay demasiadas clasificaciones de
postura de AWS, CE dos Cubriremos
los esenciales en el siguiente video, aunque esto no está bien
documentado en ningún lado, AWS C two tiene una excelente convención de
nomenclatura Espero que este video
te haya ayudado a entender esto, en caso de que tengas alguna confusión, recomendaré volver a
verlo. Eso es todo por esta lección.
37. Tipos de instancias: Hola, alumnos. Bienvenido de nuevo. En la última lección,
aprendimos la convención de nomenclatura
de tipos de instancia Aprendió sobre EC
a tamaño de instancia, generación
familiar y capacidades
adicionales. Todo esto
te ayudará mientras decides el EC al tipo de instancia
para tu aplicación. En este video,
profundizaremos un poco más y entenderemos diferentes tipos de instancias de
EC dos. Una vez que
complete con éxito esta lección, podrá decidir
qué tipo de instancia
se adapta mejor a sus requisitos. Empecemos con un resumen rápido de lo que es el tipo de
instancia EC two Es una combinación de almacenamiento de memoria de CPU y capacidad
de red. Tener diferentes
combinaciones ayuda a elegir la
mezcla adecuada para sus aplicaciones. Cuando inicias, el tipo de
instancia de C dos es uno de los
elementos obligatorios que debes
decidir pero por qué
es tan importante. Entendamos
con un ejemplo. Cuando compra una computadora portátil, primero define
sus requisitos. Y en base a estos requisitos, selecciona una configuración
para su computadora portátil, como memoria, almacenamiento,
gráficos, etcétera Lo mismo va para la instancia CE
dos también. Cuando lanza una instancia C
two en Amazon, debe proporcionar almacenamiento de memoria de
CPU y configuraciones de
red
para que sea fácil para usted. Aws tiene tipos de instancias con diferentes int en términos de memoria de CPU, almacenamiento
y redes. Cada tipo de instancia tiene múltiples opciones de tamaño
para diferentes cargas de trabajo Ya hemos
cubierto el tamaño de la instancia. En la última lección,
deberías lanzar tipos de
instancias que mejor
se adapten a
tus aplicaciones. Ahora entiende lo que queremos
decir con mejor ajuste aquí. Cada aplicación está
diseñada de manera diferente y requieren una configuración de
hardware específica. Algunos necesitan más memoria, otros necesitan más CPU y así sucesivamente. Por lo tanto, debe utilizar la
capacidad informática adecuada para su aplicación. Es fácil seleccionar la mejor configuración para
sus aplicaciones en AWS. Como Amazon, los
tipos de instancias se
agrupan en familias para satisfacer
diferentes casos de uso, vamos a ver cuatro tipos básicos y esenciales de
EC a instancia. Incluyen una instancia de
propósito general, instancia optimizada para
computación y una instancia
optimizada para el
almacenamiento. Empecemos con el tipo de instancia de
propósito general. Proporciona un equilibrio entre
la memoria informática y los recursos de
red y
se puede utilizar para una variedad
de cargas de trabajo Como su nombre indica, este es el AWS más básico
y todo más redondo, tipo
EC a instancia, utilizamos instancias de propósito general donde no estamos seguros de
si la aplicación necesita más CPU o memoria porque esto viene con un equilibrio de memoria, cómputos y redes Si más tarde nos enteramos de
que esta aplicación está más optimizada para la memoria
u optimizada para computación, entonces podemos optar por
tipos específicos de instancias. Ahora echemos un vistazo a los mejores casos de uso de instancias de propósito
general. Son adecuados para
servidores web que almacenan en caché flotas y aplicaciones de data
store distribuidas Como estas aplicaciones requieren un buen equilibrio de memoria, CPU y redes, también
son adecuadas para aplicaciones de
entorno de
desarrollo y demostración. El siguiente tipo de instancia es instancia optimizada
para cómputos. Son ideales para aplicaciones
vinculadas a cómputos que se benefician de procesos de alto
rendimiento. Este tipo de instancia está
optimizado para CPU en comparación con otras potencias de
cómputos como almacenamiento de memoria
y redes. Por lo tanto, el
tipo de instancia que tiene CPU
más potentes entra
dentro de esta categoría Hablemos de
sus casos de uso. Esto es lo mejor para aplicaciones que necesitan alta potencia informática. Las
instancias optimizadas para computación son adecuadas para medios de
procesamiento por lotes, transcodificación, servidores de onda de alto
rendimiento, computación de
alto rendimiento, modelado
científico, servidores de juegos
dedicados, agregar motores de servidor, inferencia de
aprendizaje automático
y otras aplicaciones de computación
intensiva Lo siguiente son las instancias
optimizadas para la memoria. Están diseñados para ofrecer un rendimiento
rápido para cargas de
trabajo que requieren una gran memoria para procesar
grandes conjuntos de datos. Estas instancias están optimizadas en la memoria aquí cuando vamos a
ver los tipos de instancias en la categoría de memoria optimizada y la familia de memoria optimizada. Más memoria que almacenamiento,
CPU y redes. En otras palabras, los tipos de instancia
optimizados para memoria están optimizados para la memoria
sobre otras características. Veamos sus casos de uso. Las
instancias optimizadas para la memoria se utilizan en aplicaciones como bases de datos de código
abierto, en caches de memoria y análisis de big data en
tiempo real El siguiente son las instancias
optimizadas para el almacenamiento. Las instancias optimizadas para almacenamiento están diseñadas para
cargas de trabajo que requieren un alto
acceso secuencial de lectura y escritura a conjuntos de datos masivos
y almacenamiento local Están optimizados para
entregar decenas de miles de operaciones de entrada y salida aleatorias de
baja latencia por segundo a las aplicaciones. Este tipo de instancia está optimizado en el lado de
la red de la instancia EC two. Admite más acciones de lectura y
escritura en el disco. Cuando nuestra aplicación
hace mucha
lectura y escritura en la base de datos del
disco o en la red, debemos usar un tipo de instancia
optimizada para almacenamiento. Este tipo de instancia maximiza el número de
transacciones procesadas por segundo o cargas de trabajo
intensivas de input output y
críticas para el negocio Transacciones por segundo significa el número de transacciones que la red puede
procesar en un segundo. Si la instancia EC two
es capaz de completar diez transacciones hacia y desde el
almacenamiento sin demora, se
puede decir que
la instancia puede procesar un máximo de diez
transacciones por segundo. Veamos sus casos de uso. La aplicación tiene conjuntos de datos de
tamaño mediano que necesitan un alto rendimiento de cómputos y una alta impresión de red Estas incluyen bases de datos
relacionales
que incluyen bases de datos Mysql, Mariadb, Post Gray Sql y
NOSQL,
incluyendo Ke, DB,
Ilab Este tipo de instancia también
es ideal para cargas de trabajo que requieren un acceso
muy rápido a conjuntos de datos de tamaño
mediano
en almacenamiento local,
como motores de búsqueda y cargas de trabajo de análisis de
datos Es tanta información. Déjame
resumirlo, te ayudará
a tomar la mejor decisión
sobre el tipo de instancia Lo más importante es
entender estas cuatro clasificaciones
principales Una vez que entiendas estos, te servirá a tus casos de uso
más comunes. Además, al seleccionar cualquier tipo de instancia para
su aplicación, pregúntese si
su aplicación hace trabajo pesado de
memoria o si es
un trabajo pesado de cómputos. ¿Necesita trabajo alto? ¿O es sólo el
trabajo genérico que va a hacer? Una vez que se tiene una comprensión de la clasificación principal, la subclasificación
puede venir de forma natural Al igual que en una instancia
optimizada de memoria, es posible que necesite una memoria RAM
superior o una memoria optimizada superior. fin, una vez que conozca
el tipo de instancia, siempre
debe elegir la instancia de
menor tamaño para ejecutar la experimentación
basada en el experimento y la prueba, decidir el
tamaño real de la instancia como regla general. Elija siempre un
tamaño de instancia más pequeño que ahorre dinero. Eso es todo por esta lección.
38. Lanza tu primera instancia de EC2: Hola alumnos. Bienvenido de nuevo. En este video, lanzaremos nuestra primera instancia de EC two
a través de la consola de AWS. También veremos los
diferentes pasos y características que ofrece
AWS al lanzar
las dos instancias de EC. Al final de este video, podrás lanzar EC
two instancias a través de
la consola de administración. Mira el video hasta el final
y luego pruébalo tú mismo. Vamos a la consola de
administración de AWS escriba EC two en la
barra de búsqueda y hagamos clic en el resultado de búsqueda de EC two. Entra directamente al tablero
EC Two. Como pueden ver, no tengo
instancias en mi cuenta. Si hacemos clic en instancias aquí, te llevará a
la página de instancias. Esta página contiene la lista de todas las instancias en esta región. Como no tenemos
ninguna instancia, la lista está vacía. Lanzemos nuestra primera instancia
EC two. En primer lugar,
asegúrate de elegir una región que esté cerca
de ti o de tu cliente. Ya que estoy en la India, seleccionaré la región de Mumbai. Hagamos clic en Launch Instancias. Primero, tenemos que elegir una AMI llamada Amazon
Machine Image. Aquí tenemos una lista de
AMI para elegir. Cuenta con Amazon, Linux, dos, Max OS, Red Hat, y muchos más. Si miras el
tablero de tu izquierda, verás otras opciones. Vayamos a mis AMI aquí, verás la lista de
tus propias AMI hechas a medida. A partir de ahora, no tenemos ninguna AMI creada
en nuestra cuenta. No podemos ver ninguna
AMI listada aquí. La siguiente opción es
AWS Marketplace, donde tenemos miles de AMI creadas por proveedores
externos. Después tenemos las AMI comunitarias, las
cuales son desarrolladas
por AWS y sus usuarios. Son gratuitos para que
todos los usen. Tenga en cuenta que
siempre debe tener cuidado
al usar AMI creadas por personas que no sean
AWS o proveedores de AWS de confianza. Podría haber
agujeros de seguridad en ellos. También hay un filtro
para mostrar solo llantas libres. Esto nos mostrará solo
las
AMI elegibles para llantas libres si la verificamos para
el propósito de esta demostración, crearemos un Linux a
instancia con Amazon Linux dos. Ami. Esta AMI es elegible para llantas
gratis, lo que significa que
podremos
lanzar la instancia sin
gastar dinero en esto. Selecciona Amazon, Linux dos
, nos llevará al paso dos. Elija un tipo de instancia. Ahora como puedes ver, tenemos muchos
tipos de instancias disponibles. Simplemente desplácese hacia abajo y
verá una larga
lista de instancias. Tenemos la opción de filtrar estas instancias en función de
su familia y generación. Contamos con variedades de instancias basadas en
diferentes requerimientos. La lista incluye instancias
con RAM optimizada, CPU
optimizada, GPU optimizada, etc. En esta demo,
usaremos Two point Micro
porque no
tenemos ningún requisito especial y también queremos
quedarnos en la llanta libre. Como puedes ver, el
Micro de dos puntos es la única instancia
disponible de forma gratuita. En algunas regiones también verás Micro de
tres puntos. Si solo estás practicando, asegúrate de elegir siempre el
tipo de instancia elegible para llantas gratis para evitar cualquier código. Ahora podemos seguir adelante
para revisar y lanzar nuestra instancia de inmediato con
solo hacer clic aquí. Pero antes de hacerlo,
vayamos a configurar los detalles de la
instancia. Esto abrirá un
montón de opciones. Exploremos algunos de los
parámetros importantes uno por uno. La primera opción es el
número de instancias. Si necesita
más de una instancia, puede cambiarla y crear varias instancias de C dos
con la misma configuración. También podemos lanzar una
instancia de C two en el lanzamiento en el grupo
Autoscaling haciendo clic el enlace Iniciar en grupo de
Autoscaling Por ahora, apegémonos
a una instancia. Esto es algo que
cubriremos en el siguiente módulo. A continuación tenemos la
opción de red para elegir nuestras VPC's. Escojamos la VPC de Pat Cup que creamos en
el laboratorio anterior Seleccione la subred donde
queremos lanzar la instancia. Como queremos que nuestra instancia sea accesible
desde Internet, debemos elegir
una subred pública La siguiente opción nos
pregunta si queremos que AWS asigne una
IP pública a esta instancia. Dejemos esto
habilitado por ahora. El siguiente
parámetro importante es el rol. Rol se utiliza para dar permisos cuanto a quién puede acceder a
esta instancia de EC dos. Seleccionemos el rol que
creamos en nuestro primer laboratorio. En caso de que desee
crear un nuevo rol, puede navegar a IAM haciendo clic en el enlace
Crear nuevo rol de IAM,
y luego crear un rol y luego crear un Haga clic en Siguiente para ir a la página
siguiente, Agregar Almacenamiento. Como puede ver, ya tenemos un volumen de EBS seleccionado para nosotros. Este es el
volumen raíz que contiene el sistema operativo
y otro software. Para esta instancia,
agreguemos un nuevo almacenamiento
a nuestra instancia. Haga clic en Agregar un nuevo Volumen, especifique los parámetros
de nuestro volumen. Debajo de la columna del dispositivo, podemos ver la ruta SDB Es el camino donde se adjuntará nuestro
volumen. Dejémoslo por defecto
por ahora y sigamos adelante. En la opción snapshot, podemos elegir
crear un nuevo EBS partir de una instantánea que
creamos antes Como no tenemos
tales requisitos, lo
dejaremos vacío por ahora. A continuación está el lado del volumen. Cambiemos nuestro
volumen a diez GBS. La siguiente columna es el volumen. Tenemos todos los SSD, HDD y
almacenamiento magnético para elegir Si miramos el
tipo de volumen para el volumen raíz, verá que tenemos opciones
menores aquí. Esto se debe a que solo los SSD
pueden ser un volumen raíz. Para una instancia EC two, no
tenemos la
opción HDD para el volumen raíz. Volviendo a nuestro nuevo volumen, dejemos esto como GP dos, que es el SSD de
propósito general. La siguiente opción es IOPS. Como puede ver,
no tenemos opción de cambiar esto. Volvamos y
cambiemos nuestro tipo de volumen. Si elegimos IO 102 o GP tres, tenemos la opción de
proporcionar IOPS Esto se debe a que
las IOP son fijas para GP dos, volumen a tres IOPS por GB.
Entendamos esto. Si seleccionamos GP dos, nuevamente, podrás ver las IOPS 100, que son más de
tres IOPS por GB Dado que nuestro tamaño de volumen es de diez GB, tres por diez significa que solo
deberíamos tener 30 IOP Esto se debe a que tenemos un
mínimo de 100 IOP para GP dos. Si cambiamos el lado del
volumen a, digamos, 100 GBS, se puede ver
que tenemos 300 IOPS Ahora cambiemos el lado a diez y escojamos el tipo de volumen
GP dos. La siguiente opción es el rendimiento, que nos dirá el
rendimiento de nuestro volumen. Voy a cubrir el rendimiento
en la pantalla de EBS. Podemos cambiar esto por
solo un tipo de volumen,
el tipo GP de tres volúmenes. La siguiente opción es la casilla
de verificación eliminar al finalizar. Esta es la opción donde
especificamos qué hacer con el volumen de EBS después de que se termine la instancia EC
two Si hemos verificado la eliminación al
finalizar, el volumen también se eliminará cuando se
termine nuestra instancia. Recuerde
que si desea que sus datos permanezcan incluso después de la
terminación en instancia, no olvide desmarcar
esto para esta demostración Dejémoslo por defecto, lo que significa que cuando se termina
EC two, también se eliminará
el volumen raíz. La siguiente página es agregar etiquetas. Saltemos esto por ahora y
pasemos a la página siguiente. Configurar grupo de seguridad. La primera opción es
crear un nuevo grupo de seguridad o
usar uno existente. Como no hemos creado ningún grupo de seguridad
en nuestra cuenta, vamos a crear uno aquí. Puede cambiar el nombre
y la descripción del grupo de
seguridad como desee. La siguiente y la opción más
importante es configurar reglas de grupo de
seguridad. Como puede ver, AWS ya
ha agregado una S predeterminada que es un grupo de seguridad de
shell seguro. Este grupo nos permite SSH
en nuestro EC dos instancias. Pero, ¿por qué todavía
tenemos una advertencia? Eso es porque si
ves la columna de origen, esta regla SH está abierta a todas las direcciones IP,
esto es un problema. Cambiemos este valor
a algo así como 123.123
0.123 0.123 Y Como aquí no tenemos sistemas de misión
crítica, volvamos a cambiarlo
a 0.0 0.0 0.0 por cero. No es la mejor
práctica permitir SSH desde cualquier IP en el mundo Si tiene dos instancias
EC de producción, asegúrese de cambiar este valor a su
propio rango de direcciones IP. Añadamos una nueva regla para permitir conexiones
HTTP
a nuestra instancia. Como puede ver, al elegir HTTP se fijaron nuestros protocolos
al TCP y al puerto 28, que es el protocolo y puerto
HTTP predeterminado. Queremos que todos puedan
hacer conexiones HTTP
a esta instancia. Dejaremos la fuente
como predeterminada aquí. La última columna es para agregar
una descripción a la regla. No agreguemos ninguna regla aquí. Ahora que hemos configurado el grupo de seguridad de
la instancia C two, pasemos a
revisar y lanzar. Puedes ver todos los parámetros
para nuestra instancia de C two. Aquí, haz clic en Launch. Ahora necesitamos
especificar un Keypair, ya que no tenemos ningún
Keypair existente para nuestra cuenta, Vamos a crear uno
elija crear un nuevo Keypair y agregar un nombre Keypair para nuestro
ejemplo Nombraremos el
Keypair empacado. Da clic en el guardián de descargas, verás que se descarga un
archivo Pm. Es importante
mantener este archivo seguro ya que esto será necesario para
acceder a nuestra instancia EC two. Además, recuerda que no
se puede volver a descargar. Haga clic en Launch Instance, y eso nos llevará
a la página final. Si hace clic en
la instancia View, verá que AWS está creando
una instancia EC two para usted. Toda la ventaja de la
Nube es que podría lanzar 100 instancias como esta
en tan solo unos clics. La computación en la nube es muy
flexible y
le proporciona un acceso rápido a la
potencia informática siempre que la necesite. Como puedes ver, la
instancia se está ejecutando. Ahora si haces clic
en la casilla de verificación, encontrarás todos los detalles de la
instancia, los grupos de seguridad IP pública, verificaciones de
estado y así sucesivamente. Siempre que necesites algún detalle
sobre EC two instancias, aquí es donde las
buscarás. Si haces clic en las Opciones
de
Volúmenes desde el panel izquierdo, también
puedes ver los dos
volúmenes de EBS que creamos, Un volumen raíz de ocho GB y un volumen extra de
diez GB que
creamos por separado con los han llegado al
final de este lab En el siguiente lab,
instalaremos HTTPD en nuestra instancia EC two y veremos un
pequeño sitio web de HTTPD Estudiantes, así
lanzamos EC dos instancias. En la siguiente lección,
continuaremos con esta
discusión y veremos cómo podemos evaluar H en nuestra
instancia y así sucesivamente. Gracias.
39. Instancia de SSH EC2, instalación de Httpd: En el video anterior, creamos nuestra primera instancia EC
two y
miramos múltiples parámetros y opciones mientras creamos
la instancia. En este video, vamos a SSH en la instancia C dos usando el sistema operativo Linux
o Mac, instalaremos el servicio STTPD e iniciaremos una
aplicación de prueba en También veremos
cómo dar por terminada la instancia para
evitar costos inesperados. Si te estás preguntando
qué es SSH, entonces SSH es una forma de
controlar una máquina remota
usando la línea de comandos Al usar SSH, podemos iniciar sesión
en la instancia EC two y realizar cualquier tipo de operaciones como
lo hacemos en nuestras computadoras portátiles Empecemos por ir
a la consola de AWS. Ahora, vamos a escribir EC dos
en la barra de búsqueda y hacer clic en EC dos para ir
directamente al tablero de EC dos. Como puede ver, tenemos nuestra instancia en estado
de ejecución. Si recuerdas
el laboratorio anterior, te
dije que conservaras el archivo Pm que se
descargó mientras
creabas la instancia. No es que sin el archivo Pm no
podamos SSH en la instancia En caso de que haya perdido
o eliminado el archivo, deberá recrear la instancia con
un nuevo pagador de claves Lo siguiente importante que debes asegurarte es que tu grupo de
seguridad tenga reglas para permitir SSH en el puerto
22 y STTP en el puerto 80 Encontremos la
IP pública de esta instancia. Haga clic en la casilla de verificación aquí, ahora podrá ver todos los detalles sobre la instancia
EC two seleccionada Aquí está mi IP pública. Vamos a copiar este valor. Ahora sigamos adelante y
SSH en nuestra instancia. Para ello es necesario abrir un terminal y teclear
el comando S C dos como usuario en
la dirección IP ate. C dos usuario es el nombre de
usuario predeterminado para todos los
Amazon Linux, AMI. Ejecutemos este comando. Como puede ver, el comando falló con permiso denegado. Esto se espera ya que
no queremos que nadie pueda acceder a nuestra
instancia de EC two solo desde una IP pública. Aquí es donde usaremos
el archivo Pm que descargamos. Iremos a la carpeta donde
he guardado el archivo es. Como pueden ver, tengo mi archivo
pm en esta carpeta. Ahora ejecutaremos
el mismo comando, pero también
agregaremos el archivo clave. Ahora el comando es C dos
usuario en la dirección IP. Ahora estamos haciendo lo
mismo que antes, pero aquí también
le estamos diciendo a AWS que tenemos un archivo clave para
entrar en la instancia. Haga clic en Entrar. Ahora obtenemos otro error de
permiso denegado. Esta es una etapa importante y una pregunta popular en los exámenes de AWS. ¿Por qué se nos deniega este
acceso? Dice advertencia Archivo de clave
privada desprotegida. Cuando descargamos por primera vez el archivo de AWS a
una instancia de Linux, tiene los permisos 0644 Como puedes ver aquí, estos permisos
son demasiado abiertos para un archivo clave ya que los permisos
son inapropiados. Aws no
permite SSH en la máquina. El arreglo que puedes ejecutar es mod
0400 embalado. Pagar. Esto cambiará
los permisos del archivo, 0644-0400 que es el Ejecutemos el mismo comando. Nuevamente, como pueden ver, el comando ahora se ejecutó con éxito y estamos
en la instancia de EC dos. Lo primero que debemos hacer cuando
iniciamos sesión en la instancia de EC two es ejecutar el comando
pseudo, um, update Este comando actualizará cualquier paquete desactualizado
en la instancia, si hay alguno
para instalar STTPD, ejecute el comando pseudo Ahora tenemos STTPD instalado
en nuestro EC a máquina, pero también necesitamos iniciar
el servicio STTTPD Para iniciar el servicio STTPD, necesitamos ejecutar otro comando, pseudo Iniciar STTPD. Este comando no tiene salidas. Comprobemos el
estado de STT PD
ejecutando pseudo sistema
CTL Como puedes ver, tenemos
un proceso en ejecución. Pasemos ahora al tablero
EC two y seleccionemos la instancia EC two. Necesitamos copiar la dirección IP
pública y pegarla en nuestro navegador. Ahora puede ver la aplicación STTPD
predeterminada implementada en su instancia
EC two Terminemos ahora
la instancia de dos CE. Esto se puede hacer haciendo
clic en la instancia. Vaya a Acentos, haga clic en
Administrar estado de instancia y termine la instancia. Esto pondrá fin
a su instancia EC two. Si recuerdas, adjuntamos un volumen de EBS a nuestra instancia en el laboratorio anterior que tenía el
indicador de eliminación en terminación sin forma Esto significa que a pesar nuestra instancia está
siendo terminada, una de las
instancias de EBS permanecerá Echemos un vistazo en
el tablero de Volúmenes. Se puede ver tanto la raíz
como el volumen adicional. Si actualizas en algún
tiempo, el volumen raíz, que era de ocho GB,
desaparece de la lista, pero aún tenemos el volumen de diez
GB en el tablero. Sigamos adelante y eliminemos también
el volumen de EBS. Comprobemos ahora
al grupo de seguridad. Como puedes ver, ni siquiera
el grupo de seguridad que creamos
tampoco ha sido eliminado. No lo eliminemos. Los grupos de seguridad son
gratuitos. No hay daño en tener un grupo de seguridad a mano
para nuestros próximos laboratorios. De igual manera, el Keypair
empaquetado no ha sido eliminado y puedes guardarlo en tu cuenta
sin ningún cargo En esta sesión,
pudimos evaluar con éxito H en una
instancia EC two install STTPD, y acceder a ella desde un navegador Eso es todo para esta sesión.
40. Creación de una instancia de Windows EC2: En los dos últimos videos, hemos lanzado Linux C
two instance instalado STTPD y accedido a él
desde nuestro navegador web En este video,
te guiaremos por los pasos para lanzar una
instancia de Windows C two y cómo acceder a ella. Esto va a
ser bastante similar a la instancia de Linux C two, manos en demo, solo un par de configuraciones serán
diferentes. Empecemos. Vamos a la
consola de administración de AWS tipo C dos en la barra de búsqueda y hagamos
clic en el resultado de
búsqueda de EC dos para ir
directamente al tablero de EC dos. Como siempre, es
importante asegurarse elegir una región cercana
a usted o a su cliente. Seleccionaré la región de Mumbai. Hagamos clic en Launch Instancias. Primero, tenemos que elegir una AMI llamada Amazon
Machine Image. En esta ocasión vamos
a seleccionar AMI de Windows. Vamos a escribir Windows en la opción
Buscar y presionar Enter. Podemos ver AMI de Windows aquí, y esta AMI es elegible para llantas
gratis, que significa que
podremos lanzarla sin
gastar dinero en esto. Seleccionemos esto y
tomará el paso dos. Elija un tipo de instancia. La AMI es solo la
diferencia entre lanzamiento de instancias EC dos
basadas en Linux y Windows. El resto de la
configuración será la misma o puedes cambiar
otras cosas si quieres. Ahora como puedes ver tenemos
muchos tipos de instancias disponibles. Nuevamente, usaremos
micro de dos puntos porque no
tenemos ningún requisito especial y también queremos
quedarnos en la llanta libre. Hagamos clic en Configurar detalles de
instancia. Como sabe aquí, le proporcionaremos todas las configuraciones
relacionadas con las instancias. Vamos con la
configuración predeterminada y solo comprobemos de nuevo si la IP pública
asignada automática está habilitada. Como necesitamos IP pública para
acceder a la instancia de EC dos, da clic en Siguiente para ir a la página
siguiente, Agregar Almacenamiento. Como puede ver, ya tenemos un volumen de EBS seleccionado para nosotros. Este es el volumen raíz que contiene el
sistema operativo para esta instancia. La siguiente página es Agregar etiquetas. Saltemos esto por ahora y
pasemos a la página siguiente. Configurar Grupo de Seguridad. Cambiemos el nombre
y la descripción del grupo de
seguridad como quieras. Verá que tenemos el
tipo RDS en lugar del rango de puertos
SSH es
3398 en lugar Esto se debe a que Linux
y Windows utilizan tecnología
diferente para
establecer una conexión remota. No vamos a tener que hacer
nada más aquí, pasemos a
revisar y lanzar. Puedes ver todos los parámetros
para nuestra instancia EC two. Aquí, haz clic en Launch. Ahora necesitamos
especificar un par de claves. Voy a usar la misma clave
que creé la última vez. Eso voy a aceptar,
tengo la llave. Haga clic en Launch Instance, y eso nos llevará
a la página final. Si hace clic en la instancia, verá que AWS está creando
un EC a instancia para usted. El estado de instancia está pendiente, lo que significa que la
instancia está creando. Tomará un par de minutos cambiar de estado a correr. Como puedes ver, la instancia se está ejecutando ahora y si haces
clic en la casilla de verificación, encontrarás todos los detalles de la
instancia, los grupos de seguridad IP pública, verificaciones de
estado, etc. Siempre que necesites algún detalle
sobre EC two instancias, aquí es donde las
buscarás. Seleccionemos la instancia
EC dos. Aquí en la parte superior haces clic en Conectar. Ahora aquí tenemos tres opciones para conectar con esta instancia
EC dos. Seleccionaré la
segunda pestaña, cliente RDP. Aquí puedes descargar
el cliente RDS que usaremos para
RDS a la instancia Ahora haga clic en Obtener contraseña. O los copia y pega aquí el contenido
clave o
lo subes haciendo clic en el navegador. Voy a subir y hacer clic en
Descript password. Ahora bien, esta es la contraseña que usaré para conectarme a
la instancia de C dos. Copia la contraseña desde aquí. Ahora vamos a abrir el cliente que descargó en función su computadora portátil o sistema
operativo de computadora. Tendrá una interfaz
diferente. Estoy usando una Mac. Voy a publicar la contraseña aquí. Ya ha seleccionado un usuario
para mí y continuará. Vuelvo a hacer clic en Continuar. Ahora aquí estoy en mi EC
dos máquinas Windows. Eso es más o menos lo que haces para lanzar una instancia de Windows. Con esto, hemos llegado
al final de este laboratorio. Eso es todo para esta sesión.
41. Servicio de contenedores elásticos de ECS: Hola, alumnos. Bienvenido de nuevo. En este video,
conoceremos uno de los
servicios de cómputos de AWS, que es Elastic
Container Service, también conocido como ECS Entenderemos qué es ECS, sus tipos y lo más importante, sus casos de uso.
Empecemos. Antes de entender el servicio de contenedores
elásticos, comprendamos rápidamente
qué es un contenedor. Porque ECS se desarrolla
en tecnología de contenedores. Cuando desarrollamos aplicaciones, funcionan en nuestra computadora. Pero se rompen en cuanto
trasladamos estas aplicaciones
a otra máquina. Esto puede deberse a
múltiples razones. Puede ser el sistema
operativo diferente, una versión diferente de la
dependencia, etcétera ¿Cómo resolvemos este problema? Bueno, los contenedores son la
solución a este problema. Los contenedores de aplicaciones son
unidades de soporte que contienen
código de aplicación y dependencias, configuración, redes
y, a veces, incluso una parte
del sistema operativo Esencialmente, todo el
software requerido para ejecutar su aplicación se
coloca dentro de un contenedor. Los contenedores le
permiten ejecutar sus aplicaciones
en cualquier máquina. Puedes estar seguro de que
si funciona en un solo sistema, funcionará en todos los sistemas. Docker es la plataforma de software más
utilizada que permite a sus usuarios crear
aplicaciones y contenedores Puede instalar Docker en su máquina y hacer un
contenedor para cualquier aplicación No necesitamos discutir a detalle Docker
en este momento. Sigamos adelante y
entendamos qué es ECS. Amazon ECS es un servicio de
orquestación de contenedores completamente administrado que le facilita
la implementación, administración y escala de aplicaciones en
contenedores Significa que ECS
facilita el uso y la administración de contenedores
Docker Cuando usa ECS, no
necesita instalar, operar o escalar
sus contenedores Ecs se encarga de todas
estas tareas por ti. Se integra profundamente
con el resto de la plataforma AW para
proporcionar una solución segura y
fácil de usar para ejecutar
cargas de trabajo de contenedores en la nube Para entender ECS,
debe conocer algunos términos que se utilizan con frecuencia
en la definición de tareas de ECS La definición de tarea es
un script de Jason que contiene múltiples parámetros
para ejecutar su aplicación. En palabras simples, la definición de tarea le dice a ECS cómo
ejecutar un contenedor Por ejemplo, puede definir
exactamente qué cantidad de RAM y CPU necesitará
un contenedor o en qué puerto EC debería comenzar
su aplicación. Ecs se asegurará entonces de que se
cumplan
todos sus requisitos cuando ECS ejecute un contenedor Según la definición de su tarea, se conoce como función de tarea. Sus contenedores pueden ejecutar múltiples operaciones en AWS. Por ejemplo, un contenedor podría
necesitar leer mensajes de un SQSQ o interactuar con S three o cualquier
otro servicio de AWS Por lo tanto, es necesario dar
permiso para realizar sus tareas. Esto se hace
usando el rol de tarea. Un rol de tarea es un rol de AWS IAM que se define en
la definición de tarea Esta función se utiliza para proporcionar acceso de
AWS a las tareas de ECS. Ahora veamos cómo se ve
todo esto en ECS. Necesita un clúster ECS para ejecutar su
aplicación contenedora Este clúster ECS se compone de dos o más instancias EC dos
llamadas instancias de contenedor Luego tenemos servicios que abarcan estas dos instancias
disponibles. Ahí es donde ECS crea un contenedor de
tareas o Docker. Una de las primeras cosas
a hacer al usar ECS es pro visión y
mantener la infraestructura Ecs luego se encarga de iniciar y detener
los contenedores por usted Puede hacer esto de
dos maneras mediante el uso tipos de lanzamiento
ECS que están lejos de obtener el tipo de lanzamiento
y el tipo de lanzamiento EC two En el tipo de lanzamiento C dos, configuramos e implementamos instancias de
EC dos en su
clúster para ejecutar sus contenedores. Ecs administra los contenedores
en estas dos instancias EC. Para usar el tipo de
lanzamiento EC two en ECS, debe crear instancias
EC two manualmente o usar grupos de
escalado automático Tipo de lanzamiento Farget, esta es una opción de pago por
uso sin servidor. Puede ejecutar contenedores sin necesidad de administrar
su infraestructura. Podemos usar el tipo de lanzamiento
Farget y olvidarnos de
crear EC two Le decimos a ECS el número
de contenedores a ejecutar y cuánto Ram y CPU
debe tener un contenedor Ecs Farget asegura que
siempre tengamos los recursos suficientes para
lanzar contenedores Eso es todo para esta sesión.
42. Beanstalk Elastic de AWS: Hola, alumnos. Bienvenida de nuevo. En este video,
conoceremos uno de los servicios de cómputos de
AWS, el Elastic Beanstock Cubriré qué es
Elastic Beanstock, sus características y lo
más importante,
sus aplicaciones .
Empecemos. Aws es un líder en computación en la nube con cerca de 200 servicios. Es por eso que uno debe
conocer la mayoría de los servicios. Para implementar aplicaciones en AWS y administrarlas de manera eficiente. Primero hay que conocer múltiples servicios de AWS y
cómo usarlos de manera
rentable. Esto está bien cuando tienes varias aplicaciones
o una aplicación grande. Pero, ¿y si solo
tienes una aplicación web? Pasar días
aprendiendo AWS solo para implementar una aplicación web no
es un enfoque muy
eficiente. Incluso después de aprender AWS, tiene
que
pasar por el esfuerzo de mantener su
infraestructura en AWS. Como desarrollador, no
quiere preocuparse por la
escalabilidad de la infraestructura, configuración de conexiones,
bases de datos y más Desea implementar
y descansar rápidamente las aplicaciones. Este es el problema que
Elastic Beanstock resuelve AWS. Elastic Beanstock
es un
servicio fácil de usar para implementar y
escalar aplicaciones web También se le conoce como B. trata de una plataforma como un
servicio ofrecido por AWS. Para usar elastic beanstock, crea una aplicación, carga una versión de
la aplicación en forma de un paquete
fuente de aplicación, por
ejemplo, un archivo Java
a elastic beanstock
y, a continuación, se proporciona información sobre
la aplicación Elastic Beanstock
lanza automáticamente una invonación y
crea y configura
los recursos de AWS necesarios para Después de que
se inicie su participación, puede administrar su entorno e implementar
nuevas versiones de aplicaciones. Después de crear e
implementar su aplicación, la
información sobre
la aplicación, incluidas las métricas, los eventos
y el estado del entorno, está disponible a través de las API de
consola de
Elastic Beanstock o las interfaces de
línea de comandos, incluida la CLI unificada de AWS Como desarrollador, si usa EB, puede implementar aplicaciones sin aprovisionar la infraestructura
subyacente. Aws se asegurará de que su infraestructura esté
lista y esté altamente disponible. Internamente, EB Re utiliza todos los componentes que hemos visto antes como RDS, balanceadores de carga, EC dos para ejecutar aplicaciones, pero puede usar EB sin ningún otro conocimiento
de estos componentes internos Es un servicio gratuito por sí solo, pero se paga por la infraestructura
subyacente
aprovisionada mediante el uso de frijol Ahora echemos un vistazo a cómo funciona
Elastic Beanstock en AWS Tenemos una cuenta de AWS
y VPC dentro de ella. Aquí crearemos un ambiente elástico de
Beanstock. Como sabemos, Beanstock
creará toda la
infraestructura subyacente como EC,
dos instancias, balances de carga,
bases de datos, grupo de seguridad, etcétera. Como desarrollador, solo te
preocupas por tu código. Quieren asegurarse de
dedicar su tiempo a escribir un gran código, probarlo y tener toda esa
infraestructura subyacente administrada para ellos. En este caso, tenemos un desarrollador que tiene un
archivo war con su código. Realmente no
necesita ser un archivo de guerra. También podría ser código postal o
Github. Puede implementar este archivo de
guerra usando la
consola de administración de EB o EVCLI Beanstock luego implementará la aplicación y hará el
resto de la configuración,
como el equilibrio de carga elástico, el grupo de escalado automático, las instancias e incluso
una base de datos, eso es Ahora el escalado de aplicaciones, la actualización del
sistema operativo, los parches, las métricas de
registro y todo se encarga de
Elastic Beanstock Como desarrollador, puedes enfocarte en tu aplicación
y en las características de tu negocio. Ahora echemos un vistazo a las características de
Elastic Beanstock. Admite diferentes lenguajes de
programación como Java.net PHP, Node JS, Python,
Ruby, Go y Docker Se integra con
Amazon VPC y lanza recursos de
AWS como EC
two instancias en la VPC Se integra con la administración de
identidades y accesos de AWS y le ayuda a
controlar de forma segura el acceso a
sus recursos de AWS. También puede
integrar cloudfront. Cloudfront se puede usar para
distribuir el contenido en S three después de crear e implementar un material de frijol
elástico Admite la ejecución de instancias
RDS en el entorno de
frijol elástico, que es ideal para el
desarrollo Elastic Beanstock es una
excelente opción para implementar su aplicación en la nube de
AWS en cuestión de minutos No necesitas ninguna
experiencia y conocimiento de computación
en la nube para comenzar
con Elastic Beanstock Usted crea entornos de
aplicaciones EV y especifica algunos parámetros
y ya está. Eso es todo por este video.
43. Informática sin servidores: Hola alumnos. Bienvenida de nuevo. En este video,
entenderemos el concepto de servidor menos y por qué
es más popular en la computación en
la nube. Empecemos. En la mayoría de los servicios que
hemos visto hasta ahora, el
proceso de desarrollo e implementación ha sido el mismo. Desarrolle su aplicación,
asigne infraestructura y luego implemente y ejecute la aplicación en esta infraestructura
asignada. Así es como debería ser. Siempre necesitas un servidor
subyacente para ejecutar el código de tu aplicación. Siempre ha habido la necesidad de
aprovisionar y mantener
nuestra infraestructura. Aquí es donde
entra en escena el serverless. Serverless ha sido
la palabra clave. En el mundo de la computación en la nube, muchas aplicaciones siguen la arquitectura
sin servidor El término proviene de la idea que la infraestructura
utilizada para ejecutar sus aplicaciones
ya no necesita ser aprovisionada o mantenida
por usted o su equipo Server less también puede
ser un chump confuso, porque en
arquitecturas sin servidor, No significa que su aplicación no
tenga ningún servidor subyacente. Es solo que no hay necesidad preocuparse por
administrar el servidor. Si eres un usuario final, bien
podría no existir porque nunca
tienes que preocuparte por los servidores, ahí el término serverless Pero hay un servidor y
es aprovisionamiento y mantenimiento totalmente
atendidos por el proveedor. Si lo ponemos en la terminología de AWS, ya no
necesita crear
una instancia fácil y configurar y mantener un sistema operativo
para su aplicación. Eso significa que delegamos toda esa
responsabilidad
de administrar el servidor
subyacente y todo está cuidado. El servidor puede escalar automáticamente y cobrarle de
acuerdo a su uso. Los servicios sin servidor se han vuelto extremadamente populares entre muchas aplicaciones
modernas en la nube. Ahora veamos los
beneficios de serverless. Con serverless,
no hay instancias que administrar. No es necesario
aprovisionar ningún hardware. No hay gestión de sistemas
operativos ni software. El aprovisionamiento de capacidad
y los parches se manejan automáticamente por
usted También puede ser muy económico ejecutar
servidores menos servicios. Solo se te cobra
por lo que usas. El código solo se ejecuta cuando
el servidor necesita funciones
back-end menos servidor de aplicaciones
menos escala automática y elásticamente También cuenta con construido en
alta disponibilidad. Simplemente implementa el
código como desarrollador y se
escala automáticamente según sea necesario. Supongamos que una función necesita
ser ejecutada en varias instancias. En ese caso, los
servidores comenzarán a ejecutarse y terminarán según sea necesario,
a menudo usando contenedores. Como resultado, una
aplicación sin servidor
manejará un
número inusualmente alto de Pero en una aplicación
estructurada tradicional con una cantidad limitada
de espacio de servidor, se ve abrumada cuando hay un
aumento repentino en el uso Eso es todo por este video.
44. AWS Lambda: Hola, alumnos. Bienvenido de nuevo. En este video,
entenderemos AWS Lambda.
Empecemos. Lambda es un servidor menos
servicio que le permite ejecutar código sin aprovisionar
ni administrar servidores. A diferencia de dos instancias donde nuestra aplicación necesita
estar funcionando continuamente, AWS Lambda nos permite escribir funciones que
se pueden ejecutar bajo demanda. Las funciones de Aws Lambda
pueden ser activadas por eventos dentro o fuera
de la cuenta de AWS, y no tienen que
seguir ejecutándose. Por ejemplo, puede escribir una función para realizar una tarea de procesamiento de
archivos. Y se activará cuando se carguen
datos en
el servicio S three. Cada vez que se
carga un archivo a S three, ahora
tiene una
función que se ejecutará y
procesará automáticamente este archivo. O puede tener una
función lambda que obtenga valores de una base de datos para
su aplicación front-end Hay múltiples formas de
usar las funciones lambda. Se puede utilizar para
cualquier cosa, desde ejecutar pequeñas tareas individuales hasta reemplazar aplicaciones completas de
backend. También debe tener en cuenta que las funciones lambda de
AWS solo están
pensadas para ejecuciones cortas. Solo puedes ejecutar código en Lambda durante un máximo
de 15 minutos, lo que es una cantidad
de tiempo razonable para la mayoría de los casos de uso. Tenga en cuenta aquí que esto
sigue cambiando todo el tiempo. Recomendaría consultar la documentación
de AWS
para ver las actualizaciones recientes. Pero si tienes un solo proceso que tarda más de
15 minutos en ejecutarse, tendrás que implementarlo un servidor como EC two
instancias o contenedor. Echemos un vistazo a algunas
otras características de AWS Lambda. La primera característica viene
aquí, el escalado automático. Cuando usamos EC two instancias, aunque tenemos un
grupo de autoscaling para escalar nuestra
infraestructura, todavía
tenemos que crear políticas de
escalado manualmente Tenemos que indicarle a AWS que agregue o elimine instancias basadas
en alarmas de vigilancia en la nube. En comparación, AWS Lambda
puede escalar automáticamente. Tomemos el mismo ejemplo
del procesamiento de archivos Lambda que se ejecuta cada vez que
se carga un archivo a S tres. ¿Qué pasa cuando subes, digamos 500 archivos? Tendrás 500 funciones
lambda ejecutando tus tareas de
procesamiento de archivos. Este es el poder de los sin servidores. No necesita preocuparse por
escalar su infraestructura. Aws asegura que siempre tengas suficientes recursos
para ejecutar tu código. Tenga en cuenta aquí que AWS tiene un límite de cuota de servicio de 1,000 Lambdas que ejecutan
simultáneamente por región. En nuestro ejemplo, es posible que veas algunas fallas lambda cuando subes más de 1,000
archivos al S three. Este límite se ha
colocado para evitar el mal uso de su cuenta y evitar
cargos no deseados. Si sus casos de uso
requieren más de 1,000 funciones de Lambda
ejecutándose simultáneamente, puede
aumentar este límite con el soporte de AWS La siguiente característica viene
pagar por precio de usuario. siguiente y más
lucrativa característica de Lambda es que es pago por uso Esto significa que pagas por
el tiempo que se ejecuta tu código. No hay cargos cuando
tu código no se está ejecutando. Supongamos que su
lambda de procesamiento de archivos se ejecuta durante 1 minuto. Solo pagas el
costo de cómputos de 1 minuto. Si tienes diez Lambdas
funcionando por 1 minuto, pagas 10 minutos de tiempo de
cómputo, y así sucesivamente El siguiente largometraje es Ram. Las funciones Lambda pueden obtener
recursos de hasta GB de Rams. También es importante
tener en cuenta que cuando
aumentas la RAM de
tu función Lambda, tu CPU y la capacidad
de
red de Lambda también mejorarán. Este es un tema de examen Trendy. ¿Cómo aumentarás la
CPU y la red de Lambda? La respuesta es necesidad
de aumentar el Ram. La siguiente característica es la integración. Como dije antes, AWS Lambda tiene muchos casos
de uso y se ha integrado con
muchos servicios de AWS. Echemos un vistazo a algunas de
las principales integraciones
y sus casos de uso El primer caso de uso en S tres, como en el ejemplo que
hemos tomado hasta ahora, puede tener una lambda
ejecutada en diferentes tipos de
eventos en S tres. El siguiente es Dynamodb. Puedes crear un disparador para
que Lambda se active cada vez que
ocurra un evento en nuestro Dynamodb, que es un servicio de base El siguiente es la puerta de enlace API. La integración de puerta de enlace Lambda y API es uno de los casos de uso más
utilizados en Lambda. Api Gateway es un servicio de AWS que se utiliza para
crear APIs de descanso. En AWS, puede
poner lambda detrás una puerta de enlace API y crear un punto final de API Rest para
llamar a su función lambda. El siguiente es SNS, puedes tener una
función lambda que reaccione a las notificaciones
en un tema de SNS Sns se integra aún más con posiblemente todo tipo de
eventos en la consola de AWS Con esta integración, todos estos eventos se pueden utilizar
para activar funciones Lambda. El siguiente es SQS. Lambda se puede utilizar para
procesar mensajes en SQS Qs. El último son los eventos de
Cloud Watch. También puedes ejecutar funciones
lambda con eventos de
Cloud Watch. Veamos finalmente algunos pequeños ejemplos
de funciones Lambda. Como puede ver, tenemos nuestra aplicación front-end
ejecutándose en EC two instancias. Entonces tenemos una puerta de enlace API que llama a nuestras
funciones lambda para el back end. Esta función lambda
también se ha integrado con RDS y obtiene y almacena
datos en la base de datos RDS otro lado, tenemos
la aplicación front-end, empujando las tareas a las señales SQS, que se ha integrado
con otra Para el procesamiento de mensajes, puede crear un evento de cloudwatch que se active a intervalos
regulares Dado que puede activar Lambda
desde un evento de Cloudwatch, puede tener una
función Lambda que se ejecute regularmente Este es un caso de uso popular y pregunta de
examen sobre cómo ejecutar una lambda para ejecutar un trabajo basado en
comandos. La respuesta son los activadores de
eventos de Cloudwatch. Eso es todo para esta sesión.
45. Tipos de datos: Hola, alumnos. Bienvenida de nuevo. Como saben, este módulo
es todo acerca de bases de datos. Pero antes de
entrar en las bases de datos, entenderemos rápidamente
los datos y sus tipos. Decidimos una base de datos
adecuada en
función de la naturaleza de nuestros datos. Por lo tanto, es muy importante entender los datos y su tipo. Comencemos con
los tipos de fuentes de datos. Existen tres tipos
de fuentes de datos, estructuradas, no estructuradas
y semiestructuradas Primero entendamos los datos
estructurados. Se trata de datos que tienen tipos de
datos predefinidos y se almacenan
en un formato especificado. Entendamos el tipo de datos
predefinidos y el formato específico con
un ejemplo de libreta de teléfonos. En esta tabla, puede
ver que la fila superior tiene diferentes nombres los cuales definen qué tipo de datos están presentes
en diferentes columnas. Por ejemplo, el número de serie representa el número
de conjuntos de datos que tenemos. La columna del primer nombre tendrá el nombre de cada
entrada en nuestros datos. Este es un formato si queremos
agregar cualquier otro
detalle personal estos datos, entonces tendremos que crear
una nueva columna para ello. Digamos que también quieres
agregar una dirección. En ese caso, es necesario agregar un encabezado adicional, dirección
con nombre. Entonces solo puedes agregar
direcciones a estos datos. Básicamente, este es
un formato específico. Ahora vamos a entender
los tipos de datos. Como puede ver que
tenemos números en las columnas de número de serie y número de
teléfono,
y las columnas de nombre y
apellido tienen correctores Según las columnas definidas, se espera
que
ingrese números en las columnas de número de serie y número de
teléfono y caracteres en la columna de nombre y apellido
. Eso significa que se
define qué tipo de datos podemos
ingresar en diferentes columnas. Los datos de estructura se almacenan como
una serie de valores de datos en tablas
definidas administradas por un motor de base de datos
como mi Esque. Estos datos están altamente estructurados. Por eso es
muy fácil de analizar y se puede utilizar en consultas
altamente complejas. El siguiente tipo de datos son los datos
no estructurados. Los datos no estructurados tienen
una estructura interna, pero no contienen un modelo de datos
predefinido Considera un video, por ejemplo. También son datos,
pero la forma en que se
almacenan es diferente
de los datos estructurados. Este tipo de datos
suele ser en forma de archivos que se almacenan en un
almacenamiento como Dropbox. Dropbox es como una unidad de almacenamiento donde puedes almacenar archivos de texto, fotos, videos, etcétera Los datos no estructurados en su
conjunto son información irrelevante Ejemplos de
datos no estructurados son mensajes de texto, documentos, videos,
fotos y otras imágenes Estos archivos no están organizados, solo se
pueden colocar en un sistema de archivos o almacén de objetos. Si quieres obtener información
significativa
de estos datos, necesitas procesarla. Se requieren herramientas especiales para consultar y procesar los datos
no estructurados El último tipo de datos son datos
semiestructurados. Los datos semiestructurados son una
forma de datos estructurados. La única diferencia es que los datos
semiestructurados
son flexibles y pueden actualizarse sin cambiar el esquema para cada registro
individual de una tabla Este es un ejemplo de datos
semiestructurados. Como puedes ver aquí, hay dos conjuntos de datos y
tienen el mismo aspecto, ¿verdad? Si nota el
segundo dato tiene una dirección de
información adicional. Los datos semiestructurados permiten
al usuario capturar datos en cualquier estructura a medida que los datos
evolucionan y cambian con el tiempo Semis, los datos de estructura se
almacenan en archivos Jason que se cargan en un
motor de base de datos como Mongo Devi Estos datos son altamente flexibles
porque la estructura
no es estricta y se puede cambiar
según sea necesario dentro de la tabla. También se pueden analizar datos
semiestructurados. Eso es todo lo que quería
cubrir en esta sesión.
46. Bases de datos relacionales: Hola alumnos. Bienvenido de nuevo. En el último video,
entendiste tres
tipos de tipos de datos,
estructurados, no estructurados
y semi estructurados Como la naturaleza de estos
datos es diferente, se almacenarán de manera diferente. En este video, vamos a entender dónde y cómo se almacenarán
estos datos. Al final de este video, sabrás por qué almacenamos datos
estructurados en una base de datos
relacional Empecemos con un ejemplo. A menudo usamos una
hoja ex Cel para almacenar datos, ¿verdad? Eso es porque es
más fácil organizar y administrar los datos en Excel
que en cualquier otra herramienta. Este tipo de datos se
conoce como datos de estructura. Esto lo discutimos en
la última sesión. Las hojas de Excel están bien
para los datos personales, pero si
piensas en las grandes empresas, ese es un
mundo completamente diferente. Se ocupan de enormes
cantidades de datos, lo que es muy
difícil de almacenar y administrar. Cuando los datos crecen, a
menudo también conducen a la inconsistencia y
redundancia de los
datos Supongamos que tenemos una hoja de cálculo almacena los datos de
registro del curso del estudiante Ahora echa un vistazo a Sham
Singh estudiante con número de identificación de
estudiante 101 se
almacena más de una vez Esto se llama redundancia de datos. Otro problema podría ser, digamos que Samsung
cambia su apellido. En ese caso, su apellido debe ser cambiado
en todas partes en nuestros datos. De lo contrario, podría llevar
a la inconsistencia de los datos. Para sistemas de datos pequeños, podría ser más fácil de resolver. Pero cuando el
sistema de datos es enorme, es difícil
administrar los datos. Para evitar
estos problemas, utilizamos tecnología basada en datos. Se trata de una
recopilación organizada de datos para que pueda ser fácilmente
accedida y gestionada. Ahora digamos que quieres
enviar un correo electrónico a Kishor. Así, hay otra hoja que contiene
detalle de los alumnos como correo electrónico, DNI, número de teléfono, etcétera Desde la primera hoja, sabemos que Kiss está en RRHH, pero no podemos encontrar a Kiss en
la ficha de datos del estudiante. Esto significa que nuestros datos
son inconsistentes. Podemos resolver este
problema con algunas reglas, como un estudiante no puede registrarse en el curso
sin registrarse. De esta manera tendremos todas las hojas pobladas
para cada alumno. El punto aquí es que
las dos hojas de Excel tienen una relación y siguen cierta
regla a los datos organizados. Esto se conoce como datos de relación, lo que trae consigo el concepto
de base de datos relacional Una base de datos es una
colección organizada de datos relacionados. Es una colección organizada
porque en una base de datos, todos los conjuntos de datos se describen
y se relacionan entre sí. Los datos se organizan en relaciones como en una base de datos relacional Cada tabla tiene un conjunto de que
definen la estructura de datos, esquema de
datos almacenado en la tabla. Un registro es un conjunto
de campos en una tabla. Se puede pensar en los
registros como filas o tuplas de la tabla
y los campos como columnas En este ejemplo,
usted tiene una tabla de datos de estudiante con cada uno
representando un registro de estudiante, y cada columna representa un campo del registro de estudiante. Un campo especial o una
combinación de campos que determina el registro único
se llama clave primaria. Por ejemplo, identificación de estudiante. Es único para cada alumno. Esta clave suele ser el
número de identificación único de los registros. Utiliza una estructura que
le permite identificar y acceder a datos en relación con otro dato
en la base de datos. Como puedes ver, cada alumno
tiene una identificación única que puede ser utilizada para encontrar el registro
del mismo alumno en el registro del
estudiante. Como ves, estos datos
tienen una cierta estructura, que se conoce como esquema. Las bases de datos relacionales
almacenan datos de estructura, que le permiten recopilar
rápidamente consultados utilizando
un modelo de datos estructurados El uso de tablas para
almacenar datos en columnas y filas facilita el
acceso y la administración de los datos. Aws ofrece una solución de base de datos para bases de datos
relacionales que
cubriremos en la
introducción al módulo RDS. Eso es todo para esta sesión.
47. Bases de datos NoSQL: Hola, alumnos. Bienvenida de nuevo. En este video,
entenderemos la base de datos Nosql. Empecemos con una
revisión rápida del video anterior. Entendimos que
los datos dentro una base
de datos relacional están organizados de manera que los valores de una tabla puedan definir o cambiar los
valores en otra tabla Es decir,
existe una relación entre las
distintas tablas de datos. Tomemos el mismo ejemplo de
una base de datos relacional que almacena los datos de inscripción al curso de los
estudiantes Una tabla contiene detalles de los alumnos y otra define el curso en el que se inscribieron
los estudiantes en una base de datos relacional Se puede ejecutar una sola consulta
SQL que devuelva un resultado que muestre a todos
los alumnos que
se registraron
desde la contabilidad, aunque los datos estén en dos tablas. Esta es la superpotencia de las bases
de datos relacionales. Ahora hablemos de bases de datos no
relacionales. Este tipo de base de datos
almacena los datos de manera diferente. Debido a la naturaleza de los datos, almacenamos datos semiestructurados
en una base de datos no relacional Ahora tomemos el mismo ejemplo de
base de datos de registro de
cursos de estudiantes . Si tiene que almacenar los registro del curso del
estudiante
en una base de datos no relacional, cada información de un estudiante, incluido el curso asociado, se
almacenaría en un solo elemento dentro de la tabla de
la base Ahora profundicemos
y entendamos cómo se almacenan los datos en una base de datos
no relacional Digamos que después de un año, el colegio decidió agregar la calificación estándar 12 a la
tabla de inscripción de estudiantes en la base de datos. ¿Cómo tendría que cambiar cada
tipo de base de datos? Bueno, en el caso de las bases de datos
relacionales, es
necesario actualizar el esquema para agregar las
calificaciones de los alumnos Esto significa agregar una nueva
columna para la calificación. Una vez que agregue la nueva columna
, estará vacía para los datos
existentes, ¿verdad? Lo cual puede ocasionar problemas. Porque como regla general, las bases de datos
relacionales
requieren que ingreses valores en cada columna si está establecida para probar
para la base Es necesario crear un proceso para agregar la calificación para cada
registro en la tabla. Una vez
que se complete este proceso, comenzará a agregar nuevos
registros para calificación. Todo bien. Alguna conjetura sobre lo que necesitas
hacer en una base de datos no relacional Bueno, no hay necesidad de adivinar. Todo lo que necesitas hacer
es crear nuevos artículos. Con los nuevos atributos, podrías volver atrás y
mirar los registros existentes. No estás obligado a
hacer nada con ellos. Esta es una de
las ventajas que tienen las bases de datos
no relacionales
sobre las bases de datos relacionales Los esquemas no relacionales
no requieren que defina nuevos atributos de
datos antes de usarlos Mientras esté en una base de datos relacional, debe actualizar el esquema antes de poder agregar
nuevos campos de datos Cuando se trata de almacenar
y tratar con semiestructurados o
no estructurados,
la elección suele ser una base de datos no relacional Eso es todo por esta lección
sobre bases de datos no relacionales.
48. Alojamiento de base de datos en la nube: Hola, alumnos. Bienvenida de nuevo. En este video,
aprenderás cómo usamos para administrar bases de datos en
el escenario local, y cuáles son las diferentes opciones de
base en la nube de AWS. Empecemos con bases de datos en las
instalaciones. Operan en hardware que su organización
posee y mantiene. Estos sistemas son manejados por un equipo de
administradores de bases de datos, DBA, quienes son responsables toda
la configuración y el
trabajo con la base En el caso de on premise, la compañía despliega
varios servidores y dispositivos de
red para manejar
la carga máxima del sistema Una vez que obtienen el servidor
del equipo de infraestructura, instalan el sistema
operativo y preparan un programa de
parcheo del SO El siguiente es una instalación de
software de base de datos. Nuevamente, necesitan planificar
y hacer parches de base de datos. Una vez que la base de datos esté lista, puede ser utilizada por
la aplicación. Ahora, estas bases de datos
necesitan ser administradas, actualizadas, actualizadas y
optimizadas a lo largo del tiempo. El siguiente esfuerzo considerable va al respaldo de bases de datos y configuración de
alta disponibilidad para
las
aplicaciones críticas para el negocio en caso de configuración de alta
disponibilidad. Nuevamente, el DBS de su equipo necesita seguir
los mismos pasos para otro servidor de base de datos que actuará como standby para escenarios de
failover Además de eso, también eres responsable de escalar
tu servidor de base de datos ahora. Y entonces eso es mucho trabajo. Ahora cuando se trata de la Nube, tenemos dos opciones. El primero es
como una
base de datos on premises donde se
alquila una máquina virtual que viene con redes y un servidor que es administrado
y atendido por AW. No obstante, el resto de las cosas serán
manejadas por ti mismo. Nuevamente, requiere esfuerzo y un equipo de DBS para
encargarse de parches de SO, instalación
y parches de
software de base de datos, respaldo de
base de datos,
escalado de alta disponibilidad, etc. El segundo es Amazon RDS. Amazon RDS es una
base de datos administrada por AWS donde se obtiene la base de datos de la caja en unos pocos clics que
cubriremos en la siguiente lección Eso es todo para esta sesión.
49. Servicio de base de datos relacional de Amazon: Hola alumnos. Bienvenida de nuevo. En este video, aprenderás sobre el Amazon Relational
Database Service, comúnmente conocido como Amazon Ardis Empecemos. Echemos un vistazo a la descripción general de Amazon Ardis Es un servicio de
base de datos relacional que llevó, configuró, opera y escala una base de datos relacional
en la nube Como sabes, administrar
una base de datos
ya sea en un local o fácil de instancia
no es una tarea fácil. Amazon Ardis está diseñado para
minimizar los esfuerzos involucrados
en la administración de tareas de
bases de datos relacionales como aprovisionamiento de hardware, configuración de
bases de datos,
copias de seguridad de parches, etc. Solo tienes que seleccionar la
base de datos que deseas
lanzar y nosotros tendremos una base de datos lista en
tan solo unos clics. Entendamos
con un ejemplo. Supongamos que tienes un equipo
de cuatro personas y
quieres lanzar una
aplicación que estará respaldada por
una base de datos my SQL. Instalaste mi SQL en
la instancia EC dos. Como sabemos que se
requiere mucho trabajo
para configurar la
copia de seguridad de la base de datos del sistema operativo, la aplicación de parches, es probable que
el trabajo de desarrollo pueda quedarse atrás
que podría
retrasar aún más el lanzamiento de la aplicación ya que solo dos personas pueden
enfocarse en el desarrollo Imagínese de nuevo el mismo ejemplo, pero esta vez con Amazon RDS. Como RDS es un servicio administrado, AWS se encargará de todo el trabajo relacionado con la
base de datos por usted Sus desarrolladores pueden enfocarse
en el desarrollo de aplicaciones. Rds fue diseñado para
ayudarle a reducir el costo de
administración de bases de datos Se trata de un servicio gestionado que automatiza el aprovisionamiento
de bases de datos Aws hará el parcheo
del sistema operativo. Tendrá copias de seguridad
continuas y opciones de
restauración con un
punto en el tiempo de restauración. También tendrás
paneles de monitoreo para ver si nuestra
base de datos está funcionando bien Puede escalar las
lecturas creando una réplica de RID y mejorando
el rendimiento de RID. Tendrá una forma de configurar zonas de disponibilidad
múltiple para asegurarse de que su aplicación tenga un plan recuperación
ante desastres en caso una
zona de disponibilidad completa caiga. Por último, también puede
configurar ventanas de mantenimiento para actualizaciones y puede escalar
vertical u horizontalmente. Lo único que no podemos
hacer con una base de datos RDS es que no podemos SSH en
tu instancia de base de datos RDS Ahora veamos algunas características y elementos de Amazon RDS. Echemos un vistazo a la disponibilidad de los
primeros RDS. Amazon Adis proporciona
mayor disponibilidad y durabilidad mediante el uso de implementaciones de Jones de disponibilidad
múltiple Esto significa que
Amazon Dias crea múltiples instancias
de la base de datos en diferentes zonas de habilidad. En caso de cualquier falla de
infraestructura, Amazon Adis cambia
automáticamente al modo de espera en otras zonas de
disponibilidad Las operaciones de la base de datos
se reanudarán tan pronto como se complete la
conmutación por error Dado que Amazon Dias utiliza un servicio DNS para identificar
la nueva instancia maestra, no es necesario actualizar su punto de
conexión de base de datos. Esa es una muy buena característica. El segundo es el tipo de instancia
Dias. Cuando construyes tu primera base de datos de
Amazon Dias, tienes que tomar
algunas decisiones clave. Primero, debes decidir
tu tipo de instancia de base de datos, que determina los recursos de tu
base como CPU y memoria. Es algo similar al tipo de instancia AW, EC dos. El siguiente es Motor de
Base de Datos Dias. A continuación se encuentra el tipo de
motor de base de datos que desea ejecutar. Puede elegir entre
Postgresql, SQL,
Maria DB, Oracle Database, Quel server y Amazon Aurora Amazon Aurora es una base
de datos relacional
compatible con MyESQUL y Post GrayQul una base
de datos relacional
compatible con MyESQUL y Post GrayQul creada para la nube. La base de datos está diseñada
y desarrollada por AWS para proporcionar un rendimiento de base de datos de
clase empresarial. Cada motor de base de datos tiene sus propias
características y
características únicas que puede seleccionar en
función de sus requisitos de aplicación
y negocio. Ahora echa un vistazo a los precios de dis. Ahora uno de los
mayores beneficios de Amazon Ardis es que
pagas a medida que avanzas El proceso de facturación de Amazon Ardis consta de dos
partes, costo de instancia Lo primero que pagas es
la instancia que
aloja las bases de datos. Hay dos modelos de precios bajo demanda y reservados bajo demanda. Los precios de instancias
le permiten pagar por la capacidad de
cómputos cada hora. Esto es cuando su base de datos se ejecuta intermitentemente o es un
poco impredecible precios de instancias reservadas
son excelentes cuando comprende bien
el consumo de recursos
de su base de datos. Con este tipo de instancia, puede asegurar un plazo de uno
o tres años y recibir un descuento significativo
sobre los precios bajo demanda. Ahora echemos un vistazo
al costo de almacenamiento. Segundo, que pagues
por el almacenamiento y por consumido por tu
base de datos el almacenamiento se factura por
gigabyte, por mes Por se factura por
millón de solicitudes. Espero que tengas un buen
entendimiento de Amazon Dis. Vuelve a ver el video. Si tienes alguna duda
eso es todo por este video.
50. Amazon DynamoDB: Hola, alumnos. Bienvenido de nuevo. En esta sesión,
vamos a entender la base de datos AWS NOSQL que
ofrece Dynamo DV Empecemos. Echemos un vistazo a la descripción general de Dynamo DV Es un servicio de
base de datos Nosql totalmente administrado que proporciona un rendimiento rápido y
predecible con escalabilidad perfecta Dynamo DB es una de
las mejores opciones para almacenar datos de estructura semis
NOSQL Como se trata de una base de datos completamente
administrada, no es
necesario lidiar con el aprovisionamiento de
hardware, configurar la
replicación de configuración, los parches de software o el escalado de clústeres
cuando usa Dynamo DB, otra gran
cosa de Dynamo DB
es que ofrece cifrado
en reposo por defecto Lo que elimina la carga
operativa y la complejidad que implica la
administración de encriptaciones. Cree para proteger datos sensibles. Si no tiene
sentido, no te preocupes, solo recuerda que soporta
encriptación por defecto. Cubriré el cifrado en detalle en el módulo de
administración de AWS. Creamos una tabla de base de datos en Dynamo DB para almacenar y
recuperar nuestros datos Es importante
entender aquí, permítame simplificar esto. Cuando crea una instancia de
Amazon RDS, crea una base de datos dentro de ella y luego dentro de la base de datos
creará una tabla Pero en el caso de Dynamodb, crea la tabla
directamente dentro de Cuando vayas al tablero de
Dynamodb, crearás una tabla Una mesa Dynamodb puede
escalar horizontalmente. Distribuye los datos a través de diferentes servidores
backend para
asegurarse de que puede escalar cuando sea necesario y obtener
un excelente rendimiento Ahora vamos a entender cómo
almacenamos los datos dentro de Dynamodb. Una mesa Dynamo DB está compuesta por tres componentes
diferentes Tablas, elementos y atributos. Primero, tienes
la tabla en sí, y ahí es donde todos tus datos se almacenan
dentro de la tabla. Una mesa es una
colección de artículos. Cada elemento es una colección
de atributos. Los elementos son como filas en
una base de datos relacional. Por ejemplo, el alumno con identificación de
estudiante 101 es un ítem. Cada ítem tiene una serie de atributos asociados a cada uno. Son los datos que
vemos en estos campos aquí, como el
apellido, nombre y correo electrónico. Dynamo DB utiliza claves primarias para identificar de
manera única
elementos en una tabla e índices secundarios para
proporcionar más flexibilidad de consulta Puede usar
transmisiones de Dynamo DB para capturar eventos de modificación de
datos
en tablas Dynamodb rendimiento de la mesa Dynamodb se basa en la capacidad de rendimiento Puede escalar o reducir
la capacidad de rendimiento de sus mesas sin ningún tiempo de inactividad o degradación
del rendimiento. Puede utilizar la consola de
administración de AWS para
supervisar la utilización de recursos
y las métricas de rendimiento. Dynamo DB proporciona la capacidad de backup
bajo demanda que le permite crear copias de seguridad
completas de sus tablas para retención y
archivado a
largo plazo para las necesidades de
cumplimiento normativo También puede crear copias de seguridad
bajo demanda y habilitar recuperación
Point in Time para
su tabla Amazon Dynamodb Point in Time Recovery
ayuda a proteger sus tablas de
derechos accidentales o operaciones de eliminación. Con Point In Time Recovery, puede restaurar una tabla a cualquier punto en el tiempo durante
los últimos 35 días. También le permite
eliminar automáticamente los elementos caducados
de las tablas para
ayudarle a reducir el uso de
almacenamiento y el costo de almacenar datos
que ya no son relevantes. Ahora veamos algunos casos de
uso para Dynamodb. Debido a su modelo de datos flexible
y rendimiento confiable, es ideal para aplicaciones
móviles, aplicaciones basadas en
web, aplicaciones de
juegos, aplicaciones tecnológicas e IOT. También podrías usar Dynamodb para
otras aplicaciones. Estudiantes, espero que ahora
entiendan características
y aplicaciones de
Amazon Dynamodb
51. Crea una instancia RDS: Hola, alumnos. Bienvenida de nuevo. En esta sesión, estaremos
creando una instancia de RDS. Veremos qué otros recursos
y configuraciones se necesitan para poner en marcha una instancia
RDS SQL Pasemos ahora a la consola de AWS. Escriba RDS en la barra de búsqueda. Haga clic en la opción RDS y lo llevará al tablero
de RDS. Lo primero que debes hacer
al crear instancias
RDS es
crear un grupo de envío Un grupo de subredes es simplemente
una agrupación lógica de subredes donde se proporciona la instancia
de Dias Vamos a la página de
grupos de subredes dando click aquí. Como pueden ver, no tengo ningún grupo de
subredes en mi cuenta. Haga clic en Crear grupo de subredes asigne un nombre al grupo
de subredes Deberá agregar una descripción aquí ya
que es un campo obligatorio. Voy a añadir Enviar
Grupo para mi SQL DB. A continuación, seleccione BPC. Yo sólo tengo uno y
voy a elegir éste. Aquí, es necesario seleccionar
la zona de disponibilidad. Seleccione las
zonas de disponibilidad en las que desea que se implementen las instancias
de Ardis Para mí, solo tengo envíos
en P uno y P Sur uno B. Si tienes envíos en la
otra zona de disponibilidad, también
puedes seleccionar AP
sur uno A continuación seleccionamos las subredes
en estas zonas de disponibilidad. Como pueden ver,
tengo una presentación pública
y una presentación privada en cada una
de las zonas de disponibilidad. Por lo general,
querría crear instancias
RDS en envíos
privados, seleccione las subredes privadas Aquí, las instancias RDS generalmente se crean en subredes privadas y se accede a ellas desde dentro de las VPC En aplicaciones de producción, no
desea que sus bases de datos sean accesibles a través de Internet.
Ahora haz clic en Crear. Como puede ver, ahora hemos creado
con éxito un
grupo de subredes para nuestra base Vamos a crear ahora la base
de datos RDS. Haga clic en las bases de datos. A partir de ahora, no
tengo DBs RDS en mi cuenta Antes de pasar al botón
Crear Base de Datos aquí, si ves junto a este botón, tenemos un botón
de restauración desde S tres. Cuando tomamos copias
de seguridad de nuestros DBs RDS, se
restauran
en AWS S three Al hacer clic en este botón Aquí, podemos crear una nueva instancia a partir de una de nuestras
copias de seguridad en S tres. Volviendo a
crear la base de datos, haga clic en Crear base de datos. La primera opción que puedes ver es Crear Estándar o Como Crear. Si elige la opción
Como crear, AWS utilizará algunos valores predeterminados para crear su base de datos.
Echemos un vistazo. He seleccionado Como Crear. Ahora las únicas opciones que tengo son
los tipos de base de datos y
algunas otras opciones. Aquí, si nos desplazamos hacia abajo y
abrimos la vista desplegable, configuración
predeterminada para As Create, podemos ver que AWS tiene algunos valores
codificados para nosotros. No quiero crear
nuestra B así. Volvamos a la Creación
Estándar y escojamos nosotros mismos los
parámetros. Haga clic en
Crear estándar. En la parte superior, elija el tipo Mi motor SQL. A continuación tenemos la opción de
elegir la versión de Mi SQL. Voy a elegir la última versión disponible para mí en este momento, que es mi 8.0 0.28 La siguiente opción que
tenemos es elegir la
plantilla según nuestro caso de uso Si elige producción aquí, AWS elegirá algunas opciones
predeterminadas para nosotros. Por simplicidad, como cuando tengo seleccionada
una plantilla de producción y me desplazo hacia abajo hasta
disponibilidad y durabilidad, se
puede ver que la
opción predeterminada seleccionada para mí es crear una instancia
en espera. Ahora cuando cambie
la plantilla a Dave
y vuelva a desplazarme hacia abajo, notará que el valor
predeterminado elegido para mí ahora no es
crear una base de datos en espera. Al seleccionar una plantilla, simplemente se
establecerán algunos valores predeterminados para nosotros. Vamos a ceñirnos a la llanta libre y seleccionar la plantilla de
neumático libre. La siguiente opción que tenemos
es el identificador DB. Este es el nombre de
nuestra instancia de base de datos. Debe tener en cuenta aquí que
este no es el nombre de
la base de datos sino el nombre
de la instancia de RDS Déjame cambiarlo a la asesoría
en la nube, mi SQL DB. A continuación, tenemos que crear el nombre de usuario maestro y
contraseña para la instancia de RDS Cambiando el nombre de usuario a RDS master y voy a
escribir mi contraseña aquí Podemos tener la contraseña
autogenerada de AWS para este nombre de usuario aquí Por ahora, permítame agregar
mi propia contraseña. La siguiente opción que tenemos es
seleccionar la
clase de instancia para nuestro DB. Como seleccionamos la plantilla de neumático
libre, no
podemos cambiar los tipos de
instancias aquí. Como puedes ver, solo tenemos
una opción, micro de dos puntos. Si seleccionamos las plantillas de Dave
o Prod, aquí
obtendremos todas las opciones de
instancia. A continuación tenemos que seleccionar el tipo de almacenamiento para
nuestra instancia RDS La opción actual que tenemos es la SSD GP dos de propósito general. Podemos cambiar este valor a I 01 para cargas de trabajo más complejas. Ahora vamos a ceñirnos
al GP dos tipo SSD. También podemos habilitar el
escalado automático para nuestro almacenamiento RDS. Si esta casilla de verificación está seleccionada, podemos agregar el almacenamiento máximo Queremos que nuestra
instancia de RDS
se escale hasta que el valor predeterminado para
este campo es 1,000 ZB Si el almacenamiento de mi base de datos
se llena, AWS escalará automáticamente el almacenamiento hasta 1,000 GB La siguiente opción es
disponibilidad y durabilidad. Vimos antes que
teníamos esta opción cuando habíamos seleccionado las plantillas de Dave
y producción. Sin embargo, esta opción no es
compatible con llantas libres. A continuación, tenemos la
opción de seleccionar la conectividad para
nuestra instancia RDS Podemos seleccionar la VPC en que creamos
nuestro grupo de subredes, y luego seleccionar
el grupo submit En la siguiente opción,
tenemos la siguiente opción. Si queremos que nuestra instancia RDS sea accesible
fuera de la VPC Aws nos da otra opción aquí para no permitir el
acceso público a nuestro DB. A continuación, tenemos que especificar el grupo
de seguridad para nuestro RDS. Optemos por
crear un nuevo SG. Dale el nombre RDS, mi SG SQL. Podemos ver el puerto predeterminado
para mi base de datos SQL aquí. Dejemos esto como está. La siguiente opción es la autenticación
de base de datos. Tenemos tres
opciones aquí para nosotros. Estaremos eligiendo la autenticación de
contraseña. Si quieres más seguridad
y control sobre el acceso RDS, puedes elegir las
otras opciones aquí Veamos también las opciones
adicionales para RDS haciendo clic en este
menú desplegable aquí. La primera opción
es el nombre de la base de datos. Si recuerdas antes, teníamos la opción de agregar
el identificador de base de datos que era el nombre de la instancia de base de datos
RDS Aquí podemos pedirle a AWS que cree
una base de datos como usuarios, empleados, etcétera,
dentro de la nube,
asesorar a mi DB SQL Si dejamos este valor vacío, AWS no creará una base de datos para nosotros. Y tendremos que hacerlo usando mis comandos SQL cuando
nos conectemos a esta instancia. Vamos a crear la base de datos de un usuario. Para nuestro ejemplo,
estoy dejando los otros
valores por defecto. A continuación tenemos la opción de respaldo
automático. Podemos elegir aquí
con qué frecuencia queremos realizar copias de seguridad de nuestra base de datos e incluso especificar la
ventana de tiempo para la copia de seguridad. La siguiente opción es el monitoreo
mejorado. Esta es una
pregunta popular en los exámenes AW. La diferencia entre el monitoreo normal de
cloudwatch y monitoreo
mejorado es que en el caso del monitoreo
normal, RDS recopila las métricas
del hipervisor Para una instancia de base de datos, monitoreo
mejorado
recopila sus métricas de un agente en la instancia Si desea métricas de nivel de SO, deberá habilitar el monitoreo
mejorado
para nuestro caso de uso, no
seleccionaremos la opción de
monitoreo mejorado. Ahora podemos elegir
las exportaciones de troncos. Puede hacer que AWS envíe registros
a los registros de Cloud Watch
seleccionando las opciones. Aquí tenemos la siguiente
opción para permitir que WS realice actualizaciones de versiones
menores en nuestra base de datos y seleccione las ventanas de tiempo
para estas actualizaciones. Dejemos estos
valores por defecto. La última opción que tenemos es
habilitar la protección de eliminación. La opción simple no
nos permitirá eliminar nuestra instancia de RDS Haga clic en Crear base de datos. Ahora en la página de la base de datos
podemos ver nuestra
base de datos mi SQL creando. Permítanme saltarme el video hasta que se
haya creado esta instancia. Como puedes ver ahora se crea mi instancia de
RDS. Ahora hagamos clic en la instancia y veamos los detalles de la conexión. En la pestaña Conectividad
y seguridad, puede ver el punto final y el puerto de esta instancia de RDS Estos valores serán necesarios
para acceder a la instancia de RDS. Con esto, llegamos
al final de la sesión. Analizamos todos los
parámetros que tenemos al crear los
grupos de subredes RDS y Creamos nuestra propia base de datos RDS. Eso es todo para esta sesión. Te veo en
la siguiente lección.
52. Amazon Elasticache: Hola alumnos. Bienvenida de nuevo. En este video,
conoceremos uno de
los servicios principales de AWS,
Amazon Elastic Cache. Comencemos con la
Ms básica involucrada en la caché elástica. caché de servicios es la técnica de almacenar datos en una caché Permite reutilizar datos que han sido recuperados
previamente La solicitud futura de datos
Dat se atiende más rápido en lugar de recuperarla
desde la ubicación principal Ahora debes estar preguntándote
qué es un caché. Una caché es una ubicación
de almacenamiento reservada que recopila datos temporales. Podría ser la memoria de la computadora
o su propia aplicación. Un ejemplo sencillo será almacenar documentos en
un escritorio de computadora. Más a menudo, guardamos una copia del documento
al que se accede con frecuencia en el escritorio. No necesitamos ir a la ubicación del
documento cada vez. Otro buen ejemplo
será un marcador. Marcar enlaces que
usamos con más frecuencia. No hay necesidad de
buscar cada vez. Ahora entendamos
qué es la caché elástica. Elastic Cache es una
solución de almacenamiento en caché de bases de datos
completamente administrada en memoria de AWS Es compatible con una variedad de casos de uso
personalizables y en tiempo
real. La caché elástica es
adecuada para el almacenamiento en caché, lo que mejora el rendimiento de las aplicaciones y bases Ponemos esto frente a otras bases
de datos, tal vez frente a RDS o
frente a Dynamo DB También se puede utilizar como almacén
de datos principal para casos de
uso como tiendas CSN, juegos, tablas de líderes, streaming y análisis que
no requieren durabilidad. caché elástica es la
implementación de
los motores de base de datos de código abierto conocidos como Dies y Memcached Ahora veamos algunos
casos de uso de caché elástica. Acelera el rendimiento
de las aplicaciones. Como he mencionado, caché
elástica funciona como un
almacén de datos en memoria y caché para soportar las aplicaciones más
exigentes que requieren tiempos de
respuesta de submilisegundos El siguiente caso de uso es que es carga de base de datos
back-end
aparte de la aplicación. También ayuda a reducir
la carga en la base de datos. Una vez que almacene en caché los datos de
acceso frecuente a la caché elástica, disminuirá drásticamente las llamadas a la base de datos y reducirá la presión sobre su base de datos
back-end El siguiente es construir almacenes de datos de baja
latencia. Esta es una excelente
solución para una base de datos de baja latencia
cuando desea almacenar conjuntos de datos
no duraderos
en la memoria y admitir aplicaciones en tiempo real
con latencia de microsegundos Ahora veamos cómo funciona la caché
elástica. Tiene una aplicación
configurada e instalada en EC para instancia
en su cuenta de AWS. Esta aplicación utiliza la base de datos RDS para almacenar
datos de backend. Ahora la aplicación va
a escribir algunos datos a RDS. La aplicación también puede leer la
base de datos en la
base de datos RDS Ahora, ¿qué puedes hacer? Ponga la caché elástica entre la aplicación y RDS
y almacene la sesión, o acceda con frecuencia a
los datos en la caché elástica Esos datos luego se
cargan en caché elástica. Lo que significa que la próxima
vez que la aplicación necesite leer los datos
de la base de datos, obtiene
lo que aquí
se llama caché. Eso significa que se encuentra en la
base de datos y
se va a recuperar mucho
más rápido que viniendo de RDS Eso es todo para esta sesión.
53. Amazon Redshift: Hola, alumnos. Bienvenida de nuevo. En este video,
entenderemos qué
es el data warehouse, por qué lo necesitamos. Servicio de almacén de datos Aws, Red Shift. Empecemos. Es probable que haya oído hablar los almacenes de datos pero no está
seguro exactamente de qué se trata. Déjame explicarte. Como su nombre indica, se
trata de un almacén de datos. Permite almacenar grandes cantidades de datos
de múltiples fuentes. Que podría ser de archivos de registro de
aplicaciones, sistemas
transaccionales, bases de datos
relacionales, marketing, ventas, finanzas, aplicaciones orientadas
al cliente, sistemas de socios
externos
y otras fuentes Básicamente, un almacén de datos
es una gran colección de datos
comerciales utilizados para ayudar a
las organizaciones a tomar decisiones. Ahora debes estar pensando, ¿cómo ayudarán estos datos a
tomar una decisión de negocio? El objetivo de cada
negocio es tomar una mejor decisión de negocio que
sus competidores, ¿verdad? ¿Cómo se toma una
mejor decisión? O viene de la experiencia o puedes
hacer algunas matemáticas. Acepto hacer matemáticas,
necesitas datos. Cuando se trata de grandes
empresas y organizaciones, utilizan herramientas de
inteligencia de negocios. Las herramientas B I analizan los datos
y generan el reporte. Hoy en día, la mayoría de
los usuarios empresariales dependen de informes, paneles y herramientas de análisis para extraer información
de sus datos Los almacenes de datos
potencian estos tableros de informes y herramientas analíticas al
almacenar datos de manera eficiente El almacén de datos no es un concepto nuevo y
existe desde los años 90, 80, pero no ha estado en uso debido al enorme costo de
almacenar los datos en las instalaciones. La computación en la nube
revoluciona esto ya que almacenar datos en la
nube es fácil y barato Ahí es donde AWS tiene un servicio
llamado Amazon Redshift. ¿Qué es Amazon Redshift? Amazon Redshift es una
oferta de almacén de
datos a escala de petabytes rápida y
completamente administrada oferta de almacén de
datos Petabytes significa que puede satisfacer las necesidades de escalabilidad
de la mayoría
de las empresas No se
limita sólo a los terabytes, sino mil múltiplos del Este nivel de
escalabilidad es difícil lograr con la implementación
in situ Se trata de un servicio sencillo y
rentable para analizar datos manera eficiente utilizando herramientas de
inteligencia de negocios. Es un almacén de datos basado en SQL y su caso de uso principal
son las cargas de trabajo de Analytics Redshift usa C dos instancias. Debe elegir un tipo de
instancia y una familia. Se paga según marcha en función de las instancias
que haya aprovisionado. Redshift siempre mantendrá copias
gratuitas de sus datos, y proporciona copias de seguridad continuas
e incrementales Cada vez que vea que la
base de datos necesita ser un almacén y
hacer análisis sobre ella, entonces Redshift
será la solución Eso es todo por esta lección.
54. Autoescalado: Hola, alumnos. Bienvenida de nuevo. En este video, ¿
aprenderás qué es el escalado automático? ¿Qué es el escalado automático en AWS? Y cuáles son los beneficios de
usar los servicios de escalado. Pero antes de comenzar, veamos cómo funciona el escalado
en un centro de datos tradicional. Bueno, el escalado es
reactivo y manual. En los centros de datos tradicionales, escalado
reactivo significa
que los servidores se suben y
bajan
manualmente según
los cambios en la carga de trabajo. Eso significa que a medida que aumenta la
carga de trabajo, agregamos más servidores, y cuando la carga de trabajo disminuye, eliminamos los servidores. Entendamos esto
con un ejemplo. Supongamos que hay servidores de
aplicaciones que acceden los
usuarios de la aplicación. A medida que los usuarios de esta aplicación
aumentarán con el tiempo, la
carga en el servidor también
aumentará si el número
de usuarios sigue aumentando. Habrá un momento en el que
tu servidor alcanzará su plena capacidad
y no
habrá suficiente memoria y CPU
para atender a los nuevos usuarios. El administrador
de la aplicación necesita monitorear la capacidad
del servidor. Él puede monitorearlo manualmente o
con la ayuda de cualquier herramienta. Cuando vea que el servidor de aplicaciones ha
alcanzado su plena capacidad, agregará un nuevo servidor y configurará la aplicación
en el nuevo servidor. Nuevamente, este proceso
puede llevar algún tiempo en
función de la disponibilidad de los servidores o la
disponibilidad del servidor. Los ingenieros agregan el servidor. A veces escalar significa
comprar nuevos servidores. Para ello, deberá
obtener la aprobación de
la dirección. Los servidores pueden tardar varios meses
en llegar. Como puede ver, este es un proceso que consume mucho tiempo
y no es sustentable. Otro problema con
este proceso es que una vez que
la carga en el servidor baja, tendrás que quitar
el servidor extra, lo contrario
estará funcionando inactivo. Cloud Computing resuelve
todos estos problemas ya que es mucho más fácil agregar y eliminar recursos informáticos dependiendo de la carga
en la aplicación. Ahora la pregunta principal es, ¿cómo sucederá
automáticamente? Bueno, se logra
a través del escalado automático. Es una característica de la computación
en la nube que agrega y
elimina automáticamente los recursos informáticos
dependiendo de los usos y la demanda reales. Esta función
solo está disponible en un entorno de nube. El escalado automático proporciona
flexibilidad y elasticidad a sus demandas de
cómputos De ahí que a veces también se
le refiera como elasticidad. Elasticidad significa
agregar o eliminar recursos de
cómputos
en función de los usos y la demanda. Si la demanda sube
, aumentará el
número de recursos, y si baja, eliminará recursos. El escalado automático garantiza un
aumento continuo de los recursos cuando la demanda aumenta y una disminución
sin fisuras cuando
la demanda cae Por lo tanto, garantiza un
desempeño consistente de la aplicación a un costo menor. autoescalado es tan
eficiente que solo
agregará los recursos
cuando la demanda suba, e inmediatamente
los elimina cuando baja. Nuevamente, de esta manera
no es necesario seguir ejecutando los recursos adicionales todo
el tiempo para que coincidan con la demanda de horas
pico. Autoescalado es un
término general en computación en la nube. Ahora entendamos qué es el
autoescalado en AWS. Aws. El escalado automático es un
servicio que monitorea su aplicación
y
ajusta automáticamente la capacidad
para mantener un
rendimiento estable y
predecible de la aplicación al menor costo Los puntos clave son
que monitorea su aplicación y en
función de la necesidad, agrega o elimina capacidad
adicional para mantener el
rendimiento de
la aplicación al menor costo posible. ¿Cómo
monitorea exactamente tu aplicación? Aws Auto Scaling utiliza un servicio de AWS llamado Cloudwatch para monitorear
la demanda de la aplicación Y genera alarmas
para escalar hacia arriba o hacia abajo los recursos
dependiendo de las necesidades de su aplicación. Cubriremos Cloudwatch en detalle en el
próximo módulo Por ahora, Cloudwatch es
un servicio de monitoreo. Y monitorea
métricas de aplicaciones como el uso de la CPU, la red de
memoria y muchas más. Puede establecer un
valor umbral y el servicio
activará una alarma cuando
alcance ese umbral. Por ejemplo, si la
utilización de la CPU va más allá del 80% entonces agregará un
servidor y lo eliminará. Si va por debajo
del 30% Auto Scaling utiliza Cloud Watch para monitorear la aplicación y
en función de los requisitos, ya
sea o elimina
servidores para satisfacer la demanda. Ahora veamos algunos
beneficios del escalado automático de AWS. Con la ayuda del grupo
AWS Auto Scaling, podemos automatizar la
adición y eliminación instancias
EC two para
satisfacer la demanda real. Este es uno de los logros más importantes
de la nube. Como mencioné anteriormente, aporta agilidad
para agregar recursos
y eliminar recursos para
satisfacer la demanda de los clientes. De ahí que elimine todo
el trabajo reactivo de los centros de datos tradicionales. Otro beneficio significativo
es la optimización de costos. Esto vuelve a ser un gran
triunfo en la nube. No es necesario ejecutar recursos
adicionales para
satisfacer el pico de demanda. Se asegurará de que usted pague
solo por lo que se requiere
para atender a su cliente. Ya no es necesario pagar
por los recursos no utilizados. Lo último y lo más importante es el rendimiento de las
aplicaciones. Debido a que le ayuda a agregar y eliminar recursos
para satisfacer la demanda, la aplicación siempre
funciona mejor. Tu cliente no enfrentará ninguna latencia y lentitud
en la aplicación Eso es todo para esta sesión.
55. Grupo de auto escalado EC2: Hola alumnos. Bienvenida de nuevo. Continuaremos con el
escalado automático en este video y entenderemos los elementos
del grupo EC dos autoscaling Empecemos.
Hasta ahora ha entendido que el escalado automático agrega
y elimina EC dos instancias Ahora vamos a entender
cómo funciona esto. Debe crear un grupo de escalado
automático que escalará dos instancias de Amazon
C. Aquí es donde el ajuste de escala automático agrega y elimina
EC dos instancias Esto significa que el grupo de escalado automático EC
two garantiza que tenga suficientes instancias de Amazon C two disponibles para manejar la
carga en su aplicación Se realiza con C dos configuración de grupo de
autoescalado. Hay tres configuraciones, Tamaño
mínimo,
capacidad deseada y tamaño máximo. Con base en estas configuraciones, escalado automático
ajustará el número de instancias dentro del número mínimo y máximo
de instancias EC dos La
configuración de capacidad deseada
determinará el tamaño de
un grupo de escalado automático. Por definición, un
grupo de escalado automático es una colección de dos instancias de Amazon C agrupadas lógicamente para el
escalado y la administración automáticos Eso está bastante claro, esto es lo que hemos
estado discutiendo hasta ahora. Un grupo de escalado automático
también le permite utilizar dos funciones de
escalado automático de
Amazon EC, como reemplazos de
comprobación de estado
y políticas de escalado Mantiene el
número de instancias mediante realización de
comprobaciones periódicas de estado de las instancias. Si alguna instancia
se vuelve insalubre, el
grupo de autoescalado terminará la instancia no saludable y lanzará otra instancia
para reemplazarla Otra política de escalado de que voy a cubrir en
la próxima sesión. Ahora vamos a entender
la configuración de
tamaño de grupo de autoescalado Ya que es crucial
entender desde
la perspectiva de la
certificación
y entrevista del practicante en la nube . tamaño mínimo define
el número mínimo de instancias que deben ejecutarse en un grupo de
escalado automático. En este caso tenemos uno. El tamaño mínimo
garantiza que
siempre tenga un número fijo
de instancias ejecutándose. El grupo de escala automática nunca
terminará instancias por
debajo de este número La capacidad deseada determina cuántas instancias EC dos
desea ejecutar. Idealmente, en este
caso tenemos dos. autoescalado intentará mantener dos instancias C dos
todo el tiempo La capacidad deseada
es redimensionable entre los límites de tamaño mínimo y
máximo Debe ser mayor o
igual al tamaño mínimo
del grupo y menor o igual al
tamaño máximo del grupo. tamaño máximo es el número de instancias
EC dos permitidas para ejecutarse. Este es el número máximo de instancias que se ejecutan en
el grupo de autoescalado Los grupos de escala automática
nunca crearán más del número máximo de
instancias especificadas Para resumir, el grupo de escalado automático de Amazon C
two mantiene el número de instancias y escala
automáticamente Eso es todo lo que quería
cubrir en este video.
56. Políticas de autoescala en EC2: Alumnos, bienvenidos de nuevo. Hasta ahora hemos entendido
que el autoscaling necesita autoscaling group para mantener y escalar C dos
instancias, Esto depende prácticamente configuración
del grupo de autoescalado Como tamaño mínimo,
tamaño máximo y capacidad deseada. También entendimos en
el último video que la capacidad deseada
debería cambiar en
función de la carga y el
tráfico en su aplicación. Ahora viene la pregunta, ¿cómo cambiará este número? ¿Cómo aumenta y reduce el número de instancias
? Bueno, el escalado comienza con
un evento o una acción de escalado instruye al grupo de
escalado automático para lanzar
o
terminar el Amazon EC Dos instancias, ahí es donde entran en existencia las políticas de
autoescalado Existen diferentes tipos de políticas de autoescalado que están diseñadas para diversos fines Vamos a entender
estos. Como nota, este es un tema muy importante por ejemplo y el punto de vista de la
entrevista. Recomendaré prestar especial atención
y tomar notas. También agregaré un enlace de aprendizaje adicional
en la sección de recursos. La primera
política de escalado automático es el escalado manual, y esta es la
forma más básica de escalar sus recursos Aquí cambia sus grupos de
autoescalado, capacidad
máxima, mínima o deseada, Amazon C dos escalado automático administra
el proceso de creación o
terminación de instancias acuerdo con estas actualizaciones Si sabe cuándo
es probable que fluya más tráfico hacia
su aplicación, puede cambiar manualmente el tamaño de un grupo de
escalado automático existente Puede actualizar
la capacidad deseada del grupo de autoescalado o actualizar las instancias que se adjuntan
al grupo de autoescalado La báscula manual puede
ser útil cuando se
necesita mantener un
número fijo de instancias. El siguiente es el escalado dinámico. En el escalado dinámico,
definimos cómo escalar la capacidad del grupo de escalado
automático en respuesta a la demanda cambiante. Significa que puede
aumentar el número de instancias durante
la demanda pico, también conocida como escalado, y disminuir las instancias
durante la demanda de carga, también conocida como escalado en. Ahora vamos a entender
con un ejemplo. Digamos que tienes una aplicación
web que actualmente se ejecuta en
dos instancias C dos. Su objetivo es mantener
la utilización de la CPU de estas instancias en alrededor del 50% independientemente de las cargas de las aplicaciones. Significa que necesita agregar una instancia EC two adicional
cada vez que la utilización de la CPU cruza el 50%, pero no
sabe cuándo
alcanzará el 50%, no se preocupe. Puede configurar su grupo de
escalado automático
para escalar dinámicamente para satisfacer esta necesidad mediante la creación un paso de seguimiento de destino o una política de escalado
simple Ahora entendamos estas políticas de escalado
dinámico. Paso y escalado simple
le permiten elegir las métricas de escalado
y
los umbrales para la alarma de CloudWatch
que inicia Aprenderemos Cloud watch en
el módulo de administración de AWS. Usted define cómo se debe
escalar su grupo de
escalado automático cuando un umbral alcanza un
número específico de veces Tomemos el mismo ejemplo. Siempre que el uso promedio de
CPU de todas las instancias C two
supere el 50% durante 5 minutos, agregue 12 instancias al grupo de escalado
automático. Alternativamente, siempre que
la utilización de la CPU sea inferior al 30% durante 10 minutos, elimine una instancia C dos del grupo
de escalado automático Esto es simple o
escalado por pasos porque definimos el punto de activación para tomar acción y cuántas instancias
agregar o eliminar. Seleccione una métrica de escalado y establezca un
valor objetivo en el objetivo. Seguimiento de
políticas de escalado, eso es todo. Es una manera muy fácil de definir una política de
escalado dinámico. Ahora Amazon C two auto
scaling creará y administrará las alarmas de cloudwatch que activan la política de escalado Y calcule el ajuste de
escala basado en la métrica
y el valor objetivo. La política de escalado agrega o
elimina s dos instancias para mantener la métrica en o cerca del valor
objetivo especificado. Por ejemplo, puede configurar una política de
escalado de seguimiento de destino para mantener de
su grupo de escalado utilización de
CPU agregada
promedio al 50% Luego, el ASG
escalará automáticamente para
garantizar que se mantenga alrededor ese objetivo de 50%. El
siguiente es el escalado programado escalado programado
ayuda a configurar su programa de escalado de
acuerdo con los cambios de carga predecibles. Por ejemplo,
digamos que cada semana el tráfico a su aplicación de
olas comienza a aumentar el miércoles, mantiene alto el jueves y comienza a
disminuir el viernes. Puede configurar un
horario para Amazon EC two, auto scaling para aumentar la
capacidad el miércoles, disminuir la capacidad el viernes. Esto es muy útil cuando sabemos que los cambios van
a ocurrir antes de tiempo. Anticipamos el escalado
basado en el patrón de usuarios conocidos. El siguiente es el escalado predictivo. Ayuda a escalar
más rápido lanzando capacidad antes de
la carga prevista La diferencia es que el escalado
dinámico es reactivo y se escala
cuando surge la demanda. Por otro lado, el
escalado predictivo escala la capacidad base tanto en
métricas en tiempo real como en datos históricos. Por ejemplo, considere
una aplicación que tenga alto uso durante el
horario comercial y un uso bajo. escalado predictivo nocturno puede agregar capacidad antes de la primera entrada de tráfico al inicio
de cada día hábil Ayuda a su aplicación mantener una alta disponibilidad
y rendimiento cuando pasa de un período de
utilización más bajo
a un período de utilización más alto. No hay que esperar a que el escalado
dinámico reaccione
ante el cambio de tráfico. Tampoco tiene que dedicar
tiempo a revisar los
patrones de carga de sus
aplicaciones e intentar programar la cantidad correcta de capacidad
mediante el escalado programado. Por lo tanto, el
escalado predictivo utiliza el
aprendizaje automático para predecir
el tráfico futuro con anticipación. Analizará los patrones de tráfico
pasados y pronosticará lo que sucederá
con el tráfico en el futuro. Proporcionará automáticamente
el número correcto de instancias
EC dos
por adelantado para que coincida con ese período
previsto. Es beneficioso
cuando se tienen patrones recurrentes de carga de trabajo o
aplicaciones que
tardan mucho en
inicializarse y aplicaciones que
tardan mucho que provocan una latencia
notable Ahora volvamos y entendamos cómo se completa la política de
escalado automático. El proceso de escalado automático. Como sabemos, el
escalado automático depende varios factores como eventos,
métricas y umbrales Y en base a nuestro requisito, configuramos una política
de escalado automático. Esta política instruye al escalado
automático para agregar y eliminar instancias
C dos Eso es todo para esta sesión.
57. Configuración de lanzamiento y plantilla de lanzamiento: Hola, alumnos. Bienvenida de nuevo. Hasta el momento hemos entendido
que el autoescalado aumenta y disminuye el número de instancias de EC Two para
satisfacer la demanda Como sabes, cuando
lanzas la instancia EC two, necesitamos proporcionar
alguna configuración. También necesitamos predefinir esta configuración para el escalado
automático. Esto es lo que hacemos con configuración de
lanzamiento
y la plantilla de lanzamiento. Sigamos adelante y entendamos
esto con más detalle. Tanto la configuración
de lanzamiento como la plantilla de lanzamiento definen las características
de la EC. Dos instancias que
queremos lanzar cuando surja
la demanda. Aws introdujo
la configuración de lanzamiento en 2014 y desde entonces hemos estado usando configuración de
lanzamiento con
EC dos grupos de escalado automático. Por otro lado, la
plantilla de lanzamiento se introdujo recientemente y realiza una tarea similar a la configuración de
lanzamiento. Dado que la plantilla de lanzamiento
es el último servicio, tiene algunas características y
capacidades adicionales para facilitarnos un poco el
trabajo. Empecemos con
una configuración de lanzamiento, luego pasaremos
a la plantilla de lanzamiento. Una configuración de lanzamiento es una
plantilla de configuración de instancia E dos donde definimos configuraciones de nuestra instancia EC
two que queremos que escalado
automático lance cuando llegue
el lanzamiento de la demanda. configuración es la plantilla de
configuración de las instancias
EC two
que el escalado automático utilizará para lanzar
nuevas instancias EC two Cuando creamos una instancia
EC two, ya sea desde la
consola de administración de AWS o mediante la CLI de AWS, proporcionamos diferentes
configuraciones de instancia de EC dos como AM ID, el tamaño del tipo de instancia, la configuración
del almacenamiento Qué instancia usa el Keypair que se usa para conectarse
a esa instancia También definimos la
configuración de redes y grupos
de seguridad. Esto decide la dirección IP y puerto desde el que
se podrá acceder a la instancia. Podemos definir datos de usuario, que es un conjunto de
comandos o scripts que se ejecutan mientras se inicia una
instancia. También podemos definir
los roles de IAM, los cuales se adjuntarán
a la instancia y darán permiso para
acceder a los servicios Esencialmente, esto
incluye todo lo que solemos definir al
lanzar una instancia. Podemos definir y guardar todos los ajustes en la configuración de
lanzamiento, que actuará como una plantilla para el escalado
automático al
lanzar nuevas instancias. La configuración de lanzamiento no es editable. Se define una vez y esa
configuración se registra. Si queremos ajustar la configuración de una configuración de
lanzamiento, es
necesario crear una nueva y usar esa nueva configuración de
lanzamiento. Hay algunos desafíos con configuración de
lanzamiento que se mejoran en la plantilla de lanzamiento. Como hemos visto anteriormente, la plantilla de lanzamiento es similar a la
configuración de lanzamiento. Proporciona la
configuración EC dos que es utilizada por el grupo de escalado automático EC dos al lanzar C dos instancias. Además, la
plantilla de lanzamiento también
se puede utilizar para lanzar
EC two instancias o flota de EC two
instancias directamente desde la
consola de administración de AWS o AWS CLI Dado que la plantilla de lanzamiento
es el último servicio, incluye varias características
adicionales. Además de las características de
configuración, vamos a echarles un
vistazo una por una. Nos permite crear
múltiples versiones de
la plantilla de lanzamiento a través de
diferentes configuraciones. Podemos especificar múltiples tipos de
instancias, incluso tipos de
instancia basados en atributos de tipo de instancia como memoria, almacenamiento de
CPU, etc. Tiene la capacidad de usar instancias
tanto a pedido como
puntuales, lo que conlleva
aún más grandes ahorros. También cubre de dos por
tres características ilimitadas. Los grupos de ubicación, la capacidad , las
reservas, los gráficos elásticos y las funciones de host dedicado están disponibles en la plantilla de
lanzamiento, pero estas características
faltaban en la
configuración de lanzamiento. Además, permite EBS, etiquetado de
volumen e interfaz
elástica Aws recomienda usar la plantilla de
lanzamiento en lugar de la configuración de lanzamiento, ya que ofrece más beneficios
arquitectónicos. Ahora entendamos dónde encaja
la configuración de lanzamiento, una plantilla de lanzamiento en
el proceso de escalado automático. Si recuerda de la sesión
anterior, escalado automático
depende de varios factores como eventos, métricas
y umbrales Basándonos en nuestro requisito, configuramos una política de
escalado automático Esta política instruye al escalado
automático para agregar y eliminar instancias
EC two Ahora, el escalado automático
necesita la configuración de
lanzamiento de instancia para
lanzar la instancia EC two ¿Correcto? Para lanzar
C dos instancias, utilizamos la configuración de lanzamiento
y la plantilla de lanzamiento para proporcionar configuraciones de EC dos al grupo de escalado automático Cada vez que el autoscaling
lanza una instancia EC two, se refiere a la configuración de
lanzamiento que configuramos
con autoscaling Eso es todo para esta lección sobre configuración de
lanzamiento
y la plantilla de lanzamiento.
58. Balanceador de carga: Hola, alumnos. Bienvenido de nuevo. En el último video, entendimos cómo el escalado automático EC
two escalaría automáticamente hacia arriba y hacia abajo sus instancias EC dos
según la demanda. En esta lección, aprenderemos el concepto general de equilibrio
de carga, ya que esta será
la base nuestro próximo video,
Elastic Load Balancer Empecemos. Supongamos que ingresa a un hotel
de cinco estrellas para registrarse. Hay diez recepcionistas
revisando reservas, check-in y check out La mayoría de los clientes están
parados en unas pocas líneas, lo que resulta en una distribución
desigual de los clientes por línea, mientras que otros recepcionistas
están de pie por
ahí haciendo nada más que
esperar Los clientes están entrando y no tienen
idea de a dónde ir. Pero si
piensas en la situación, sería útil si
tenemos un anfitrión en la entrada. Cualquier cliente que
entre necesita
saber cuál tiene menos gente
y quién es eficiente. este momento, los clientes serán recibidos por
un anfitrión en la puerta Él los dirigirá a la línea correspondiente en el hotel para el
check out, check out. El anfitrión vigila a
los recepcionistas y cuenta el número de personas en línea a las que atiende cada recepcionista Ahora, cualquier nuevo cliente
será dirigido a la recepcionista
con la línea más corta, que es la que menos banda up. En consecuencia, incluso
habrá colas
entre recepcionistas, permitiendo que los clientes sean
atendidos de la manera más eficiente
posible Ahora piensa en AWS,
Auto Scaling Group. Tiene varias instancias
EC dos que ejecutan la misma aplicación. Cuando entra una solicitud, ¿cómo sabe la solicitud qué instancia de EC two la
manejará? ¿Cómo puede garantizar una distribución uniforme de la
carga de trabajo en C dos instancias? Necesita una forma de enrutar las solicitudes por igual a diferentes instancias
para procesar estas solicitudes. Ahí es donde
entra en escena el balanceador de carga. Es una solución de red
que distribuye el tráfico entre múltiples servidores para
mejorar el rendimiento de las aplicaciones. Nuevamente, este es un
software que puedes instalar, administrar, actualizar y escalar. puede instalar un balanceador de carga para dos o más instancias C dos, pero el problema es
la escalabilidad Entendamos esto. Tiene un
equilibrador de carga frente dos instancias C dos
y su número de instancias EC dos
aumentará en función de la carga Especialmente si
tiene fuera escalado , entonces no hay limitación
en C dos instancias. Se puede escalar de la nada a 100 o incluso más C dos
instancias, ¿verdad? Ahora bien, ¿cómo manejará un
equilibrador de carga todas las solicitudes? También necesita
ser escalado, ¿verdad? Ahí es donde AWS brinda otro servicio llamado balanceador de carga
elástico
59. ¿Qué es un balanceador de carga elástica (ELB)?: Hola, alumnos. Bienvenido de nuevo. En este video,
entenderemos otro servicio de AWS que
es Elastic load Balancer Este servicio trabaja muy de cerca con el escalado automático para distribuir el tráfico por igual a dos
instancias. Empecemos. ¿Qué es el balanceador de carga elástico? Este es un servicio de AWS que se utiliza para
distribuir la carga. Está diseñado para abordar el
levantamiento pesado indiferenciado del equilibrio de carga En la lección anterior, aprendió sobre un
balanceador de carga que es responsable la distribución del tráfico
entrante entre instancias
EC dos disponibles Elb escala automáticamente a
medida
que el tráfico a sus servidores cambia
si el tráfico crece Elb permite que el balanceador
de carga maneje la
carga adicional
distribuyéndola cada vez que su grupo
de escalado automático EC
dos escale y agregue una
nueva instancia de EC two, el servicio de escalado automático
envía una notificación al balanceador de carga elástico de que
una nueva instancia está lista para
manejar
el una nueva instancia está lista para Del mismo modo, cuando el grupo de escalado automático EC
dos en eso significa que si inicia el proceso para
terminar una instancia, envía una notificación
al balanceador de carga elástico Ahora es trabajo de ELB dejar de enviar el tráfico
a la instancia seleccionada Después de eso, espera completen las solicitudes
existentes Una vez que
se cumplen todas las
solicitudes existentes, el escalado automático termina
las instancias sin molestar
a se cumplen todas las
solicitudes existentes, el escalado automático termina los clientes existentes El balanceador de carga elástico enruta
automáticamente el tráfico de aplicaciones entrante a través de diferentes instancias Actúa como punto de contacto
para el tráfico entrante. Cualquier tráfico que llegue a su
aplicación primero se reúne con el equilibrador de carga y
luego se envía a una instancia
disponible También monitorea el
estado de las
dos instancias EC en ejecución , ya que envía las solicitudes de tráfico solo a las instancias
sanas. Bien, a partir de ahora, ha aprendido cómo balanceador de carga
elástico enruta tráfico
externo a
sus dos instancias EC No sólo eso, sino que también se utiliza para el
tráfico interno re, ruteo. Entendamos con
un ejemplo de ML. Supongamos que muchos usuarios
están usando su Gmail. Abren el Invox, luego la página actúa
como servidor web Un usuario compila el mensaje y hace clic en el botón enviar Si hablamos de lo que
sucede en el servidor de correo,
un servidor de aplicaciones está
procesando tus correos electrónicos, incluyendo
almacenarlos en una base de datos, enviarlos a los
respectivos usuarios, etcétera Si cada vez son más los usuarios que
empiezan a usar Gmail, también
aumentará
el número de servidores web. De ahí que C a auto scale también tendrá que aumentar el número
de servidores de aplicaciones. Se debe reconocer a cada servidor Ab que un nuevo servidor de aplicaciones está disponible
para aceptar el tráfico. Ahora imagina que tienes potencialmente cientos de
instancias de servidor en ambas llantas. También podemos resolver el caos de tráfico de
Appserver con un ELB interno Elb dirigirá el tráfico
al servidor de aplicaciones que tenga las solicitudes
menos pendientes El servidor Wave
no sabe y no le
importa cuántas
instancias de Appserver se están ejecutando Solo ELB maneja dirigir el tráfico a Apservers
disponibles Esto se conoce como arquitectura
desacoplada. En esta arquitectura, todos los componentes informáticos permanecen
completamente autónomos e inconscientes unos de otros haciendo la
tarea instruida de forma independiente. balanceador de carga elástico es
el servicio que podemos usar
frente a un Waveserver para
distribuir También se llama balanceador de carga
pública. También podemos usar el balanceador de
carga elástico detrás del Waveserver para
distribuir igualmente el tráfico
al servidor distribuir igualmente el tráfico Como esto está funcionando internamente, se le llama balanceador de carga
privado interno Estudiantes, eso es
todo por este video.
60. Balanceador de carga elástica de AWS (ELB): Hola, alumnos. Bienvenida de nuevo. En este video, vamos a entender diferentes
tipos de ELB Empecemos. Aws, equilibrio de carga elástico, admite cuatro balanceadores de carga, equilibradores de carga de
aplicaciones, equilibradores de carga de
red, equilibradores de carga clásicos
y equilibradores de carga de puerta de enlace Vamos a
entenderlos uno por uno. Estos balanceadores de carga funcionan
con diferentes modelos OSI. Osi Reference Model significa Modelo de
Referencia de Interconexión de Sistema Abierto Describe cómo la información
se transforma de un software en una computadora a otra mediante el uso de una red. Esto se logra dividiendo la comunicación de datos
en varias capas, dando control sobre el envío de
datos de una capa a otra. Como su nombre indica, balanceadores de carga de
aplicaciones funcionan en la séptima capa
del modelo OSI, la capa de
aplicación El balanceador de carga de red
funciona en la capa cuatro, que es la capa de red El balanceador de carga clásico es el más antiguo y el primer servicio de balanceador de
carga elástico Está diseñado para funcionar
tanto en la aplicación
como en la capa de red. El balanceador de carga de puerta de enlace es el servicio más nuevo de la familia de balanceadores de carga
elásticos, el servicio más nuevo de la familia de balanceadores de carga
elásticos,
que funciona en la capa 3.4 Lo
siguiente es la lista de protocolos, lo que significa los
diferentes protocolos donde estos
balanceadores de carga pueden escuchar balanceador de carga de aplicaciones
solo admite protocolos HTTP y STTPS El balanceador de carga de red
maneja los protocolos TCP y UDP. El balanceador de carga de puerta de enlace
solo escucha en IP. Como mencionamos anteriormente, un
balanceador de carga clásico puede funcionar
tanto en reproductores de aplicaciones como en redes Por lo tanto, soporta protocolos
tanto de aplicación como de
reproductor de red como TCP, SSL por TLS, TTP, TTP Ahora veamos
diferentes casos de uso para
estos balanceadores de carga El caso de uso más común para el balanceador de carga de
aplicaciones
es para aplicaciones web Una aplicación web construida en el marco de
microservicios puede usar ALB como equilibrador de carga
antes de que el tráfico entrante
llegue a su EC, dos instancias o los contenedores alojados para una red de servicios balanceador de carga cubre los escenarios
restantes en los que ALB, por ejemplo, las aplicaciones que dependen de un protocolo
aparte de STTP, las aplicaciones sensibles al tiempo, el flujo de datos en tiempo real y las aplicaciones que dependen de la
transmisión de audio, video, códigos de
moneda, etc., se beneficiarán El balanceador de carga de puerta de enlace
funciona en la capa tres. Hace que sea fácil y
rentable implementar, escalar y administrar
la disponibilidad de dispositivos
virtuales de terceros. El clásico balanceador Lode se
puede usar con casi todos los casos de uso de balanceador Lode de aplicación y
red Pero como la aplicación y
el balanceador Lode de red son los más nuevos y están diseñados
para un propósito específico, los
usas para sacarle
el máximo partido Aws retira el
clásico balanceador de carga 15 de
agosto de 2022 No se recomienda su uso. El siguiente es el tipo de destino, lo que significa dónde
el equilibrador de carga puede dirigir el tráfico Podría ser C dos instancias direcciones IP
fijas,
AWS, funciones Lambda,
entre otras. Simplemente puede relacionarlo
con los casos de uso anteriores. El balanceador de carga de la aplicación
admite instancias IP C dos, y el balanceador de carga de red Lambda admite IP C dos Y también el balanceador de
carga de aplicaciones puede enviar tráfico a ALB también El balanceador de carga Gateways admite dos instancias IP y
EC El balanceador de carga clásico también admite dos instancias IP y
EC Podemos entrar en detalle
en cada balanceador de carga, pero eso no es necesario
para este curso Solo necesita recordar estos cuatro tipos
de balanzas de carga, tipos, protocolos y casos de uso. Eso es todo por esta lección.
61. Usando ELB y auto escalado juntos: Hola, alumnos. Bienvenido de nuevo. En el laboratorio anterior,
en el módulo EC two, hemos desplegado
el servicio STTDP a la instancia EC two, que creamos desde
la consola de AWS En este lab, crearemos EC dos instancias usando el grupo
AWS Autoscaling Veremos cómo configurar los grupos
de autoescalado de AWS. Implementará automáticamente el servicio STTDP en todas las instancias del grupo de escalado automático y verá
el acceso
a grupo de escalado automático y verá
el la aplicación STTDP resultante a
través
del equilibrador de carga de
la aplicación través Vamos a la consola de AWS
y tecleemos C dos en
la barra de búsqueda. Haga clic en C dos para ir
directamente al tablero EC two. En el panel izquierdo, encuentra un clic en
Lanzar plantillas. Especifican la configuración
de EC dos instancias. Echemos un vistazo.
Haga clic en Crear. Plantilla de lanzamiento. Agrega un
nombre de plantilla de lanzamiento empaquetado, Elting. Añadamos Plantilla de Lanzamiento
para Auto Scaling. Demostración como la descripción, podemos agregar impuestos haciendo clic en
este botón desplegable aquí. Si quieres copiar, modificar o crear una nueva plantilla a partir de una plantilla de lanzamiento existente, puedes hacerlo haciendo clic
en el siguiente menú desplegable aquí. La siguiente opción que tenemos
es elegir el AMI. Escribamos Amazon, Linux, dos en la barra de búsqueda y
seleccionemos la primera AMI. Como puede ver, esta AMI
es elegible para llantas gratis, lo que significa que no tendremos que
pagar nada por esto. La siguiente opción es
elegir el tipo de instancia. Podemos ver varios tipos de
instancias si garabateas aquí abajo. Como no tenemos ningún
requisito de instancia especial y también queremos
quedarnos en la llanta libre, escojamos la micro instancia de dos
puntos. A continuación, tenemos que
elegir el par de claves. Lo necesitaremos cuando
evaluemos H en la instancia. Además, debes
especificar un par de claves, ya que no evaluaremos H
a la instancia en este laboratorio Dejemos esto por defecto. Si quieres probar SSH y
ejecutar comandos tú mismo, puedes elegir un par de teclas
existente como
este o crear un nuevo par de teclas
haciendo clic en Tenemos que especificar la configuración de red para
nuestras dos instancias EC. No necesitamos
seleccionar subredes aquí. Dejemos este
defecto por ahora. A continuación, tenemos que configurar
el grupo de seguridad. Tenga en cuenta que este grupo de
seguridad
en última instancia se adjuntará a la CE dos instancias
que creamos. A partir de esta plantilla de lanzamiento, podemos crear un
nuevo grupo de seguridad o seleccionar un grupo
de seguridad existente. Tengo el grupo
de seguridad del laboratorio anterior. Yo puedo elegir esto. Pero permítanme demostrar el proceso de
creación de un grupo de seguridad. Una vez más, haga clic en
Crear grupo de seguridad y agregue el
nombre y la descripción del grupo de seguridad. Elija la VPC correcta. A continuación agregaremos reglas. Haga clic en Agregar regla
de grupo de seguridad y luego Agregar reglas de
grupo de seguridad. Seleccione STTP en la
columna tipo en esta fuente. Seleccione Cualquier Lugar.
No he agregado la regla SSH ya que no vamos a
estar haciendo eso en este laboratorio Si planea probar SSH, debe
seleccionar un
pagador clave y agregar la regla SSH Ahora hemos configurado el grupo de seguridad para
nuestra plantilla de lanzamiento. A continuación, podemos agregar la configuración de
volúmenes de EBS aquí. Vamos a saltarnos esto. Para este laboratorio, podemos ags a la
plantilla de lanzamiento haciendo clic aquí, pero no tenemos
tales requisitos. Vamos a saltarnos esto también. Haga clic en Opciones avanzadas. No necesitamos cambiar
ninguna opción aquí. Sigue adelante y garabea hasta la parte inferior de
la página. Verás la opción de
datos de usuario aquí. Aquí podemos ingresar
los comandos que queremos ejecutar cuando comience
nuestra instancia. En el laboratorio anterior,
instalamos STTPD manualmente. En este lab, agregaremos nuestros comandos en
este cuadro de texto aquí Aws
los ejecutará automáticamente cuando se inicie nuestra
instancia. En los siguientes
comandos actualizar. Esto es para actualizar los paquetes
predeterminados en nuestra instancia, instalar STTPdoy Este comando
instalará STTPD en nuestro sistema de instancias, Iniciar STTPD. Este comando iniciará el servicio SttPD en
las dos instancias EC Este comando en la pantalla nos
mostrará una página STML personalizada Haga clic en la plantilla Crear
lanzamiento. Hemos
creado con éxito una plantilla de lanzamiento. Haga clic para ver las plantillas de lanzamiento. Ya puedes ver tu
plantilla de lanzamiento en la lista. Pasemos ahora al panel de control de
Autoscaling Group. Haga clic en Grupos de autoescalado en el panel izquierdo y haga clic
en Crear grupo de autoescalado Ingresa el nombre empaquetado ASG y elige la
plantilla de lanzamiento que acabamos de crear Tenga en cuenta que también puede ir a la página Crear plantilla de lanzamiento la página Crear plantilla de lanzamiento
desde este enlace aquí. Haga clic en Siguiente, elija la
VPC empaquetada y seleccione submt pública
uno y submate pública dos Seleccione cualquiera de las dos
subredes predeterminadas de la lista. Si no tienes tu propia VPC en tu cuenta, haz
clic en Siguiente Podemos agregar un balanceador de carga
a nuestro grupo de autoescalado, directamente desde esta página aquí, pero lo haremos
más adelante desde el panel del
balanceador de carga Vamos a saltarnos esto por ahora. Haga clic en siguiente, vemos tres opciones
importantes y útiles. Capacidad deseada. Este valor especifica
el número deseado de instancias que
desea tener. Cambiemos esto a tres. A continuación tenemos la capacidad
mínima. Este valor especifica
el número mínimo de instancias que desea que tenga el grupo de
escalado automático. Si tiene una
capacidad mínima de dos, AWS se asegurará de que siempre
tendrá un
mínimo de dos instancias. Cambiemos este valor a dos. A continuación tenemos la capacidad máxima. Este valor especifica el número
máximo de instancias que desea que tenga el grupo
de autoescalado cuando se escala. Si tiene una
capacidad máxima de cuatro, permítanos cambiar este valor
a cuatro instancias. Podemos agregar la política de escalado de
seguimiento de destino
seleccionando la opción
aquí para nuestro ejemplo, agregaremos políticas de
escalado simples luego
agregaremos políticas de
escalado simples
a nuestro grupo de escalado automático Haga clic en siguiente, podemos agregar
notificación en esta página. Por ejemplo, podemos crear
un tema SNS que nos envíe un correo electrónico cada vez que grupo de
escalado automático
escala o hacia abajo, no
tenemos tales requisitos Haga clic en siguiente, podemos agregar etiqueta
aquí, omita esto. Haga clic en Siguiente, Revise su grupo de ajuste de
escala automática
y, a continuación, haga clic en Crear grupo de ajuste de
escala automática Podemos ver nuestro grupo de autoescalado listado con la
capacidad deseada de tres, capacidad
mínima de dos y una capacidad máxima de cuatro El estado, por lo que actualizando
la
capacidad ya que tenemos la capacidad deseada
de tres y actualmente este
grupo de autoescalado no tiene instancias, intentará crear tres instancias
C dos para nosotros. Puedes ver esto seleccionando tu grupo de autoescalado y
haciendo clic en la actividad Verás tres lanzamientos de
instancias exitosos. En la columna de causa, puedes ver que el servicio
Autoscaling Group está tratando de aumentar la capacidad 0-3 Antes de ir al panel EC two
y ver nuestras instancias, agreguemos políticas de escalado
al grupo Autoscaling Haga clic en la pestaña de
escalado automático. Al lado de la pestaña de actividad, verás que
no tenemos políticas agregadas a
nuestro grupo de escalado automático Vamos a crear una política de
escalado dinámica. Elija escalado simple
del tipo de política
y agregue el nombre. Agregar una instancia. Cuando la utilización de la CPU
es menor que grupo de
escalado automático
necesita la alarma de Cloudwatch para realizar un seguimiento de la utilización de la CPU Vamos a crear la
alarma haciendo clic aquí en la página de alarmas CW. Haga clic en Seleccionar
métrica, haga clic en dos. Para C dos métricas, necesitamos la métrica de grupo de
escalado automático general y no la
métrica por instancia para esta alarma Seleccione por
grupo de autoescalado y busque utilización de la
CPU bajo
el nombre de la métrica Seleccione la
fila de utilización de CPU y haga clic en Seleccionar métrica. Puede ver el
gráfico de utilización de CPU a su izquierda. Queremos que nuestro
grupo de autoescalado se escale. La utilización de la CPU es superior al 80% Desplácese hacia abajo y
en el cuadro de condición, seleccione mayor e
ingrese el valor 80. Esto significa que nuestra
alarma se activará cuando el
valor de utilización de la CPU sea superior a 80. No necesitamos cambiar
los otros parámetros
para la alarma. Haga clic en siguiente, podemos agregar notificaciones y
acciones en esta página, pero omita esto por ahora. Añadiremos una acción de alarma en la página del grupo Autoscaling Haga clic en Siguiente, ingrese el
nombre y la descripción y vuelva a
crear la alarma en
la página Grupo de Autoscaling Actualizar la opción de alarma. Encuentra tu
alarma de escala en la lista. Seleccione la alarma en la acción. Elija agregar una unidad de capacidad. Esto agregará una instancia a nuestro ASG cada vez que se active
esta alarma Hemos creado nuestra política de escalado
simple para escalar la sala de escalado
automático. Creemos otra
política para reducir la escala. Haga clic en Crear política de
escalado dinámico. Seleccione Escalado simple. Agrega el nombre. Elimine
una instancia cuando la utilización de la CPU
sea inferior a 30. También tendremos que
crear una nueva alarma. Haga clic en el enlace Crear alarma. Haga clic en seleccionar Métrico. Ec a métrica por grupo
Autoscaling y seleccione
la métrica de utilización de CPU Esta vez queremos que nuestra
alarma se active cuando la utilización de la
CPU esté por debajo del 30%
en la caja de condición de alarma. Selecciona inferior y
suma el valor 30. Haga clic en Siguiente, omita
las notificaciones, agregue un nombre y una descripción y cree la alarma en la página Grupo de
escalado automático Refresca, selecciona la alarma. Elija eliminar una
unidad de capacidad y crear la política. Veamos estas
políticas en acción. Acabamos de agregar una política para reducir la
escala cuando la utilización de la
CPU está por debajo del 30% Dado que
no tenemos ninguna
carga de trabajo en nuestro EC dos, la
utilización promedio de la CPU estará por debajo del 30% activando esta alarma Si ve la pestaña
de actividad de su grupo de escalado automático, pronto notará
que AWS disminuyó la capacidad deseada 3-2 y ahora está terminando
la instancia En la sección de casos,
verá que
esto se debe a que acabamos de crear la política incluso después de que
nuestro ASG se haya reducido. Si lo ve en
la pestaña Cloudwatch, la alarma de reducción de escala sigue
en el estado activado Esto se debe a que todavía no
tenemos procesos ejecutándose en nuestras instancias EC dos y
la utilización de la CPU es baja. Idealmente, AWS disminuirá
otra instancia de nuestro ASG. Pero
como especificamos
la capacidad mínima ya que dos AWS no
escalará su instancia AWS cambia su capacidad
deseada como para las políticas de escalado, pero nunca cambia
los valores de
capacidad mínima y máxima. Si editas el grupo de
escalado automático y cambias el valor mínimo de
capacidad a uno, muy pronto verás terminada
otra instancia. No hagamos eso y
mantengamos nuestras dos instancias funcionando. Vaya a la página
de instancias desde el panel izquierdo. Podemos ver que tenemos
dos instancias en el estado de ejecución y una instancia en el estado
terminado. Seleccione cualquiera de las
instancias en ejecución y copie su página
de direcciones IP públicas las direcciones IP
del navegador de instancias. Encontrarás que
aunque no ejecutamos manualmente ningún comando
en la instancia, tiene HTTPD instalado
y ejecutándose Ahora vamos a crear un balanceador de carga de
aplicaciones y ver esta página web desde
la URL del balanceador de carga Haga clic en Equilibradores de carga. Desde el tablero izquierdo, puedes ver que
no tenemos balanceadores de carga en
nuestra cuenta a partir de ahora Haga clic en Crear balanceador de carga, seleccione Equilibrador de
carga de aplicaciones, Ingrese el nombre de
Cloud Advisory ALB La siguiente opción es
elegir si
queremos un balanceador de carga
interno o orientado a Internet Los balances de carga internos
solo son accesibles localmente
dentro de la VPC Como queremos
ver nuestro sitio web a través del ALV desde cualquier parte
del mundo, necesitamos seleccionar la opción de cara a
Internet en la caja de red Elija la VPC y las subredes públicas en la sección del grupo
de seguridad Creemos un nuevo grupo
de seguridad. Agrega el nombre y la descripción. Seleccione la misma VPC que
las instancias EC dos. Y agregue una regla STTP para permitir conexiones STTP
desde Vuelva a crear el grupo de seguridad
en la página del equilibrador de carga. Actualizar la opción de
grupo de seguridad. Elige el que acabas de crear. Los alb's requieren algo
llamado el grupo objetivo. Un grupo objetivo es un grupo
de C dos instancias u otros recursos donde ALB
reenvía sus solicitudes Vamos a crear un nuevo grupo objetivo haciendo clic en este enlace aquí. Ingresa el nombre
del grupo objetivo y deja los demás
valores por defecto. Haga clic en Siguiente, elija
sus Instancias y agréguelas como pendientes a continuación. Haga clic en Grupo objetivo, de nuevo
en la página de creación de ALB. Reformule la opción Grupo objetivo y elija la
que acaba de crear Haga clic en Crear
el balanceador de carga. Hemos
creado con éxito nuestro ALB. Haga clic en Ver balanceadores de carga. Ya podemos ver nuestro
balanceador de carga en la consola. Da clic en el
balanceador de carga,
amapola, el valor DNS y
pegarlo en tu navegador Puedes ver la página del camino y la dirección IP de la instancia que está
atendiendo nuestra solicitud. Dado que el balanceador de carga
reenvía aleatoriamente nuestras solicitudes a
las dos instancias de EC, verá que la dirección IP cambia cada
vez que recarguemos la página Así es como implementas aplicaciones
web
en el mundo real. Hemos implementado con éxito una arquitectura
escalable y de alta disponibilidad utilizando Autoscaling group y ALB Sigamos ahora y
eliminemos nuestra infraestructura. Para ello, vaya a la consola de grupo de
autoescalado y elimine el
grupo de autoescalado haciendo clic en Acciones Elimine el equilibrador de carga
en la página del equilibrador de carga. Elimine el grupo objetivo en la página del grupo objetivo en
la página del grupo de seguridad. Elimina todos los grupos
de seguridad excepto el
grupo de seguridad predeterminado para tus VPC's. Eso es todo para esta sesión. Nos vemos en la siguiente. Escucha.