Transcripciones
1. Introducción al curso: Hola, chicos. Bienvenidos de nuevo
al siguiente video. En este video, voy
a presentarme, y luego voy a ir con entender o
familiarizarte con los conceptos de los temas que has elegido y la
formación que has elegido, y luego vamos a ver la estructura de la formación, vamos a ver cuál es la gente real que
va a tomar esta clase, y vamos a
ver algunos resaltes o valores de esta clase también. Bastante comenzaremos
con mi introducción. Esto es VanCatrama aquí. Tengo 20 años de experiencia en middleware y también en
tecnología cloud últimos 14 años estoy trabajando en tecnología
Cloud y
esta tecnología Cloud que estoy cubriendo en
este video es AWS. Ahora, AWS, esta capacitación va a ser todo sobre
trabajar con AWS, comprender los
conceptos de AWS. Y, ya sabes, trabajar con conocimientos en tiempo
real en
AWS en lugar de solo
una arquitectura o simplemente tener una idea de ella. Así que aquí te he dado formación práctica
completa en AWS, y aquí realmente puedes
obtener el conocimiento de la AWS básica a los conceptos avanzados
de AWS, con las manos en. Donde voy a hablar de un
servicio y luego ejecutaré el servicio y te mostraré una demostración
adecuada sobre un servicio, que estoy hablando
en esas clases de AWS. Esta va a ser la estructura de la
capacitación, y aquí, esta capacitación está
destinada a cualquier
persona que sea nueva en AWS
o que quiera aprender AWS porque
vamos a empezar
desde lo básico y si ya tienes un conocimiento básico y buscas conocimientos
avanzados, también
puedes saltarte directamente algunas clases al
principio para que ya conoces los conceptos de AWS para que puedas saltar a
la sección avanzada de la misma. Ahora bien, los valores de esta
clase es básicamente, sabes, como te dije, reunirás una muy
buena experiencia en AWS desde el principio hasta el
nivel experto y los proyectos se
crearán más tarde
en el momento para que trabajes en los
proyectos y luego obtengas los valores en tiempo real e información sobre los elementos de AWS. El siguiente el siguiente video sería sobre cómo
iniciarte en AWS. Estoy muy emocionado de
comenzar la capacitación en AWS. Te veré en el
siguiente video. Cuídate.
2. Tema 1: introducción a AWS parte 1: Oigan, chicos, bienvenidos de nuevo
al siguiente video. En este video, voy a
hablar de computación en la nube. Pero entonces antes de
comenzar este tema, pensemos, quiero decir, nosotros mismos, cuando
hablamos de computadoras ¿Qué es lo primero
que te viene cuando hablas de computadoras, de
tus laptops, verdad? ¿Tus teléfonos móviles, tu iPad
y, ya sabes,
tabletas y esas cosas? Entonces estas son forma de computadora. Entonces cuando decides que
quieres una computadora, como tu laptop o algo así, vas a una tienda
y les dices, qué tipo de laptop
necesitas, ¿verdad? Entonces les dices, quiero
comprar un portátil para fines
gaming o quiero
comprar laptop porque
viajo mucho, y quiero
usarlo mientras viajo, así que debería ser como tener
una batería de larga duración. Debería tener buena conectividad de
red, como Wi Fi y esas cosas. Va a tener como
un televisor de almacenamiento. Uh, necesita tener procesador
iFive porque no
quiero ir por el procesador I siete o yo nueve en mi laptop porque eso va
a ser demasiado caro Entonces voy por I cinco procesador, y luego necesito sistema
operativo Windows. De igual manera, das especificaciones
y compras un portátil, que se ajusta a tu
presupuesto, ¿no es así? Y además, se adapta a
tus requerimientos. Entonces esto es básicamente lo que lo
llamamos como un físico uh, ya
sabes, activo físico. Entonces este portátil es uno físico que está ocupando un
espacio en tu habitación, y ocupa ese espacio, y puedes acceder a él
yendo allí físicamente y escribiendo el portátil en el teclado del portátil o si
estás usando un teclado externo. Entonces eso es básicamente algo
llamado activo físico, y eso existe en tu vida
real, ¿no? Ahora, cuando
hablas de empresa, cuando hablas de empresa,
tienes empleados. Y estos empleados
usarán sistema dentro de él. Entonces hay dos
tipos de sistemas. Hablemos de ello. No estoy hablando de
laptops físicas o esas cosas. Estoy hablando de dos
tipos de interfaces. Tu empleado
accede a una interfaz, y esa interfaz
irá a una herramienta donde el empleado
accederá a su fondo Providence. Accederás a su
sueldo, nómina y esas cosas. Solicitará licencia, HRMS
y todas esas otras cosas, y todas esas otras cosas, como el sistema de gestión de nóminas Entonces ese tipo de interfaz que empleado tendrá la comunicación con
el empleado, ¿verdad? Entonces, um, y
hay otro tipo de interfaz
con la interfaz del cliente
, ¿verdad? Por lo que el cliente está
accediendo a su producto. Ahora, cómo quieres
proyectarte ante el cliente. Tendrás un sitio web, ¿verdad? Y ese sitio web tendrá información sobre
tu producto donde entra
un cliente y compra ese producto desde tu sitio web. Entonces están los dos
tipos diferentes de interfaces. Ahora bien, cuando tienes esa compañía y ejecutas este tipo de
dos interfaces diferentes, una para tu empleado, una para, ya sabes, tus clientes, ¿dónde
vas a alojar estas? Vas a alojar
esto como parte de un sistema, ¿correcto? Una computadora. Entonces lo mismo, lo que hace
la compañía es, como, en lugar de ir a
un distribuidor de portátiles como Apple o HB o lo que sea
el distribuidor vaya a usted
cuando jugador o cuando
quiere comprar un portátil, la compañía va a Dell, HP o algún tipo de Apple en sí. Por lo que fabrican servidor. IBM, fabrican
un servicio, ¿verdad? Entonces van a estos fabricantes
y les preguntan, como, quiero alojar esta base de
empleados, y tengo miles
de empleados. Quiero, como, tener, como, infraestructura,
una construcción de centro de datos, y quiero, como,
tener servicio en ellos. Y eso realmente albergará los datos relacionados con
mis empleados. Y quiero mantenerlo
seguro porque no quiero que nadie más acceda a los datos de
mis empleados. Yo sólo quiero acceder a eso. Entonces, ¿qué haces? Construyes
esto en base de datos prem, lo
siento, en prem Data Center Ahora bien, en esto on
prem data center, vas a tener
vamos de abajo Vas a tener interfaces
de red. Vas a tener almacenamiento
construido para almacenar datos. Servidores, que va
a tener el procesamiento, que va a conectarse
con un dispositivo de almacenamiento, si es un dispositivo de almacenamiento externo, solo va a conectarse
con su red nuevamente. Va a tener un sistema
operativo, ¿verdad? Va a tener algunos componentes de
middleware, un componente de base de datos, los datos de
tus clientes o los datos de
tus empleados, así que vas a diferenciar estos dos
tipos diferentes de Y entonces vas a tener
esta aplicación de cliente
o tu aplicación de empleado
, ¿verdad? Entonces estas son cosas
que manejas como empresa. Porque vas
a gestionar estos datos. Por lo que ya sea tus datos de clientes o tus datos de empleados
serán gestionados por ti. Pero para administrar eso, necesitas una base de datos, middleware, Y para alojar esta
base de datos y middleware, necesario tener un sistema
operativo que entienda lo que es
middleware y Y el sistema operativo
necesita ejecutarse en servidor, que tiene CPU, memoria, disco
duro para el sistema operativo
inicial, y luego componentes para conectarse
con el cable de red, componentes para conectar
a su almacenamiento, dispositivos de almacenamiento
externos, ¿verdad? Entonces necesita tener esos artículos
para que funcione, ¿no es así? Entonces ahí es donde
la empresa necesita en base de datos prem,
lo siento, centro de datos Ahora, cuando se tiene
el centro de datos, hay muchos gastos generales Como, por ejemplo,
cuando compras una laptop, en ese caso, qué pasa
si compras una laptop, necesitas tener un lugar
para que te quedes con una laptop. Entonces necesitas comprar un
escritorio para ello, ¿no? No puedes mantener tu
laptop siempre en tu regazo. Tu laboratorio se calentará, ¿no? Porque cuando
procesas muchos datos, se va a poner muy caliente. Por lo tanto, necesita comprar un escritorio, y debe colocar su
computadora portátil encima del escritorio y luego proporcionar la
conexión de cableado para su cable de alimentación, y luego proporcionar Wi
Fi para Internet. Y luego necesitas si
quieres monitor externo, necesitas tener este
cable extra conectado a tu HDMI. Y luego si necesitas que el mouse
y el teclado sean útiles, y quieres
mouse y teclado externos, entonces necesitas
conectarte a Bluetooth. Entonces estos son algo
que se requiere para ti. Estas son algunas cosas
que necesitas, ya
sabes, acomodar
o asignar. solo hecho de comprar una
laptop no tiene
ningún sentido a menos que hasta que no tengas estos equipos
contigo, ¿no? Entonces, lo mismo
para un centro de datos, se necesita tener espacio
para el centro de datos. Como, por ejemplo, un centro de
datos puede ser grande, también
puede ser pequeño. Por lo que
también puede estar dentro de las instalaciones de una
empresa hasta que se asegure del acceso
directo de
otras personas. Entonces necesitas crear una habitación. Es necesario dar espacio
para el centro de datos. Necesitas comprar en los
cachés, como el Chasis, lo siento, donde pones
en el servicio ahí, necesitas comprar los cables de
red Necesitas comprar switches
para tu red, ¿verdad? Entonces, del mismo modo, necesitas
hacer arreglos, y necesitas mantener algunos administradores de
servidores. Al igual que, necesitas contratar a algunas
personas para administrar el servicio. Si hay un corte de energía, necesita tener respaldo de
energía, ¿verdad? Entonces, del mismo modo,
necesitas no solo comprar servicio, sino que luego necesitas
comprar infraestructura. Entonces ahí es donde AWS está
entrando en escena. AW va a liberar parte de la carga de trabajo que
tienes ahí. Al igual que, ¿qué tipo de carga de trabajo te va a
liberar de ella? Por lo que AW tiene diferentes
servicios que puede ofrecer. Entonces tiene esta instancia de AWS
EC dos. Eso es
lo primero que entró. Se llama infraestructura
como servicio donde AWS se encargará del espacio del centro
de datos, el alquiler del mismo, los cableados, las administraciones y otras cosas. Entonces lo que van a dar es como, te
van a dar red.
Te darán almacenamiento. Te darán
un servidor a host. Ahora bien, ¿qué necesitas
traer contigo mismo? Necesitas o bien si
ya tienes una licencia de sistema
operativo contigo, puedes traer eso. Si estás usando un sistema operativo de
código abierto, realmente no
tienes que hacer eso. ¿Bien? Entonces, si estás usando, como, un Ubundu que es de código abierto, puedes seguir adelante con
eso sin pagar nada O vas a AWS y
les dices que no tengo
una licencia existente con ninguno de los sistemas
operativos, pero quiero usar Windows para
mí o Red Enterprise siguiente. Cuando dices la
palabra empresa, eso significa que hay
un cargo por ello. Entonces, lo que te daría AWS es como si instalaran
el sistema operativo, pero
te cobrarán por la empresa. Sea lo que sea que estén cobrando, están siendo
cobrados por el sombrero rojo. Por lo que
te cobrarán indirectamente, y será parte de
tu proceso de facturación. Y luego necesita traer su propia licencia para su base de datos de
middleware, datos clientes y aplicación de
clientes Entonces lo que necesitas
administrar es menos,
sí, cuando te comparas con lo que tenías que manejar antes. Pero viene con
una desventaja. Déjame
decirte rápidamente la desventaja. No eres el dueño del servicio. Esa es una forma buena donde
no tienes que comprar el
servicio dando, como, mucho dinero o
no tienes que pagar renta
por el centro de datos. Entonces eso es algo bueno,
pero el problema es, como, este servicio puede ser
accedido en cualquier momento por el AAWSoP que está dentro de eso Pero normalmente van a
quedar vinculados al acuerdo. Allí no van a hacer
nada ilegal. Pero aún así, no está
bajo tu supervisión, así que puede pasar cualquier cosa. Entonces eso es algo de lo que
debes estar al tanto. Así que muchas cosas bancarias, no
ponen sus datos
privados reales en un centro de datos,
lo siento, en una nube pública de alojamiento
público como AWS o Azore Entonces o
tomarán un privado para que tengan el anfitrión
dedicado para ello. Hay una opción para ello porque todo el servicio que
vas a utilizar, ¿verdad? Todos estos servicios que
vas a utilizar, por defecto, se comparten a menos que y hasta
que les pidas
un host dedicado, lo que significa que
un host en particular se
dedicará
para tu operación. Entonces hablaremos de eso más adelante. Es como que no es
como un concepto simple, que son conceptos realmente
avanzados. Pero hay una manera de hacerlo. Así que AWS te da
muchas opciones como esa. Pero aún así, el servidor se encuentra en un sitio de proveedor de
terceros, que es AWS, que
es Amazon, ¿verdad? Entonces hay desventaja, pero hay estas ventajas. No tienes que
pagar por un espacio. No tienes que comprar equipo. No es necesario tener
el cargo por gastos generales de tener un empleado
para administrar este servicio. Así que no tienes esos
gastos generales también. Así que en realidad se ahorra el dinero. Y si estás usando esto para
un propósito de prueba y error, así puedes usarlo durante una hora y luego
apagar el servidor, y no se te
cobrará por ti. Por lo que todas estas operaciones
se apagarán y
no se le cobrará por ello. Entonces hay una buena
ventaja de eso también. Y también hay
otra ventaja. Al igual que, y si quiero tomar el servicio
y pagar por adelantado. Así que AWS te da una buena oferta si estás pagando por adelantado. Como, por ejemplo, quiero
tomar el servicio
por tres años. Bien, me pagas
tres años por adelantado, y te voy a dar
un muy buen precio Así que va a ser mucho
más barato que el precio bajo demanda. Entonces eso es muy bueno, ¿
verdad? Así que obtienes ofertas basadas en las
regiones que seleccionas, según la ubicación, también
obtendrás ofertas. Entonces
hay muchas ventajas en la infraestructura
como servicio. Interesante saber
sobre esto, ¿verdad? Entonces, en el siguiente video,
continuaremos con esto, y hablaremos de
plataforma como servicio, software como servicio
y almacenamiento como servicio. Pero espero que
entendieras así sucesivamente que cómo un data center on premises es diferente de
un cloud computing. ¿Correcto? Ahora, por qué dicen Nube, es porque está en la Nube. En realidad no
manejas ninguno de esos. Así que en realidad está en la nube. Entonces necesitas Internet
todo el tiempo. Pero si eres un on prem, no
necesitas tener Internet Puede ir directamente al sitio
del centro de datos, conectar el cable y, de
hecho, puede acceder al
elemento usando un monitor. Pero desgraciadamente, no se
puede hacer con una nube
porque está en la nube. Entonces necesitas tener Internet para
conectarte a la Nube y acceder a los datos
desde Internet. Entonces ese es el único problema. Pero no te preocupes por ello.
AWS es básicamente HTTPS. Entonces, toda la transacción
entre usted y el proveedor de Cloud está asegurada a través del certificado, que está utilizando certificados TLS Mucho más detalle en
el siguiente video, chicos. Te veré en la
siguiente. Oigan, chicos, bienvenidos de nuevo al siguiente video. Este video, vamos a
hablar de la continuación a donde lo dejamos en
los modelos de servicio de la computación en la nube. Ahora, ya hemos discutido
sobre sobre prem lo suficiente. También hemos discutido sobre infraestructura como
un servicio donde infraestructura es
dejada salir por un proveedor de servicios
como Amazon, Google, o se puede
decir, Microsoft Aaball También hay otros
proveedores. No estoy mencionando
eso no quiere decir
que no existan. Hay tantos
proveedores en este momento que brindando su
infraestructura como servicio, y todo lo que tienes que pagar por ellos es el costo de la infraestructura, y podría ser
por hora o
podría ser como configurado
en un marco de tiempo acordado, como de uno a tres años. Ahora, AWS le ofrece dicha
infraestructura como un servicio, pero AWS le ofrece incluso
mejor que eso, que es,
um, que es plataforma
como servicio. Ahora, para la plataforma como servicio, como puedes ver aquí, AWS te proporciona hasta el middleware a nivel de
base de datos, Por lo que solo tienes que traer tus datos de clientes o
tus datos de empleados. Y luego ponlo en una aplicación
existente que pueda ejecutarse en una línea de código específica, ya
sabes, bien. Y básicamente,
puedes usar tus datos, y eso se puede ejecutar usando Amazon EKS es uno
de los ejemplos. Hay tantas otras ofertas de
plataformas de AWS. EK es uno de los buenos ejemplos
donde EKS es, ya sabes, Elastic Kubernetes, y te
brinda el
servicio
Kubernetes te
brinda el
servicio
Kubernetes Entonces todo lo que tienes que traer está
en tu código de aplicación, y luego se puede ejecutar en EKS. Un ECS es un servicio completamente administrado, lo que significa que realmente
no tiene configurar la sobrecarga de un administrador que necesita
configurar el EK,
el lado de KuBint de las cosas, porque eso será
administrado por Entonces este tipo de plataforma como servicio también
se te está ofreciendo, y hay
tantas otras cosas de las que
hablaremos más adelante. En cuanto al software
como servicio, software como servicio es
un muy buen ejemplo es tu hoja de Google es un muy buen ejemplo de
software como servicio donde en realidad
no tienes ninguna de las lógicas detrás de tener
esta hoja de Google funcionando Pero luego cuando vayas
a sheet.google.com,
obtendrás la hoja de cálculo de Google, la
hoja de cálculo de Google Y todo lo que tienes que hacer
es, como, ingresar los datos, guardar los datos en Google, y luego más o menos
eso es, ya sabes, ese es tu software
como servicio, lo que significa que
realmente no tienes que entregarte a ningún tipo de codificación ni ningún tipo de
requisitos de desarrollador, no hay nada ahí Así que usted como organización
no tiene que
comprar una suscripción que necesita ser instalada
en un sistema también. Como, por ejemplo,
si comparas Google Sheet con
Microsoft Excel, ¿verdad? Microsoft Excel en este momento
tiene una versión web del mismo, como la
versión de servicio de software de la misma. Pero antes de eso,
tenías que descargarla e
instalarla en un sistema, lo
que significa que necesitas
tener una computadora y necesitas tenerla una computadora y necesitas tenerla físicamente
instalada en tu sistema. Pero ahora mismo, en
realidad no tienes que hacer eso
con Google Sheet. ¿Por qué? Porque puedes ir
a Internet Center o al centro navegación y
en realidad puedes opensettoggle.com,
iniciar sesión con tu ID, hacer
tu trabajo Y luego Guardar y salir de él, y no tienes que ni siquiera
instalar nada en ese sistema. Para que puedas usarlo de
forma temporal y luego hacer tu trabajo, y luego
empacarlo y dejarlo. Lo mismo también para
tu servicio de almacenamiento, ¿verdad? Entonces, por ejemplo,
en esta situación, entonces hay
un software
predefinido que se deja salir por suscripción
donde puedes suscribirte a ese software
pagando algo de dinero, y luego puedes acceder a él desde cualquier parte del mundo, si solo tienes un navegador. Y lo mismo para
el almacenamiento también. Entonces vas por una base de
suscripción, y luego todo lo que harás
es acceder al almacenamiento en Google Drive o Dropbox o cualquier tipo de
almacenamiento como servicio. S tres también es uno de esos servicios de
Amazon, que será, que se puede dar como
ejemplo en este momento. Y puedes subir, descargar cosas desde
cualquier parte del mundo, dar acceso a cualquier persona que
vea el acceso o
algo así, y luego
simplemente puedes compartir el enlace, y cualquiera en todo el
mundo puede descargarlo. Pero aún hay que pagar una cuota de suscripción por
ese servicio en particular, y ese
servicio en particular es de la Nube. Entonces el mejor ejemplo es Google Drive. Así que siempre uso Google Drive para compartir mis documentos y
cosas así. También puedes pensar que Git Hub
también tiene el mismo método donde realmente
podemos almacenar nuestros
códigos y archivos en GitHub. Y eso también se puede compartir. Entonces GitHub también puede
considerarse como nosotros es una especie de híbrido
entre el software como servicio y el servicio de almacenamiento porque puede ser utilizado como stand. Entonces, de igual manera, tienes
tantos ejemplos en vivo alrededor del mundo en este
momento a través de Internet, y puedes encontrar uno de estos, al
menos, que en
realidad lo estás usando a diario. Entonces estos son algo que es modelos de servicio habilitados para la nube, y estos modelos
en realidad le brindan una representación completa
de cuál es la capacidad de los sistemas basados en la
nube. Espero que haya entendido esto. Entonces esto
te va a
ser muy útil cuando empieces a trabajar con
Cloud base para te va a
ser muy útil cuando empieces a trabajar con que realmente
puedas diferenciar cuál está en
la nube y cuál no. ¿Bien? Entonces pienso
que para este momento, deberías entender lo que hay en la nube y lo que no lo está. Y solo trata de
entender las cosas, los elementos que estás usando actualmente en
tu vida diaria, mira cuáles están involucrados
en Cloud y cuál no lo es para que
realmente puedas entender la
diferencia entre eso. Entonces la mejor manera es probarlo tú mismo y tratar de
entender. Todo bien. Gracias de nuevo por ver
este video otro video. Veremos algunos ejemplos más con este tipo de ejemplos
en vivo, sí. Oigan, chicos, vuelvan a reservar
en el siguiente video. En este video,
vamos a ver las ventajas de
usar
la computación en la nube. Ahora, como se puede
ver en la imagen, computación en la
nube
está en el centro, y alrededor de eso, se ven muchas cosas dando
vueltas alrededor de eso. Una de las cosas es la
flexibilidad y la agilidad, por lo que es muy importante que Ya
sabes, un proveedor de nube
sea flexible y ágil. Ahora bien, ¿qué quiere
decir con flexible? Así que cuando quiera, puedo detener la instancia,
y cuando quiera, quiero iniciar la instancia, ya sea a través de scripting, ya sea a través de scripting, línea de
comandos o
a través de la consola Así que la flexibilidad me da cuando la quiero y
cuando la necesito, tengo esa potencia extra. Ahora bien, ¿qué es la agilidad? La agilidad me ayuda a, ya
sabes, ejecutar
mis implementaciones rápidamente. Como, por ejemplo, cuando
digo despliegue,
¿qué significa? Implementación lo que significa que estoy implementando un servidor cuando
hay un requisito. Y eso necesita
ser creado rápido. Por lo que la flexibilidad me permite aumentar o disminuir la
capacidad o escalarla. Pero la agilidad
me ayuda a hacerlo más rápido. Entonces, te mostraré en
las manos el
tiempo que lleva crear
y ejecutar una instancia, ¿de acuerdo? Crear una instancia puede ser manual y puede llevar
mucho tiempo, pero una forma automatizada de
crear una instancia, como cuando estoy usando
ubunts en Bus Me gustaría
crear una instancia instantáneamente tan pronto como vea
una carga alta en el sistema. Así es como funciona el
autoesquí, ¿verdad? Cuando veo una
carga alta en un sistema, inmediatamente
quiero hacer
girar más instancias, correcto, para manejar la solicitud. Así que la agilidad me ayuda
aquí a crear más instancias de
inmediato cada vez que hay un requisito
para que lo haga. Ahora en términos de innovación, me permite agregar nuevos servicios. AWS sigue agregando más
servicios, innovar a sí mismo. Y para que veas que
hablamos del entrenamiento de
interacción. Vimos un nuevo certificado
para IA y aprendizaje de misión. Entonces ese tipo de innovación
es de lo que estoy hablando. Por lo que un socio de la nube
nunca debe verse comprometido en
términos de innovación. También debe
estar siempre innovando, sumando la nueva última
tendencia en el mercado La tendencia actual en
este momento es la IA. El siguiente es rentable. Entonces hay tantos
clientes que me preguntan, ¿cómo podemos hacer que este
proyecto sea rentable? Entonces, como ingeniero de nube o ingeniero de
infraestructura, debe pensar en una solución
para la rentabilidad. AWS le ayuda en términos
de reducir el costo. Cuando comparas el
costo y el
gasto energético de tu centro de datos en
las instalaciones, y
lo comparas
con la Nube, va a ser mucho
más sencillo porque solo
pagarás por lo que usas. ¿Correcto? Si no hay ningún
requisito para que lo uses, entonces no
vas a pagar por ello. Entonces, como
ingeniero de infraestructura o ingeniero de nube, debe determinar cantidad de
réplicas o la cantidad de servicio que debe estar funcionando en un momento en el que
la carga es menor Entonces de esa manera, se puede reducir el costo para la empresa
en la que a su vez realmente
puede traer más
ganancias a su organización. Entonces vamos a discutir mucho sobre los métodos y
estrategias
rentables más adelante punto del
tiempo en términos de escalabilidad, ya
hablamos en la parte de
flexibilidad de la misma La aplicación escalable es uno de los requisitos más altos de cualquier servicio de computación en la nube Ahora, la escalabilidad viene
de con un AWS, y AWS también admite escalabilidad de
terceros, Entonces, si estoy implementando cobert
por separado de, ya sabes, por separado del motor uberts incorporado
o predeterminado, que es dado por AWS, todavía puedo escalar esa
aplicación usando, ya
sabes, ya
sabes, Entonces, aunque no estoy usando los servicios de cobert incorporados EKS, todavía
puedo escalar mi aplicación usando los Cubs
lo siento, En términos de seguridad, Um, AWS te brinda muchas formas
diferentes de asegurar tu consola, tu acceso a CLI, tu acceso a tus API de Cloud y tu acceso
al servicio, ¿verdad Y también
acceso de servidor a servidor. Está muy asegurado. Los servicios dentro de AWS también están utilizando protocolo seguro
para comunicarse entre
sí para que
no haya hacks y ataques a
los servicios de AWS. El siguiente es la confiabilidad. Confiabilidad, cuando
hablo de confiabilidad, el tema me viene a la
mente son las regiones y ***. Ahora, por defecto, cualquier región tendrá
al menos dos As mínimo, lo
que significa que tendrá dos zona de disponibilidad
mínima. Entonces, lo que significa que sus datos se replican a través de
estas dos zonas, pero las principales, las principales, ya sabes, las regiones más utilizadas tienen al
menos tres o más zonas de
disponibilidad, lo que da mucho ancho de banda
para tu confiabilidad aquí En términos de desarrollador
amigable, la consola, que vas a ver es tan amigable para desarrolladores que
vas a pasar un buen
rato alrededor de la consola. Entonces más adelante punto de tiempo,
veremos la confiabilidad. Sea lo que sea de lo que
hablemos, en realidad lo estaremos
viendo uno por uno. Así que no te preocupes por ello. No los estoy
cubriendo a detalle, pero esto es solo una visión general. En cuanto a las capacidades de la
nube híbrida , se ha
hecho mucha innovación en términos de AWS para brindarle esa solución alternativa de la nube
híbrida ¿Qué tiene la nube híbrida trabajando con su centro de datos
y también con AWS? Entonces eso es posible. Por lo tanto, puede tener dos datos, uno seguro en su centro de datos
Onpromiss, y otra mitad es un dato
público al que pueden acceder todos los que
pueden hospedarse en AWS Por lo que Hybrid Cloud es completamente compatible en
términos de trabajar con AWS. Y entonces lo importante es el ecosistema
y la comunidad, el número de AMIs, que se llama Amazon
Machine Image y el marketplace
que tienes y el apoyo de la comunidad para el marketplace y
la documentación. Y
la gente que usa, ya sabes, AWS en todo el mundo
ofrece muchos videos y documentos de YouTube y todo lo demás donde la
gente está usando esto. Y en realidad puedes
copiar, ya sabes, su fórmula de éxito a tu empresa y hacer que
tu empresa sea exitosa. Entonces este tipo de
comunidad es lo que, ya
sabes, construye un software
más fuerte. Y esto AWS te va
a dar eso. Derecha. Entonces estas son las
ventajas de usar Cloud company lo siento cloud
computing, especialmente AWS. Gracias por
ver este video. Espero que este video te haya sido
fácil de entender. Si tienes alguna duda,
sugerencia, por favor
déjala en la sección pin. Tu reseña lo significa todo. Así que
asegúrate de dejar una reseña, y si no estás satisfecho
con la capacitación, puedes decir eso en la revisión. En lugar de solo
calificarlo, solo di eso. ¿Qué es lo que
necesitas para mejorar? Porque estoy aquí para innovar. Estoy aquí para llevar el entrenamiento
al siguiente nivel. Gracias de nuevo.
3. Tema 1: introducción a AWS parte 2: Hola, chicos. Bienvenidos
de nuevo del siguiente video. En este video, vamos a hablar sobre los otros
proveedores de Cloud que existen. Entonces ahora sabes que AW es
uno de los proveedores de Cloud. También hay otros proveedores
por ahí. Así como, tienes
Microsoft Azore, tienes e Cloud de Appo Tienes Citrix, tienes SAP. Tienes A&E Cloud. Tienes IBM Cloud. Tienes Red Monk,
Amazon servicios web. Dell tiene su propio servicio en la nube, HP tiene sus propios servicios en la nube. Así mismo, cada empresa alrededor del mundo viene con
sus propios servicios en la nube y ofrecen al cliente
una amplia gama de ofertas y atractivos, ya
sabes, servicios gratuitos, ya sabes, gratuitos los cuales pueden ser utilizados para la formación y el aprendizaje y acostumbrarse a
sus servicios también. Um, he visto que Google
Cloud está cediendo, como, muchos descuentos
para empresas, como si te registras con tu, ya
sabes, dirección de
correo electrónico corporativa Entonces, si quieren que
experimentes su nube. Esa es la razón,
razón principal por la que
te están pidiendo que experimentes
en su Nube. Y Azore también hace
lo mismo, y AWS, como ustedes saben, que ya tenemos una cuenta gratuita que se va a
crear más adelante punto de tiempo Así mismo, tienes
tantos proveedores de Cloud. Pero si ves a los
principales proveedores de Cloud, que está ahí fuera es AWS, claro, tienen, 34 porcentaje de cuota de mercado, según esto es el informe de
2020 two, pero entonces este es casi un caso
similar incluso ahora como WOW. Por lo que AWS sigue siendo líder del mercado. Pero Azore de Microsoft, está tratando de llegar a
su, ya sabes, fortaleza porque están
cediendo están dando muchas ofertas para conseguir
muchos clientes y tienen
tantas soluciones, igual que cómo AWS
tiene servicios, ¿verdad Por lo que también tienen similar
tipo de servicios, y tienen documentación. Al igual que, están creando mucha documentación de YouTube
para que la gente esté familiarizada con su nube en la nube, ya
sabes, mejoras también. Y entonces tienes a
Google Cloud aquí. Google Cloud también se está
haciendo famoso, y también están, ya sabes,
consiguiendo más clientes. En general, quien esté en contra de
Microsoft Office, ¿verdad? Van por el sistema Google EnSit como Google Sheets y Google
Word y todo lo demás. Entonces con su producto, también
están tratando de
vender a esos clientes, el Google Cloud, también. Entonces mi último proyecto, teníamos Google
Sheet de Google y todo. Estamos en contra de Microsoft Office. Um, entonces lo que Google hizo eso es como cuando queríamos
modernizar nuestro entorno, así que fuimos con Google, en lugar de Microsoft
Azore o Amazon AWS, porque ya teníamos
un buen contrato con Google porque estábamos
usando su sistema n suit Y en realidad han dado mucho descuento
porque estamos, ya
sabes, no cambiando a Azore o AWS. Estamos
cambiando a ellos. Entonces ese fue un verdadero buen trato que tomamos para el cliente. Y Google es ahora los proyectos
anteriores, ya
sabes, proveedor de ID completo
para Google Cloud. Entonces, del mismo modo, si tienes vínculos
existentes con el proveedor existente, entonces hay una buena
posibilidad de que te
den un buen descuento
o una buena ganga en su propia nube lugar de cambiar a
un nuevo proveedor de nube. Ahora, recuerden
que esto es 20221. Aquí era el mercado 203000000000. Ahora, 2024, va
a ser mucho más grande. Voy a tratar de conseguirte más tarde
punto de tiempo, ya sabes, algunas estadísticas relacionadas con 2024, cómo se ve un punto de tiempo
posterior. Pero entonces, ya sabes, esto es algo que
no cambia
tanto en cuanto a la ocupación, por lo que aún AWS sigue siendo
el líder en términos de prestación de servicios en
la nube. Perdón por el ruido de
fondo, si puedes escuchar algo
algo que no puedo controlar. Nuevamente, esto es lo que
quería decirte en este video para
mostrarte que
hay diferentes
proveedores de nube por ahí, pero elegimos AWS
porque AWS es uno de los líderes incluso ahora
en 2024 también. Gracias de nuevo por
este tiempo y paciencia. Si tienes alguna duda,
déjala en la sección de preguntas. Te veré en el siguiente video. Chicos, bienvenidos de nuevo
al siguiente video. En este video, vamos
a hablar de regiones y AZ. Entonces primero nos
concentraremos en las regiones, y luego iremos
a las zonas T disponibles. Bien, porque esos están
relacionados entre sí. Ahora, antes de seguir adelante y
entender sobre las regiones, y puedes simplemente hablar de
un escenario en tiempo real aquí, lo cual es mucho, mucho útil para que entiendas
sobre ese concepto. Ahora, comencemos con
nuestra propia compañía. Entonces digamos que
tenemos una compañía nuestra. Y lo que hacemos es que
hacemos negocios de comercio electrónico. Y tengo mis clientes en
todo el Reino Unido. Así que mi producto se
vende en todo el Reino Unido
, principalmente Londres y Manchester Digamos, por
ejemplo, estas son dos ubicaciones de donde obtengo la
mayoría de mis clientes. Ahora, tengo una oficina en
Londres por ejemplo, y tengo mi
centro de datos en el propio Londres. Ahora bien, hubo, como, la tormenta
severa en Londres, y tengo este corte de energía, y ha sido como, ya sabes,
desde hace un par de horas,
más de cuatro o 5 horas, mi respaldo incluso se acabó Así que el sitio web de mi empresa
se cerró
por completo y ningún usuario
de Manchester o, ya
sabes, de Escocia
o de Irlanda. No pueden
acceder a mi sitio web por sí mismo. Entonces, en todo el mundo, mi sitio web está completamente caído porque el servicio
que en realidad
alojaba en mi centro de datos se
ha quedado sin energía. Entonces lo entiendes, ¿verdad? Entonces ahora, después de que vuelva el
poder, me conecto con mis administradores, y trato de entender cuál fue la razón por la que mi sitio web no
estaba disponible Y la razón estaba bastante clara
como a la luz del día, ¿verdad? Porque la energía no
estaba ahí y la energía de respaldo incluso
se agotó. Tuve este problema. Hay dos soluciones, sí, para ser muy específicas, ¿verdad? Entonces una es, como, puedo
agregar más poderes de respaldo, y eso me va a costar mucho. Pero eso es solo
redundancia, ¿verdad? Que si
no hay problema de energía, ocurre
algún hack
o algún tipo de infiltrador
entra en mi empresa y luego apaga mi servidor, entonces ese Entonces el poder agregar más potencia no me da una solución
real. Entonces lo que decido es que voy a crear otra zona
en Manchester, que es, ya sabes, mi segundo lugar allá porque mi enorme base de
clientes está ahí. Entonces creo otra
zona ahí que ambos servidores puedan para
que ambos servidores puedan
comunicarse entre
sí y trabajar en un mecanismo de equilibrio de carga
y que, ya sabes, en una
secuencia de desastres en Londres, habrá servicios
alojados en Manchester, que en realidad pueden hacerse
cargo de mi sitio web, por lo que no estará abajo permanentemente. Entonces entiendes eso, ¿verdad? Entonces este es el ejemplo
que quiero centrarme en el concepto de AWS por aquí. Ahora, las regiones, nada más que las
ubicaciones físicas reales en todo el mundo, y las zonas de disponibilidad o las zonas son los centros de datos en eso, ya
sabes, en esa ubicación
en la ubicación física Por ejemplo, tomemos a EU
East como ejemplo. Entonces hay una región
llamada EU East. Acabo de poner esto
a través de ustedes. Entonces estas son regiones, sí. Entonces EU East es básicamente
Virginia del Norte, Estados Unidos. UEST es básicamente Irlanda. AP Sureste, uno es Singapur. Entonces, de igual manera, cada
región tiene un nombre un nombre que es decidido
por AWS al tener algo así como, ya
sabes, el
nombre del continente y luego qué lado está en
el lado oeste o
lado este o lado central o lado
sureste como Pie. Entonces ellos deciden eso,
y luego dan uno, dos, como en regiones. Entonces pueden si una región en particular tiene
múltiples regiones en ella, entonces será como
una, dos, así. Pero hasta ahora, ha sido una de las
que he visto hasta ahora. Entonces pero dentro de la región, tendrás AZ Ahora bien, estos son los centros de datos. Entonces, ¿la región es un centro de datos
o AZ un centro de datos? Los AZ son los centros de datos. Las AZ se denominan básicamente
como zona AvailaBT, lo que significa que
son un Ahora, el grupo más grande de centros de datos está disponible en
EU East porque mucha gente aloja su aplicación
en EU East porque mucha gente está realmente en esta
zona en esta Nueva York, ya
sabes, eso es Chicago, todas esas cosas
entran en esta zona en particular. Entonces esa es la razón por la que tienen seis AZ lo que significa
seis centros de datos Ahora, puedes ir al sitio web de
Amazon y
en realidad puedes echar un vistazo a esto. Entonces vas y dices AWS y
puedes decir, como regiones. Y en realidad obtendrá
la lista de regiones de AWS que va a tener
aquí , puede ver la
infraestructura global por allí, y podrá
ver la lista de regiones en las AZ que
es parte del mundo Al igual que, se puede ver que
ellos mismos han dividido esto en Norteamérica, Sudamérica, Europa,
Oriente así. También puedes obtener
toda la visión del mundo también. No estoy seguro de dónde, pero se supone que debe estar
aquí en alguna parte, sí. Entonces, cuando solo haces clic en eso, en realidad
puedes ver eso Regiones
enteras por aquí. Entonces tienes 34 regiones las cuales tienen múltiples zonas de
disponibilidad, que es tu centro de datos. Y luego CloudFront,
hablaremos esto completamente en una sesión
diferente Entonces lo han dividido
en múltiples regiones, como se puede ver por aquí, y cada una es, como, esto es Norteamérica, esto es Sudamérica, y
esto es Europa. Y entonces esta es Asia. Entonces, de igual manera, han
dividido esta región. Y, ya sabes, cada ubicación tiene una o
más regiones por aquí. Para que puedas ver la fecha en
que se ha lanzado. Al igual que, se lanzó en 2009. Para que veas que
hay uno en Irlanda. Que se lanza en 2007, y tú uno en la región de
Londres. Y cuenta con tres zonas de
disponibilidad. Eso significa que
hay tres centros de datos. Ahora bien, no hay mucho detalle al
respecto, como, dónde está exactamente la ubicación de estas zonas de disponibilidad que
se guarda con el propio ABS, pero luego te dicen
cuántas zonas de disponibilidad hay, para que tus datos se repliquen o crucen zona de
multidisponibilidad Entonces, si hay un
desastre o una AZ, eso no afectará a
otra AZ porque está separada de con
una distancia, ¿bien? Entonces el desastre no
sucedería en todas partes. Entonces esa es la razón de ello. Entonces están estos
colores rojos que dice, como, ya sabes,
próximamente como en esas regiones. Entonces puedo ver que las principales
ciudades tienen una región a ella, y cada región
tendrá al menos dos zona de
disponibilidad He visto dos
zonas de disponibilidad en la mayoría de las regiones. Entonces esto es más o menos lo
que quería decirte
en este video. Y esto es más o menos lo que es la región y
la zona de disponibilidad. Espero que también entendieras el ejemplo del mundo real. No vamos a entrar en
tantos detalles sobre esto en este momento
porque
apenas estamos empezando las cosas. Entonces ahora mismo, solo
quiero que tengan una visión muy amplia sobre qué
son las regiones, qué son las AC. Eso es todo lo que se necesita ahora mismo. Gracias de nuevo
por su paciencia y tiempo.
Te veré en la siguiente. Oigan, chicos, bienvenidos de nuevo
al siguiente video. En este video,
vamos a
entender rápidamente sobre los servicios. Ahora bien, estas son algunas de las cosas
importantes en AWS, que es algo que
aprenderás. Y cada uno de estos
servicios tiene diferente, ya
sabes, significado
para ello y así
como diferentes
razones por las que existe. Ahora,
hablemos de servicios en un todo en un ejemplo del mundo
real, y luego compararemos
esto con los servicios reales. Ahora, por ejemplo, si
hablas de servicios, como, por ejemplo, en
tu teléfono móvil, entonces tu móvil tiene cámara. Tu teléfono móvil tiene Bluetooth. Tu celular tiene el
teléfono el propósito de llamada, derecho, el GSM o CDMA Entonces esa es toda la razón
del teléfono móvil, ¿verdad? Tiene tiene
puede reproducir videos. Puedo tocar audios. Pero, ¿cómo puedes
acceder a esas funciones? Si quieres cámara en mi teléfono, como cámara trasera o
amiga, ¿cómo trabajas con ella? ¿Qué opinas al respecto, y luego se
abre? No, ¿no? Entonces tienes solicitudes para
cada una de esas, ¿no? Entonces tienes aplicación
para cámara. Tienes aplicación para teléfono, que en realidad va y
marca y luego usa el CDMA o lo que sea la
tecnología GSM que Tienes app para habilitar
Bluetooth, ¿verdad? Ahí es cuando se conecta
a algo, ¿verdad? Entonces estas son aplicaciones para fines
específicos, ¿no es así? Lo mismo en AWS
son estos servicios. Ahora bien, si ves una evolución de
teléfono móvil, la cámara, el teléfono, los videos, no todo
llegó en una sola vez, ¿verdad? Si vas diez años atrás, estarías usando un teléfono flip, que se utilizará principalmente para, ya
sabes, conectarse
con otra persona través de una llamada telefónica, ¿verdad Pero nada más se puede
hacer con un teléfono móvil. Pero luego los complementos, ¿verdad? Estos son algo así como
complementos que siguen llegando. Obtienes una nueva versión de cámara, obtienes más cosas de mega píxeles. Entonces como en cuando hay un
nuevo avanzado en tecnología, que tienes eso
agregado con
el tiempo, lo mismo con los
servicios también. Por lo tanto, verá que más servicios se
agregan a lo largo del
tiempo en AWS. AWS se le ocurrieron, como, 100 servicios antes. Ahora cuenta con más de
400 a 500 servicios, los cuales se utilizan por
múltiples razones. Y estos son servicios que
se agregan a lo largo del tiempo. Y entonces, como que ves estos
muchos servicios apareciendo. Y estos servicios tienen diferente razón de su existencia. Aunque es posible que no cubramos todos
los servicios, ya
sabes, el patrimonio de AW. Entonces estaremos tocando base
sobre algunos de los servicios, mirándolos en
muchísima visión general de SOT. Entenderemos la mayoría de
los servicios por su nombre, entenderemos cuál es
su propósito. Y lo intentaremos Voy a tratar darte algunos
ejemplos del mundo real para que
realmente puedas asociar el nombre de los servicios y lo
que realmente realizan en un escenario en tiempo real
para que puedas responder esas preguntas
cada vez que esa pregunta aparezca en tu examen. Ahora bien, recuerden que para
nuestro examen, Uh,
eso solo, decía en este documento mismo, como se puede ver en
el Apéndice A, entonces dice tecnología
y conceptos. Estas son tecnologías y conceptos que aparecen
en tu examen. Entonces estos son algunos de
ellos son servicios. La mayoría de ellos son
servicios, en realidad. Para que veas que las
regiones y AZ que acabamos, ya
sabes, hicimos la
visión general hace algún tiempo Y está esta
migración de Cloud, y tienes servicios de red. Tienes tantos
servicios por aquí, lo cual va a ser parte
de tu examen. Entonces es necesario conocer
las diferencias entre estos servicios y
lo que realmente hacen. Eso es todo lo que requieren
en este momento
porque se trata de una certificación a
nivel fundamental No quieren que conozcas
los detalles ni cómo
operarlos o, ya
sabes, algunas cosas avanzadas. No quieren que
sepas que quieren que conozcas algunas de las
cosas básicas al respecto, para que sean como, Bien, esta persona está familiarizada
con estos servicios, así que voy a, como,
ha elegido la respuesta correcta. Entonces no va a ser complicado. He visto preguntas
para curso profesional, nivel
asociado,
y cursos de nivel
especialista, ¿sabes? Esas preguntas son
muy complicadas, pero no es tanto por aquí. Así que en realidad no
tienes que preocuparte por ello. Voy a cubrir todas
estas cosas para ti. Te voy a dar ejemplos del mundo
real para que puedas entender
esto mucho mejor. ¿Bien? Entonces estos son algunos servicios que utilizan
para diferentes fines. Por ejemplo,
tomemos 23 servicios y tratemos de entender la
relevancia de ese servicio. EC de dos instancias, se llama Elastic Cloud compute. EC dos. Por qué dice dos por aquí
Porque hay dos Cs, computación de Elastic Cloud. Entonces por eso lo
llaman EC dos. Entonces, ¿qué es la computación de Elastic
Cloud? Va a dar a
la elasticidad dos inducir potencia de cómputo
siempre que la necesites. Entonces ahí es donde
se van a crear tus servidores , ¿de acuerdo? Entonces esa es tu razón
para estar en AWS, ¿de acuerdo? Ese es el primer
servicio, que es, como, que es la única
razón por la que deberías estar en AWS porque te brinda
infraestructura como servicio. Aquí es donde puedes
poblar servidores. Entonces tienes el encargado de costos. El encargado de costos, como
su nombre lo explica, te
informa sobre el costo. Y también
habla de lo que se ha facturado hasta el momento y cuál es
su predicción de facturación Entonces, si vas
a usar esto o consumir este espacio, ¿verdad? Esta es la cantidad de tiempo, va a ser. Eso es
predicción, ¿verdad? Entonces todo empieza. Facturación. ¿Qué hace la facturación? El nombre dice que ahí es donde
pagas la factura mensual, lo que sea que tengas, ya sabes, incurrido como costo con AWS. ¿Qué es el balanceador de carga elástico? balanceador de carga elástico
le brinda la capacidad de
equilibrio de carga para su aplicación, que está alojada en
AWS. Tan simple como eso. ¿Verdad? Entonces muchos servicios aquí tiene el razonamiento
en su propio nombre. Así que de nuevo, este video
es solo un abridor de ojos. No vamos a discutir
sobre ninguno de los servicios, así que realmente no tienes
que tener ese dolor o gastos generales que Oh, vamos a discutir
sobre este servicio ahora. Sólo vamos a, ya sabes, seguir
adelante y casualmente
mirar estas cosas y ver, ya
sabes, qué otros
servicios disponibles Así que sólo voy a
mostrarte eso por ahí. Tan fácil también, cuando vas
a la página principal, bien, verás muchos
artículos aquí, lo que es, como, venir de
manera modular, ¿bien? Entonces está este
servicio de costos que viene por aquí, que me dice cuál es mi pronóstico o predicción
de esta factura mensual, qué va a ser
al final del mes. Y también me dice, como, cuál es el costo actual, que tengo que pagar
en este momento. Entonces, si elimino todos mis servicios, esta sería la
cantidad que tengo que pagar. Bien. Entonces ahora, también me habla de algunos asesores de confianza, algunos artículos por aquí. Todo esto viene de
un servicio en otro. Bien. Entonces no queremos conocer algunos detalles por
aquí en este momento. También puedes agregar más widgets. También puede obtener datos de diferentes servicios. Entonces esas cosas
también están disponibles. Este es tu tablero, ¿de acuerdo? Esto es lo que
verá cuando, um, cree una cuenta gratuita
e inicie sesión en AWS. Así que no te preocupes por
la cuenta gratuita, así que
te voy a decir cómo crear tu cuenta gratuita e iniciar sesión. Y me aseguraré de que no
te cobren por, ya
sabes, todas estas
cosas a menos que y hasta que hagas
algo por ti mismo Pero te voy a dar
todos esos preparativos para que
no te facturen y
estés en el
límite de utilización libre Pero entonces recuerda que hay algunos artículos
que vamos a hacer, que pueden incurrir en alguna factura, pero en realidad puedes
verlo en lugar de
hacerlo por ti mismo Entonces eso es algo que te
voy a decir. Ahora bien,
¿qué son los servicios? Ahora bien, estos son los servicios. Se puede ver
que hay tantos servicios ahí. Estas son solo la
apertura de la misma. Cada uno bajo esto
tendrá múltiples servicios. Si simplemente da clic
en todos los servicios por aquí para que pueda ver el número de servicios que
tiene aquí. Ya ves eso. Hay tantos
servicios que AWS utiliza directamente. Y también hay servicios
indirectos, ¿de acuerdo? Entonces que es como, que no se muestra porque es indirecto y se usa
dentro del servicio. Por lo que también hay servicios
indirectos, que es muy avanzado,
así que no te preocupes por ello. Entonces, lo que puedes hacer aquí es como, estos son algo de ayuda, en realidad, que se da desde AWS para resolver rápidamente
las cosas por ti. Entonces si estás aquí para cómputos, entonces ahí va a ECT. Pero si solo haces clic en él, estas son algunas de las opciones o
los servicios que se encuentran en
cómputos, ¿bien? Entonces, de igual manera, desarrollo web
front-end, si estás buscando eso, estos son los servicios que se encuentran bajo él. Entonces estos son catálogos, puede decir, B qué
servicios son aglutinantes en él. ¿Bien? Por lo que puede haber múltiples servicios que está
relacionado con este catálogo. Por lo que en realidad puedes seleccionar
el catálogo y ver lo que realmente
hay dentro de
este como servicios, los cuales pueden estar relacionados con
este catálogo en particular. Bien. Entonces, este es el explorador de servicios que te
va a mostrar el
catálogo y los servicios, y esta es la forma más fácil
de obtener cualquier servicio. Por ejemplo, quieres levantar
un ticket de servicio con AWS. Solo di servicio o ticket
o algo así, y va a ir al servicio, ya
sabes, al soporte del
gerente de incidentes. Se puede ver que
prácticamente estos son servicios que llegan a través
cuando escribes boletos. Entonces, de igual manera, se
quiere guardar algo de almacenamiento. Así que simplemente escribe
almacenamiento por aquí, y no puede obtener
todos los servicios que están relacionados con el almacenamiento, que se usa con frecuencia. Entonces, si me preguntas, Oh, bien,
¿y qué pasa con otros servicios
de almacenamiento? Simplemente puedes hacer click en Mostrar
más y en realidad puedes ver todos los servicios de almacenamiento aquí porque solo te muestra, ya sabes,
los más usados cuando escribes almacenamiento. Si estás buscando una
base de datos por aquí, entonces solo escribe database, y primero
obtendrás los servicios
que están relacionados con la
base de datos. Y luego las características que es, ya
sabes, parte de los servicios. Las características aseguran que sea como un
catálogo de servicios. Entonces estas son las cosas
que puedes hacer con un servicio. Bien. Entonces ese es el uno y luego tienes recursos
donde
realmente puedes abrir recursos y leer sobre ellos y
entender sobre ellos. Tienes documentación la cual
puedes hacer lo mismo. Y tienes artículos de conocimiento a los que la gente hace preguntas
sobre un servicio específico, ya
sabes,
y cómo hacerlo. Y luego habrá
gente respondiendo a ello, y verás que el
representante de Amazon también lo responderá
. Y luego tienes marketplace por aquí donde realmente
puedes ver las personas de terceros que vienen
de tu puedes ver eso. Esto es de datos, datos Sunrise,
ya sabes, tecnología. Entonces esta es una empresa que
vende este tipo de solución. Así que también puedes ver el
mercado. También verá soluciones
orientadas a Oracle. Entonces, cuando solo
buscan el mercado, mucha gente vende cosas para ustedes, bueno,
para trabajar con ello. Tienes entrada de blog, por supuesto, donde la gente escribe blogs
sobre su experiencia mientras trabaja con ese servicio
en
particular o migración de bases de datos en particular
o algo así. Y luego tienes eventos. Los eventos son muy importantes porque a veces
el servicio
estará en mantenimiento
porque hay algunas personas haciendo algún
trabajo alrededor de eso. Entonces esos van a subir, aparecen por aquí para eventos, y luego tienes tutoriales. Los tutoriales son lo mejor. Entonces es como
una documentación, pero va paso a paso hacia el
logro de un objetivo específico. Entonces, por ejemplo, crear y administrar bases de
datos no relacionales por aquí Cómo hacer eso, tiene un paso paso cómo trabajar con eso. Entonces, de igual manera, la búsqueda está llena de mucha información
útil. Es solo que
tienes que pensar todas estas opciones disponibles para ti cuando estás en la
consola. Las opciones están ahí. Sólo hay que pensarlo. ¿Por qué opción debo optar? ¿Bien? Ahora, tienes este
servicio de consola a domicilio por aquí, así que también puedes agregar
elementos como marcarlos por aquí para que puedas agregar
este servicio EC two. Eso lo he hecho porque
albergo muchos
entrenamientos para eso Entonces tengo ciertos servicios
corriendo por aquí, lo cual no es
necesariamente para ti. Estaría ahí.
Sería una limpia para ustedes. Pero luego hago algo a propósito
de entrenamiento, así que consigo todas estas cosas. Entonces mayormente, estoy en la región por aquí,
así que esta es la región Entonces EU East North Virginia. Ahora, actualmente estoy
ubicado en el Reino Unido, pero ¿por qué seleccionaría
algo como North Virginia, que está, como, un poco
lejos de mí, no? Porque es la región más barata donde puedo alojar el servicio por, como, realmente menos precio en
comparación con, ya sabes, alojarlo en Londres,
porque Londres, como
sabes, es como, ya sabes, el Reino Unido es como una isla, y el
espacio del centro de datos es muy menor. Entonces el costo
es mayor para mí. Entonces por eso elijo Virginia
del Norte. Entonces, hay
cosas estratégicas que realmente
puedes usar aquí Eso es lo que
vamos a discutir mientras vamos más allá
en este programa, así
como también en los
programas futuros. Entonces voy a compartir con ustedes cómo vamos a hacer el recorte de costos, cómo vamos a ahorrar dinero también cuando empecemos a alojar
máquinas como esta. Al igual que estos son como,
instancias más grandes de m5x large. Entonces, ¿cómo vamos
a ahorrar dinero en eso esas cosas también
voy a discutir Entonces esto no es sólo
uno de entrenamiento, y entonces no
te dejaré nada de eso. Entonces estas capacitaciones
van a ser seguidas mi
capacitación más adicional porque tengo la experiencia de trabajar
con múltiples clientes, y conozco la forma en
que trabajan con la gente de atención al cliente
de AW Azore también Entonces te voy a contar y
compartirte todas esas cosas interesantes y que sea muy interesante
para ti en el futuro. Gracias de nuevo por
su tiempo y paciencia. Te veré en el siguiente video. Yo chicos volveremos
al siguiente video. En este video,
vamos a identificar opciones de soporte de
AWS
para el cliente de AWS. Entonces vamos a hablar de
múltiples opciones por aquí o múltiples servicios.
Perdón por eso. Entonces vas a hablar de múltiples
servicios por aquí, que es hacia la opción de
atención al cliente de AWS. Así que ahora vamos a continuar con
nuestra presentación por aquí. Por lo tanto, la opción de soporte de AWS viene con servicio
al cliente
y comunidades. Ahora, aquí en el
servicio al cliente y comunidades, por lo que hablamos de brindar soporte
básico para
todos sus clientes de AWS. No importa si
eres un cliente pagado o no. Te brinda cuentas, asistencia
de facturación. Le proporciona acceso
a foros de la comunidad de AWS, recursos como repost de AWS
para soporte basado en la comunidad Ahora es adecuado para preguntas relacionadas con la
cuenta y conectarse con
otros usuarios de AWS para, ya
sabe, orientación general. El siguiente es sobre
el soporte al desarrollador. El soporte para desarrolladores de aquí, la opción de soporte
va a ser sobre, ya
sabes, soporte técnico para desarrolladores que construyen en AWS. Por lo tanto, también ofrece orientación
sobre las mejores prácticas, problemas y el
uso de los servicios de AWS. Incluye soporte
en contacto primario. Lo sentimos, incluye para
un contacto principal, lo que significa que
ese contacto principal puede plantear preguntas de soporte. Aquí vamos a acceder a Trusted Advisor como recomendación de mejores
prácticas, cual es limitada, no completamente disponible
para un usuario de desarrollo. Ahora bien, en cuanto al siguiente, que está por aquí, lo
siento, me
distrajo una llamada Entonces el siguiente es sobre
el soporte empresarial. En cuanto al
soporte empresarial, es uno pagado. Nuevamente, al igual
que Developer, también se paga. Pero el común el
básico de aquí, que es el
servicio al cliente y la comunidad, eso está abierto para todos. No hace falta que pagues nada. Por lo que actualmente, estoy en ese plan de apoyo, el plan
básico de apoyo. Entonces, si eres desarrollador,
puedes estar en ese, y luego si eres
un usuario de negocios, puedes optar por el soporte
empresarial. Ahora, el soporte empresarial le ayuda al soporte
técnico para negocios se ejecutan en un
entorno de producción. Al igual que si tienes cargas de trabajo de
producción, puedes estar en soporte empresarial Ahora, le brinda acceso
24 bar siete a ingenieros de soporte en la nube
para problemas técnicos. Esto es directamente de AWS. Le brinda
acceso completo a AWS Trust Advisor y al panel de control de
salud personal. También es compatible con
múltiples contactos múltiples, y también puede usarlo en una
guía específica de caso de uso también. Por lo tanto, el soporte de negocios
se utiliza para o es adecuado para empresas que requieren soporte las 24 horas
del día para la aplicación de
producción. Pero si estás planeando
eso,
en realidad puedes correr con
el soporte de AW. No es posible porque el soporte es
limitado por aquí, pesar de que es 24 bar siete, pero el tiempo de respuesta es enorme Entonces hablaremos de la
arquitectura en el siguiente video. También entenderás el tiempo
de respuesta. Así que aquí, el siguiente es el soporte de AWS Enterprise
on RAMP. Por lo tanto, esto le brinda
la orientación proactiva , soporte
técnico y revisiones
operativas. Viene en 24 bar
siete acceso a ingenieros de soporte
en la nube
para un tiempo de respuesta rápido. También ayuda a la empresa
, también ayuda a la empresa a optimizar el funcionamiento de la
nube y también
administra la
carga de trabajo crítica del negocio. Entonces el último es el soporte empresarial,
el soporte completo. Por lo que esto significa que cuenta con un soporte
integral para grandes empresas con cargas de trabajo de
misión crítica Por lo que también cuenta con un personal DAM dedicado o TAM como técnico o co-gerente
para soporte personalizado. También monitoreo proactivo, orientación
arquitectónica y recomendación
de optimización. También viene con
24 autobuses siete acceso
a ingenieros senior de Cloud. Por lo tanto, viene con ingenieros
senior en la nube y un tiempo de respuesta más rápido. Nuevamente, hablaremos sobre el tiempo de
respuesta en el siguiente video. Por lo tanto, casos de uso para la organización
que está profundamente metida en AWS y que necesita compromiso
técnico y alta disponibilidad para aplicaciones críticas para el
negocio. Entonces, esta es la
opción de soporte que atiende diferentes
clientes comerciales para, ya sabes, servicio
básico al cliente y
soporte comunitario para asistencia
integral a nivel empresarial para cargas de trabajo de misión crítica Entonces más o menos esto es lo que queremos
cubrir en este video. Gracias de nuevo.
Te veré en el siguiente video. Oigan, chicos, bienvenidos de nuevo
al siguiente video. En este video, vamos
a hablar de plan de apoyo. Ahora bien,
en realidad debes no estar al tanto
del plan de apoyo en este
momento porque
nunca te has cruzado en un camino por aquí. Por defecto, todos
llegan al básico. Entonces tienes que actualizar a,
um, desarrollar una empresa de
negocios. Ahora bien, estos son como tres cargos diferentes
como 29 por mes, 100 por mes y 15,000 por mes. ¿Qué es el plan de soporte? El plan de soporte es donde
obtiene soporte de AWS. Ahora, AWS tiene, como, planes
diferentes, lo que significa que
eres soporte
también estará en una
situación diferente en este momento. Entonces, si quieres optar por un plan de desarrollador
con $29 por mes, obtendrás un sistema de soporte de orientación general con
soporte deteriorado que está dentro de
las 12 horas, las 24 horas Entonces ese es el predeterminado
. Y luego si vas por
un plan de negocios, vas a tener un
sistema de producción deteriorado, lo que es como dentro de 4 horas, obtendrás una respuesta y un sistema de
producción caído, que es como una respuesta de 1 hora. Dentro de una hora, obtendrás
una respuesta de 100 por mes. Cuando vas por negocios
relacionados, ya sabes, plan de
soporte, solo
pagando 15 mil por mes, lo cual es muy caro. Y obtendrá un soporte
crítico de tiempo de inactividad en 15 minutos. Y también incluye
otras cosas también. Entonces ese es el punto total de tener esta explicación
de esta manera. Ahora bien, ¿qué otras cosas
vas a conseguir? No mucho para desarrolladores. Los desarrolladores se quedan
solos en el agua porque el
soporte general en sí es, como, más que suficiente. Y cuando opta por un negocio, obtendrá
orientación contextual basada en el caso de uso en términos de cómo puede
mejorarse en AWS. Y luego un equipo TAM. TAM es como si estuviera el
gerente técnico de cuentas. Entonces, ¿quién te puede ayudar
a guiarte para obtener tus servicios
y ayudarte? Entonces ahí hay un equipo
para ustedes. Bien, el
equipo directivo estará ahí. Bien. Así que aquí, en términos
de soporte empresarial, página de
acceso para el
autoaprendizaje en línea. Por lo que hay una sesión de capacitación también como parte de este soporte
empresarial, el paquete de 15,000 viene con sesiones
de laboratorio y capacitaciones a su propio ritmo Y entonces vas
a tener un
equipo especializado, ya
sabes, de apoyo para ti, ¿de acuerdo? Para que ese equipo de soporte
te ayude hacia todas tus
consultas y esas cosas. Y luego obtendrá
una revisión consultiva y orientación basada en su
aplicación y solución. Entonces aquí, contextual. Entonces aquí hay una revisión
consultiva. Por lo que revisarán
tu infraestructura. Te guiarán
qué es lo mejor, qué servicios puedes hacer y
cuánto puedes ahorrar dinero, todas esas cosas,
ellos te pueden guiar. Obtendrá un gerente de TAM
dedicado. Por lo que obtendrás un gestor técnico de
cuentas solo para tu cuenta y esa persona se
dedicará a tu cuenta. Entonces eso es algo. Así que en realidad les pagas
por un enfoque mucho más agradable, ya
sabes,
hacia tu apoyo Así que en realidad te estarán
dando entrenamiento. En realidad te estarán
dando equipo de soporte, y también tendrán un
gerente de cuenta técnico que se dedica, tendrás su número de celular en caso de cualquier tipo de problema. Entonces de igual manera, si
quieres unirte a esto, puedes ir por apoyo. Soporte AW. Creo que no
creo que ese sea el indicado. Um, sí, así que el
plan de apoyo por aquí. Actualmente se encuentra en básico. Entonces, si apoyas planes, puedes verlo por aquí. El plan básico de soporte es no
tener mucha característica
ni muchas características, así que tienes los otros
planes por aquí. El básico ni siquiera
viene en esto, ¿de acuerdo? Entonces ya no ves básico. Tienes
negocio desarrollador, negocio en rampa y empresa. Entonces todas esas cosas, lo
que te dije está por aquí. Así que el desarrollador tiene más o menos
dos, tres elementos por aquí, y luego excepto eso,
todo lo demás es como principalmente la solución empresarial. Entonces aquí tienes
la página de soporte. Entonces aquí es donde realmente
estarás planteando casos con AWS. Pero como básico, así que tienes muy menos
disponibilidad en hacia ti he elevado el límite del
aumento de cuota por aquí, así que esa es la razón por la tengo dos
tickets de soporte por aquí. Pero estos son como boletos generales
normales que podemos abrir, ¿de acuerdo? Entonces eso es algo
que podemos hacer. Bien, eso es todo lo que tengo que
contarte sobre el soporte, para que veas
que el plan
básico de subo incluye todo incluido para todos los clientes de soporte de
AD Entonces eso básicamente significa
que puedes levantar boletos, pero luego obtendrás una respuesta
cuando obtengas una respuesta, como 24 horas en su mayoría. Gracias de nuevo
por su paciencia y tiempo. Te veré
en el siguiente video.
4. Introducción a AWS Labs: Oigan, chicos, bienvenidos de nuevo
al siguiente video. En esta sección,
vamos a hablar de un nuevo, ya
sabes, nuevo
artículo llamado AWS. Ahora, voy a darte dos
opciones por aquí para ti. Puedes usar Cloud based, qué estás viendo ahora mismo. Para este ejemplo,
tomaremos AWS y crearemos tus instancias en AWS y haremos que estas instancias
se ejecuten en la nube. Ahora bien, recuerde
que esto le va a estar costando
un poco más, lo que necesita para pagarlo
en los servicios en la nube por AWS. Entonces eso es una cosa. Lo segundo es que te
voy a dar
una computadora portátil basada, ya
sabes, la tuya propia construyendo
tu propia misión de bosón
usando artículos gratuitos Entonces esa también es otra opción. Pero recuerda que
tu laptop necesita
tener al menos 12 GB de
memoria para empezar. Ocho GB, sí,
se puede hacer con eso, pero aún así le cuesta un poco. Por lo que siempre se recomienda 12 GB. Pero no tienes
esa configuración, y tienes algo de
dinero de sobra. Al igual que, por ejemplo, puedes ahorrar 50 y cien
dólares en base a, ya
sabes, tu uso, ¿verdad? Entonces en realidad puedes ir
por E W. Así que te estaré diciendo
lo caro que va a ser
más tarde en el punto del tiempo, pero está por ahí, ya sabes, vamos a tratar de
que sea un mínimo Intentaremos hacerlo por debajo de los
$50 como gasto para ti. Entonces haremos el
cálculo del precio más adelante, y depende los requisitos que
vas a tener. Uh, recuerde que
hay tres formas diferentes de usar el servicio AWS uberni Puedes optar por una
gestionada o no gestionada, pero esta formación
quiere que estés enfocada en gestionada Um, quiero decir, no en gestionado. Quiero que sea como, ya
sabes, necesitas configurar
todo. Entonces deberías optar por algo así
como un artículo autogestionado. Entonces lo que significa que necesitas administrar las
instancias tú mismo. Entonces estaremos creando
EC dos instancias. lugar de las
instancias administradas, como en, como, administradas en el sentido de que propia
AWS administra la instancia, lo que significa que puede optar por ECS o EKS en ese escenario Pero para este propósito de capacitación, vas a ir por infraestructura
autogestionada usando EC two instance para que realmente
puedas aprender sobre las operaciones de
uberniti Entonces no se
trata sólo de Kubernetes, estaremos trabajando en Entonces nuestro entrenamiento será, quiero
decir, comenzando desde Docker, así que partiremos
desde Docker desde aquí y luego poco a poco
construyendo para Así que recuerda
que este entrenamiento estará
comenzando desde Docker Y así es como puedes construir
fácilmente el servidor
para Docker y luego hacer todas tus manos y luego agregar
otro servidor y luego hacer
esta parte de Kubernetes Para que puedas dividir esta sesión
en dos sesiones, primero, pocos videos para
configurar tu maestro básico, que puedes usar tu
instalación de Docker y demás. Y luego más adelante punto del tiempo, puedes agregar otra instancia de
EC two, y luego puedes integrar la nota de trabajador para tus uberts
o nota de trabajador para
tu pantano Doc Entonces ambas integración es posible,
establecido punto de tiempo. Entonces te haré saber
que, ya sabes, en los videos en sí, que
puedes iniciar el
programa Docu ahora mismo, y luego puedes
iniciar el programa uberts, que
puedas
regresar y volver a visitar
esto y luego
tomarlo para uber itis Pero si voy
a dividir esto,
tengo que crear dos sesiones
distintas, así que no quiero
hacer eso
porque solo crea más confusión. Así que recuerda que
esto es add on, así que esto no está diseñado
originalmente, pero luego luego voy a agregar esto encima de un programa
existente, que ya se está ejecutando con, sabes, tu laptop
o servidor gratuito porque mucha gente está
solicitando servicios en AWS. Entonces solo estoy tratando de agregar esto encima del programa
existente. Recuerda que esto es
AWS viene con una llanta gratis, pero es un poco inútil para, ya
sabes, para nuestra sesión. Ahora, déjame explicarte por qué la llanta gratis viene con, como, algunas cosas utilizables gratis, que están disponibles
por 12 meses gratis. Entonces debes estar
emocionado de hacer esto. Pero el sonido 50 horas, que son 12 meses, en realidad. Se da solo para dos de
los EC dos, um, ya sabes, máquinas o cómputos, que es tu T dos micro
y T tres micro. Así que recuerda que
los Gubernats viene con una recomendación predeterminada de
que necesitas
tener dos CPU y dos GB de ram por nodo con un espacio libre en disco de 20
GB Entonces diskpace no es
gran cosa en este momento, pero pero los dos CP y dos GB es un
problema para nosotros porque cuando miras el
sonido horas libres gratis, verás cuando entres
dentro de los precios y
etiquetas de AWS y tipo instantáneo, verás que T three
Micro viene con dos CPU virtuales
y un GB de RAM Y si vas T dos
microseri, viene con uno. Mostraremos CPU y
un GB de RAM. Entonces, ¿cuál es una especie de
pepinillo, no? Entonces, en realidad no puedes
ir con nada de esto. Entonces yo
recomendaría un medio T dos, que tiene cuatro GB de
RAM y dos CPUs Eso se ajusta perfectamente
a nuestro requisito. Pero recuerde que el crédito de CPU, ya
sabe, por hora es de 34. Es muy bajo, así que no
es como realmente alto porque encaja perfectamente en nuestra
factura T dos medianos. También estoy
buscando otras opciones como tres t tres medianas, así que mira si se ajusta a nuestra factura, pero es casi lo
mismo en cuanto a
los precios sabios porque tiene la misma
configuración similar, excepción de la diferente arquitectura de
CPU. Así que solo me quedaré con T dos porque se usa más
o menos en muchas situaciones porque tiene una
CPU mucho más amplia y es,
como, un
costo muy bajo en términos
del comienzo un nivel
de tu cómpusculo como, un
costo muy bajo en términos
del comienzo un nivel
de tu Por lo que va a
tener un costo mucho menor cuando lo ejecutes por un periodo de tiempo
más largo. Entonces esto es lo que estoy
recomendando aquí, lo que vamos a hacer
como parte de la capacitación En primer lugar, crearemos
dos micro Docker machine como host master para Docker, y posteriormente la
convertiremos a Kubernetes master, y luego crearemos
un medio AOT two como host master para Docker,
y posteriormente la
convertiremos a Kubernetes master,
y luego crearemos
un medio AOT two para el nodo worker. Bien. Entonces esto es completamente comenzaremos con el Docker, y luego iremos a
Kubernetes Entonces es más o menos lo
que quiero cubrir en este video. Y el siguiente video es en adelante. Como, voy a cubrir la
creación de tus cuentas gratuitas. Entonces te voy a decir
lo que realmente necesitas
hacer para crear una
cuenta gratuita, y tú, seguro, necesitas una tarjeta de crédito, así que tenla a mano antes de que vayas a
crear una cuenta gratuita. Me puedes preguntar, Oh,
es una cuenta gratuita. ¿Por qué necesito una tarjeta de crédito?
Sí, así es como funciona. Entonces, aunque diga cuenta gratuita, eso no significa que
serás no estarás pagando nada al momento de crear esta cuenta
o usar esta cuenta, sino que solo quieren ejecutar una verificación de crédito, no
una verificación de crédito, pero luego quieren, ya sabes, verificar si tienes
una tarjeta de crédito válida haciendo una transacción de prueba. Y una vez que hacen
la transacción y prueban tu tarjeta de crédito
y tu verificación, también
necesitas verificar
tu identificación, tu identificación pública, como una licencia o cualquier tipo de
identificación emitida por el gobierno . Es necesario verificar eso. Entonces, una vez que hayas hecho
toda la verificación, entonces podrás
otorgar acceso y luego poder hacer todos estos otros servicios como crear todas las instancias
y cosas así. Sí, por instancia gratuita, también, todavía
tienes que hacer la misma verificación antes seguir adelante y hacer
todas esas cosas. En el siguiente video, veremos crear una cuenta gratuita,
y después de eso, estaremos explorando
la configuración predeterminada. Las primeras cosas que
debes hacer como la
configuración de facturación porque no
queremos perdernos ninguna alerta de
facturación correctamente. No queremos
facturar nada. Entonces queremos hacer la configuración de
alertas de facturación. Y luego vamos a
seguir adelante y a uh una autenticación de terceros hasta el punto para que no pierdas el
acceso a tu cuenta. Entonces haremos, ya sabes, autorización de
Google Authenticator también Entonces solo para asegurar tu cuenta, mucho más con terceros, ya
sabes, autenticación. Y luego estaremos
trabajando con instancia ECT, creando instancia,
y luego estaremos instalando softwares
que requerimos Y luego iremos aprendiendo que algunas cosas que
tenemos que hacer para los kubaits también Gracias de nuevo por
su paciencia y tiempo. Te veré en el siguiente video.
5. Labs antes de la creación de la cuenta gratuita: Oigan, chicos, bienvenidos de nuevo
al siguiente video. Ahora, en este video,
vamos a ver AWS gratis. Entonces en el siguiente
video, vamos a hacer la creación de cuenta gratis, pero luego
vamos a entender sobre la instancia gratuita y la cuenta gratuita y las operaciones que puedes hacer después de obtener esta
cuenta gratis, es lo que vamos
a ver en este video. Ahora, solo estoy buscando en Google
para AWS gratis. Entonces esto me va a conseguir
algunos enlaces hacia AWS, lo que te da el neumático libre. Ahora bien, ¿qué es una llanta libre? El neumático libre es un producto de
evaluación, por lo que tiene un tiempo uh, límite de
tiempo de
lo que puede hacer y cuántos productos realmente
puede usarlo forma
gratuita en esas líneas de tiempo Entonces, si quieres
saber, como, ya sabes, cuáles son los detalles realmente
puedes hacer clic en esto y
realmente puedes abrir eso, y puedes entender
qué es realmente gratis cuando abres una cuenta o creas
una cuenta con AWS. Ahora, puedes ver que esta
es tu llanta libre de AWS. Llamamos a ese concepto
como neumático libre. Aquí es donde
obtiene su
experiencia práctica en productos y servicios de AWS. Es como una demostración que
te dan para que puedas
entender y trabajar con AWS antes de que realmente compres alguno de los productos o uses
alguno de sus productos. Esa es la razón principal. Obtenga más información sobre las llantas libres de AWS. De hecho, puedes
mirar esto ahora mismo. No todo, todos los servicios
que hay en AWS son gratuitos. Recuerda que son
las pruebas gratuitas, hay los 12
meses gratis y siempre
hay artículos gratis infinitamente Estas son tres cosas
diferentes que debes saber antes de
proceder realmente. No vamos a ver a
detalle de estas tres cosas. No va a ser algo que se va a
pedir en tu examen. Pero es bueno que si
conoces de ellos. Pero si conoces la visión general, eso te va a ser
muy útil. Puedes hacer clic en
cada uno de este artículo, realidad
puedes ver cuáles
son las pruebas gratuitas, qué son 12 meses
gratis y esas cosas. Pero cuando
bajes un poco, así obtienes una visión general
de todo. Para que puedas ver los
artículos que son, ya
sabes, neumáticos mecanografiados por aquí Así que el artículo destacado, 12 meses gratis, prueba
siempre gratis. Así que en realidad puedes seleccionar eso y puedes verlo fácilmente. Cuáles son las cosas, que en realidad
es a base de juicio. En base a prueba, te dará una buena cantidad de tiempo para
que pruebes ese producto. Y aquí, Sagemaker es
por dos meses gratis. Pero aquí hay
restricciones, que está escrito en
letra pequeña por aquí que
necesitas estar en ese tipo de
instancia ya sabes, tipo de instancia. Entonces tipo de instancia,
hablaremos de ello más adelante. Pero es una especie de restricción a algo que
le dan a prueba o gratis. Entonces ves 12 meses gratis, tienes EC dos instancias, tienes almacenamiento, tienes base de datos relacional
RDS,
como la base de datos tradicional
como McQLPostGrace SQL, tienes la Maria Abrir búsqueda, puerta de enlace APA. De igual manera, tienes
productos por aquí, que es el cual tiene un límite de tiempo de 12
meses aproximadamente 50 horas. Tienes dos
restricciones por aquí, ya sea 50 horas al mes o
van a ser 12 meses. Del mismo modo, tienes
esas dos opciones por aquí las cuales
puedes seleccionar realmente. Ahora que eres consciente de que qué productos son en realidad
t meses de prueba. Entonces hay algo
siempre gratis. Así que siempre gratis es donde aquí, puedes usar 25 GB de DynamoDB,
almacenamiento, y aquí tienes 1 millón de transacciones
para tu Entonces estos son algo
que siempre es gratis, y no viene
con límite de tiempo. Bien. Entonces cuando
dicen siempre gratis, significa que no significa que
va a ser gratis para,
gratis para cualquiera que sea el
uso que vayas a ser, pero no
tiene límite de tiempo. Entonces después de un año también, puedo usar estos 25 GB
de un dínamo DV gratis, um, ya sabes, almacenamiento, así
como, como, 1 millón Siempre que quiera
usarlo, como un año, dos años, no importa. Pero cuando empiece con 1 millón
será como gratis para mí. ¿Bien? Entonces igualmente, pero esta congelación de 12 meses
básicamente te dice que te
restringe que
va a ser gratis durante el primer mes
desde que te has inscrito para tu cuenta de AWS Entonces la línea de tiempo
comienza por aquí. Juicio, de nuevo, sobre la misma base, va a ser así. Entonces, cuando esta oferta está
ahí, hay que usarla. La prueba gratuita es básicamente de
dos meses de prueba gratuita, pero luego se aplican
restricciones. Lo mismo va para
EC dos instancias también. Entonces no significa que
puedas crear cualquier tipo de instancia cuando
creas EC two. Se monta a
estas instancias, como se puede ver por aquí Así mismo, tienes el sonido 50 horas
al mes en Linux. Por lo que también hay restricciones sobre su
sistema operativo, y luego T dos Micro
o T dos Micro. Estos son los dos
tipos de instancias que puedes usar. Por lo que alguna agencia que lance es modo
ilimitado puede incurrir en cargos
adicionales Así mismo, por lo que no puedes usar el modo
ilimitado por aquí
cuando intentas lanzarlo. Entonces hay algunas restricciones
que debes seguir. Y voy a
agarrarte en todo este proceso, asegurándome de que no
te están
cobrando por nada de esto ¿Bien? Entonces eso va a ser
algo que voy a hacer. Incluso si te están cobrando, te
voy a decir cómo
restringirte, y cuando te van
a cobrar, puedes tener literalmente cuidado
al trabajar con él. Entonces te voy a dar algunas
instrucciones para eso. Pero de todos modos espacio, gracias nuevo por su
tiempo y paciencia. Entonces, pasemos
al siguiente video y creemos la cuenta gratuita.
6. Labs Creación de cuentas gratuitas de AWS: Oigan, chicos, aquí vamos a
crear una cuenta gratuita. Así que la mayoría de los artículos
deben ser llenados por usted porque no quiero dar
mi información real aquí. Entonces te recomendaría que lo
llenaras la mayoría de
los artículos de aquí. Este video es muy corto. Entonces, en primer lugar, cuando haces
clic en crear una cuenta gratuita, entonces vas a
obtener esta ventana emergente por aquí diciéndote que te
registres con AWS, puedas escribir
tu dirección de correo electrónico que vas a
usar para esta cuenta. Recuerda a esto se le llama
como una dirección de correo electrónico raíz, que se utiliza para la recuperación
en caso de que algún tipo de, ya sabes, te olvides de tu ya sabes, te olvides de tu
contraseña o algo por el estilo. Y esta también es cuenta
administrativa, lo que significa que obtendrá 100 por ciento de acceso
a la consola de AWS. Entonces lo que significa esa
modificación de tu nombre, tu dirección de correo electrónico principal, tu contraseña, tu información de
seguridad, tu acceso a la mensajería instantánea. Entonces todo esto está muy disponible solo para la dirección de correo electrónico
raíz. Y esos están disponibles solo
para esta dirección de correo electrónico. Recuerda dar una dirección de
correo electrónico adecuada donde estés, como, tener un
control completo sobre ella. Entonces para mí, voy
a dar más allá Cloud AI one@gmail.com porque
Cloud AI ya está ahí. Entonces gmail.com, y
luego voy a dar nombre de cuenta aquí
más allá de Cloud AI uno Ahora bien, esto me va a
enviar un correo electrónico, y va a verificar
mi dirección de correo electrónico, entonces solo necesito
dar el, ya sabes, el código de
verificación aquí, cualquiera que sea el código de verificación, que tengo de mi correo electrónico, así que solo estoy verificando
mi correo
ahora mismo para el
código de verificación, y lo tengo. Entonces voy a copiar página
este número de verificación, es un
número de verificación por una vez. Entonces vas a escribir
una contraseña por aquí, así que esta va a ser tu
contraseña para esta cuenta. Entonces solo voy a dar
una contraseña aleatoria aquí, que no voy a
decirte qué es, claro. Entonces solo estoy escribiendo
la contraseña. Entonces sí, tengo
una contraseña grande. Entonces no coincide, en realidad. Así que déjame hacer una pausa en la pantalla. Bien, ingresó la contraseña
aquí, simplemente haga clic en siguiente. Ahora, aquí necesitas
seleccionar qué tipo de, qué tipo de, ya sabes, uso estás planeando
hacer con AWS,
como un proyecto personal, sí, porque esto es para el
aprendizaje y el desarrollo. Entonces aquí tienes el nombre completo, que está más allá de Cloud AI. Entonces aquí necesitas
dar cualquier tipo de
número de tu número de teléfono
o cualquier tipo de dirección. Entonces te recomendaría
dar donde vives actualmente. Entonces si te encuentras en solo digamos que estoy
en Reino Unido, y mi número es así que este
es mi número, digamos,
digamos, por ejemplo, seleccionar de nuevo
la región, como Reino Unido y
luego dada la línea por aquí, testtest test test Así que solo doy número aleatorio por aquí y hago clic
en el siguiente paso. Entonces ahora, esto te va
a permitir al número de
teléfono no debería saber
que no es cartas válidas. Entonces en otro cero por aquí. Sí. Así que vamos a
darle un siguiente paso por aquí. Y aquí es donde
necesitas dar los de tu tarjeta de crédito. Ahora este detalle de tarjeta de crédito
debe ser dado por usted y debe ingresar
el detalle de la tarjeta de crédito. Entonces, una vez que hayas hecho este paso, entonces irá
a la página web de tu banco. Si hay autenticación que necesita hacerse desde el sitio web de
su banco, debe completar la autenticación
desde el sitio web del banco. Después de este paso, te
estará pidiendo um, te estará pidiendo que te
valides,
lo que significa
que necesitas
proporcionar tu nombre real,
y necesitas dar
una identificación, um, quiero decir, tu licencia
de conducir o
cédula de votante, algunos países,
algunos países tiene
esto, um, ya sabes,
um, números de impuestos o
tarjetas de impuestos, algo así. Entonces necesitas dar esos detalles y luego verificarte. Y una vez hecho eso, recibirás una
notificación por correo electrónico diciendo que tu cuenta se ha
verificado correctamente. inmediato, lo conseguirás, y luego podrás empezar a
hacer o ir a la siguiente pantalla y la siguiente pantalla te
llevaría a la consola. Entonces irá a
console.aws.com. Entonces así es como se procesa la
creación de cuentas. Trato de mostrarte todo
lo que puedo. Pero más allá de esto está fuera de mis límites porque ya
tengo otra cuenta, así que eso es algo que
voy a usar. Yo sí lleno toda
la información,
pero nada importante en este momento, solo que tu
confirmación de crédito y para
verificarte como
persona o persona. Por lo que puede haber
alguna pregunta
preguntándote si eres un
individuo o una empresa, asegúrate de seleccionar
la opción correcta. Si estás aquí solo
con fines de aprendizaje, entonces puedes seleccionar individuo porque estás aquí
solo para entrenar y, ya
sabes, entender propósito. Para que puedas seleccionar como individual, y es para uso personal. Uh, entonces, de igual manera,
puedes seleccionarlo y luego verificarlo y luego pasar
al siguiente video, que será continuar
desde la página de la consola. Gracias de nuevo por
ver este video. Te veré en la siguiente.
7. Laboratorios de MFA y presupuesto de AWS: Oigan, chicos. Así que ahora que
has creado tu cuenta, y digamos que
has desconectado ahora mismo. Por lo que ahora se le darán dos
variedades diferentes de acceso. Como, por ejemplo,
verás que cuando vas a
Google y Type y,
como, como, por ejemplo, que estoy usando Bing
solo estoy diciendo que la consola inicia sesión en AWS y luego simplemente
básicamente me lleva a este sitio web donde dice,
crea una cuenta gratuita. Ahora, en lugar de
crear una cuenta gratuita, basta con hacer clic en iniciar sesión. Hay dos formas diferentes de iniciar sesión en tu cuenta. Uno es básicamente
obtenerlo así
donde Google console aws.com O en realidad puedes tener
tu propio enlace a aws.com, que te diré en un rato Entonces esa es la segunda forma
con tu ID de cuenta. Entonces es algo
llamado ID de cuenta, que se crea por defecto, para que puedas usar el ID de
cuenta dos, lugar de iniciar sesión
en tu correo electrónico raíz, puedes iniciar sesión
directamente con el ID de cuenta, y ahí puedes dar el nombre de
tu cuenta. Si recuerdas, al
crear la cuenta gratuita, pidió el
nombre de la cuenta, ¿verdad? Así que le he dado a Beyond Cloud uno porque Beyond
Cloud ya existe. Así que puedes usar eso y también
puedes iniciar sesión. Entonces ese es un
método diferente de registro. Ahora bien, ¿qué método
estamos iniciando sesión? Estamos iniciando sesión
usando usuario root. Ahora, hay dos usuarios en los
que puedes iniciar sesión, ¿verdad? Entonces uno es un usuario root, otro es usuario de IAM La mensajería instantánea no es más que la administración de identidad
y acceso, que es parte integral
de su servicio de AWS. Ahora, IAM le permite
agregar varios usuarios a su cuenta de AWS para
que pueda otorgarles
diferentes privilegios Digamos, por ejemplo, que soy dueño de una empresa y tengo pocos empleados míos que
en realidad están trabajando en la
administración en los sitios web o aplicación que
está alojada en WS. Así puedo crear
inicios de sesión individuales para estos chicos y darles acceso
limitado a
lo que pueden hacer en términos de
privilegios de IAM allá Así que cada vez que
hagan alguna actividad, podrán realizar ciertas actividades que les han permitido hacerlo porque IM me permite controlar los permisos de molienda
fina hacia lo que realmente pueden
lograr usando AWS Entonces ahora mismo, voy a
usar Root User ya que ese es el único usuario disponible
en este momento porque acabamos de crear la
cuenta en este momento, y luego vamos a
iniciar sesión en nuestra consola de AWS. Te das seleccionar
el usuario root, y luego tecleas el
nombre del usuario root, va a ser tu propio
cloudai@gmail.com. Entonces este es mi sitio web. No
intentes iniciar sesión en este. Usa tu propia dirección de correo electrónico
e inicia sesión en la tuya, y luego aquí tienes que
escribir una contraseña. Voy a copiar y pegar
la contraseña aquí. Yo solo estoy copiándolo pegándolo por aquí y golpeando
el letrero y el botón Ahora, nunca digas por este sitio. Perfecto. No creo
en guardar la contraseña en el navegador o en Chrome
porque siempre se expone, no ahora y luego después. Así que ahora puedes ver que
esta es
más o menos mi consola por aquí. He visitado dos
aplicaciones por aquí, que es parte de
sus servicios de AWS, facturación y administración de costos Im. Entonces, en el lado derecho,
verá la
información de la cuenta por aquí, por lo que tendrá su ID de cuenta
única. Ahora así es como puedes
crear tu propio sitio web. Entonces te lo contaré en poco tiempo. Pero recuerden que
hay alguna, ya sabes, información
privada
que es como dar por
aquí cuando
entras en las cuentas. Así que ten cuidado cuando
estés compartiendo tu pantalla e
ingresando a tus cuentas. Tampoco voy a tener mucho
cuidado al compartir mi pantalla mientras
voy a entrar en la cuenta. Así que puedes esperar que este video se
detenga varias veces si hay algún tipo de
exposición de mis datos privados Ahora, lo primero que
vas a hacer es, como, habilitar la autenticación de dos factores o habilitar una
autenticación de terceros por aquí. Entonces voy a ir
a IAM por aquí. Simplemente escriba IM, identidad
y administración de acceso. Entonces, bajo administración de identidad y
acceso, tiene un dashboard que
te dice lo que falta
como parte de tu, ya
sabes, cuenta en
cuanto a seguridad sabia? Entonces esta es una
recomendación de seguridad. Ahora, ha encontrado un problema
crítico por aquí, por lo que no está habilitado la autenticación
multifactor MFA Por lo que puede utilizar un tercero para integrar su
autenticación con. Entonces, en lugar de solo
usar M y contraseña, también tendrá información de
autenticación. Ahora bien, ¿de qué otra manera puedes
acceder a tu consola? Como te dije,
hay otra forma de acceder a tu
consola directamente,
derecho, mediante el uso de esta identificación
única. También puedes crear un RS, del
que hablaré más tarde. Pero esta es la URL de la
que estaba hablando. Entonces, usando esta URL, realmente no tienes que
dar el nombre de raíz. Entonces, si estás usando esta URN en un navegador diferente,
se acercará. Déjame abrir una ventana
privada aquí y luego buscar este URO, ¿verdad? Y puedes ver que entres con tu número
de confianza, y entonces todo lo que tienes que
hacer es como más allá Cloud por aquí como el
nombre de IAM y luego la contraseña Ahora, si también has creado
otros usuarios, que es parte de tu IAM, puedes
ingresar directamente esos nombres de usuario y contraseña e iniciar sesión Así que realmente no tienes que
dar ningún tipo de dirección de correo electrónico raíz en
ningún lado porque tu ID de cuenta actuará como
una dirección de correo electrónico raíz, ¿de acuerdo? que no tengas que exponer tu dirección de correo electrónico raíz
a nadie también, que puedas mantener tu dirección de
correo raíz, de manera muy segura. ¿Bien? Entonces esa es la razón principal por la que se
crea un ID de cuenta en lugar de una dirección de correo electrónico
raíz. Para que cualquiera pueda
acceder a tu cuenta sin acceder a tu dirección de correo electrónico
raíz. Bien, entonces ahora esa es una razón para que tengas esta URN, y puedes hacer circular esta
URL a todos tus amigos, lo
siento, tus compañeros de trabajo
que necesitan acceso a AWS Ahora, entrenando un MFA, así para el usuario root, por lo que es hacer clic en agregar MFA Entonces ahora
te va a redirigir a la página de MFA, y va a verse
como un usuario root MFA. Entonces eso básicamente es decir que este es
tu usuario root MFA Y aquí tienes
múltiples opciones. Voy a seleccionar la aplicación de
autenticación, y no la he configurado hasta ahora, así que solo voy a
hacer eso ahora mismo. Entonces instala esto en la computadora
compactable. Voy a pausar
este programa un código QR, y luego solo voy
a verificar mi cuenta, y luego voy a deshacer
esto una vez que esto se complete Entonces para esto muy sencillo, abre tu app Google
Authenticator en tu teléfono. Haga clic en esto. Te mostraré un
código, escanearé ese código y necesitarás
ingresar el código desde tu aplicación
virtual. Esa es tu Google
Authenticator primera vez y luego
después de 30 segundos, una vez más con el siguiente código Y luego haga clic en Agregar MFA. Una vez que hayas hecho eso,
lo has configurado. Entonces déjame hacer una pausa en la pantalla, hacerla y
mostrarte cómo se ve. Ahí vas. Entonces, una vez que
haces clic en eso, y podrás ver que
tu ID virtual se
ha agregado por aquí, y los datos se agregan en. Entonces esto es bastante muy sencillo de
acceder o agregar tu, ya
sabes, MFA para el
usuario. Entonces eso está terminado. Si solo voy por aquí
y refresco esta página, la recomendación
se ha vuelto verde ahora mismo. Pero siempre se recomienda
crear un usuario y acceder a su AWS a través un usuario en lugar de
la cuenta raíz. Entonces eso siempre se
recomienda para hacer eso. Hablaremos de
eso un poco más tarde. Pero a partir de ahora, lo que
haremos es, como, tenemos que ir a la cuenta y
configurar nuestros servicios de facturación. Ahora, bajo las cuentas, eres una de las características
importantes, que básicamente son tus datos, que puedes ver ahora mismo, que definitivamente
lo desenfocaré en la edición de post. Entonces sí, más o menos tus datos son algo
que está bajo cuenta. En el lado izquierdo, tendrás,
tendrás facturación
y gestión de costos Déjame volver a
la pantalla de inicio. Um, así que solo vamos a facturación y
administración de costos por aquí. Entonces esto es más o menos lo
que quería cubrir, en realidad. Accidentalmente hice clic en eso. Entonces ahora tienes la opción de crear
tu propio testamento o presupuesto. Dentro de la opción de presupuesto, podrás
ver cómo funciona. Entonces, básicamente,
creas un presupuesto, y eso es lo que
estás haciendo aquí. Y luego cuando suba el
85 por ciento de tu presupuesto, va a activar alerta, lo que significa que
vas a recibir correo electrónico. Entonces
necesitas asegurarte de monitorear tus correos electrónicos, y luego básicamente
consigue, ya sabes, puedes ajustar cuál es
exactamente el problema O bien, ya sabes, cancela esa solicitud, que
en realidad está incumpliendo más
de tu concepción Entonces eso es más o menos
lo que queremos hacer. Así que vamos a seguir adelante y
crear un presupuesto por aquí. Y entonces íbamos
con la plantilla, que es el método simplificado
de crear un presupuesto. Y entonces aquí está, como, un nuevo presupuesto que
habla de presupuesto de gasto cero. Entonces no quieres
gastar nada en AWS, así que quieres hacer todo
el trabajo de llantas gratis. Pero el problema es
que nuestra aplicación no hace cosas de llantas gratis. Por lo que vas a un presupuesto de costos
mensuales. Entonces aquí, voy a
dar un máximo de 20 dólares. Entonces lo que significa que
vas a recibir un correo electrónico por
si estás gastando
más de 20 lo siento, 85 porcentaje de $20. Entonces aquí está lo que se mencionó. Se le notificará
cuando realmente alcance el límite de gasto ha llegado al
85%. Ese es el primer escenario. Segundo escenario es que cuando realmente
estás gastando
alcanza el 100 por ciento. Entonces vas a
recibir dos alertas, una al 85 y al 100 por ciento. También vas a recibir una
alerta si pronosticas gasto, igual que los árabes están pronosticando
que si vas en este rango, esta vez
puedes llegar al 100 por
ciento, entiende que
estás en el camino de
alcanzar el 100 por ciento, te
va a enviar en Entonces estas son tres
situaciones diferentes a las que te alertarán, pero el presupuesto nunca
detendrá tus gastos Entonces, si pierdes tu correo electrónico, si pierdes reconfigurar tus asignaciones de gastos para tus artículos,
no va a parar Bien, entonces puede ir más allá de
ese porcentaje de lo asignado, pero el presupuesto
básicamente, ya sabes, te
avisará cuando algo
así suceda, pero nunca
pondrá un bloqueo tus gastos o
no parará los servicios
o algo así Solo te alertará en caso de cualquier tipo de artículos como ese. Bien, procediendo más adelante la línea, haga clic en el correo electrónico Entonces yo diría más allá de
la nube uno atmail.com. Y luego si tengo direcciones de correo electrónico
adicionales, siempre
puedes dar comando, entonces puedes poner
varias direcciones de correo electrónico. Luego haz clic en Crear presupuesto. Esto va a crear
un presupuesto para ustedes chicos, y va a
enviar correo electrónico si como que,
como, viene a Son porcentaje
de la utilización total. Ahora, para principiantes,
puedes ponerlo desde presupuesto de $10 también. Entonces esto te será útil
para que, ya sabes, te asegures de que controlas dónde vas
y tus montos, dónde gastas fugas, para que yo pueda encontrar esos puntos
débiles y luego arreglarlo. Más o menos lo que quiero
cubrir en este video, hemos cubierto un par
de elementos que permiten la autenticación de dos factores o la autenticación multifactor. Hemos integrado
nuestra cuenta de AWS con Google, Google
Authenticator Ahora bien, el segundo
que has visto es que también hemos visto información de
mi cuenta que no
se espera que muestre, pero eso va a quedar borroso De todos modos, gracias. El
siguiente que has visto es también sobre la facturación y
la gestión de costos. Entonces eso es algo así como un
presupuesto que hemos visto ahora mismo y que vamos a
recibir una alerta por correo electrónico si, ya
sabes, el presupuesto
incumple nuestra expectativa Gracias de nuevo. En
otro video interesante, veremos configurar un usuario en el siguiente video para
que podamos acceder a AWS usando nuestros privilegios
limitados en lugar de todos los privilegios
que tenemos en este momento. Y publícalo eso, estaremos
trabajando con, ya sabes, creando AC dos instancias
y mirando el presupuesto, cómo va a ser al tener
eso funcionando por,
como las próximas 4 horas u 8 horas, cuanto costo
va a venir por nosotros y estaremos listos para, ya
sabes, tomar ese
costo o tomar ese golpe? Entonces eso es algo
que
veremos en los próximos videos. Gracias de nuevo
por ver esto. Te veré en la próxima boon.
8. Laboratorio sobre la revisión completa de los servicios incluidos en el Dominio 1: Oigan, chicos. Bienvenidos de nuevo
al siguiente video. Aquí en este video, les voy
a mostrar un poco de recorrido por todos esos
servicios que discutimos. Por lo que hemos discutido
sobre muchos servicios. Ahora, solo quería darte una sesión de laboratorio sobre el
acceso a estos servicios, solo pasando por algunas de las, ya
sabes, las cosas básicas sobre estos servicios y esas cosas. Entonces vamos a
pasar por eso y vamos a averiguar o adivinar el pilar real del marco
bien diseñado
porque estos son servicios que es
creo que recordarías mucho mejor si solo
te muestro las fotos del mismo Esa es la razón por la que
hago esto al final del video. En el anterior este video, hay una hoja de trampa que tiene toda mi carrera sobre todas esas teorías de lo que hablé
contigo está por todas partes. También lo he mencionado
con ejemplo,
así que por favor haga uso de eso e intente prepararse
para su examen. Ahora bien, recuerda dejar tus reseñas y todo
porque eso hace que este curso sea diferente a
otros porque estoy haciendo todo lo posible para
asegurarme de que todos
pasen por este programa, sesión de teoría
así como la sesión de teoría
así como la
sesión práctica continuamente, y puedan ver los
esfuerzos que voy a poner en más adelante. Entonces comencemos este video.
Ahora se puede ver eso. Estos son los
pilares y algunos de los servicios que lo he abierto porque mi Internet
es un poco lento, así que
ya lo he mantenido abierto para ustedes chicos. Estoy en el tablero ahora mismo, así que esta es tu consola, región de
origen, guión de Estados Unidos East one Desde la propia URL, intenta leer información porque tu URL dice muchas
cosas en realidad. Estoy en la región Norte
y Virginia por aquí, la del Este de Estados Unidos. Ahora bien, esto es lo primero que
quiero mostrarles es EC dos. Esto es más a menudo que
usaríamos más tarde punto de tiempo. Aunque hemos administrado servicios, pero EC dos es, como, cuanto más frecuentemente
usaremos más adelante punto de tiempo. Se puede ver el
balanceador de carga por aquí, que es, de nuevo, una característica
que hemos visto Entonces, si tuvieras que adivinarlo, el EC dos es la eficiencia
del desempeño. Tenemos escalado automático, que es, nuevo, una característica por aquí, grupos de escalado
automático por aquí. Ver balanceador de carga, que es
parte de EC dos instancias. Ahora, puedo crear instancia. Puedo empezar a correr
lanzando instancia. No voy a
hacer eso ahora mismo, pero va
a haber un
entrenamiento especial para ti
más adelante punto de tiempo. Los grupos de autoescalado le
permiten crear más servicios
escalándolos hacia arriba y hacia abajo
en función de alguna trayectoria Entonces, algún tipo de valor de
monitoreo daríamos y luego
crearíamos algún grupo, y luego
lo hermoso de AWS es que, ya sabes, cada característica que vas,
cada servicio
que vas, ves este tipo de información donde te da esta representación pictótica de lo que puedes lograr con esto Y esta única imagen puede
decir mucho, en realidad. Cuenta una gran cantidad
de historia por aquí. Entonces esta foto te dará una pista de qué
se trata este servicio, ¿no? Entonces puedes ver ese
tamaño mínimo, capacidad deseada, tamaño
máximo, y esto básicamente
está
escalando según sea necesario. Entonces esta es una imagen perfecta. Tienes la
función de balanceador de carga por aquí, y eso también es algo
que vimos en esto Veamos dónde está el
balanceador de carga aquí, tiene confiabilidad bajo eso, tiene equilibrador de carga De igual manera, tienes
características como esa. Mint es un poco lento, alguien supongo que está
descargando algo, así que esa es la
razón por la que es un poco lento. Por favor, haga caso omiso de eso.
Ahora bien, esto es RDA Este es un servicio
gestionado por bases de datos. Puedo decir un clic, puedes crear una base de datos. Realmente no tienes que
instalar un sistema operativo, no
tienes que
instalar el software. Uh, no hace falta configurar
firewalls y, ya
sabes, los ajustes
y todo Simplemente haga clic en él y
obtendrá una base de datos. Entonces esto es tan bueno, ¿no? Entonces por eso lo llamamos un sistema administrado
por aquí para DS. Y luego tienes el DMS, que es tu servicio de
migración de bases de datos
por aquí que está migrando efectivamente tu base de datos
Impromised
a la base de datos en la nube en la nube Esta es la Ruta 53. Como puedes ver por aquí, puedes ingresar un nombre de dominio, y puedes transferir un dominio
existente a la Ruta 53, y en realidad puedes
registrar dominio. Entonces tienes que pagar alguna cantidad, y básicamente puedes tener
tu dominio registrado. Aquí hay dos
zonas alojadas, como pueden ver, porque estoy
usando turno abierto antes. Entonces um, pero en
realidad ha creado dos zonas donde es solo hoja abierta
como puedes ver, usa la ruta 53. Entonces estoy pagando por esto hasta que quite estas
cosas porque cuando tienes algún tipo
de nombre de Dina o cualquier cosa administrada por AWS,
vas a pagar por ello. Pero no es un precio enorme. Yo diría, para que pueda ver
eso en mi derecho construido? Entonces tienes la
clasificación por aquí. Y um no es mucho en
términos de, uh, hacer esto. Sí. Se puede ver
esa Ruta 53 $1. Entonces no es mucho, ya
sabes, dinero. Tuve que pagar por ello. Este
es el balance de carga. Actualmente, tengo saldo de carga para turno abierto, así que tú en eso. Aquí tienes el
panel de mensajería instantánea por aquí. Esta es tu gestión de identidad
y acceso. En la siguiente sección, estaremos tratando con
seguridad y compilación Así que aquí estaremos de
visita por aquí, y trabajaremos con la organización de
AWS, Idntity Center y
todas las demás opciones aquí en términos de administración de
acceso Entonces pienso en el video de inicio cuando
creaste la cuenta, te
he dicho cómo usar MFA Para que veas que
he habilitado MFA. MFA es muy, muy importante
porque en estos días, todo está siendo pirateado Lo único que puede
salvarte de hackear es en realidad darte un
poco más de tiempo es MFA Entonces eso es muy útil. Y luego tienes KMS. También hemos
discutido sobre esto, supongo en seguridad,
supongo, sistema de gestión de claves KMS por aquí. Puedo ver por aquí, esta es una forma de
crear claves y controlar el cifrado
a través de AWS y más allá. Entonces, si estás usando claves en tu empresa con los
certificados raíz y esas cosas, así aún puedes almacenarlo por aquí. Por eso digo más allá. Um lo que significa que es un servicio de claves
totalmente administrado. Así que normalmente, um, uh, he usado, um, servicio
clave previo
a proyectos anteriores. Entonces hemos usado hay una
empresa Tavat o algo así. Por lo que también tienen este servicio
clave. Así que usamos su servicio, y en realidad hemos tenido su sistema como el sistema de administración de claves,
es como un servidor. Lo hemos puesto en
nuestro centro de datos um, y hemos trabajado en eso. También tengo experiencia trabajando el servicio de
KMS. Pero, um, pero esto es mucho más fácil y
realmente no es
necesario tener la sobrecarga
de mantener un servidor o comprar un servidor de
cualquier tipo de proveedor. Um, sí, es Talus. Talus es el, ya sabes, el
intermedio para esto, que en
realidad contactamos a Talis,
uh, para el servicio y Entonces ellos son
los que hicieron eso. Um, perdón por eso.
Me equivoqué el nombre. Um, entonces aquí tienes la administración
centralizada de claves. Entonces este es básicamente tu
HSM Cloud HSM de aquí, que básicamente contiene
todas tus claves y
registros y todo lo demás relacionado con tus certificados
y cosas así. Así que solo puedes crear y realmente
puedes trabajar en ello. Entonces el siguiente es el Servicio de
Contenedores Elásticos y EKS,
que es el servicio Elastic Cubont Container Service usa más
o menos contenedores, y básicamente tiene, ya
sabes, puedes crear
clústeres en clúster. Esto es de nuevo, servicio gestionado. Y aquí tienes
EKS, que de nuevo es, servicio
gestionado, que
utiliza cobonts por aquí Ahora puedes crear
clústeres por aquí. Hablaremos de eso
en sesión avanzada, pero es muy interesante. Como tengo turno abierto, tengo buenos conocimientos
sobre turno abierto,
así que tal vez esté creando una
capacitación sobre eso exclusivamente. Tengo otras capacitaciones que
están involucradas en turno abierto, pero luego sobre todo en middleware.
Entonces así es como es. Um, por aquí, tengo la
facturación y gestión de costos, así que solo me
habla de la facturación. Tengo malas noticias este mes. Tengo que pagar mucha factura por aquí porque gracias
al turno abierto, así que me acaba
de crear muchas instancias. Y sí, sí dio una buena experiencia de,
ya sabes, trabajar con él. Uh, porque terminé más capacitaciones en
turno abierto usando otros productos um, ya
sabes, medios Um, por aquí está la herramienta de arquitectura del
pozo. Entonces esto es básicamente lo que aprendimos hasta ahora
justo los pilares. Se puede ver que eso
en sí mismo es un servicio. Ahora, se puede ver
así como va a funcionar. Ahora, pones o identificas
tu carga de trabajo para revisar. La
herramienta de arquitectura de pozos de AWS tendrá en cuenta su excelencia
operativa, su seguridad, confiabilidad, eficiencia de
rendimiento ,
sostenibilidad de optimización de
costos, y
le dará un informe de ello. Entonces ese informe va a ser todo sobre los pilares de AWS, y va a
mostrarte en qué tipo de carga de trabajo vas
a estar involucrado. Entonces, ¿qué tipo de posiblemente
cuánto serían tus ahorros? Todas esas cosas que
va a estar mirando. Entonces tienes el panel
de facturación aquí. Entonces esto es básicamente, ya sabes, cuánto porcentaje de computadora he usado y todos estos otros artículos,
que está por aquí. Entonces me habla de la facturación
completa, y ese es otro
servicio por ahí, y tienes la calculadora de
precios. Esta es una súper herramienta. Siempre uso esta herramienta
antes de hacer algo en AWS porque esta herramienta se
llama calculadora AWS, así que puedes
acceder directamente a eso y venir a la
calculadora de precios de AWS por aquí. Simplemente haga clic en la estimación. Básicamente da
lo que quieres hacer. Aquí hay tantas sorpresas. No los voy a echar a perder. Pero
cuando lleguemos a esta sesión, revisaremos estas cosas de la calculadora de
precios antes de configurar
EC two instance. Pero aquí hay muchas
sorpresas. Aquí eliges la región, aquí eliges el
nombre de la región, y aquí encuentras un
servicio EC de dos instancias, Lambda o cualquier tipo de servicio
que sea ofrecido por AWS. Entonces dices que
quiero ver resumen, y luego básicamente te pide más detalles como
¿qué planeas hacer? ¿Cuántas horas
planeas usar? Das toda esa
información y te dice, um, dos costos por aquí. Costo inicial y costo mensual. Entonces, el costo inicial te dice, como, si pagas por adelantado, ¿cuánto descuento
vas a Y esto va a ser
un costo mensual, ¿de acuerdo? Entonces aquí, fue un costo total de
12 meses, bien, diciendo que, ya sabes, para los próximos dos meses,
vas a estar pagando tanto. Entonces es una herramienta muy
útil. Y definitivamente
necesitas usar esta herramienta en caso de realizar cualquier
tipo de actividad en AWS, realmente
puedes
entender lo que va a pasar en su,
tu ciclo de facturación. El siguiente, que se quiere
ver es la formación de nubes. hemos hablado bastante, y esto es parte de
tus cosas de automatización. Entonces esta formación de nubes
entra por aquí, excelencia
operativa. Entonces esta herramienta en particular
por aquí donde
realmente puedes crear una plantilla de
muestra y básicamente comenzar. Entonces lo que hace este día
es como la automatización. Así que también tienes un
video de YouTube de AWS, y de hecho puedes ver ese video y entender
cómo crearlo. Pero no lo hagas
ahora mismo. Ahora mismo, te enfocas en obtener
tu certificación. Entonces hagámoslo. Vamos uno por uno, porque
yo mismo haré un entrenamiento
sobre formación de nubes. Y lo discutiremos entonces y allá
porque podría estar un largo camino por delante y no queremos esa
complicación en este momento. Pero
eventualmente llegaremos ahí. Gracias de nuevo por
ver este video. Espero que hayas entendido
un poco de, ya sabes, manos a lo que
hemos visto hasta ahora en el concepto Domain Cloud. Entonces estas son algunas de las
cosas que vamos
a revisar con mucho detalle
más adelante punto de tiempo. Y algunos de estos van a ser
como un cambio de juego para ustedes chicos Si eres nuevo en AWS, vas a estar como o esto es algo que debería
haber sabido antes. Entonces esto es lo que
sentí cuando me metí en AWS y estoy
tan feliz de poder enseñarte eso. Gracias de nuevo por su
paciencia y la. Y si tienes
alguna duda, por favor déjala en la sección de
preguntas. Yo principalmente respondo el fin de semana, así que haré todo lo posible para
responderte lo
antes posible.
9. Automatización de laboratorios (AWS CloudFormation): Chicos bienvenidos
de nuevo desde el siguiente video. En este video,
vamos a hablar sobre el beneficio de la automatización. En este video, vamos a ver algunas palabras de arquitectura, aprovisionamiento y,
ya sabes, cosas de automatización. Bueno como vivir, vamos
a ver algunas manos sobre trabajar con la formación de
nubes. Ahora, no vamos a
crear ninguna formación de nubes, pero luego sólo voy a contarte sobre el formato de la misma. La imagen aquí representa
la función de automatización. Ahora bien, recuerda que
es muy importante para la economía de la nube es que involucres menos
de una actividad manual, más de automatización e
innovación en tu proyecto. Ahora, para hacer para implementar la automatización en
términos de formación de nubes, es necesario contar con las herramientas
adecuadas para ello. Entonces, la primera herramienta que
necesitas como servicio de AWS es que tienes
algo llamado CloudFront, lo
siento, formación en la nube Entonces ahora este
servicio en particular te ayudaría a crear un servidor autónomo usando algo llamado formación
en la nube. Ahora esto usa una plantilla. Ahora bien, si solo vas a la
documentación de esto en la documentación de AWS
bajo formación de nubes, puedes ver cómo funciona
la formación de nubes. Aquí, tienes que crear o
usar una plantilla existente. Hay plantillas de ejemplo disponibles en esta
documentación en sí, y básicamente la guardas
localmente o en S three bucket. Entonces localmente significa que
creas un archivo en tu computadora portátil y luego
lo subes a la formación de la nube. O puedes ponerlo en S tres, que es vinculante de costos. Entonces tienes que pagar algo por
lo que subes en la S tres. Uh, entonces eso es algo
que deberías tener en cuenta. Pero ahorrar localmente
no incurrirá en ningún costo. Para que puedas guardar, ejemplo, este archivo JSON, realidad
puedes guardarlo
en tu escritorio y
puedes subirlo cuando estés
creando una formación de nube. Para que de esa manera no tengas que incurrir
realmente en ningún
costo en ese momento Ahora bien, lo que hará es, la formación de nubes utilizará la pila que
has creado, y comenzará a
construir la pila. Por lo que utilizará una plantilla que está en el formato de archivo JSON
o formato de archivo Yama. Como puede ver, se prefieren estos dos formatos de
archivo. Uh, cualquiera de los dos,
puedes subirlo. Básicamente, reconoce
si es un formato JSO o un formato Yamo y luego cargará esa pila en tu formación de nubes, y luego realmente
te mostrará la progresión hacia la
creación de la Ahora, um, bueno,
así que también puedes hacer clic en
Ver Primeros pasos. Entonces esto irá a
la documentación, nuevamente, la misma página en la
que estaba. Entonces esto tiene un video de YouTube para
comenzar y luego cómo hacer una formación en la nube, registrarse en AWS y mejores prácticas y trabajar con plantillas y
cosas así. Entonces eso es básicamente lo que
quiero mostrarte. Y una formación de nubes te
ayudará a crear pilas. Ahora bien, ¿qué es stack?
Stack es básicamente un conjunto de elementos
relacionados con el servicio y el servidor. Por ejemplo, uh, cuando uso el turno abierto para
crear, servicio usando AWS, open shift no solo
creará EC dos instancias, creará VPCs, creará banners de carga,
crearé dirección IP elástica y la asignaré a mi servicio y el servicio está conectado a él que interfaces de red
y cosas así La pila implica la construcción de todo el flujo de carga de trabajo, lo que me permitirá
trabajar en un proyecto. Bien. Entonces eso es
lo que es una pila. Entonces, cuando se crea dicha
pila en la formación de la nube, se reduce el
trabajo manual de las personas que
van y vienen a cada servicio y hacen la creación manual
de estas VPC, IPs
elásticas y obteniendo todos esos
balanceadores de carga creados en todas esas
instancias EC dos alojadas Por lo que dentro de 30 a 40 minutos, creará
toda la infraestructura y tendrá mi aplicación alojada. Y ese es un poder
de formación de nubes. Ahora bien, puedes
usar la formación de nubes en ese sentido o
puedes usar la terraformación La terraformación es otra herramienta de
terceros. Ahora ha sido
comprada por IBM. E incluso se puede utilizar la formación de nubes o herramienta de
terraformación Estas dos opciones están ahí fuera. Puede utilizar cualquiera
de estas opciones para crear dicha infraestructura. Como estamos haciendo la certificación
AW,
la certificación AAA nos sigue
estrictamente para trabajar en la formación de nubes en
lugar de terraformación Entonces eso es más o menos lo que es automatización y cuál es
el beneficio de misma y cómo incluso lograrlo. Yo también te he mostrado la
arquitectura. Entonces eso resume bastante
esta sesión en particular. Gracias de nuevo por
ver este video. En el siguiente video, verás
sobre los servicios gestionados.
10. Servicios de AWS gestionados en laboratorios (Amazon RDS, ECS, EKS, Dynamo DB): Ustedes, bienvenidos de nuevo
al siguiente video. En este video,
vamos a trabajar sobre este concepto en particular. Por lo tanto, identificar los servicios
administrados, los servicios HW administrados, por
ejemplo,
Amazon RDS, Elastic
Container Service, el servicio Elastic Gubernat y Dynamo
TV Entonces veremos cada uno
de estos servicios, cómo funciona realmente en
términos de las manos en. En términos de arquitectura, solo
quiero
hacerte entender la diferencia entre un servicio
autogestionado
y un servicio gestionado. puedes llamarlo como un servicio parcialmente administrado o, ya sabes, un
servicio no administrado en absoluto. En caso de que esté alojando una aplicación en
su centro de datos usando una máquina Worsham, su administrador de Linux realmente
crearía, primer lugar, su
administrador de PMWare aprovisionaría una instancia de servidor y luego la instalación del sistema operativo la realizará el administrador de Linux Y luego una vez instalado el
sistema operativo, los administradores de bases de datos Oracle instalarán el software
Oracle en la encuesta una vez que el firewall de red
esté completo completo,
y luego insertará los y luego insertará la aplicación o los datos sus clientes
en la base de datos. Y luego como administrador, podrás
acceder a él, como el administrador de la base de datos. Y entonces las aplicaciones se
conectarían a la base de datos e
iniciarían esa transacción. Entonces así es como se vería un típico, um, ya sabes,
servicio autogestionado. Vas por AWS EC dos instancias, hay dos elementos los cuales van a ser
quitados de tus manos. Uno es la creación
de la máquina virtual así
como la instalación
del sistema operativo. Estas dos cosas las
hará EC dos. EC two te dará el tipo de instancia adecuado
y el sistema operativo, y luego te
dará un archivo clave y usando ese archivo clave,
podrás acceder a él. Directamente, el
administrador de Oracle realmente
entrará e instalará el software Oracle y luego probará la licencia
y cosas así. Y luego insertará los datos
del cliente, y tendrá acceso
a esa aplicación, y luego las aplicaciones de
terceros se
conectarían a la base de datos de Racal Entonces esto lo puedes llamar como un servicio autogestionado parcialmente porque parcialmente
es administrado por ECT,
bien, donde la
creación del servidor, la ubicación del servidor, y la instalación del
sistema operativo es todo hecho por el propio Amazon. ¿Bien? Ahora, hablamos de algo llamado servicios
gestionados. Así que hay estos muchos
servicios gestionados disponibles en AWS. ¿Bien? Así que de exhibido por aquí, pero hay una gran cantidad de servicios
gestionados disponibles. su vez vamos a entender sobre
el RDS en estos momentos, los servicios de bases de
datos relacionales Entonces ahora, como tenemos la base de
datos Oracle en negrita aquí. Entonces todo lo que tenemos que
hacer es ir a RDS, decir que necesito una base de datos, S que necesito base de datos Oracle ¿Bien? Así que la base de datos Oracle viene con auto administrado traer
su propia licencia. Entonces hay que administrar esa parte de
licencia de la misma, para que, ya sabes, siempre
sea contada por AWS
al momento de la creación. Y todo lo que tienes que hacer es como, una vez que presionas el botón Crear, tendrás una
base de datos Oracle que está lista. Todo lo que tienes que hacer es
encontrar la manera de acceder a él, insertar los datos del cliente, usar el administrador
para trabajar con él y tener las aplicaciones conectadas a esa base de datos
Oracle. Qué fácil y sencillo
es, ¿verdad? Entonces, desde la
asignación del servidor, la creación del servidor, instalación del sistema
operativo, la instalación del
software se
cuidarán
todas esas cosas. Bien, en realidad no tienes que
hacer ni preocuparte por eso. Tienes en el
momento de, ya sabes, la creación de la base de datos Oracle, es posible que tengas que elegir en qué tipo de instancia quieres que se ejecute
esta. Porque en base a la instancia, se
le cobrará, y luego en base al
software también, la licencia pero de ella se le
cobrará de eso. Y lo que básicamente
hará es que te dará la potencia de procesamiento y el componente de software
viene preinstalado. Todo lo que tienes que hacer es comenzar a
insertar los datos del cliente, y la aplicación
debe ser redirigida a OraCof para trabajar con ella No hace falta
configuraciones de firewall
ni nada por el estilo
porque ya viene con preconfigurado porque al momento de la
instalación y a escondidas
habrías dicho si es
necesario acceder a esta desde la VPC
existente o necesita
crear una nueva VPC, o va a tener un acceso público, todas esas cosas, la
verás
ahora mismo . Entonces hagámoslo. Vamos a crear RDS. Bien. No voy a seguir
completamente
con ese proceso. Simplemente escriba RDS por aquí. Puedes ver ese servicio de
base de datos de relación por aquí. Simplemente haga clic en eso. Siempre hago un tiro medio para que
se abra en una nueva pestaña,
y como pueden ver
aquí, Uh, Aurora IO Optimized es una nueva
configuración de almacenamiento en clúster que ofrece precios
predecibles para
todas las aplicaciones y mejor rendimiento de precios
hasta un 40% de ahorro de costos. Entonces hay una nueva introducción
a un nuevo servicio por aquí, y eso es básicamente
habla de ello. Entonces aquí no tenemos ningún tipo de instancias de base de datos
disponibles en este momento. Ahora puedes ver que más
o menos esto es lo relacionado con
tu base de datos, ¿de acuerdo? Por lo que ahora también puedes tomar
snapshot de la base de datos. También puedes crear una
instancia inversa para tu base de datos, y luego puedes crear un clúster de
base de datos hasta 40. Ahora, vaya a la base de datos, y puede dar clic en
Crear nueva base de datos. Ahora, puede crear un
estándar create o EC create. Es crear es mucho más fácil. Te hará menos preguntas. La creación estándar es
muy recomendable porque te hará
algunas buenas preguntas, en realidad, que
realmente se requiere para ti. Entonces puedes ir por MariaDB MSQO y luego también puedes ir
por Oracle Pero hay ciertas bases de datos que requieren que
traigas tu propia licencia. Por lo que puede ver que
IBM DV dos dice que las licencias traen las suyas propias o
a través del mercado de AWS. Entonces tienes que hacer click en esto si quieres
saber cuáles son los cargos para que uses esta licencia DV dos.
Eso se puede ver. Cuando vaya aquí,
abrirá el mercado DV dos por aquí y realmente podrá
comprender el costo del mismo. Entonces el costo es de 1.04 por, supongo, por unidad Perdón por eso. Entonces
esta es una licencia dura. Sí, es 1.04. Por hora. Entonces eso va a ser en dos CPU virtuales por
aquí en un BPC, que van a
ser dos hilos Entonces, si vas a
agregar más CPUs virtuales, tienes que pagar más, en realidad, así que porque también se
basa en la licencia se
basa en base horaria, pero luego se calcula en cualquiera que sea el número de
PC que tengas por ahí Entonces, si van a ser cuatro VPC, va a ser 2.08,
así va a Entonces aquí ese es el modelo de
precios por aquí. También puedes leer
alguna descripción sobre de qué se trata esto, qué versión
se va a instalar como parte de esto y todas esas cosas,
puedes verla. Entonces, por defecto, si
vas a decir a través de
marketplace y la facturación va
a suceder y
verás la facturación final
por mes de utilización, costo
mensual es de 884 USD. Esto incluye la instancia de
dos bases de datos, el almacenamiento
y el
Iopsipposecon aprovisionado Entonces, de igual manera,
tienes la opción de elegir algunos de estos
artículos y luego deshabilitarlo, pero deberías ver esa
provisión Iops por aquí Entonces, si realmente no quieren Iops
aprovisionados por aquí, pueden ir para fines generales,
SST, lo que, nuevamente,
ahorrará una gran cantidad de dinero
por aquí para
ustedes SST, lo que, nuevamente,
ahorrará una gran cantidad de dinero
por aquí Pero de acuerdo a
la recomendación, deberías tener Iops orientados al
rendimiento lo que te dará un
mayor rendimiento Otra cosa que
verás aquí es el dimensionamiento, la configuración de la instancia,
el tipo de instancia. Estas son instancias preconfiguradas
precargadas. Lo siento, acabo de
perder donde está. Bien, entonces estas son
algunas de estas, así que solo tienes algunas instancias, que está configurada a medida para este tipo de configuración
de base de datos. El nombre del
apellido es SiXi, pero dice DB por aquí al inicio
porque es una base de datos
hecha a medida para tu RDS para
hosting Y es apellido es
seis y, y este es un grande. Bien. Entonces tienes ADX Large Tienes seis IDN, y puedes ver que viene
con una red de 25,000 MVPs con almacenamiento instantáneo de
1.9 terabytes de Ahora, cuando seleccionas
algo como esto, tu costo va a ser alto, literalmente va a alto $6,983 Entonces, igualmente, tienes Oracle Espo y ¿qué vas a conseguir
al final del mismo Entonces esta es la única
opción por aquí para que Oracle traiga
su licencia anterior. ¿Y cuál es el
resultado final de esto? Qué sucede cuando selecciono MSCR, y luego presiono un botón de crear Entonces esto es 11,386 USD. Al mes
va a ser operaciones provisionales
es
de aproximadamente 900 y instancia de base de datos es de aproximadamente
10,000 porque he elegido la versión
más alta de eso. Esa es la razón. Entonces aquí puedo elegir por algo
que es de un tamaño más bajo, así que no me cobran
tanto por ello. Entonces esto es 1,400
aún es alto. Es por obs provisionales. Entonces esto es algo
que hay que resolver, y se trata de 496. Entonces yo No creo que podamos
reducirlo más que eso. Al crear una instancia de base de datos, sin un clúster,
en realidad tendremos esto reducido. Voy a ir a la prueba de
Devon, DB single. Ahora bien, esto debería llevarnos a
176 dólares. Eso se puede ver. El precio se reduce porque no
vamos por clustering, y eso ha reducido el
costo al mínimo Entonces esta es la
versión de mi SQR. Entonces ahora, lo que pasa es que
en estas preguntas, bien, va a
haber otra
pregunta si vas a
acceder a tu base
de datos desde el acceso público. Normalmente, decimos que no, pero, ya
sabes, en tus situaciones,
podría ser como nosotros. Y y también se puede ver la VPC existente se usa por aquí así que la rabia IP
pueden ser las existentes. También puede crear
un host Bastian y luego acceder a este servidor en particular a través de un host Bastian también Entonces esa también es
otra opción si
has desactivado el acceso
público como no. Entonces aquí en la opción de
autenticación de base de datos, puede usar la autenticación de contraseña
y la
autenticación de la
base de datos de IAM con contraseña, puede crear un usuario IAM para ello y también la
autenticación de CBO Así mismo,
tienes múltiples formas de autenticarte
dentro de la base de datos Y luego aquí la actuación dentro te dará
siete días de prueba gratis. Solo puedes decir eso si
no quieres la
actuación dentro, y luego puedes presionar
el botón de crear. Entonces, ¿qué va a pasar
cuando presione el botón Crear? Vas a tener una
base de datos lista,
y todo lo que puedes hacer es acceder a esa base de datos directamente y
comenzar a trabajar con ella. No voy a
hacer eso ahora mismo porque no estamos en la etapa. Haciendo todas esas
cosas y tampoco
tienes que hacerlo ahora mismo porque es todo costo incurriendo en artículos
o parte de la prueba gratuita, por favor ten cuidado mientras haces el botón de crear porque eso va a incurrir en
algunos cargos básicos, al
menos por cargos por hora, va a entrar en acción Eso es más o menos lo que
quiero mostrarles hacia
el de RDS en términos
de trabajar con RDS Tienes otros servicios ECS, que es servicio continuo Tienes EKS, que
es el servicio Cubone T, y luego tienes NynoDB
Dynamo Dib otra vez,
esta no es una base de datos SQL, esta no es una base de datos SQL, así que eso también Entonces estas son algunas
de las cosas que en realidad se
nos
pide que echemos un vistazo, ya
sabes, en nuestro curso. Así que vamos a hacer una comprobación. Por lo tanto, el servicio de contenedores está
utilizando el contenedor Docker para crear contenedores y alojar nuestras aplicaciones
en el contenedor Bien, entonces creará una infraestructura de contenedor
cuando cree el clúster. Entonces aquí especificas qué
tipo de contenedor
quieres que quieras servir un
recipiente grande o fácil de contener. EC two significa que en realidad
puedes seleccionar
el tipo de instancia. Fargate es un contenedor erlex, que en realidad le da
cero gastos de mantenimiento, y no tiene que
preocuparse por cero instancias porque va a tener capacidad puntual de
Fargate Entonces eso va a hacer eso. Cuando comparas los servicios de
Kubernetes, así que aquí es donde
tienes los elementos de Kubernetes por aquí para que puedas registrarte o Quiero decir, el
cluster existente puede ser registrado en uh, el EKS. Y aquí le das la
versión de Kubernts y luego aquí le das los demás detalles
sobre la API de Kubernetes, y luego da clic en siguiente
y luego está esta especificación de red
puede figurar la observabilidad,
y luego algunos complementos, luego puedes Entonces estas son diferentes
formas de hacerlo. Pero de todos modos,
veremos en detalle más adelante. Y aquí en cuanto
al Dynamo DB, tenemos el Amazon Dynamo DB Esta es una base de datos NoSQL rápida y
flexible, que es muy
útil para escalar Así que para crear una tabla de creación muy
simple y básicamente dar el
nombre de la tabla, lo que quieras insertar
como una tabla configuración predeterminada, así puedes hacer eso, y luego
puedes crear una tabla. Entonces esta será una base de datos
sin SQL, por lo que no es necesario
ejecutar ningún tipo de base de datos um, MSC acal debajo de ella. Así también puedes exportar datos a S tres e importar
datos de S tres también y formar parte de las tablas que estás
creando como parte de Dynamo TV Muy bien, más o menos, eso es lo que queríamos
cubrir en este video. Así que también hemos visto todos
estos servicios. Um, gracias de nuevo
por su paciencia y si tiene alguna duda,
pregunta, secciones. No te preocupes porque no voy a adentrarme en ello porque
no es necesario que profundice en
los conceptos de la nube. Entonces vamos a entender
los conceptos de Cloud, y esto es lo que estamos haciendo. Y de esto serían las
preguntas que se trata. Te van a estar haciendo
preguntas sobre Um, es DynamoDB, servicio gestionado
o no servicio gestionado, algo así,
va a ser Entonces hay que conocer
algunos de estos nombres, algunos de los conceptos aquí para que pueda responder a esas
preguntas de manera apropiada. Gracias de nuevo por
su paciencia y tiempo. Te veré en la siguiente.
11. Labs Redimensionamiento del tipo de instancia: Es bienvenido de nuevo
al siguiente video. En este video, vamos
a hablar de dimensionamiento correcto. Es uno de los
temas de aquí, que se requiere para
su certificación llamado entender el
concepto de tamaño de escritura. Cuando miras este video, tengo la imagen
creada para el tamaño correcto. Esta imagen implica
que hay que
tener el tamaño adecuado para el ambiente
adecuado. Por ejemplo,
si se está ejecutando en un tipo de instancia incorrecto para una aplicación que
requiere más o menos, o gasta de más en la infraestructura o
gasta menos en la Entender el tamaño adecuado para ti va a ser una clave. Como administrador de AWS, ¿cuáles son las
indicaciones clave y cuál es el tipo de instancia y
cómo se puede determinar? Todas esas cosas es lo que
vamos a ver en este video. En cuanto a cómo determinar, hay
que ejecutar algo
llamado prueba de carga y
esa prueba de carga determinará si esta instancia
es la adecuada para usted. Pero entonces, ¿cuáles son los tipos de
instancias disponibles? Y ¿cómo puedes entender
el tipo de instancia? Porque cuando vas por aquí, vas a EC dos instancias, lo primero que
vas a ver es que el nombre y la etiqueta segunda cosa
es el sistema operativo. Ahora, aquí, la aplicación
del sistema operativo, tú decides el
sistema operativo, y eso es algo que has visto en
el video anterior. Ahora, el tercer paso va
a ser sobre tu tipo de instancia. Ahora, el tipo instantáneo es tan
crítico e importante porque puedes gastar menos
o sobregastar en este nivel Aquí es donde realmente
tienes que tomar una
decisión crítica sobre tamaño de tu infraestructura o tu
sistema de donde
se va a ejecutar tu aplicación. Entonces, antes de decidir
esto, tienes que tomar una entrada de tu ingeniero de
aplicaciones que tiene, ya
sabes, diseñado la aplicación, quién sabe sobre la aplicación, quién ha trabajado en
la aplicación, y sabe sobre los uh, ya
sabes, cuáles son los requisitos de
CPU, cuáles son los requisitos de RAM, si requiere una GPU en ella. Entonces de igual manera, es necesario
entender un poco desde
el punto de vista de la aplicación para
ver si eso se ajusta a la factura Ahora bien, para decidir sobre esto, hay
que elegir entre mucha familia
de tipos de instancias. Se puede ver que hay algunos, que es seguir pasando por
aquí. Perdón por eso. Entonces hay algo
que está bloqueado, que es algo que no está habilitado para ti.
Hay una razón para ello. Y hay algunos artículos
que son tan caros que el precio base de Linux
en sí es de 407 USD por hora. Entonces son solo 40 $7 por hora. Um hay
los más baratos donde lo consigues 40.52. 0.0 081 USD por hora. Hay algo
que también está disponible para prueba gratuita. Entonces um, estas son algunas de las clasificaciones en
términos de, ya sabes, lo que está disponible para ti en
términos de trabajar con, uh, tu tipo de instancia, lo cual es muy importante
en este momento Entonces tienes las generaciones, tienes a
las generaciones actuales una también. Entonces esto es todo de la
generación actual. Así que puedes ver una
lista de muchos tipos de
servicio uh disponibles aquí. Toda generación te
va a dar más de este tipo de instancia, que incluye también a la vieja
generación. La generación actual cae. Entonces, ¿qué son estos? ¿Cómo se utilizan estos? ¿Por qué
algunos de ellos están bloqueados? Es lo que vamos a
entender en este video, ahora, no vamos
a profundizar en esto, pero, ya sabes, algo así como una arquitectura que he diseñado para ustedes
chicos les ayudará. Ahora,
instancia escriba nombre de instancia como en, digamos, por ejemplo, un micro lo siento, T dos Micro combina
dos elementos por aquí. Entonces incluye T dos, que es
familia de instancias y micro, que es este tamaño de instancia. Entonces esta es una combinación
de dos cosas. Bien. Así que vamos a entender
sobre el tamaño porque el tamaño es el camino más fácil que es ancho está en la parte superior. El tamaño determina la
cantidad de CPU y memoria. Bien. Entonces un nano es
el tamaño inicial, que es el
tamaño más pequeño de una instancia. Y va hasta 48 X grande, que he visto recientemente, donde 48 X grande viene ya sea con un tamaño de CPU
volado, tamaño de soplador de RAM
ya sea de esto basado en a qué categoría
o familia pertenece. Ahora, solo tienes que darte una
comprensión por aquí, solo escribe nano por aquí. Podemos ver que es 0.5 B de memoria y una CPU
virtual por aquí, y tienes un nano aquí en t4g, que viene con
dos CPU virtuales y 0.5 GB de memoria por aquí Ahora bien, este es básicamente
el tipo nano. Ahora veamos X 48. Esto es X 48 grande. Eso es raro. Lo siento, 48 X grande.
Por eso no llegó. Entonces aquí en esta situación, tienes 348 GB de memoria
y 192 CPU virtual. En algunas situaciones, obtienes friolera de mil 556 GB de
memoria y 192 CPU virtuales Entonces, de igual manera, la edad X 42, ya
sabes, pone a partir de
192 CPU es seguro. Lo vas a obtener
en todas las instancias, pero luego el
tamaño de memoria de esta es de aproximadamente 384 GB hasta aproximadamente
1,356 GB de tamaño de memoria Entonces los cargos por eso también
subirán más altos, por lo que puedes ver $12 la
hora cuando estés usando este tipo de
instancia en tu AWS Ahora, las calculadoras de precios te van a ayudar en eso
también para determinar el cálculo
del precio de cómo va a ser seleccionando
EC dos aquí Y aquí también, tienes el tipo de
instancia EC dos por aquí. Entonces, en primer lugar, tienes la
selección del sistema operativo y el arrendamiento, ya
hablaremos de ello más adelante Y EC dos instancia por aquí, y tienes toda la instancia EC
dos por aquí y puedes ordenarla vía familia. Entonces tienes tantas
familias por aquí. Entonces vamos a llegar a las
familias ahora mismo. Entonces volviendo al diagrama de
arquitectura, tienes la
familia de instancias por aquí. ¿Cuáles son estas familias de instancias? Por lo tanto, el propósito general de llantas libres es básicamente una familia de
instancias Tet. Lo que esto significa, o lo
obtienes en una prueba gratuita, llanta
gratis, lo siento, y
tienes el propósito general. Entonces todo este
neumático Tet está diseñado como una familia de instancias de propósito general,
um. Entonces lo que sea que esté alineado a él. Entonces máximo, mi vista
es T dos medianas, T dos grandes que he usado. No he usado T dos
más que grande. Porque entramos en otro propósito
general por aquí, que es A uno, cuatro, T tres, T dos po luego T tres A, y luego M seis, M cinco. He usado muchos
MPI por aquí,
que está todo relacionado con relator de memoria y tiene
buena cantidad de memoria en él Así que he usado eso. Entonces tienes computación optimizada. I CPU enfocadas en las que
tienes muchas
CPU pero menos RAM, como C seis, C cinco, C cuatro Y entonces tienes la
memoria optimizada, que básicamente es tener más memoria y menos
concentración en la CPU, como Z uno, X, R cuatro, R cinco, R seis. Entonces tienes la computación
acelerada, que habla de más sobre tu unidad de
procesamiento gráfico, uh,
F one, g4g3, luego I N de 1b2b3 Entonces tienes almacenamiento optimizado. Se enfoca en más artículos de
almacenamiento por aquí como I D y H. Así que al
elegir la familia adecuada para tu tipo de instancia
va a ser muy útil para que
trabajes con otras cosas. Entonces te he dado alguna
teoría la cual puedes tomar una pantalla
solo la pondré como parte de la documentación. Así que
no te preocupes por ello. Entonces, cómo se crea una instancia
combinando la familia
y el tamaño de la misma. Entonces una instancia puede comenzar
desde el punto de vista inferior. Por ejemplo, si tomas los enfocados gráficos por aquí, así que si solo seleccionas
una G por aquí, como, digamos, por ejemplo, G dos por aquí. Y entonces no es capaz de
encontrar ninguna coincidencia por aquí. Veamos esto. Lo siento. G dos. Lo siento, por alguna razón, G dos no viene.
Déjame ir a G tres. Puedo ver que G
three arranca desde XLarge y se pueden ver 30 GB de memoria y
cuatro CPU virtuales Y se cobra por
Linux alrededor de 0.75. Y entonces tienes un
poco más extra. Es cuatro X grandes ocho
grandes y 16 X grandes. Así se puede ver la memoria y
la CPU sigue aumentando. Entonces tienes X grande como
cuatro y cuatro X más grande,
16, Ax más grande, 32, y 16 más grande, 64. Entonces cada pedacito de ella, para que veas que hay un drástico incremento 8-64
en términos de CPU virtual Eso va a
recordar hasta 48 X.
48 x, vimos alrededor de 192 CPUs
virtuales, ¿verdad Entonces básicamente, esto es
hablar de los números de CPU. Entonces la X grande, la
Hacha, las cuatro X Adex. Entonces puedes ver a medida que aumenta, entonces obviamente puedes entender
la diferencia ahora. La diferencia entre X
grande y cuatro X grande, lo que hay en el medio
son las dos X grandes, que deberían estar alrededor o doble X o X grande
es st lo mismo, y eso va a ser
alrededor de ocho CPU virtual. Si puedes calcular eso, puedes conocer las
diferencias en ellas. Entonces cuando llegues a 48 X
grande, obtendrás 192. Ese es básicamente el
cálculo aquí. Pero la RAM aquí
aumentará o disminuirá. A veces te
darán múltiples opciones de tamaño de ram. Porque está más enfocado
en la CPU y la memoria. Entonces lo mismo por aquí,
el G dos no viene, sino el G tres de aquí, en realidad
verás las diferencias. Para que puedas ver ese potencial costo
efectivo de ahorro por hora por porcentaje. Así que puedes haber ahorrado tanto. Bien, así que eso es
más o menos lo que quiero mostrarte sobre esto No quiero entrar en detalles. Hay tantas cosas de las
que queremos hablar, pero hagámoslo después, porque como esta va
a ser la primera sección, no
quiero infundir muchas cosas
en este video Entonces lo que voy a hacer es
volver a la diapositiva que
estaba presentando. Voy a terminar ahí. Entonces esta es la comprensión
del dimensionamiento correcto. El tamaño de escritura es
tan importante que necesitas entender
sobre el tipo de instancia. Hay tipo de instancia. Los
dos tipos de tipo de instancia. En la instancia el tipo uno es
la familia, otra talla única. Por lo que combinar la familia
y el tamaño en
realidad terminará en el
tamaño adecuado para su aplicación. Pero para determinar cuál es el tamaño correcto
de su aplicación, puede compararla con
el entorno existente, cuál es la CPU y la
memoria asignada a ella. O puede consultar con
el arquitecto sobre el rendimiento de
las aplicaciones
y la cantidad de RAM y CPU que se requiere, si se
requiere alguna GPU a lo largo del tiempo, y básicamente podemos, ya
sabes, tener eso
correctamente configurado en AWS Gracias de nuevo por
su tiempo y paciencia. Te voy a ver en
el siguiente video.
12. Labs BYOL y otras estrategias para licencias: Oigan, chicos. Bienvenidos de nuevo
al siguiente video. En este video,
vas a entender sobre las estrategias de licenciamiento. Ahora bien, este video va a tener diferencia entre los modelos
de licenciamiento. Hay dos
modelos de los que
vas a hablar es traer tu propia licencia
y además incluir,
incluir licencia con
tu instancia de AWS. Entonces este es el diagrama
que quiero mostrarles. Entonces hay estas dos
clasificaciones por aquí, trae tu propia licencia cuando
ya tengas una licencia
contigo y te hayas llevado como de tres
a cuatro años de tiempo de licenciamiento con
una empresa o una corporativa, cierto, como un sombrero rojo o
Microsoft diciendo que, bien, me quedan tres años
de licencia Entonces, ¿está bien
trasladarse a la Nube? Entonces puedes decir, está muy bien porque puedes
traer tu propia licencia, y realmente no
tienes que pagar, ya sabes, pagar la licencia
inclusive en este AOB O si tu licencia ya ha
terminado, estás trayendo un nuevo servicio, estás planeando
traer un nuevo servicio
con un nuevo modelo de licencia porque tu licencia anterior está a punto caducar en el transcurso de
seis a un año. Entonces realmente puede
pagar AWS directamente, incluida la tarifa de licencia. Así que realmente no
tienes que lidiar con sombrero
mojado o IBM o, um, ya
sabes, um, cualquier otra compañía, Microsoft o cualquier otra cosa, no
tienes que lidiar
realmente con ellos. Todo lo que tienes que hacer es como el pago con
todo incluido, puedes hacerlo
a la base, ya
sabes, mensual
o anual a AWS, y según el plan
que elijas. Ahora, voy a
mostrarte algunas manos sobre esto para que puedas
entender y mucho mejor. Voy a comparar
estas dos cosas. Entonces, si vas por una red
t Enterprise Linux, y puedes ver que se trata una suscripción basada en RedHat
Enterprise Next por aquí Por lo que se puede ver el
autoapoyo un año. Por lo que los medios de autosoporte
no incluyen red hat atención al cliente
no incluye red hat o, um, host atómico o sistema
físico. Entonces esto significa que
te apoyas solo eso
si vas a tener un acceso legal o
uso legal para este red hat, ya
sabes, servidor, que puede
ser usado para Data Center. Y eso es alrededor de 383 dólares
estadounidenses al año. Y entonces si incluyes
el haz de satélites, entonces vas a
conseguir como siete, 68. Estos son los esta es la cantidad
total por aquí. En cuanto
al soporte estándar donde es el horario de apoyo de vaca entre las
9:00 A.M. y las 6:00 P.M. Y, um, se puede ver que el horario comercial
estándar. Así canales de
soporte web o telefónico, casos de soporte
ilimitados. Entonces, si ese es el caso, y habilitas como todo tipo de, ya
sabes, bundle por aquí, incluyendo alta disponibilidad,
resiliencia, almacenamiento y soporte de actualización externa, vas a obtener
una versión inferior a 2008 55. Y cuando vas por
un soporte premium, que es 247 y puedes levantar una variedad
uno y dos casos, en ese caso, va
a ser de $3,131 anuales Entonces este es el
costo de licencia en términos de sombrero rojo. Ahora, cuando vas
a Windows, ¿verdad? Entonces, para un servidor de centro de datos, es muy sencillo. Son 6.000 mil 55 dólares. Cuando vas por,
como, un entorno físico o un
entorno virtualizado mínimo, que está basado en núcleos Nuevamente, esta es licencia
basada en core, y esta es 1006 90.069, como en, como, el pago anual que necesitas para Y luego tienes
la pequeña empresa hasta 25 usuarios en 50
dispositivos, aproximadamente 5:01. Entonces en estas situaciones, realidad se
puede ver que la división
Data Center tiene tanta característica y luego la estandarización
no tiene tanto Esa es más o menos la adición
del centro de datos por aquí. Esa es la razón por
la que cuesta tanto. Ahora, cuando
comparas lo mismo, cuando estás usando tu AWS, en realidad
puedes comparar
esto de dos maneras. Puedes ir a EC two Instancia y realmente puedes
lanzar instancia. Y luego a partir de ahí, puedes
seleccionar el sistema operativo, y luego podrás comprobarlo. Puedes ir a la anterior, ya
sabes, nuestra
calculadora de precios por aquí, hacer clic en estimación,
y en realidad puedes buscar EC dos instancias
y luego hacer clic en Configurar. Y aquí tendrás la, ya
sabes, la especificación EC dos
en la parte superior misma, y luego tienes sistema
operativo. Te da un elemento del
sistema operativo muy simple por aquí. Entonces tienes redeye Enterprise x con SQL. No queremos SQ. Solo queremos que el HA
esté disponible si selecciona HA, se
le facturará $27 por mes, como puede ver aquí Ahora bien, si seleccionas Windows con solo un
servidor Windows normal, cuesta alrededor de $3.80 Y se puede ver
que también hay una edición
empresarial de Windows Server SQR , que es de $1,203.40 Entonces, del mismo modo, tienes diferentes cosas por aquí entre las
que puedes seleccionar. Pero si quieres, sistemas
operativos reales, en realidad
puedes ir a EC two Instance y realmente
puedes ver uh, cuánto te va a costar. El costo de esto vendrá cuando en realidad
selecciones algo de esto, así que realmente lo
verás por aquí Entonces, a partir de ahora, se selecciona libre de
AMI elegible. Hay este elegible gratuito donde en el que
realmente puedes seleccionarlos, y existe el soporte
que viene con el servidor
ISQO en Ahora ve con algo como Enterprise o red it
Enterprise Linux. Es como empresas de sombrero rojo, vas a conseguir
este AMI por aquí. Y aquí hay una
empresa reeditada nueve con HVM, que es elegible gratis, y luego hay
otras dos que no lo es Uno que SQL otro con alta disponibilidad,
y haga clic en él. Ahora, dirá que
hay que cambiar la configuración
para solo confirmarlo. Y luego cuando se cargue, vas a obtener
algunos detalles al respecto hacia qué tipo de artículos
va a tener hacia él. Sólo voy a pausar el viento y pausarlo una vez que se complete. No me quedé atascado, pero solo refresco
la página en la que funcionó. Entonces esto es alta
disponibilidad con la versión Red Enterprise Linux
nueve y se puede ver que viene con volumen SSD. Y más o menos esa es la
información que vas a obtener. Entonces no voy a cambiar ninguna otra información por aquí. Va a ser
como D dos micro. Y luego, cuando miro
los cargos por aquí, no
está mencionando
los cargos aquí,
pero esto en realidad se cobrará, ¿de acuerdo? Entonces eso se va a
cobrar en este nivel. Entonces no va a ser
de necio libre, seguro. Porque te van a
cobrar de lo que se menciona aquí cuando selecciones identifica
Linux con jaja Vas a cobrar $27
solo por el sistema operativo. Entonces, así mismo, ya sabes, trae tu licencia y la licencia incluida
va a ser un cambio de juego para ti porque realmente no
tienes que lidiar con nadie De hecho, puedes lidiar con
esto la facturación completa. También hay una cosa más que
quiero mostrarles son las AMI. AMI básicamente MI está
en la imagen de la máquina. Ahora cuando haces clic en la AMI, realidad
puedes ir a esa instancia de EC dos solo directamente. Y luego a partir de ahí, basta con
hacer clic en Launch Instancia. Si ves eso, aquí habrá nombres de sistemas
operativos, justo después de eso,
tienes que navegar más AMI. Al hacer clic en él,
tienes tres opciones
para que navegues. Una es la AMI R que has creado
tú mismo usando una plantilla. Y luego tienes
la AMI del marketplace. Entonces, Marketplace AMI
es algo que está aprobado por, ya sabes, AWS. Y aquí es donde entra tu Oracle Red Hat y luego ponen aquí su imagen
oficial. Y como usuario de AWS que lo está usando puede dejar una
reseña sobre esa imagen. Y luego tienes AMI
comunitarias. Entonces tienes AMI comunitarias, que es imagen comunitaria
que es que es pública. Por lo tanto, cualquiera puede
publicar esta AMI simplemente, ya
sabes, seleccionando el catálogo. Y como puedes ver por aquí, estos son los datos del propietario
por aquí o Como nombre. La propia Amazon está
haciendo esta imagen. Ahora, todo es base de costos. Hay estas AMI gratuitas que no requieren
que pagues nada. También están estos
pagados. Solo busquemos algo
muy popular por aquí. Entonces, en términos de la lectura del cliente de
AWS, simplemente
haremos eso. N dos WS backup en recuperación AWS, prueba
gratuita, traiga
su propia licencia. Esto le dice traer
su propia licencia, lo que significa que es posible que deba ingresar su licencia
en algún momento. Y luego tienes
otros servicios, y luego tienes el negocio de
SAP también. Se puede ver que también
hay otros servicios. Y ahí está este
Microsoft 2019. Entonces, si solo vas
a los detalles, verás el
resumen aquí y
cuánto se supone que debes
pagar por una hora. Entonces esto te dice sobre el índice de
precios de aquí. Puede hacer clic en precios. En realidad, se puede ver alguna
información al respecto. Entonces ahora, el precio difiere en
función del volumen uh, lo siento, el tipo de instancia
EC dos. Ahora aquí este precio de 3.3 84 Está hablando de cuando estás
usando un M four large. Pero si estás usando
un T two micro, que es instancia libre, T two micro con este,
se va a cargar 0.016/hora Ahora, puedes guardarlo por, te
diré los
consejos de ahorro más adelante punto de tiempo, así que no hemos llegado a eso, así que hablaremos de ello
más adelante punto de tiempo. Um, así que así es más o menos cómo puedes entender sobre
un producto específico, y, ya sabes, esta
es una versión de prueba. Ahora bien, esto se paga. Entonces aquí, es una C cinco una grande, A dos X grande, perdón. Y en EU East. Entonces ese va a ser el precio por
hora por aquí
si vas a usar esta imagen particular de AMI
o máquina. Entonces, de igual manera,
vas a tener diferentes
imágenes de máquina las cuales son algunas son gratuitas, algunas son de pago. Se puede ver que esto
es incluso más barato, pero esto está usando
T tres medio. T tres es como una clase estándar de tipo Fácil de instancia. Tan mediano es usar el
tamaño de la instancia. Y se puede ver que
es bastante caro, diría
yo, de mi
opinión para abrir sous. Pero igualmente,
vas a tener gente entrando desde el punto de vista de la
empresa. Esto es desde el propio sous abierto. Pero, de igual manera,
verás um, imágenes, que es aprobado por el vendedor, y esta es una imagen de
comunidad abierta. Entonces el precio es de nueve
difieren por aquí, así se puede ver que ahí está nombre de
esta persona por aquí. Das clic en él, es
un proveedor verificado. Entonces, si seleccionas esta imagen, en realidad incurrirás en un
poco de costo basado en, ya
sabes, sea cual sea
el precio que se establezca A veces podría ser gratis. Entonces hay que pagar
por la instancia. Y más o menos eso es
algo que hay que hacer. Y ahora, cuando vas
por la organización, en realidad no
estarían recomendando ninguna de las imágenes de la
comunidad porque
optarían por lo que está
disponible en el um existente, ya sabes, imagen de máquina
o irían por, ya
sabes, una imagen aprobada de AWS y
del mercado Por lo que no iban a ir
por AMI comunitaria. Entonces, ¿recuerdas eso? Entonces eso es algo que
es bastante sólido y, ya
sabes, recomendado ir
a por ello. Aunque incluye
algunas tarifas de licencia, pero aún así valdrá
la pena porque
obtendrá soporte y mantenimiento del
equipo de soporte en caso de que necesite ayuda en algunos de los problemas que
se han enfrentado aquí. Ahora, hay
otra categoría por aquí llamada AMI de
inicio rápido que
habla de algunas de las AMI
recomendadas por AWS, ya sabes, AMI. Entonces esto es básicamente lo que puedes ver en la instancia de lanzamiento de EC two
instance, cuando ves las imágenes
predeterminadas, ¿verdad? Ahora bien, de donde viene esto de donde
provienen estas imágenes, estas vienen de AMI de inicio
rápido. Entonces este es básicamente el sistema operativo
base, algunos son gratuitos, algunos son de pago. Pero entonces los artículos más
usados están por
aquí para que puedas
seleccionarlo rápidamente en lugar de, um, ya sabes, ir y
navegar por la AMI. Um, las AMI del mercado. Así que esa es la diferencia entre las AMI de inicio rápido y
las AMI del mercado. Entonces esto es más o menos lo
que quiero mostrarles en este video. Espero que hayas entendido la diferencia entre
traer tu antigua licencia y la licencia que
es inclusiva en tu, ya
sabes, el pago mensual que se supone que debes pagar. Entonces por ejemplo, uh, mi concepción por aquí en los
últimos dos meses, también incluye la
suscripción de los servicios, que he utilizado como parte
de mis dos instancias EC. Entonces eso va a ser incluido
como en mi factura mensual. Entonces se va a quedar así. Bien, gracias de nuevo
por su tiempo y paciencia. Espero que hayas entendido bastante
este tema, y te platicaré
en el siguiente video.
13. Calculadora de precios de AWS de Labs de costos fijos vs. costos variables: Oigan, chicos. Bienvenidos de nuevo
al siguiente video. En este video,
vamos a entender sobre conceptos de
la economía de la nube. Ahora, como se puede ver en
el documento de aquí, así tenemos el um, ya sabes,
tarea quando cuatro, que dice, entender el concepto
de economía de la nube Y dentro de eso,
tienes múltiples temas. Vas a recibir muchas
preguntas de este tema, especialmente relacionadas con
traer tu propia licencia, costo
fijo y costo variable. Algo sobre los beneficios de la automatización y también algo
sobre los servicios gestionados. ¿Cuáles son los Bien? Entonces, aunque
discutimos sobre algunos entendimientos aquí
sobre los servicios administrados, vamos a entender
muy profundamente aquí sobre los servicios
administrados. Y esto de nuevo va
a ser un panorama general. No vamos a entrar dentro de
cada uno de estos servicios gestionados, que realmente no se requiere
para esto en este momento, para su certificación
en este nivel. Entonces, de cualquier manera
entenderemos tendremos
una comprensión más profunda sobre ese punto posterior del tiempo Ahora bien,
con lo que quiero empezar son estos dos
servicios de aquí. Lo siento, estas dos
habilidades por aquí, las
cuales vamos
a entender y vamos a hacer
algunas manos en ASPA Entonces esta formación va a ser a vez arquitectura y
así como va
a tener manos ASBO Entonces, sigamos adelante con eso. Ahora, entender
la economía de la nube es básicamente entender cuáles son los
gastos en los que se va a incurrir
hacia su cliente. Ahora, anteriormente en la arquitectura
anterior, hemos identificado el marco de
adopción, y hemos trabajado con la forma en que vas
a migrar tu, ya sabes, aplicación de on prem a
tu centro de datos cloud cloud Ahora bien, ustedes han entendido
estos dos aspectos. Ahora bien, aquí es donde
el cliente está contento de saber
que los pilares, él sabe eso, ya sabes, el framework, y
sabe cómo migrarlo. Entonces le has dicho
al cliente que lo siguiente que le vas a decir
al cliente es,
como, ¿de qué se trata la
economía? Como, cuánto dinero
puedes ahorrar en términos de costo fijo y costo variable. Vas a ahorrar en términos de licencias y migrar
a un servicio administrado, cuánto va a ahorrar
realmente a tu cliente Entonces estos son algo
que es muy importante que usted como ingeniero de AWS, esperaba entregar
esto al cliente. Y esa es la
razón por la que esto forma parte de tu curso de certificación
a nivel fundacional Entonces para hacer esto 100 por ciento
sin problemas, ya
sabes, entregar
esto al cliente, necesitas entender
primero sobre el costo fijo y el costo
variable. También tengo un pequeño ejemplo para ti en términos
de esto práctico. Entonces ahora, estos dos
temas están relacionados. Por eso se ve en
conjunto como una sección. Ahora, aquí tiene la
comprensión del papel
del costo fijo en comparación
con el costo variable, y tiene comprensión del costo asociado con el entorno de
promesas. Ahora, como pueden ver por aquí, costo
fijo no es otra cosa que nosotros
solo gastamos en, um, ya sabes, cantidad
específica de,
um, ya sabes, dispositivo ,
adquisiciones, como un hardware, y como que tienes que
pagarlos por adelantado. Y no tienes
ese requisito. Como, por ejemplo, um, si vas a buscar en
amazon.com y quieres comprar,
um, un tamaño de almacenamiento de, ya
sabes, un servidor, unidad de disco
duro o un tamaño de almacenamiento de dos TB o tres TB
o cuatro TV y
sientes que ese es el máximo
de contenido que necesitas tener Digamos, por ejemplo, una TB de un dato o
tres TB de un dato. No podrás
personalizarlo. Tendrás un límite específico. Se puede ver que su
plus rojo digital
occidental es de aproximadamente cuatro televisores. Si estás comprando un disco duro de cuatro
TV como este, necesitas comprar
otro disco duro, que es cuatro TV también porque
lo necesitas para redundancia Lo necesitas para tolerancia a
fallas y
cosas así,
porque así es como se diseñan
los sistemas de protección. Por lo que debe tener una copia
de seguridad de los datos similares. Entonces necesitas comprar
dos de estos cuatro televisores y tanto los cuatro TB
estarás usando realmente solo un televisor solo
porque
no hay nada en el mercado
que tenga para un TB, tienes que comprar el mínimo. O vas por
dos TV o cuatro TB, pero a partir de ahora, solo
cuatro TV están disponibles. Entonces tienes que gastar
como 99 dólares para esto, y tienes que
gastar otros 99 dólares para tener una replicación para Entonces son como 200 dólares por esto. Y si no tienes
opción, ¿verdad? Entonces tienes como ocho
GB de datos por aquí, que son alrededor de 200 dólares por
aquí. Así se puede ver eso. Esto es bastante bueno, unidad de disco
duro porque quieres comprar una unidad de
disco duro para tu servidor, que es bastante caro. Pero esto es completamente
diferente cuando vas por un dispositivo de almacenamiento de
servidor real, eso va a ser
completamente diferente. Entonces tenemos diferentes
sitios web del proveedor, y en realidad
darán en la cotización para eso más adelante ese algo
que es muy diferente. Entonces vamos a comparar
esto como ejemplo. Entonces Um, para que veas que esto se
configura con una tasa. Digamos, por ejemplo, supongamos que son $200 lo que estás dando por
ocho TV de datos, pero en realidad estás
usando datos de dos televisores. Bien. Así que ahora tenemos
una excelente herramienta en su servicio um AWS llamado
facturación y gestión de costos. Cuando ingresas facturación
y administración de costos, vas a obtener esta herramienta
llamada calculadora de precios. También puede acceder a
esta calculadora de precios directamente por ruta
calculadora AWS. Ahora, cuando accedes a
este UR en realidad va a la
calculadora de precios de aquí. Entonces ahora esta
calculadora de precios te muestra el costo estimado de tu solución de
arquitectura. Como, por ejemplo, estamos hablando de almacenamiento
en este momento. Entonces ahora lo vas a
comprar en prem,
y como te dije, el almacenamiento no
está disponible en un tamaño
personalizado, ¿de acuerdo? Sólo está disponible en dos, cuatro, uh, ocho, 16. De igual manera, tienes
lo que está disponible. Y lo segundo es que el proveedor con el
que puedes ir, quiere vender un
producto más alto por un precio menor. Por lo tanto, siempre
se lanzarán para un almacenamiento más grande, a
pesar de que
en realidad no vas a usar
tanto almacenamiento. Entonces tienes que
pagar, ya sabes, una oportunidad y en realidad
estarás, ya sabes, obteniendo un
dispositivo de almacenamiento que tiene, como, un almacenamiento enorme. Pero lo que en realidad vas a estar
usando no es tanto. Así que no vas a estar usando el
100 por ciento de eso. Entonces, como que tienes que
gastar esa cantidad, y tienes que gastarla
temprano también antes de que incluso, ya
sabes, pase cualquier otra cosa. Entonces, igualmente, um, ahí
hay muchos problemas. Ahí hay muchas
complicaciones. Pero cuando trabajas con AWS, ahí es donde entra el costo
variable
aquí en la computación en la
nube. Ahora, usando esta calculadora de
precios, en realidad
puedes
calcularla de acuerdo a
tus requerimientos. Entonces, por ejemplo, califiquemos
una estimación por aquí, y selecciono a
Virginia del Norte como mi región. Hay una razón por la
que hago ese momento posterior. Te diré por qué
elijo región. Y aquí le doy S tres
como nombre de servicio. Entonces aquí solo hago clic
en Figura de Kid, y verán que hay tantas clasificaciones
bajo ST Entonces para Lambda, tienes, acceso
poco frecuente así que ya sabes, tienes Express también por aquí Entonces de igual manera, tienes tantos. Pero lo que por defecto se selecciona es el estándar y la transferencia de datos. Entonces estas son las dos
cosas que se usa. Entonces digamos, por
ejemplo, al mes, vas a subir
como 200 GB de datos. Entonces no es como si realmente estuvieras subiendo ya que estás
cating una aplicación, por lo que obtendrás nuevos
usuarios que vienen en datos de los usuarios se cargarán en tu base de datos o
tu unidad de datos, que estará usando
S tres aquí, y aumentará
gradualmente dos TV No es que lo vayas
a conseguir dentro de un mes. Puede tomar un año para que
gradualmente crezca a dos TB. En esas situaciones, se puede decir que 200 GB mensuales es
lo que va a hacer. Está esperando que los
datos estén disponibles. Qué tipo de cuántos datos
se moverán en el estándar ST. El especificar la cantidad de datos
que se moverán, sí. Entonces, esta cantidad específica de datos ya está almacenada
en los estándares ST, así que eso es más o menos este. Y poner una copia de la lista de correos, que acaba de ejecutar,
ya sabes, con frecuencia. Entonces yo diría todo esto. Um, así que tengo que
mencionarlo por número. Entonces yo diría como 100 veces
obtendrás algo como esto y luego obtendrás lista y todo esto 50 veces o
algo así. Entonces aquí, los datos
devueltos por S tres selección, el retorno de datos y
luego los datos escaneados por S tres selector.
Entonces no es mucho. Supongo, como rango de diez
GB a 20 GB, tendrás datos escaneados y devueltos
por S three select. Así que más o menos eso y luego puedes ver este
cálculo por aquí. Entonces tienes el
precio de 200 GV y en realidad
tienes un
gasto mensual de $4. Eso lo veo. Así que en realidad has gastado 200 dólares en unidad ATB, que es a largo plazo
y en
realidad no vas a estar usando eso
eso es algo muy grande Entonces en
realidad no vas a estar usando ATV Uh, al inicio de las cosas, en realidad
solo estarás tratando con 200 GB de datos y luego
gradualmente crece, ¿verdad? Ahora, puedes ver cuánto
dinero puedes ahorrar por aquí. Entonces este dinero, los $200, si lo hubieras puesto en
vez de ponerlo por adelantado,
y pagas como 4 dólares cada mes,
como que y pagas como 4 dólares cada mes, ganas los intereses en ese dinero porque en realidad no
vas a estar
gastando el dinero, realidad estarás
teniendo eso contigo, lo que significa que los intereses
estarán contigo por ese Podrías haber invertido
en otra cosa. Y en realidad los gastos totales de S tres costo estándar es de 4 dólares, incluyendo todos los que ponen y reciben solicitudes y
cosas así Pon y G no es mucho como
puedes ver por aquí. Y en términos de función de
transferencia de datos, puede agregar alguna función de
transferencia de datos como Internet gratis, y realmente puede poner en, cuánto de una transferencia
de datos espera aquí. Y en realidad se puede ver
el cálculo por aquí, solo digamos una TB al mes y una transferencia de datos a
Internet nuevamente en la televisión. En realidad se puede ver que
es $92 por aquí. Pero se trata de un terabyte de TB de datos transferidos a
través de Internet Bien. Entonces ahora aquí, la transferencia de datos de la transferencia de datos entrantes
es completamente gratuita Entonces, si no voy a exportar esta gran cantidad de datos
fuera a Internet, entonces en realidad no me van a
cobrar nada. Por lo que los datos entrantes
son completamente gratuitos. Entonces puedo tomar
datos a S tres, pero puedo restringir las personas accedan a
mis datos desde S tres, y puedo usar servicios internos. Como, por ejemplo,
puedo usar otra, um, ya sabes, otra región. Para capturar esos datos. Entonces si solo vas por eso
y yo solo voy a
acceder a estos 200 GB de datos, y puedes ver que incurro en 4 dólares dentro de toda la región y
aunque lo transfiera a
través de Internet, no van a
ser mucho 18 Ahora bien, este costo de 18 USD, incurriría pase lo que pase, incluso use aunque compre
esta unidad de disco duro, aún tiene que pagar
los cargos de Internet Internet no es gratuito cuando sale o entrante Este cargo eventualmente
se te ocurriría como el cargo de
Internet para ti. Entonces esa es la
razón por la que las características de
datos, la función de transferencia de datos está
separada de ST porque esto incluye las
tarifas de Internet de usted transfiriendo datos. Pero lo bueno
es que Internet es gratis cuando tus datos entrantes,
y los datos salientes se
cobran porque en realidad los
estás cargando a otro
lugar Ahora, puedes subirlo a Cloudfrind que de nuevo es, gratis Un Crowdfrind como te dije, es un servidor de caché, y
básicamente, ya sabes, caché la información
y la envía al cliente que
la está
navegando para un acceso más rápido, ya
sabes, a Ahora con todas estas tarifas, puedes ver un
costo mensual total de 22 o 22 USD, que es realmente barato cuando te
comparas con este tipo de aquí. Cuando empiezas a consumir más cantidad de datos
cuando estás llegando a un nivel en el que
realmente estás utilizando
dos TB por mes. Digamos solo dos TV al mes. En realidad puedes ver cuánto vas a gastar por mes. En realidad estarás gastando 47 dólares. Ni siquiera te
acercas a lo que estás
gastando por aquí, pero es un
cargo mensual, lo sé, pero seguirá
recurrente cada mes. Pero siempre hay
una manera de que
puedas um archivar los datos que no
estás usando y
enviarlos para un estado de archivo profundo, hay otros
servicios que
mantendrán tus uh, ya sabes, datos incluso más baratos que S tres, porque eso será
en estado archival D Hablaremos de esos
servicios más adelante en el momento, pero también puedes archivar
esos servicios. Así mismo, esta herramienta es muy importante para cualquiera que
esté iniciando su
carrera con AWS, donde quieras entender
sobre los servicios, cómo va a impactar
vamos a usar mucha de esta herramienta para entender o alojar esto porque
como ingeniero, he usado esta herramienta tantas veces cuando estoy trabajando
con un cliente y sus necesidades y quiere es todo ahorrar dinero y ahorrar costos y automatizar la
mayor parte del proceso. Entonces para hacer eso, esta herramienta es muy buena y voy a enseñarte más sobre este punto del tiempo
posterior. Volviendo a este ítem de acción
en particular, espero que haya
entendido lo que es un costo fijo y lo que es
un costo variable, y entienda los gastos
que ocurren en el OnPMiseeEnvironment Los gastos incluyen um, compra de compra y mantenimiento
de hardware físico, equipo de
red, dispositivos de
almacenamiento, alimentación y refrigeración, y en términos de mantenimiento
y dotación de personal, necesita contratar un equipo de TI que realmente necesita
ser dedicado y que realmente deberían estar cuidando su servicio de centro de
datos, que
en realidad no necesita términos de computación en la nube porque vamos a ver en la responsabilidad compartida
más adelante punto del tiempo, pero te
sorprenderá saber que AWS se encarga
del servicio donde
vas a alojar tus servicios Así que realmente no tienes
esa sobrecarga de contratar equipo de
TI o algo
así para administrar tu centro de datos. Y luego tienes costo de recuperación y
respaldo de
datos que
básicamente
te dice que realmente puedes recuperar desastres y puedes
recuperar tus datos, y viene gratis porque si se dispara una zona
T disponible, hay otra zona
t disponible que desplazará tus datos y estos datos se transmiten entre estas
dos zonas t disponibles. Si optas o
no, no importa, pero los datos
estarán disponibles en dos zonas t disponibles por
defecto de Amazon, así que realmente no tienes que
preocuparte por eso Pero cuando estás operando
en las instalaciones, como te dije, todo lo que compras, tienes que
hacer más uno. Más dos. Si quieres mantener la
redundancia en eso, si quieres ir por un nivel de grado
diferente, necesitas ir por
más dos o más uno por defecto para anillo de espejo Al menos ese espejo
debería estar ahí. Esa es la razón por la que tenemos, ya
sabes, por qué optamos por el
costo variable y la computación en la nube. Gracias de nuevo por ver.
Si tienes alguna duda, déjala en la sección de
preguntas. Te veré en el siguiente video.
14. Cumplimiento de AWS Labs: Oigan, chicos. Bienvenidos de nuevo
al siguiente video. En este video, vamos
a hablar de la tarea dos. Entonces, en primer lugar, vamos
a entender sobre los conceptos de
gobernanza de seguridad en la nube de AWS. Ahora, en esta tarea en particular, íbamos a
obtener un conocimiento del concepto de cumplimiento y
gobierno de
AWS. Va a entender
sobre la seguridad en la nube como encriptaciones y
pocos otros servicios Vamos a entender
sobre la captura, localización de registros usando seguridad
en la nube, lo
siento,
asociados a la seguridad en la nube. Entonces va
a haber otro conjunto de servicios que
vamos a ver ahí. Entonces ahora aquí, como pueden ver, vamos a tomar en primer lugar estos dos temas porque
están más menos relacionados. Entonces vamos a verlo como una sección
específica, ya sabes. Y luego voy
a ir con otros temas
más adelante punto de tiempo. Así que aquí, identificando dónde encontrar la
información de cumplimiento de AWS. Por ejemplo, artefactos de AWS. Entonces ahora, el cumplimiento es
muy importante para nosotros, y lo sabemos cuando la empresa pasa por sesión de auditoría o cuando usted exhibe todo su
cumplimiento en su sitio web. Por lo tanto, debe
asegurarse de que necesita encontrar esos
certificados de cumplimiento de AWS porque ese es
su socio ahora. Ahí es donde estás
hospedando, y también hay algún cumplimiento basado en la
ubicación geográfica que necesitas mostrar, así
como también hay cumplimiento para los
estándares de la industria,
como atención médica,
finanzas, industrias. Entonces de igual manera, tenemos
ciertos requisitos, así que vamos a ver más
en detalle al respecto. Entonces vamos a mi dibujo aquí. Tengo dos fotos
adecuadas para ustedes, y ambas imágenes hablan
sobre la información de
cumplimiento de AWS,
que es el artefacto de AWS y los
requisitos de cumplimiento
específicos de la industria geográfica requisitos de cumplimiento
específicos Entonces ahora, estas son las dos cosas que
vamos a ver
en este video. Así que en realidad tenemos una demo en cuanto a este servicio en
particular, que te
voy a mostrar en un momento. Pero, ¿qué se puede obtener
de este servicio? Bueno, AWS artefact es
un portal de autoservicio para acceder a certificados
y acuerdos de
informes de cumplimiento de AWS certificados
y acuerdos de
informes Permite a los consumidores descargar documentos de
cumplimiento como informes
SOC y también certificados
ISO, requisitos
PCI
y certificados Entonces, del mismo modo,
en realidad se puede usar eso
para que los consumidores puedan
usar el artefacto de AWS para cumplir
Lo siento mucho por el
ruido de fondo si puede escucharme escuchar el ruido de
fondo De veras lo siento mucho por eso. Para cumplir con los requisitos internos de cumplimiento
o auditoría. Entonces estos son algunos
de los requisitos
para los que necesitamos estos informes. Solo vayamos a la demo
y luego terminemos con eso. Sólo tienes que ir por aquí y
buscar artefacto. Así que ahora solo haz clic en este medio y luego deberías
abrirlo en tu ventana. Ya lo abrí porque
mi Internet es un poco lento. Ahora, aquí está la sección home. Entonces estas son dos cosas que puedes hacer por aquí,
lo cual es muy importante. Puedes ver acuerdos,
puedes ver reportes. Ahora, cuando hayas
creado la organización, que más o menos
ahora mismo, no lo harías. Entonces tus acuerdos van a ser tanto para
tu artículo lo siento. Tanto tu cuenta
como tu organización. Entonces primero,
veamos el acuerdo. Ahora, no hemos acordado
ningún acuerdo en este momento, por lo que puede seleccionar un acuerdo,
y luego puede aceptar. Pero hay ciertos acuerdos basados en una ubicación
geográfica. Por ejemplo, se puede ver
Nueva Zelanda Australia. Creo que esto es
bastante general, supongo. Para que puedas leer el acuerdo
para entenderlo. Pero una vez que hayas creado
una organización, vas a tener
otra etiqueta por aquí, que va a ser sobre
tu acuerdo de organización. Entonces has iniciado sesión en una cuenta
de gestión de una organización. Entonces solo tienes que crear reglas
de servicio y
dar permiso. Entonces verá el acuerdo de
organización. Entonces lo haremos más tarde. Pero si alguien
te pide que lo descargues o si
hay alguna pregunta sobre dónde
encontrarás realmente los acuerdos para tu, um, ya sabes, tu informe SOC o
certificados ISO o certificados PCI, entonces
realmente puedes decirlos en el artefacto de AWS bajo
informes o acuerdos Entonces así
claramente te preguntarán de dónde
sacas los certificados. De hecho, puedes obtener
los certificados de los informes y de todo, donde firmarás un
acuerdo si te preguntan bajo la
sección de acuerdo del artefacto de AWS Entonces ahora aquí, puedes
buscar cualquier tipo de reporte. Como, por ejemplo, informe SOC, puedes simplemente
buscar SOC por aquí y como
que obtienes el
reporte. Allá. Entonces ahora, este es el SOC dos, que es el
informe tipo dos que evalúa el control de AWS y cumple con
los criterios de seguridad, disponibilidad, confidencialidad
y privacidad del Instituto
Americano de
certificado, contadores públicos Entonces, del mismo modo, lo conseguirás, lo seleccionarás y luego
descargarás el reporte. Entonces esto es Pi default dice que, um, uh, el
periodo del informe es marzo de 2024. Ese es un ejercicio financiero del
último ejercicio. Entonces, se puede decir claramente que este informe en particular
es básicamente el um, ya
sabe, algún informe AOC
tipo dos Entonces esto es básicamente lo puedes
proporcionar a tus auditores, así
como ponerlo en tu
sitio web diciendo que eres bastante compatible donde sea que
estés alojando tu contenido. Entonces esto es básicamente lo que es el servicio de artefactos de AWS
y el servicio que brinda Ahora, cuando
hablas del segundo punto por aquí, que es sobre geográfica de
tu requisitos de
cumplimiento específicos de
la industria geográfica de
tu industria. Ahora,
el cumplimiento geográfico es básicamente diferentes regiones o países tendrán regulatorios específicos, como actos de privacidad
y seguridad de datos Por lo que hay que cumplir. Tu socio de hosting debe
cumplir con esas cosas. Entonces la pregunta sería como, cómo saber si, ya sabe, tiene un GDPR,
que es su regulador general de protección de
datos para una Unión Europea o
un cliente de California,
perdón, Consumer Privacy Act, que es CCPA en Estados Unidos Por lo tanto, estos son algunos de
cumplimiento regulatorio que AWS
requiere que se proporcione a todos los
clientes con fines de auditoría, y estos son algo que
es el cumplimiento geográfico. Y hay ciertas cosas
como específicas de la industria. Por ejemplo, necesitas HIPAA para atención médica para
finanzas, nosotros necesitamos Entonces estos son algo que
necesita ser requerido si
desea alojar su aplicación
en un proveedor en la nube. Entonces, si entra en AWS una
aplicación financiera o bancaria, lo primero que
harían es verificar si esto es
compatible con eso. Para que puedan alojar su
aplicación en esta plataforma. ¿Cómo te aseguras de eso? Hay
otra herramienta por aquí que en
realidad puedes buscar en Google se
llama AWS Compliance. Ahora aquí, en realidad puedes
ver eso si
puedes usar esto para
tu requerimiento. Ahora aquí, PCI DSS, que es para finanzas, HIPAA, para tu um sector sanitario, y luego igualmente,
tienes GDPR, que es para tu De igual manera, tiene todos esos
requisitos de
cumplimiento satisfactorios en todo el mundo. Entonces um, AWS los tiene. Por eso lo han
sacado aquí. También puedes leer
el libro blanco para conocer mucho más sobre
eso. También puede ir a la página del sitio web de
cumplimiento y realmente
puede ver
todo el cumplimiento que forma parte. Para que puedas ver de cuántos
cumplimientos forma parte. Entonces puedes ver que
en las regiones así
como en
las regiones específicas como América, tienes todos esos certificados que se requieren
para que puedas alojar, ya
sabes, tus artículos por aquí. Esto es para Asia Pacífico. Tienes ISO 2000 para la India. Tienes um, IRAP para Australia, y luego tienes la
certificación Fintech para Japón, y luego tienes esta seguridad de acceso al
programa Garmon servicio público hacia fuera
para Entonces de igual manera,
como que lo renuevan y aseguran de que
tengan todas estas cosas antes de que sigas adelante. Entonces tienes que decir eso en el examen que
comprobarás todos estos, ya sabes, región
sabia yendo a AWS Compliance, portal, y ahí es donde
realmente lo obtendrás. Así que para llegar aquí muy simple, solo Google cuatro AWS, uh, cumplimiento de
AWS, y
en realidad se puede llegar a esta página, y desde aquí, en realidad
se puede ver esta página web
del programa de cumplimiento. Eso es todo chicos para
ti en este video. Espero que te haya sido útil
entender estos dos conceptos y cómo
navegar por este portal. Gracias de nuevo por
su paciencia y tiempo. Te veré en el siguiente video.
15. Labs AWS Detective: Oigan, chicos. Bienvenidos de nuevo
al siguiente video. En este video,
vamos a
hablar del detective detective AWS. Ahora, ¿qué es AWS Dective? Detective le ayuda a investigar problemas de
seguridad
analizando y visualizando datos de
seguridad de servicios de AWS como prueba en la nube, registros de flujo de VPC Hablaremos de todas esas
cosas más adelante punto de tiempo. Entonces, la prueba en la nube es básicamente
mirar la prueba de cómo el proceso o el proceso que tomó para que
llegara. Esa es la prueba de Cloud. Los registros de flujo de VPC hablan sobre cómo, ya
sabes, el
flujo de conexión se trata en VPC Como sabes, VPC
no es más que tu nube privada
virtual Entonces es una configuración de red. Así que de todos modos,
hablaremos en detalle sobre ese punto posterior del tiempo lo que
es VPC y cosas así A partir de ahora,
solo tienes que
pensar en que estás
recopilando datos aquí. ¿Bien? Ahora, qué datos estamos
recopilando los datos del servicio, como cómo
está fluyendo el servicio, cómo
están llegando las conexiones , así que
se trata de eso. Detective facilita la
identificación de la causa raíz de un problema de servicio
o problema de seguridad. Hablemos de un
ejemplo por aquí. Supongamos que está recibiendo
una alerta del deber de guardia de que la instancia de EC dos ha estado haciendo una llamada sospechosa de la APA. Esto es lo que discutimos
en el deber de guardia, derecho, donde detecta todas
las
llamadas sospechosas de APA y mira
tu aplicación y cómo, ya
sabes, proteges
tu aplicación como. Ahora, en lugar de hacer un cambio manual
a través de las cerraduras, puede usar el detective de AWS
para compilar
y visualizar automáticamente las
cerraduras relevantes como eventos de Cloud Rail, registros de flujo de
VPC y luego detective le ayuda a
rastrear rápidamente la ruta de ataque E identificar el recurso
comprometido. Esto es algo
que
hace el detective de AWS y básicamente lo detecta. Ahora bien, recuerdas esto cuando entra una pregunta
hacia el detective de AWS, ¿ese
es el
propósito de deductivo Ahora, un propósito de Dective es
darle datos visualizados. Desde mirar las pruebas en la nube, los flujos de registro de
PC, en
lugar de hacerlo manualmente, entendemos
a partir de estos registros para comprender la
ruta del ataque, bien, e identificar qué
recursos están comprometidos. Entonces te da el
visual, um, ya sabes, diagrama de
seguridad o datos, que te dirán sobre esto. Bien. Revisemos esto
rápidamente en
la sesión
práctica y luego
veremos las características
y beneficios. Entonces deductivo Muy bien, entonces AB es demasiado activo por aquí con estas
lupas Entonces eso va a
llevar algún tiempo. Bien, veamos las características a
medida que se carga. Así que las características son básicamente agregador de
registros. Una de las
cosas importantes es que básicamente agrega
log a partir de lo que es agregación agregación
es como caratic de diferentes fuentes
y entender y analizar los logs Así que aquí se
extrae automáticamente los registros de múltiples fuentes AW para proporcionar contexto para los problemas
de seguridad. La investigación interactiva le permite
explorar incidentes de seguridad
y visualizar el flujo de datos, y también se integra con prueba en la nube de servicio de
guardia
para una investigación profunda. ¿Y cuáles son los beneficios clave? La investigación simplificada permite correlaciones
automáticas
y datos de visualización, facilita el
seguimiento del incidente y también facilita
su comprensión En términos de respuesta
a
incidentes más rápida , le ayuda a identificar y responder problemas de
seguridad más rápido al proporcionar una
visión integral de los datos. Vamos a ver esto. Entonces tienes un buen video
aquí por aquí de AWS sobre cómo ves a
tu detective de AWS. ¿Y cuáles son los cargos por el procesamiento de
troncos aquí? Se puede ver que cero, 2000 GV
va a ser $2 muy barato Los próximos 4 mil GB van
a ser de alrededor de $1 por GB. Entonces es como $2 por GB. Lo siento, dije demasiado barato, ¿
verdad? No creo que diga. Entonces primero cero a 2000
GB es alrededor de $2 el GB, así que quiero decir como mil significa
que es como $2,000, supongo, foro mil GB de
datos, um análisis Um, y por aquí, puedes ver algunos
beneficios por aquí y ¿tenemos una prueba gratuita? Sí, hay una prueba gratuita de 30
días en este detective de Amazon.
Eso es increíble. Por lo que es útil para
nosotros comenzar. Así que simplemente haga clic en esto
y en realidad puede, um, habilitar directiva
para esta cuenta. Simplemente vas por aquí, habilitas Directiva
para esta cuenta, y luego puedes
habilitar Dective para esta cuenta Entonces aquí, el
administrador delegado no es necesario. O sea, si estás
agregando otro usuario por aquí como estamos en
la organización, por
eso viene. A menos que no veas eso, así que solo puedes seguir
adelante y habilitarlo. Estas son algunas
notificaciones sobre esto, así que sólo vamos a
cerrarlo por aquí. Bien, entonces esta
es la directiva. Utilizando la organización ARB,
puedes habilitar el ya sabes, puedes delegar
cuenta y
realmente puedes habilitarlo para
toda la organización, o simplemente puedes
hacerlo por ti mismo Entonces eso está más o menos ahí. Por lo que aquí también puedes invitar a otros miembros
invitando a esto. Sólo tengo una
cuenta por aquí. Esa es la cuenta principal, así que sólo
voy a usar eso. Para que puedas ignorarlo. Integración, para que pueda elegir la integración aquí
donde los servicios
se integrarán con
el lago de seguridad este es el registro sin procesar
para su fuente de datos, que pueda habilitar el lago de
seguridad por aquí. Entonces esto se integra con el
lago de seguridad y obtiene los registros. Y luego en términos generales, se
puede ver alguna
información general al respecto. También puedes ver a ese detective de
Amazon deshabilitado por aquí, así que esto va
a terminar tus 30 datos si estás
deshabilitado eso es muy agradable. Um, por aquí está el servicio. Se puede encontrar en realidad
el investigador, los grupos de hallazgo por aquí, y de hecho se puede ver la ubicación
geográfica
de la investigación Y entonces aquí
se puede ver encontrar grupos e investigaciones
por aquí, que es la
investigación actual, y entonces ¿qué
quiere buscar? Entonces, del mismo modo, tienes
todas estas opciones por aquí bajo detective. En fin, alabanza, gracias de
nuevo por ver este video. Espero que haya
entendido cómo
trabajar con director
y cuál es el uso de directiva y cómo interactuar
con Directiva en este caso. Entonces otra vez, ¿no hay preguntas sobre vamos a configurar una directiva
o algo así? Entonces va a ser
sobre lo que es deductivo y podría tratarse de
una de las características de los beneficios
dectivos o clave del deductivo o de lo que la
directiva detecta Entonces las preguntas
estarían en torno a eso. Gracias de nuevo por su
paciencia y tiempo. ¿Estás en
16. Laboratorios de AWS GuardDuty: Los chicos dan la bienvenida
de nuevo al siguiente pero. En este periodo, vamos
a Rock Wams en guardia. Lo que es el deber de guardia es que es un servicio de detección de amenazas que monitorea
continuamente su cuenta de
AWS para detectar
comportamientos maliciosos y no autorizados, incluidas llamadas a la API
anbal o instancias
comprometidas Entonces entonces el deber de guardia es básicamente un servicio
donde puedes recordar. A mí me gusta que haga el deber de
resguardar tu instancia. Ahora bien, ¿cuál es la diferencia
entre el deber de escudo y guardia? Porque ambos están relacionados
en algún lugar. Escudo, se puede considerar
como un enfoque reactivo, deber de
guardia como un enfoque
proactivo. Entonces, um, shield te está protegiendo de los ataques
entrantes, ¿de acuerdo? En su mayoría son cosas reactivas. deber de guardia aquí
es proactivo que detecta
amenazas incluso antes de que ocurra donde
busca en su cuenta de AWS por
comportamientos maliciosos o no autorizados, incluyendo, um, ya sabe, cualquier
tipo de llamadas a la API que ocurre
alrededor de su cuenta. Ese tipo de llamadas a la API, que ocurre a través de Amazon, podría decir
que el equipo que has estado usando para conectarte a AWS se vería
comprometido y ese tipo de
llamada de AWS, viene
desde ese equipo donde estás accediendo a tu AWS. De igual manera, el deber de
guardia es proteger su
información existente en su ST, su RDS, IM, sus VPC, bajo VPC EC dos instancias de
servidor, cualquier tipo de servicios de contenedor Por lo que todos los servicios son
monitoreados usando deber de guardia. Bien. Ahora, hablemos del ejemplo
en tiempo real. Imagina que si estás ejecutando una
aplicación financiera como un sistema bancario y tu deber de guardia detecta
una llamada APA inusual. Como el acceso a datos
confidenciales o direcciones IP
desconocidas Por lo que el deber de guardia levanta una alerta
ayudándote a investigar el posible acceso
no autorizado y tomar medidas preventivas
contra tales incumplimientos Ahora, el deber de guardia estará
buscando principalmente en las llamadas de la
APA y cómo, ya
sabes,
llega la comunicación. Um, entonces esto es más
o menos en esa área de seguridad o asegurar
su aplicación. Hablemos de un par
de características por aquí. Entonces uno es el monitoreo
continuo. Por lo tanto, monitorea la prueba en la nube, flujo de
VPC y los registros de DNS
para detectar actividad sospechosa Normalmente detección, donde
se utiliza una misión aprendiendo para detectar anomalías en cuentas y actividades de
red Y también las alertas automatizadas es algo que también es
una de las características que puede incluir
donde enviará una alerta securi procesable
cuando se detecte la amenaza Entonces puedes conectar
esto con incluso bridge, y luego SMS lo enviará
básicamente un MS y un slack
y luego también puedes conectarlo con la función Lambda para
activar una función ahí. En términos de
beneficios clave que existen, por lo que es básicamente una detección
proactiva de amenazas dirige la
amenaza potencial temprano, como instancias comprometidas
o llamadas a API maliciosas. Y así como, como, ninguna gestión de
infraestructura. Por lo que es un servicio totalmente
administrado, por lo que no es necesario implementar ningún tipo de
infraestructura de mantenimiento. Entonces,
veamos rápidamente cómo se ve. Entonces Dios Deber. Entonces ese es un servicio por ahí, así que simplemente haga clic en el medio no, y um solo un poco lento.
Perdón por eso. Bien, así que ahora
acabo de despublicar mi video, así que tardó unos 5
segundos en cargarse Entonces aquí tienes el deber de guardia
maison, prevención
inteligente de amenazas
para cuenta y carga de trabajo. Entonces tanto impide cuentas, como te dije, si alguien
está haciendo llamada APA, llamada a línea de
comandos o
algo así, y lo encuentra sospechoso, va a desencadenar una alerta, alerta de
seguridad y eso. Entonces no se trata solo de
las cosas de nivel de servicio,
sino también de las cosas de tu nivel de
cuenta, como cómo la gente
está accediendo a ellas. Y luego el deber de guardia, todas las características experimentan capacidades de
deducción de amenazas en AA Blaze y
Raman guard duty, mal word protection, y en
esta solo es S tres Entonces, o vaya por todas las
funciones o solo S tres, por lo
que su precio dependerá de eso. Ahora, puede ver que las características y los beneficios es una mala protección de palabras
para S tres, y luego es fácil de implementar y escalar hasta la fecha la protección de
dirección de amenazas, igual manera, solo entra
por casualidad escuchar comenzar Ahora, aquí tienes
algunos roles de permiso. Hablaremos de esto más adelante. Entonces este es un permiso shat entre otros servicios
y este en particular Pero vamos a usar el d41, así que no nos vamos a
preocupar por ello. Por lo tanto, el plan de protección de aquí es habilitar el servicio de guardia por
primera vez,
lo que permite protección de servicio de guardia plus, excepto el monitoreo de tiempo de ejecución
y MalwpTection para ST, los cuales pueden habilitarse
según la consola Entonces todo lo que tenemos que
hacer ahora mismo es
permitirte obtener 30
días de prueba gratis, así que esa es una muy buena noticia para nosotros. Entonces vas a conseguir
30 días de juicio por aquí. Si quieres delegar un rol de
administrador por aquí, puedes poner en el ID,
pero solo voy a ir con habilitar
Guard DUT por aquí Voy a usar el ID
predeterminado para eso. Así que al pasar por aquí, puedes habilitar con éxito el deber de
guardia por aquí. Ahora GuardDuty está habilitado, así que todo lo que hace es dirigir acceso a
mi cuenta y ver cómo va a
estar funcionando con él Entonces no hay nada de encontrar
por aquí porque puede llevar algún tiempo analizar
mi información de inicio de sesión, llamadas
APA y cosas así. Así que prácticamente nada mucho por aquí para informar
en este momento. Por lo que también puede habilitar el monitoreo en
tiempo de ejecución. Así que quedan 30 días para FatGate y EKS EC dos instancias también Así que el monitoreo del tiempo de ejecución lo
comprobará en el tiempo de ejecución, que significa que cuando
el servicio se esté ejecutando ,
así que va a comprobarlo y , ya
sabes, va
a funcionar con eso. También puede habilitar el
servicio para EKS, que
servicio de cuarentena Fargate, que es ECS, que es
su servicio de contenedor, tiene el EC dos,
que es el servicio de servidor Bien, así que eso es
más o menos eso. Y tienes la opción de
habilitar la protección contra malware para S tres. Entonces esto va a
habilitar la notificación para ti si alguien está subiendo
un malware a tu S three, de
igual manera, la protección RDS
también está ahí como parte de Lamptection también está ahí
como parte del deber de guardia. deber de guardia es una
de las cosas importantes de
seguridad y
seguramente puede obtener una pregunta
del deber de
guardia debido a la
importancia que se le ha dado. Así que nuevamente, el servicio de guardia es un servicio de detección de amenazas
que
monitorea continuamente su cuenta de AWS para comportamientos
maliciosos y
no autorizados. Y esto es algo que debes recordar
cuando vas a por ello. Y este es un servicio proactivo donde lo detecta temprano, la amenaza temprano y es aplicable para todos los
servicios en eso en tu caso. Por lo que es aplicable para RDS, que es su servicio de
base de datos relacional o podemos llamarlo
un servicio administrado Aplica para Lambda, que es básicamente su servicio
completamente administrado, y luego tiene la
protección para S tres, EC dos y
protección de tiempo de ejecución para, otros servicios como EKS, EC two, que es un servicio administrado
basado en contenedores. Entonces Fargate para ECS otra vez,
um, luego EC Entonces, igualmente, um,
tienes protección de para, quiero decir, sí, se puede decir de contenido malicioso y cosas así y acceso a la
cuenta también. Entonces eso es algo para
lo que
realmente puedes usar el deber de guardia. Gracias de nuevo por
su paciencia y tiempo. Si tienes alguna duda, déjala en la sección de
preguntas. Recuerda referir
la hoja de tramposo uh. Si quieres echar un
vistazo rápido a todos estos servicios, tiene la 22 lectura
sobre todos los servicios para que te consiga los
puntos importantes antes de tu examen. Gracias de nuevo. Te
veré en la siguiente.
17. Labs AWS Inspector: Oigan, chicos, bienvenidos de nuevo
al siguiente video. En este video, vamos
a hablar sobre el inspector de AWS. Ahora, hablemos del
uso de este inspector, cómo en realidad usamos
este inspector. Como este diagrama dice
muchas cosas, ahora,
inspector es un servicio automatizado de evaluación de
seguridad que ayuda a identificar
vulnerabilidades y desviaciones de las mejores prácticas en su instancia de EC two
o si está ejecutando contenedores en su carga de trabajo de instancia EC two y aplicaciones solo parte
de su instancia EC two. No solo la instancia EC dos, sino también lo que se ha alojado
en la Instancia EC dos, también lo inspecciona. Ahora bien, ¿cómo
recuerdo este nombre? La palabra inspector es
en sí misma es una pista muy grande. Te informa al respecto hace la inspección de
las vulnerabilidades, tu EC dos instancias y
busca tu aplicación para cualquier vulnerabilidad o CVE en esa aplicación en particular Bien, así es como
recuerdo la palabra inspector. Entonces cuando veas
eso en el examen, verás inspeccionar inspector. Entonces lo que hace, inspecciona. Lo que inspecciona, ¿de acuerdo? Inspecciona EC dos instancias en busca
de vulnerabilidades, CVs. Ahora lo que es CV, CV es una vulnerabilidad
y exposiciones comunes, donde da oportunidad a
los explotadores como hackers que pueden explotar estas vulnerabilidades y luego entrar en
tu aplicación, recopilar detalles al respecto y pedirte rescate No queremos meternos
en esa situación. No queremos
poner a nuestras empresas para las que trabajamos
en esa situación. Por lo que siempre es bueno usar
el inspector para escanearlo, entender qué
vulnerabilidades tienes. Entonces lo que hace es, no solo escanea la instancia
EC dos, solo se encarga de Abs, sino que escanea tu aplicación y los contenedores
que estás ejecutando. Y básicamente te da
el reporte de vulnerabilidad. Busca vulnerabilidades, problemas de
seguridad, software
sin parchear Entonces esas son las
cosas que realmente busca y trata de
eliminar. Bien, así que hablemos de beneficios
clave por aquí rápidamente monitoreo continuo es uno de los beneficios clave aquí, escaneo
continuo que ayuda a garantizar que las nuevas
vulnerabilidades son errores de configuración se
detectan y a medida que aumentan Entonces no es solo una herramienta gratuita, así que te
cobran por ello, sino básicamente lo que hace sigue monitoreando continuamente
tu aplicación, y te da cualquier tipo de disparador de alerta en caso
de cualquier tipo de problema. Entonces puedes conectar esto con la página
par y luego enviarlo a SNS y luego
enviarlo por SMS o Slack,
o puedes escribir una función
Lambda y luego puedes enrutarla
a través de Lambda también De igual manera, tienes
diferentes características. Y vamos a ver
todas estas cosas va a hacer lo mismo a partir
del siguiente video, porque estos son algunos servicios relacionados con la
seguridad que se ejecutan en segundo plano. Entonces lo que hemos visto antes
es el WAF y el escudo, y WAF y escudo es básicamente un archivo de
seguridad que te
protege de problemas Y esto es lo que
vamos a ver es
el material de seguridad, que es como inspector de Amazon, que es después o es una medida
proactiva para contenerlo, así que se ejecuta en tu
sistema y luego, lo contiene de manera proactiva Entonces el escudo y
la gráfica son reactivos donde cuando entra el ataque, va
a ser algo reactivo en términos de reaccionar
al ataque. Pero estas son
cosas proactivas lo que estamos
viendo ahora mismo. Entonces esto es más o menos lo
que quiero mostrarte por aquí. Lo siento por el fondo no es algo que
no puedo controlar. Simplemente puedes ir y
escribir AWS inspector, y luego vas a conseguir el inspector de
Amazon por aquí. Y aquí en el inspector de
Amazon, estás en la página de inicio, y puedes ver
así como funciona. Así que básicamente el
inspector llega a inspeccionar y lo que
inspeccionó es tu um, ya
sabes, um, aquí, supongo, habilitar al inspector y luego trabajo
automatizado, descubrimiento. No estoy seguro si lo puedes ver, pero esto es lo que
te dije hace un momento, así que no te
preocupes por ello. Así que solo tienes que hacer
click en Comenzar. Entonces tienes que darle
permisos
hacia qué tipo de
reglas de administrador de cuentas quieres darle, y luego simplemente puedes hacer clic
en activar inspector. Entonces esto se va a activar en la
cuenta predeterminada si no se especifica nada aquí como administrador delegado, por lo que va a usar
la predeterminada. Así que solo una vez que lo
activas, tienes 14 días de prueba, que es gratis, y en realidad
puedes ver que no
hay nada para estar
trabajando en este momento. A lo mejor tengo que iniciar
mi EC dos instancias. Tengo mis ubernuts en
esta instancia EC dos. Um es un feedback. No lo estoy usando solamente. Entonces, si comienzo la instancia de dos
Oriente, tal vez obtendría algunas
vulnerabilidades. No lo sé. Entonces hablemos de comenzar o voy a empezar me
van a cobrar por ello. Empecemos una
de esas instancias. Entonces va a tomar
un tiempo iniciarlo. Y entonces vamos a
ver esta vulnerabilidad. Si hay algo
como vulnerabilidad. Como te dije, um, viene con 14
días de prueba gratuita, y luego después de eso, te
van a cobrar por ello. ¿Bien? Así se puede ver el costo
mensual de proyección aquí en el uso, y básicamente por el tipo de escaneo se
puede ver realmente escaneo
EC dos, escaneo ECR para
servicio de contenedores, escaneo Lambda Entonces estos son tres elementos por aquí, lo cual
es parte de esto, y estoy corriendo en una versión de prueba en este
momento por 14 días, lo siento, 15 días por aquí. Así que también puedes hacer clic en precios aquí y aprender más y realmente
puedes ver eso. Entonces supongo que una vez que se inicie mi
instancia, comenzaría a escanear. Por lo que ya ha encontrado tres instancias por
aquí, cero de tres. Entonces tal vez después de un tiempo, voy a tratar de mostrarte si
solo estoy haciendo otro video, voy a tratar de incluir
esto también. Entonces solo mira si
algo surge por aquí como vulnerabilidad. Bien, entonces no veo
nada en este momento. Bueno, de todos modos, muchas
gracias por su tiempo y paciencia veré en
el siguiente video, y sí recuerdo que
mantengo esto abierto para ustedes para que si
algo surge por aquí, mi instante empezó a correr, así que puede tomar un poco de tiempo. Entonces veamos si surge
algo. Gracias. Gracias otra vez, chicos.
18. Labs AWS Security Hub: Oigan, chicos, bienvenidos de nuevo
al siguiente video. En este video,
vamos a hablar sobre AWS security hub. Hablemos primero de ¿cuál es el uso del centro de seguridad de AWS? El centro de seguridad proporciona una visión completa de
las alertas de seguridad verificación de
cumplimiento
en todas las cuentas de AWS. Agrega organizar
y priorizar los hallazgos de
seguridad de
varios servicios de AWS y herramientas de terceros Ahora, como puedes ver por
aquí, una organización. Sé que no hemos
hablado de organización. La organización es un
servicio en AWS. Déjame mostrarte eso rápidamente. Entonces, cuando escribe organización, puede ver la organización de
la base de datos por aquí. Abres la
organización por aquí. Entonces, por defecto,
no vas a tener una parte de ninguna organización
porque
habrías creado una cuenta
individual. Pero en realidad se puede
crear organización. Tendrás una
opción allá diciendo que crear organización. Es completamente gratis. Se puede tener organización creada igual que
como la he creado yo. Simplemente crea organización no
hay muchas
preguntas que se hacen por ahí. Entonces solo hay que decir que sí y luego crear
la organización. Una vez que hayas creado
la organización, deberías estar
Lamento ese ruido de fondo. Um, deberías poder
ver el nombre de tu cuenta por aquí y
podrás ver la información del usuario,
la información raíz. Ahora bien, ¿qué es una organización? Hablemos de ello rápidamente. Una organización
no es más que cuando estás en una empresa de servicios empresariales o empresariales o incluso en una empresa orientada a
negocios, una gran empresa, es posible que tengas múltiples organizaciones
dentro de tu empresa. Bien. Cada organización, como Finanzas, tendrá
su propia cuenta de AWS. La atención médica tendrá
su propia cuenta de AWS. Medios de comunicación. Si hay una
sección así, vas a tener una cuenta de AWS
separada. Bien. Ahora, van a alojar entorno de producción y
pruebas de
Dev para su aplicación
relacionada con medios, y vas
a tener media punto ejemplo bank.com, algunos
algo así Puedes tener finanzas punto uh, ya
sabes, ejemplo dot Bank. Bien, o como puedas tener
atención médica punto ejemplo dot Bank. Así mismo, puedes
tener tu propio sitio web. Y cada una de las aplicaciones vendrá bajo una
sola organización, que es tu ejemplo Dot Bank. Ese es el nivel más grande o alto de tu
organigrama, y eso va
a ser así. Entonces, cuando tienes este
tipo de característica, cuando tienes este tipo de organización de características,
necesitas
un hub de seguridad en el que
recopile datos de
diferentes organizaciones, lo recopile datos de
diferentes organizaciones, que significa que incluir todos los servicios parte de
tu organización. Por ejemplo, estoy teniendo
um esta instancia EC dos,
mi instancia EC dos, tengo los servicios como
AF y otras cosas, ¿verdad? Entonces tengo todos estos servicios configurados en mi
configuración actual por aquí, que está más allá de Cloud AI
esto se convierte en una sola cuenta. Bien. Eso lo puedo ver. Puedes agregar otra cuenta
con esta organización. Al inscribirse en la
misma organización, en realidad
puedes invitar a personas
a esta organización y luego tener otra cuenta para esa sucursal en particular
de tu empresa Podría ser una sucursal, podría ser outlet, podría ser cualquier cosa. Para que los puedas agregar como
parte de la organización. Por lo que tendrá que ser cuenta. Pero lo que vas a
poder ver la facturación
para la organización. Por lo que la
organización completa
obtendrá una L una facturación que incluye todas las cuentas dentro de esa
organización en particular. Ahora, ¿qué
hub de seguridad AW lo hace? Recoge todos los temas de cumplimiento
relacionados con la seguridad. Recoge toda la vista de
las alertas de seguridad y le brinda una
vista completa en un tablero. Bien, lo que le brinda una visión
integral de todos los problemas
de seguridad a través de. Entonces de esta manera, en realidad
puedes, um, investigar el problema desde
una sola vista, ya sabes. Entonces, por ejemplo, está administrando un entorno de AWS multicuenta y necesita un panel
centralizado para ver alertas de seguridad
y datos de cumplimiento. El hub de seguridad de AWS
agrega alerta de servicios como Amazon Guard Dog que hablaremos
más adelante inspector, gerente de
fuegos artificiales, de los que
hablaremos más adelante Por lo que reúne toda
esta información y de hecho la
mostrará en un solo lugar Entonces, lo que me gustaría que
recordaras en el examen es que cuando escuchas la palabra seguridad hub, así que escucha la palabra seguridad
y
hub juntos, hub es un lugar donde lo
tienes tiene una
visión integral de muchas cosas. Así es como lo llamamos como hub. Entonces, cuando escuchas esta palabra, así que te refieres a ella
necesita recordarte esta arquitectura que dice que vas a
recopilar información,
la información relacionada con la seguridad,
la
información
relacionada con el cumplimiento, las alertas de
informes de seguridad de seguridad. Vas a conseguir
todas esas cosas en un solo lugar en toda
tu organización. Entonces eso es algo en lo que realmente
deberías pensar
cuando escuches este nombre. Ahora,
hablemos de las características ahora, el tablero centralizado, que en realidad ve alertas de múltiples cuentas y
regiones en un solo lugar. Compila y verifica, accede
automáticamente a
la compilación de
los estándares industriales
de CIS y PCI DSS También se integra con otros servicios de AWS
como servicio de guardia, uh, inspector, laberinto y
otras herramientas de terceros. Así que sólo hemos visto laberinto quiero
decir, inspector hasta ahora. Entonces los videos
estarán alineados en consecuencia,
así que no te preocupes por ello. Entonces vamos a estar trabajando en eso. Entonces el siguiente son los beneficios
clave de aquí. Los beneficios clave son
que es vista unificada. Como te dije, tiene
la consolidación de alertas de seguridad en todos los servicios
y en toda la organización. Y también tiene la función de reporte donde va a estar
mirando el cumplimiento. Y también cómo es que, ya sabes, está muy bien el cumplimiento
está dentro de los estándares de la
industria del entorno de AWS Entonces estos son
algo que
va a buscar en
el hub de seguridad. Vamos a tener una visión
del centro de seguridad de aquí. Entonces ahora vamos a cerrar
la organización. Vamos por la seguridad. Hub, y luego obtendrá el hub de seguridad
aquí como un servicio, y luego simplemente haga clic en eso. Y en realidad puedes ir a esto. Tienes que habilitar esta es una prueba gratuita de 30 días
para el centro de seguridad. Así que solo tienes que ir al centro de seguridad y luego comienza tu activación. Entonces, el centro de seguridad de
aquí se encarga
de todo lo demás, como controles de seguridad automatizados, informe
consolidado del inspector de
guardia May y servicios adicionales y solución
integrada de socios. Se lo va a quitar de
toda la organización, lo
siento, todos los íconos
de la organización, te
va a mostrar en esto. Para esto, necesitas ir
realmente a Security Hub, y luego aquí tienes la configuración de AWS, de la
que hablaremos más adelante. Y luego tenemos que habilitar
los estándares de seguridad por aquí donde esperas que tu aplicación
sea um, como AABSFoundation of
security best practices y benchmarks CIS
ARABSFoundation Entonces puedes ver que
hemos elegido las cosas básicas por defecto, así que también puedes agregar más
artículos por aquí para ver si tu um, los artículos son como, lo
siento, si tu um, organización tiene los estándares de
seguridad de crear todos los
servicios y esas cosas, y luego solo habilita
el centro de seguridad aquí, que en realidad te
va a mostrar, esos artículos por aquí. Entonces aquí, los precios
son como después de 30
días de prueba gratuita, por lo que se le puede cobrar por
primero uno AC o 100,000 um, cheques de
seguridad,
vas a cobrar 0.00,
um, uno $0 por Entonces esto es bastante barato
cuando lo comparas, así podrás ver que
va a ser así. Um, así que esa es la facturación de la misma, y prácticamente
quería mostrarte esto
y mostrarte la interacción en este elemento de acción en particular. También vamos a ver
otros servicios
de seguridad , en un
momento posterior. Gracias de nuevo
por su paciencia y tiempo.
Te veré en la siguiente.
19. Laboratorios AWS Shield: Oigan, chicos. Bienvenidos de nuevo
al siguiente video. En este video,
vamos a hablar de una de las encuestas importantes sobre AWS a la
hora de la seguridad. Vamos a
hablar de escudo AW. Ahora, ¿qué es ese escudo? Hablaremos de la
arquitectura más adelante, pero ¿de qué nos está
protegiendo? Nos está protegiendo
del ataque DoS, ataque de
denegación de servicio, y luego ataque DDoS, que
verás en un momento Entonces si no estoy seguro,
como el mes pasado, que es, supongo, agosto de 2024, donde
estaba como, uh, escuchando sobre una noticia, diciendo que había esto, ya sabes,
esta presidencia de Trump
y Trump estaba
renunciando a este discurso en
Twitter con Elan Musk ¿Bien? Entonces esta fue una gran
noticia para las notas de seguridad, y además, como, mucha
gente realmente se
enteró de esta noticia. Uh, no estoy apoyando a ningún partido político
ni nada de eso. Simplemente se me ocurrió
esto porque
era una situación real en vivo
donde Trump estaba dando,
um, entrevista con Elan Musk Y lo que ha pasado es
eso en esa entrevista. Se suponía que iba
a comenzar a una hora específica, pero luego comenzó
45 minutos tarde. Los retrasos en el relevo de ese vivo en particular que se
supone que es en vivo, um, ya sabes, uh, cosas de
Twitter realmente
sucedieron, 45 minutos tarde. Twitter anteriormente conocido como
actualmente conocido como x, ¿verdad? X.com, que comenzó
45 minutos tarde. Ahora, cuando nos preguntamos al respecto, llegamos a saber que
hubo un ataque de Dedos Ahora bien, ¿qué es un ataque de Dios? De eso
vamos a hablar. Hablemos del ataque DoS. Veamos cómo funcionan los ataques DoS. El ataque DoS funciona de manera muy simple. Se llama flecha de servicio. Entonces vas a estar
accediendo como hacker. Estará accediendo
al sitio web
tantas veces que finalmente, se va a dar por vencido y decir, solo
hay, ya sabes, ya no te
voy a
servir porque actualmente todas
mis amenazas están llenas. Entonces esto es lo que la intención
del ataque de un Dido. El ataque de Dedos fue muy
sencillo. Sigues atacando
al servidor
accediendo al servidor
tantas veces que el servidor se
queda sin che. ¿Bien? Eventualmente atropello a
amenazas para atender su solicitud. ¿Bien? Entonces, ¿qué es el ataque Dedos? Es una forma distribuida de atacar
lo mismo ataque DoS. Así manera distribuidor,
lo que significa que usa Internet de las cosas,
su computadora portátil, computadora escritorio, y luego
sus teléfonos móviles, cualquier forma de dispositivos de Internet por
fases Y entonces continuamente
golpeas el servicio, bien entonces eventualmente la
computadora se va a dar por vencida, a pesar de que el autoescalado está habilitado y todas esas
cosas están ahí Pero recuerde que para
escalar automáticamente, realidad debería estar
pagando más por sus servicios web de Amazon
o cualquier proveedor de Cloud cuando vaya a escalar por
lo que significa que la pérdida de ingresos para su sistema
porque sigue, ya
sabe, la gente
está accediendo a él Parece que cientos y
miles y millones de personas están accediendo a
tu sitio web, pero
en realidad no sería así. Sería
víctima de un ataque. Bien. Entonces ahora, el proceso
es muy sencillo. Accede al sitio web
a través de tu DNS, pasa por Route 53, si está alojado a través de AWS, y luego ve al balanceador de
carga, podría ser
aplicación, red, lo que sea, y
luego ir al servidor Obtener ese contenido
del servidor. Ahora el servidor podría tener una aplicación web
y luego un servicio de base de datos, podría ir a
los servicios de mensajería también
podría ir a
los servicios de mensajería y
luego subir los datos. Así que cada vez que
trae los datos, el atacante ataca de nuevo
y te pide que obtengas más datos. Entonces de esta manera, ocurre una denegación
de servicio
distribuida , ¿de acuerdo? Entonces este ejemplo, lo que
te dije de Twitter o
X es lo real. Y si le pasa a un sitio web
tan grande, quiero decir, las empresas para las que
trabajamos no son propensas a ello. Si no sucede, no
es porque
haya habilitado muy buena seguridad. No te ha pasado
, hasta ahora, significa
que en
realidad nadie ha pirateado tu sitio web Así que eso es lo que significa, ¿de acuerdo? Entonces ahora, ¿cómo
proteges tu sitio web
de tal ataque ¿Cómo te aseguras de que
al menos la probabilidad estándar
contra este tipo de ataques? al menos la probabilidad estándar
contra este tipo de ataques Entonces hablemos de AW Shield. Ahora, AW Shield te da
dos ofrendas por aquí. El escudo estándar que está habilitado por defecto
y que es libre, y existe este escudo
avanzado. Ahora bien, ¿qué quiere decir
con escudo estándar? Standard Shield
te proporciona, um, ya sabes, es una forma común de
escudo que da organizaciones
grandes ataques de dedos a gran escala. Entonces más o menos por qué es gratis. Hay que pensar en eso. Amazon quiere proteger
su servicio, ¿de acuerdo? Entonces, incluso cuando hablamos de pruebas de
penetración, ¿verdad? Entonces, en las pruebas de penetración, nunca
obtendrá
una aprobación para
Didsatac para fines de prueba ¿Bien? Porque simplemente no es tu contenido lo que
están tratando de proteger. Se trata de todos sus clientes. Entonces, si un sitio cae, no solo su aplicación
se ve afectada, sino que toda la aplicación recién alojada en el sitio se ve afectada, entonces tienen que cambiar a DR, lo que es, nuevamente, un costo
adicional para ellos. Así que recuerden que
querían habilitar este producto por defecto porque odian el ataque de
dedos, ¿de acuerdo? Entonces esa es la razón por la que
está ahí gratis, ¿de acuerdo? Y ahí está esta versión
avanzada de ésta, que es una versión de pago. Y en esta versión, obtendrá
protección mejorada, ataque en tiempo real, visibilidad y protección
financiera contra grandes costos relacionados con Dids ¿Bien? Entonces estos son
algo que se proporciona como parte
de la opción avanzada, ya
sabes, que está
disponible para ti. Te voy a mostrar eso en
la sesión práctica en algún tiempo. Pero recordar que
esta es una protección que viene por defecto y no se
puede desactivar esto, porque nadie quiere
detosattack en su plataforma, así que eso es algo que
debes Hablemos de algunos
de sus beneficios clave. Beneficios clave es la protección
automática. Ahora bien, ¿qué quiere decir con protección
automática? El escudo estándar aquí
está habilitado por defecto, lo que no es necesario tener la opción de
deshabilitarlo o habilitarlo El segundo es la protección avanzada contra
amenazas donde Shield Advance ofrece
un informe detallado sobre respuesta
rápida durante ataques a
gran escala en su sistema, su sitio web
o su aplicación. Bien, solo para echar
un vistazo a esto, que puedas ir a WAF y Shield, así solo puedes
escribir WAF por aquí, y obtendrás BAF Y bajo el WAF y escudo, tendrás el AF
como en el primero, y luego el segundo
va a ser Escudo Ahora, cuando empiezas
con escudo como te dije, esta es una capa de protección
Dios de aplicación automática. Y eso es, ya sabes, eso está habilitado por defecto. Ahora bien, ¿cuál es esta
lista de precios? 3 mil al mes. Eso es para el avanzado
Shield Advanced. Entonces, si quieres ir
por Shield Advanced, en realidad
puedes ir por eso. Pero, yo no diría que
hay nada especial ahí
dentro a menos que y hasta que quieras tener
alguna característica avanzada como mirar el
reporte de ataque y cosas así. Y, um, hasta entonces, ya sabes, no tiene sentido
llegar ahí. Entonces puedes ver que
estas
no son más que tus infraestructuras de AWS, tus regiones de AWS y
sus zonas de disponibilidad, que está bajo ataque. Entonces se puede ver que
el rojo indica que cuanto más ataque y
se puede ver más ataque en el lado de
los Emiratos Árabes Unidos de las cosas
y se puede ver el Creo que ese es el lado de
Nueva York de las cosas. Entonces ahí se puede ver que hay un
ataque enorme y hay una gran cantidad de actividades dirigidas y prevenidas
por AWS Shield. Así se puede ver que el resumen de las dos
últimas semanas,
apenas el resumen de las dos últimas semanas, ataque de paquetes
más grande
fue de 221 MBBS y se puede ver que la mordida más grande se
transfirió fue 636 GBBS Y luego el
vector más común SYN inundación. Esto es básicamente un tipo
de ataque por aquí, nivel de
amenaza, normal, número
de ataques es de 66,540 Así que fue capaz de detectar tanto ataque que
viene en, uh, y esto es básicamente acceder
constantemente a sus sitios y aplicación
que está alojada en AWS. Y fue capaz de detectar estos ataques y
detener los ataques. Ahora, se puede ver que
en su en mi cuenta, esto no hay evento porque yo principalmente lo uso internamente para turno
abierto y otras cosas. Pero de todos modos, eso es gracioso. Para que puedas comparar
la llanta escudo. este momento, tenemos
la llanta estándar, cual está habilitada por
defecto y es gratuita. Puede ver el monitoreo de
flujo de red, puede ver la protección
estándar para los servicios AW subyacentes. Pero entonces si quieres el monitoreo del tráfico
del servidor de capa, hablaremos del punto de tiempo de capa
siete capas. Yo solo te doy una rápida
introducción a ella, y luego tienes migración de
capa tres y cuatro,
normalmente dirección. Entonces todas esas otras cosas con 247 apoyos
del equipo de escudo. Con el costo efectivo donde la protección de costos de
escalamiento debido a los ataques de Dido. Esto es algo hermoso. Si crees que
tu aplicación o tu sitio web están pasando por un ataque frecuente y
debido a lo cual, ya sabes, ocurre
el
escalado fuera del escalado, en realidad
puedes tomar estos
13000 al mes y
realmente puedes ahorrar este dinero
donde se escala, y como que tienes esta protección diciendo que
no se te cobrará por el
escalado del servicio Y luego AWS five manager, sin costo adicional,
y luego AW, lo siento, WAF solicita recursos
protegidos sin costo adicional De igual manera, tienes algunas
ventajas por aquí al
pasar a la avanzada. Pero
depende completamente de tu situación, depende completamente tu elección y de
tu elección del cliente, cómo te gustaría. Pero es tu responsabilidad proyectar todas estas cosas, todas estas ventajas
a tu cliente,
diciendo que um, ya sabes, estas son algunas de las ventajas
por las que optarías por, ya
sabes, el servicio de
pago mensual. Si eso es algo que el cliente requiere,
entonces iremos por ello. También puedes ver el
hilo global un dashboard por aquí, así que básicamente te
dice todos los días, y puedes ver el número
de ataques frecuentes um, que simplemente sigue aumentando. Por lo que en realidad se puede verificar por los últimos tres días,
el último día, del mismo modo. Entonces solo te da la amenaza
global por aquí, lo que te muestra las cosas completas de todo
el mundo. También puedes consultar eventos que
están relacionados con tus cosas. También puedes ver algunos recursos
protegidos por aquí. No tienes nada
como recurso protector, y luego puedes ver
la visión general de las cosas. Suscríbete a Shield Advance para tener
realmente los
beneficios en protege, así que esto está incompleto
y puedes comenzar por ahí. Todos hablaremos de
este punto de
tiempo posterior en los profesionales. Pero aquí, no vamos a
preocuparnos mucho por esto. Aquí solo vamos a estar
entendiendo y
viendo y reuniendo experiencia sobre cómo se ve este tipo, cómo se ve cada servicio y por qué hay
tantos servicios. Ahora bien, cuando se trata de escudo, dice muy claramente que aquí no
hay acrónimo, aquí no hay forma corta, dice escudo AW. Y cuando escuchas la
palabra palabra AW shield, significa que te está
protegiendo de los ataques. Esto es lo que
debes recordar. Te está protegiendo de los ataques. Qué ataca, Dios ataca. Cualquier tipo de
ataque consistente a tu sitio web, va a
proteger a tus pandillas Esto es lo que se supone que debes recordar cuando te hacen
preguntas sobre escudo. Entonces te voy a dar
una hoja de trampa, así que no te preocupes por ello, que tiene 20 segundos de introducción, así que solo habla de estos artículos, y solo puedes ver esa hoja de trampa y luego
puedes ir sobre ella. Gracias de nuevo
por su paciencia y tiempo. Te veré
en el siguiente video.
20. Descripción de certificados de laboratorio: Oigan, chicos, bienvenidos de nuevo
para el siguiente video. Y este video,
sólo vamos a ver una pequeña arquitectura en cuanto a
introducción de certificados. Um, solo quiero darte el
enfoque minimalista hacia ello, porque no vamos
a ver, como, exposición de
TLS en nuestras
manos en sesión Vamos a
hacerlo, pero luego no extender donde
vamos
a configurar
aplicaciones en TLS, porque eso no es parte de
tu programa de certificación Pero a pesar de que voy a tratar de
hacer los máximos laboratorios en esto, te
voy a mostrar el
máximo de artículos, ¿de acuerdo? Esa es una promesa de mi parte. Entonces aquí está la introducción a la
certificación. Entonces aquí, están estos tres. Entonces tienes que separar estos
tres como separados, ¿de acuerdo? Entonces estos son tres
conceptos diferentes por aquí. Intenta alinearlo y
simplificarlo tanto como pueda. Aquí hay tres tipos
de certificados. Entonces tienes certificado demo, certificado autofirmado, certificado de firma de
terceros. Ahora bien, estos tres tipos de certificados actuarán de
manera muy diferente en tu
navegador, ¿bien? Déjame decirte eso en primer lugar. Entonces, si navego por un certificado de demostración
o Internet Explorer, Internet Explorer
simplemente me dirá directamente que este sitio no es confiable y los certificados de demostración no
están permitidos Puedes navegar por el certificado de
demostración en Chrome o cualquier otro navegador, pero dirá una gran advertencia. Lo mismo va para el certificado de
autociencia. El certificado de autociencia es algo que
recibirás una advertencia al borde. Internet Explorer,
recibirás una advertencia en el Chrome y en cada navegador, diciendo que este certificado
parece estar autofirmado, y ¿aún
quieres continuar? Haga clic aquí abajo, y
luego tiene que hacer clic hacia abajo y luego
proceder al sitio web. Por lo que hay que consentir manualmente y proceder al sitio web. ¿Por qué? Porque es autofirmado. Entonces
certificado de autociencia no es nada, pero estoy diciendo que
soy un buen tipo. Entonces cualquiera confiaría en eso porque no puedo
decir que soy un buen tipo. Si alguien dice
que soy un buen tipo, entonces obviamente
pueden confiar en mí, ¿verdad? Entonces, si digo que soy un buen
tipo, nadie puede confiar. Eso es lo que pasa con el certificado
autofirmado. Certificado autofirmado es gratuito. Cualquiera puede crear un certificado
autofirmado. Cualquiera puede ponerlo en su sitio web para obtener un certificado
autofirmado. El segundo es tu
tercero lo siento, el tercero, que es tu certificado de
firma de terceros. Ahora bien, ¿qué quiere decir con certificado de firma de
terceros? El ejemplo de la cosa que te
dije, ¿verdad? Alguien está diciendo
que soy un buen tipo. Entonces obtienes el estampado de alguien de
que soy un buen tipo, ¿verdad? Entonces eso es lo que significa. Entonces es algo así como
un certificado de AWS. Ves el
certificado por aquí, ves este letrero de registro, ¿verdad? Entonces, cuando haces clic
en el letrero de registro, dice
que la conexión es segura. ¿Bien? Si es un certificado
autofirmado, no diría
eso, ¿de acuerdo? Porque hay un par de
tres o cuatro cosas que verás para decir que
la conexión es segura, y dirá que este
es un certificado válido. ¿Bien? Dice seguro porque
es un certificado válido. Si no es un certificado válido, no diría que la
conexión es segura. Entonces puedes ver que
este sitio es válido, tiene un certificado válido, debes comprar una autoridad de
confianza. Ahora bien, ¿qué quiere decir con autoridad de
confianza, verdad? Esa es otra pregunta
que vas a tener. Ahora bien, si ve eso, esto es emitido dos
y emitido por. En ocasiones se emitirá
dos y se emitirá desde también. ¿Bien? Entonces no importa. Es como de o comprar. Es la persona que lo ha emitido. Ahora,
¿quién lo ha emitido? Es la Amazon RSA 204803. ¿Bien? Este es el detalle del
certificado raíz o podría ser
certificado intermedio al por menor también. Por lo que el certificado intermedio
irá a un certificado raíz. Entonces hay algo que
se llama cadena de certificado.
¿Ahora ves eso? Esto es intermedio Este es
su certificado personal, certificado
intermedio, certificado
raíz. Por lo que actualmente está encadenado. Entonces, si cierro esto,
todo viene debajo de él. Entonces lo que esto significa es que
si voy a la arquitectura, tienes el segundo
que vengo aquí. Certificado personal,
certificado de terminación , certificado raíz. Ahora bien, por qué se cambia, perdón, por qué está encadenado y cuál es el uso del certificado encadenado Ahora, en términos de certificado
autofirmado, mayoría de las veces
verás certificado de persona única. Sólo habrá
un certificado. Eso es autosigno. ¿Bien? A veces tendrás ese
certificado de persona encadenado Bien. Y en esa situación, aún así, se trata de un certificado
autofirmado. ¿Por qué? Porque no
confía en este certificado raíz. Ahora, intentemos entender
cuál es el concepto, por qué
lo estamos construyendo así. ¿Bien? Entonces este es un ejemplo perfecto.
Por qué es así. Por qué el
certificado raíz comprende de certificado intermedio y comprende de certificado
personal. Al crear cualquier
certificado, derecho, se crea como un certificado
autofirmado únicamente. Bien. Um, esa es toda
la razón. Entonces, cuando creas una raíz cuando
creas un certificado, ingresas todos los detalles sobre
el certificado, ¿de acuerdo? Eso es lo que
haces. Lo siento mucho. Yo sólo, como,
fastidiando esto. Entonces, cuando creas
un certificado, ingresas el detalle, y lo que obtendrás como
salida por aquí sería, um lo siento, solo un segundo. Um, sí. Sería lo siento, podría ser un archivo JKS, archivo
clave, archivo KDB, archivo Betwll Así mismo, hay
tantas extensiones por ahí. Así mismo,
crearás este tipo de archivo. Entonces lo que haces es ir a una autoridad certificadora,
como CA, ¿bien? Y firma ese
certificado por la CA, ¿de acuerdo? Entonces cuando lo vincula con la CA, entonces vas
a obtener este formato. Usted CA tendrá un certificado raíz y un certificado
intermedio. Por lo que agrupará este
certificado en un solo archivo, que son los tres
certificados, y tú lo pones en el servidor. ¿Bien? Ahora, vas a
conseguir una clave privada por aquí. Vas a
conseguir una clave privada. Nunca se debe
compartir esto con nadie. Esa clave privada no debe
compartirse ni siquiera con una CA también. Recuerde que la clave privada
debe mantenerse con eso. Entonces este archivo en particular
que obtendrá como
salida después de crear el certificado, que
es una clave privada. Entonces lo que hacemos es, usamos la clave privada y
vamos a generar
algo llamado CSR Bien. Um, entonces hay varios
otros formatos ahí, pero sigamos
con CSR ahora mismo CSR se llama solicitud de
firma de certificado. Por lo que enviará este archivo
CSR a la CA, no a la clave privada en sí Si envía la
clave privada a la CA, entonces no la emitirán. Dirán, recrear el certificado y
enviarme la CSR, porque nadie envía
una clave privada, Entonces cuando recrea
el certificado, viene
otro
número generador aleatorio. Entonces eso es lo que
se llama el tamaño de la clave. Ahora bien, si ves eso, en esta misma página web,
dice 2048 Entonces este es el tamaño de la llave. Por lo que normalmente, encontrarás el tamaño de la clave solo en este
detalle. Um. En algún lugar de aquí,
encontrarás el tamaño de la llave, sí, aquí, 2048 Entonces ese es básicamente el
tamaño del tamaño de tu archivo clave. El tamaño Keyf
habla de encriptación. Este es el número
generador aleatorio. Y usando solo este número
generador aleatorio, verás que
se trata de certificado público, por lo que no puedes hacer
nada con él. Entonces ahí es donde
viene
otra terminología certificado público, un certificado privado, ¿verdad? Un certificado público es como yo
diría normalmente como ejemplo, tienes dos llaves de
tu casa, ¿de acuerdo? Una llave es básicamente
para bloquear, otra llave es para bloquear. Entonces cuando un ladrón te
ve en el camino y
conoce tu casa, así dice, dame la llave de la casa. ¿Qué llave darías? Así que tómate un segundo,
piénsalo. Si le das la clave privada, eso es para desbloquear, ¿de acuerdo? Clave de desbloqueo de clave privada. Y la clave pública es la llave
de bloqueo, ¿de acuerdo? Para que puedas bloquear cualquier
cantidad de contenido o cualquier cantidad de cerraduras
usando la llave de bloqueo. Pero la única llave que puede
desbloquear es la llave de desbloqueo, pero él no
sabe que tienes esta llave de bloqueo
y llave de desbloqueo Entonces
le darás la llave de bloqueo. Entonces todo lo que puedes hacer con la llave
de bloqueo son cosas de bloqueo. Pero quién puede desbloquearlo, la clave privada que está
sentada en su servidor. Entonces las cosas, las cerraduras con
llave de bloqueo, derecho, solo
pueden ser desbloqueadas
por la llave de desbloqueo porque la llave de desbloqueo solo
sabe de la lógica, cómo se hace el
candado, porque ¿quién está
haciendo el La llave de desbloqueo lo está haciendo. Entonces a través de esto,
en realidad estarás cifrando todo
desde el lado del cliente Y lo que sucede una vez que se transfieren
los
datos, los datos se transfieren en formato
cifrado que en realidad
no se puede leer. No tiene sentido,
aunque lo leas. ¿Bien? Entonces, una vez que se reciben los
datos, comienza el proceso de
desbloqueo donde la clave privada
desbloqueará las cosas. Gracias chicos por el
tiempo y la paciencia. Te veré en
el siguiente video ahora que entendiste
el certificado, así que seguiremos adelante y
miraremos al encargado de certificados.
21. Cifrado de datos Labs Rest: Hola, chicos. Bienvenidos de nuevo
al siguiente video. En este video,
vamos a
hablar del resto de encriptación de datos. Ahora, donde
vamos a implementar el resto de encriptación de datos
ahora que hemos visto cómo implementar el
cifrado en términos de su encriptación HTDPS
para el tránsito de ¿Vamos a
hablar del método del resto, como cómo podemos cifrar
estos datos por aquí Así que tenemos los tres tipos
diferentes de almacenamiento por aquí, ST EBS y RDS Entonces vamos a ver cómo cifrarlo cuando los creamos. Vayamos a nuestra consola y
abramos todas estas cosas. Lo he mantenido abierto para
ustedes porque mi Internet, como saben, es un
poco lento. Todo bien. Ahora estoy en tres y cuando haga clic en
Crear Bucket por aquí, una de las opciones que me
va a preguntar es
el nombre del bucket. Lo pones usado para, y luego la configuración de elegir tu prefijo de bucket y luego algunas opciones
sobre si
quieres tener este
acceso a public y luego bucket versioning debe estar
habilitado para tu bucket
y luego el cifrado De forma predeterminada, el
lado de cifrado tipo sorry, cifrado con claves administradas por
AWS. Por lo tanto, también puede seleccionar el cifrado del lado del servidor
con la clave de AWS Manage, y en realidad puede seleccionar Clusom Managkey que
puede crear Por lo tanto, puede usar la clave para
acceder al paquete ST. Pero recomendaría
usar el predeterminado. Y luego aquí hay otra
opción donde se puede habilitar el cifrado del
lado del servidor de doble capa para el servicio de
administración de esquemas de AWS. Ahora, la clave de doble nivel incurre en costos
adicionales por aquí, puedes ver que la
pestaña de precios puede informarte sobre eso Entonces iremos con
el predeterminado,
que es el cifrado del lado del servidor, y la clave de bucket se
va a habilitar
donde se puede acceder a la
clave de bucket para acceder a las cosas USE. Ahora así es como
necesitas crear encriptación en términos de S tres y hacer clic
en Crear Bucket. No me dan ningún detalle. No estoy planeando crear
ningún bucket en este momento, así que sólo voy a saltarme esa parte y voy
a proceder con los volúmenes. Ahora volúmenes es EBS, almacenamiento de bloques
elásticos. Ahora, lo que es el almacenamiento de Elastic
Box es un almacenamiento predeterminado que se crea con cada instancia de
EC dos. Se ven tres volúmenes por aquí. Verás tres
instancias por aquí. Por lo que cada una de estas
instancias tendrá sus volúmenes alojados
por defecto en esta. Entonces estoy copiando el ID de
instancia por aquí. Voy a volúmenes, y solo estoy como seleccionar eso y voy a ver el ID de
instancia por aquí. Se puede ver el recurso
adjunto. Entonces este es el indicado.
Entonces verán que esa instancia de allá está adherida a este volumen
en particular. Por lo tanto, las unidades IBS se mantienen separadas
de, ya sabes, las instancias. Por lo tanto, se adjunta cuando inicia la
instancia y
se desconecta cuando no está como
sus instancias apagadas. Entonces se cobra el mantenimiento de este volumen de
EBS, ¿de acuerdo? Entonces, si no estás
usando tu instancia, muy bien, no te
van a cobrar por la instancia que no
estás usando. Pero todavía se le va
a cobrar por los volúmenes que está operando o
almacenando en un sistema. Pero recuerden, EBS es menos
costoso que el propio S three, porque S three es un servicio, es un software como servicio, por
eso es poco costoso y los volúmenes no se pueden usar a menos que se adjunte a instancia propia o si se adjunta a
cualquier otra instancia Entonces eso es algo así, no se puede usar desde Internet o
no se puede hacer nada con volúmenes. Esa es otra diferencia
si solo se pregunta por qué ST cuesta más
y EBS cuesta menos Ahora, el disco existente, realidad
puedes hacer
clic en eso y
realmente puedes ver los detalles
del disco existente. También puedes ver el
cifrado aquí. Por lo que dice no encriptado, lo que significa que cualquiera
puede acceder a los datos montándolo a cualquier instancia y puede ver los
datos que están en esa. Eso no es
algo bueno, ¿no? Así que sólo tienes que ir volúmenes y
luego crear un volumen. Y luego cuando
creas un volumen, diste todos los detalles por aquí y aquí hay una opción
para cifrar este volumen Para que pueda elegir
la clave predeterminada, clave de
AWS EBS, y luego
realmente puede crear un volumen De esta manera, se
creará el volumen y se
cifrará también
utilizando un archivo clave. Ahora bien, si quieres
administrar todas estas claves, en realidad
puedes ir a
KMS para administrar esta clave. Pero estas son claves predeterminadas que normalmente
no son creadas por ti mismo, sino por AWS para que las cosas por
defecto funcionen. Ahora, eso son cuatro
volúmenes. En cuanto a base
de datos o RDS, ¿verdad? Entonces, cuando estás creando
una instancia RDS, es una instancia administrada Acabo de base de datos concreta. Solo lleva un poco de tiempo,
así que lo he tenido abierto. Debajo de la base de datos create, tienes el estándar
create y luego seleccionas la base de datos y haces algunas
modificaciones aquí, y luego seleccionas la clave de
cifrado aquí. Aquí está el cifrado, y, um,
gerente secreto por aquí. No estoy seguro si esta credencial. Este no es el cifrado del
que estábamos hablando. Se trata de cómo
vas a cifrar la base de datos
con qué clave? Eso es hablar de eso. Si quieres el
cifrado real de los datos, necesitas bajar, ir a configuración
adicional. Y luego en la parte inferior, vas a ver el
cifrado por aquí. De forma predeterminada, está habilitando el cifrado
por aquí, lo ves, luego está usando la clave KMS de cifrado predeterminada de
AWS RDS Después podrás ver el ID de
cuenta y la clave, y luego simplemente haces
clic en Crear. Se va a crear RDS
con cifrado en él. Entonces estas son las pocas cosas que debes entender
antes de continuar con esto. Y esto puede no estar
en detalle así. Te van a pedir un examen, pero pueden preguntarte el Oo, solo te
estoy dando unas
manos porque
deberías saber esto
porque va a ser muy útil cuando vayas a la siguiente certificación o si realmente
vas
a trabajar en AWS. Entonces viene con todo tipo de manos en las que
quiero enseñarte. Gracias de nuevo por
su paciencia y tiempo, voy a ver en el siguiente video.
22. Cifrado de datos Labs Transist (ACM): Hola chicos bienvenidos
de nuevo desde el siguiente video. En este video, vamos
a ver algunas manos sobre tu encargado de
certificados. utiliza un
administrador de certificados para cifrar sus datos, los
cuales están en tránsito Entonces vas a cambiar toda tu comunicación a HTTPS, tanto mientras te conectas a tu S tres
como a tu RDS Mientras te conectas a S
three o RDS o ESP, en realidad
estarás usando
un canal llamado balanceador de carga elástico ELB o estarás usando
CloudFront Entonces ahora, sigamos
adelante y configuremos esto como parte de esta, ya
sabes, sesión de demostración. Lo que voy a
hacer es que voy a
acceder al encargado de certificados. Entonces ese es un
servicio diferente que está ahí fuera. Entonces haz clic en eso, y podrás ver que el
encargado de certificados actualmente
no tiene certificados en tu
cuenta. Así que más o menos eso. Y aquí tienes la opción de crear
un certificado privado. Ahora, puedes usar esta opción de crear un certificado
privado en el que realmente puedes crear un
certificado privado por aquí. Si acaba de hacer clic en él,
en realidad puede seleccionar qué tipo de
certificado privado necesita. Ahora bien, ¿qué es un certificado
privado? Un certificado privado
no es más que éste, el certificado raíz
que está por aquí. que puedas crear
tu certificación ya eres tú mismo y en realidad
puedes nombrar tu organización y todos esos detalles sobre
un nombre común para tu, ya
sabes, sitio web
y todo lo demás Y luego puedes seleccionar
el tamaño de la misma y dar click
en lo reconozco
y luego creo CA. Entonces, una vez que se crea tu CA, entonces realmente puedes volver
al administrador de certificados y
puedes solicitar un
certificado por aquí. Entonces habrá
opción por aquí, que está deshabilitada en este momento, pero en realidad puedes
seleccionarla y crear un certificado
privado. Ahora, no hay CA privada
disponible para su emisión, lo que significa que
actualmente
no hay ningún certificado privado
disponible, por
lo que esta
opción está deshabilitada. Una vez hecho
eso, puedes seguir este proceso y puedes
crear un certificado. Ahora, prácticamente crear un certificado público tiene el mismo proceso que crear
un certificado privado, pero habrá
una opción extra. Esa única opción
consiste en seleccionar su privacidad que
acaba de crear aquí. Esa es la opción extra. Pero en realidad, el
mismo proceso se puede presenciar aquí también en el certificado
público. Certificado público es solicitar un
certificado TLS SSL público por MOI Zone confían en los
certificados públicos de bit cuatro navegadores y el sistema operativo confían en los
certificados públicos de bit cuatro. Ahora bien, si estás planeando
crear aplicaciones que se
navega por Internet, siempre se recomienda
crear un certificado público Pero si planea
crear un certificado dentro de
usted mismo a partir de su solicitud para navegar dentro, su inscripción en AWS,
puede optar por un
certificado privado. Por lo que recomendaría ir por un certificado público
en este caso. Uno de los pasos importantes
que tenemos que hacer
aquí es dar el nombre
de dominio completo. Ahora bien, ¿cuál es el problema dar un nombre de dominio completamente
calificado? Necesitas tener un registro de
nombre de dominio a tu nombre. Digamos, por ejemplo, quieres registrar
un nombre de dominio, quieres ver
cuánto
es el precio antes de
seguir adelante y registrarte. Por lo que el registro de dominio
se realiza todo en la Ruta 53. Selecciona la Ruta 53 por aquí. Y solo puedes
hacer click modal en la Ruta 53. Ya he abierto la fila
53 por aquí. Cuando estés en la fila 53, por defecto, serás redirigido
a dominios registrados Ahora estás encontrando
que no hay mucho registro Domins
disponibles en este momento Tengo mi sitio web
llamado beyondcloud.ai, y eso está registrado
con otro proveedor, ya
sabes, que
no es AWS, claro. Ahora, verás
que actualmente, tienes las opciones por aquí. O puedes transferir la
señal N o múltiples dominios desde otro proveedor de servicios de dominio o puedes registrar
el dominio aquí. Ahora, mi sitio web
en el que
me he registrado está más allá de cloud.ai. Cuando busques este sitio web y veas si está disponible, por lo que el TLD no es compatible ¿Qué quiere decir
con eso? que la IA no es compatible con obs. Entonces puedes ver que
el precio del dominio varía en
el TLD de dominio de nivel
superior Ese es el significado de TLD,
com.com.org. Ahora, lo que está disponible
es.mobi.net dottv.com punto M. Pero Tienes Blow Cloud
buena beyoncloud.com. O algo así,
pero no más allá del reloj. ¿Bien? Entonces ahora el
precio no es mucho, como puedes ver por
aquí, solo 14 USD. Ahora puedes seleccionar esto
y en realidad puedes ir por el pago y
proceder a la salida. Entonces esto es, creo que es por
un año de vigencia, ¿verdad? Por lo que procedemos al check out. Así auto renovación de este dominio. Entonces esto es válido
por un año, sí. Pero también puedes
cambiarlo a diez años también, um, así que eso depende completamente ti
cómo quieres hacer eso. Bien. Entonces ahora, una vez hecho eso, puedes hacer clic en
siguiente y luego
puedes hacer las opciones de pago y luego puedes poner tus
datos de contacto , revisar y enviar. Entonces de esta manera, puedes registrar dominio y tener ese dominio
registrado a tu nombre. Una vez registrado este dominio, puedes copiar el nombre de dominio y entrar aquí en
el certificado público. Ahora aquí es donde
vas a dar nombre de dominio. Ahora, también puedes agregar
otro nombre por aquí con un nombre crónico por aquí
llamado pub blocloud.com Por lo que este certificado se
utilizará no sólo con éste, sino
también con éste. También agregas
otro y luego pones stardt Lo siento. Lo siento otra vez. Star.blowcloud.com. Ahora bien, ¿qué pasa si
te gusta eso? Muy sencillo. Um,
vas a conseguir nombres SN. Nombres SN no es más que nombres alternativos de
sujeto. ¿Qué quiere decir con nombres alternativos de
sujeto? Anteriormente, cuando se desea
agregar otro nombre de dominio al sitio web
existente, por ejemplo, mail.belowcloud.com o chat.belowcloud.com o news.belowcloud.com mail.belowcloud.com o chat.belowcloud.com o news.belowcloud.com. Solíamos crear certificados, diferentes certificados para cada nombre de dominio,
pero ya no. Entonces lo que llamamos es un nombre SAN que
empezó a existir
y se hizo tan popular. Y lo que normalmente hacemos es pondremos un
Nombre SAN en el que
tendrás otras múltiples formas de navegar por tu um, nombre de dominio. Entonces cuando tengo este
inicio beloclod.com, realidad
puedo quitar esto
porque no necesito esto
porque star.belowcloud.com Entonces um, verás
esa validación de Den aquí a través de, um, validación de
dens. Entonces lo que vas a hacer
es usar esta opción, estarás autorizando que este
dominio en particular sea tuyo y lo que estarás haciendo
para autorizarlo es
ingresando un Cname
en tu registro A. Entonces, sea cual sea el registro A que
tengas en el DNS, estarás agregando un Cname en él. Ahora, para hacer eso, necesitas tener una dirección de correo
registrada. Estoy con otro proveedor y puedo ir a
preguntar a ese proveedor, y tengo la
interfaz de inicio de sesión donde puedo agregar el Cename y
puedo autorizarlo Entonces esa es la manera
de autorizarlo. Otra forma de autorizar
es, uh, la validez del correo electrónico. Si no tienes permiso o no puedes obtener permiso
para modificar el nombre DNS, puedes usar el correo electrónico
y realmente puedes darle validez al nombre de dominio. Quiero decir, dominio válido opcional, dominio
válido opcional. Entonces este es básicamente el nombre de
dominio de aquí, y puedes usar la
validez del correo electrónico por aquí. Entonces aquí, si vas, necesitas actualizar el
Cname Aquí si vas, ma se requiere validación de correo electrónico Entonces, cualquiera de las opciones que
no podemos hacer porque no somos
dueños de ese nombre de dominio. Y entonces aquí está
el algoritmo clave. Así que quédate con 2048. Simplemente haga clic en la solicitud. Ahora, esto nos
ha creado un
certificado, certificado
público, pero
está pendiente de validación. ¿Por qué está pendiente de validación?
Porque es necesario. Um, necesitas
actualizar el nombre C. ¿Bien? Entonces necesitas
entrar en tu um, proveedor de
servicios o si
no, tu Ruta 53. Entonces um, aquí mismo, hay opción por aquí,
crear ruta en esta. Entonces básicamente,
creará el registro DNS en Route 53 si has
registrado ese Bmin, con Amazon. Voy
a venir aquí. Seleccione el dominio,
cree registros. Automáticamente, creará los registros sin
tu intervención, así que realmente no
tienes que hacer nada. Pero si estás registrado
con algún otro proveedor, necesitas ir allí, actualizar
el Came, ir a tu registro, verificar el nombre C y
actualizar el nombre C, hacer coincidir el nombre de dominio de
acuerdo con eso, y eso realmente
vendrá aquí como validación.
¿Bien? Así se puede ver eso. Sname luego Ssam valor. Entonces esto debería ser un sname
y el valor del sname. Así que de esta manera, um, como que autenticas a Amazon que este
dominio te pertenece, y lo que Amazon va a, ya
sabes, uh, crear el certificado
es para tu dominio ¿Bien? Y una vez que lo hayas hecho, una vez que lo hayas completado, Um, entonces tienes que implementar esto
en otro lugar, ¿verdad? Tienes que implementar este certificado que es
una parte L en alguna parte. Entonces vayamos al balanceador
de carga. Entonces ese es el lugar donde
vamos a hacer eso. Así que solo escribe Load Balancer. Es una característica, no un servicio. Entonces es una característica bajo ZT. Así que solo puedes abrir
esta función directamente. Entonces va a
ser bajo CE dos. Y debajo de eso, va
a venir en
equilibrio de carga por aquí. Ahora, crea tu balanceador de carga. El balanceador de carga
de aplicaciones es mucho más simple. Hay incluso uno más simple
sobre esconderse por aquí, o balanceador de carga clásico, pero no lo usamos tanto
porque es de la
generación anterior y, sabes, es bastante viejo Por lo tanto, el
balanceador de carga de aplicaciones funciona a la perfección. Y la carga de red
Bancer es más nicho, pero luego es para ultra proceso, ya
sabes, cosas de ultra alto
rendimiento. Equilibrador de
carga de aplicaciones Suplicon. También puede ver cómo funciona el balanceador de carga de la
aplicación. Hablaremos de aplicación del equilibrio en un momento posterior. Pero aquí, justo aquí
por debajo de la Nube. Sólo voy a
copiar el nombre de la misma debajo de Cloud es
el nombre de esto. Quiero que sea de
cara a Internet porque hemos creado
nuestro certificado público, y aquí está la PC por
aquí, es la VPC Tienes que seleccionar al menos dos asientos de
zona de disponibilidad que puedas ver y una subred por zona Entonces, al seleccionar solo AZ, en realidad
obtendrás
una subred por zona ¿Por qué? Porque necesita tener
una capacidad de equilibrio de carga en su balanceador de carga para
que tenga que
seleccionar dos AZ Bien. Ahora en el grupo de seguridad, vamos a ir
con el
SG por defecto no va a modificar. En cuanto a la escucha o enrutamiento donde
necesita enrutar. Es necesario seleccionar el grupo
objetivo aquí. No lo tenemos porque no
estamos creados nada, pero estamos aquí por SSL, así que no te preocupes por esto, hacia
dónde va a apuntar. Cambie esto de STDP a HTTPS. Ahora, HTTPS es el método
de comunicación para nosotros, así que vamos a usar HTTPS por aquí con el número de puerto 443. Y cuando selecciones
esto,
va a haber una nueva
opción por aquí. Entonces tienes la política
de seguridad para SSL y luego tienes la política
SSL por aquí. Entonces esta política SSL
habla de dónde vas a
obtener el certificado de
ACM que es tu administrador de certificados de AWS, ACM, O de IAM. También puede
tener certificado de carga en IAM, administración de acceso de
identidad, certificado
de entrada Entonces, si quieres subir
la configuración BEM, basada en
COVID, o um, ya
sabes, tienes el
cuerpo del certificado o puedes cambiar las cadenas de certificados de
certificado también
puedes ponerlo a través Entonces voy a
cargarlo desde ACM. ¿Bien? Por lo que ACM tendrá su
certificado aquí. Entonces, cuando actualices esto,
verás el certificado aquí. Una vez que hayas logrado, ya
sabes, validado
tu certificado, entonces ese
certificado validado vendría por aquí, seleccionarlo y luego dar
clic en crear Bedensa De esta manera, lo que sucede es tus marcas de carga
se crearán usando SSL, usando HTTPS y utilizará la ruta de comunicación
usando el certificado, el
cheque de certificado público calificado. Ahora cuando creas certificado
público, entonces debes preguntarme, ¿dónde
está mi certificado privado? En realidad, lo que has calificado
es un certificado privado. Del certificado privado, obtienes el certificado público exportado y enviado
por aquí, y eso es solo el certificado
privado estaría en el lado del servidor, lo que verás
aquí o lo que se envía al navegador es
todo el certificado público. Bien. Entonces, no lo llamamos certificado privado
necesita ser creado, sino que llamamos certificados públicos enfatizando en la palabra público porque va a estar teniendo
acceso a la red pública. Pero lo que no enfatizamos o lo que sucede
en segundo plano es como, habrá un
certificado privado creado, y que será usado
y guardado en el servidor. Para descifrado. ¿Bien? Entonces esa es la razón por la que dicen
certificado por aquí. No decían
certificado público por aquí, selecciona el certificado
que has creado. Pero cuando lo creas, lo
llamamos el certificado
público. Pero, ya sabes, aquí, encuesta
pública. Pero lo que están
tratando de enfatizar es que, va a estar
conectado al público, pero este es un certificado
que estás creando. ¿Bien? Entonces eso es lo que están enfatizando
y nada más. Bien, entonces has
visto las manos puestas, y no tengo
nada más que mostrarte como hoy Espero que te hayas divertido en
esta sesión manos a mano. Si tienes alguna duda,
por favor
déjala en la sección de preguntas.
Estaré encantado de ayudarte. Sólo voy a eliminar
lo que he creado ahora mismo. Voy a dar
opción de borrar por aquí. Da clic en Delit y eso
debería haber desaparecido. Perfecto. Gracias de nuevo. Te veré en el siguiente video.
23. Labs AWS Audit Manager: Oigan, chicos. Bienvenidos de nuevo
al siguiente video. En este video, vamos
a ver sobre gerente de auditoría. Entonces para que te hagas
una idea de esto, Auditoría, Gerente de Auditoría AW. Ahora haga clic medio en
el gerente de auditoría. Ahora ve que el
gerente de auditoría abrió por aquí. Ahora es para
auditar continuamente su uso de AWS simplificar la forma en que accede al
riesgo y al cumplimiento normativo. Ahora, recuerde que esta es una característica que
necesita habilitar. Las primeras 35,000 evaluaciones
son completamente gratuitas, lo que significa que puede
continuar y hacer clic en crear una nueva evaluación o
configurar un administrador de AWS Ahora, puede configurar el permiso o rol vinculado al servicio de
IAM para esto Puedes saltarte eso ahora mismo. También puedes dedicar
este acceso a else, algún otro ID porque estas son opciones como parte de tu
organización y está apareciendo. Si no tienes organización
creadora, no
verías esto. Entonces puede ver
que AWS Config, para que pueda permitir el administrador de auditoría recopile
datos de su configuración de AWS. Por lo tanto, puede permitir que el
administrador de auditoría recopile información de configuración de
AWS para generar evidencia para
sus reglas de configuración. Ahora bien, esto es en términos de, si tiene un requisito personalizado
para su empresa eso, se producirá
la auditoría, y la auditoría capturará todos
estos requisitos personalizados, que es usar el administrador de AWS, que se captura
usando el administrador de ATos. Lo siento, AW Config. Entonces puede ser capturado
por el gerente de auditoría de AWS. Y entonces realmente puedes
ir por allí y luego hacer esta parte del administrador de auditoría de
AWS. También puedes recopilar
datos de Security Hub, hub de seguridad que ya
hemos visto. Recopila datos o información de
seguridad de
diferentes fuentes de tus
cuentas para que
tengas acceso a una consola
que en realidad tiene toda la
información relacionada con la seguridad ahí para que también puedas recopilar
datos desde allí. Ahora, al hacer clic
en Configuración completa, puede ver que el
gerente de auditoría la ha configurado. Ahora bien, la función básica del gerente de
auditoría es recopilar informes de
diferentes marcos y uh y ya sabes, ítems, que es algo
que servicios, lo siento no artículos, servicios de los
que hablamos antes, y va a descargar estas evaluaciones y en realidad
puedes ir
al tablero para cada uno de estos ítem y luego puedes verificar
realmente lo que
ha sido hecho hasta el momento. Ahora, también puedes crear
evaluación por aquí y solo puedes
especificar el nombre y dónde va a ser
el destino del informe
de evaluación para
que puedas quedarte esas
evaluaciones por ti. Ahora puede seleccionar cuáles son las
evaluaciones estandarizadas que disponibles y realmente
puede seleccionar eso y luego puede
crear una evaluación. Estas son las plantillas por defecto
de estas evaluaciones para la organización internacional
de la estandarización De igual manera, se tienen
evaluaciones en las que básicamente va y captura toda
esta información. Entonces, la mayor parte es información de
AWS, diciendo que tu aplicación
es estándar ISO, y mientras califica
esta aplicación, también
puedes ponerla en un bucket de historial que podrás exportar en un momento posterior
a quien quieras. Gracias de nuevo por
su tiempo y paciencia. Así es como el
gerente de auditoría trabaja en las manos
24. Laboratorios AWS Cloud Watch: Oigan, chicos, bienvenidos de nuevo
al siguiente video. En este video,
vamos a
hablar del
reloj Amazon Cloud manos a la obra. Así que vamos a entrar en la instancia EC dos
que acabas de crear. Entonces ahora si vas por aquí, vas a ver
las instancias en ejecución. Ahora cuando hagas clic
en él, te va a mostrar con el
filtro de correr. Así instancia estado
igual a correr. Entonces esto significa que solo
podrás
ver aquellas instancias que
están en estado de ejecución. Entonces vas a conseguir esto. Entonces, si quieres ver
todas las instancias, simplemente cierra esto o
borra el filtro. Ambos te ayudarán a mostrarte todas las
instancias restantes que
tienes en tu región. Entonces ahora, ¿qué es eso que
vamos a hacer? Vamos a
mirar CloudWatch. Para que veas Cloud watch, BT fault El reloj Cloud es parte
de tu instancia um EC two. Por lo que basta con hacer clic en eso y se
resaltará y seleccionará la instancia de EC two. Debajo de eso,
verás detalles por aquí. Puedes expandir esto y realmente
puedes ver
el resumen de la instancia. Hablaremos de esto en
detalle más adelante en el momento, pero revisaremos una
de sus características que está relacionada con Cloud watch,
que es el monitoreo. Como el nombre Cloud watch
implica la nube que está
viendo tus instancias, tus aplicaciones, todas esas cosas que estás
haciendo como parte de tus
servicios web de Amazon, lo está viendo. Eso es básicamente un sistema de
monitoreo, así que lo vas a encontrar
bajo monitoreo por aquí. ¿Qué es lo que está viendo? El agente de vigilancia en la nube
es métrica de agente. En realidad está
recopilando los datos. Ahora, en realidad puedes
ver más detalles aquí haciendo clic en Monitoreo de detalle
administrado y
puedes habilitar el
monitoreo detallado aquí. Después de habilitar el
monitoreo de detalles, por ejemplo, los datos de
monitoreo estarán
disponibles en un período de 1 minuto. Estos son los detalles de los
que está hablando. Actualmente, si ve esta
información por aquí, por lo que se recibe
cada 5 minutos. Pero si quieres
tener detalles de 1 minuto, puedes habilitar esto. Pero aplican cargos adicionales. Recuerda antes de
hacer un cambio. Entonces, cuando hagas clic en
eso, irás a CloudWatch y
verás la calculadora de precios, puedes ir a la aplicación
Calculadora de precios O simplemente puedes
ver esto claramente desde aquí. Aquí se habla de
pagar neumático en cuanto a troncos. Entonces, si estás recopilando
los datos en solo, vas a
obtener un estándar de 0.5 por GB para monitoreo. En cuanto al acceso infrecuente,
0.2 el acceso infrecuente no es acceder a él
con frecuencia De igual manera, tienes los
cargos por aquí. Así que no nos preocupemos eso en este momento porque eso no es parte de
tu certificación, ni es necesario mirar de
cerca como cada 1 minuto. Vamos con el predeterminado
con cada 5 minutos, y realmente puede
ver la utilización de CP, la utilización red en
términos de entrada, salida,
parches en lo siento, paquetes en paquetes hacia fuera y puede ver el uso de
crédito de CPU por aquí, que habla sobre
el uso de crédito de
la CPU y saldo de crédito de la CPU. Esto realmente
te dará información completa al respecto. Si quieres más
información sobre esto, en realidad
puedes ir
al propio CloudWatch Ahora sobre el
tipo de búsqueda Cloud watch, y verás un
servicio por aquí, solo haz clic en el botón central y
se abrirá en una nueva pestaña. Ahora, puedes ver que
tienes el tablero vacío. No hay tablero por aquí. Entonces, lo que puede hacer es que puede optar por el
tablero automático sobre su instancia EC dos cargar este tablero EC dos por aquí. Ahora bien, lo que te va
a mostrar son los existentes todos
tus servicios EC dos que tienes por aquí,
lo que sea que esté funcionando. Entonces básicamente, te muestra que dos servicios se están ejecutando
para mí en el EC dos, así que muestra esos gráficos. Los otros están apagados, así que simplemente no
te está mostrando como parte de esto. Entonces, como que obtienes
más información. Por lo que anteriormente en
el CE de dos niveles, solo
pudimos encontrar la información de
la CPU, la información red y
la información de crédito de la CPU. Pero aquí, si ves eso, obtienes una utilización promedio, información de lectura de
disco, información de escritura de disco, información de
red, y luego puedes
ver el check in alguna información por aquí. Ahora bien, estos son algunos de los
artículos que verás. Y también puedes personalizar
este panel por, ya sabes, datos
en vivo, y luego
puedes agregar esto como parte
de tu panel predeterminado. También puede seleccionar algún otro tablero también
sobre S tres función también. Tengo unas S tres cubetas. Entonces básicamente, solo cambio
a S tres por aquí. Entonces, así mismo, puedes crear o usar el tablero automático. También puedes introducir el
dashboard así. Aquí estás viendo
estos datos, ¿verdad? Por lo tanto, también puede agregar al
panel de control por aquí, que en realidad va
al tablero de
aquí y agrega ese
tablero en su reloj de Cloud. Ahora, agregando un tablero, lo que significa que tendrá una vista rápida de esos recursos que
es importante para usted. De hecho, puedes configurar un panel yendo por aquí, haciendo clic en Dashboard
y crea un dashboard. Ahora mientras crea un tablero, necesita un nombre de tu
tablero, que estoy dando prueba. Y luego puedes ingresar
cada ítem aquí. Así que en realidad puedes
crear un datasocia que esté usando prometes
o S three bucket, o puedes usar CloudWatch
para que hagas Puede iniciar sesión en
métricas, registros, alarmas. Entonces, si vas por esto, puedes agregar uno por uno
parámetro aquí y
puedes seleccionar qué
elementos quieres
agregar como parte de este dashboard. Entonces estoy seleccionando EC dos. Hay 317 métricas que vienen
de EC dos instancias. Entonces, si haces clic en eso,
verás más de esto es una
métrica previa a la instancia por aquí con solo 256 en todas las
instancias que tengas. ¿Bien? Entonces, si digo sobre métrica de
pre instancia,
vamos a verlo. Ahora, ves que
hay tantos
nombres de instancias por aquí con el ID de
instancia, ¿verdad? Entonces no hay
nombres específicos por aquí, y se puede ver que
hay paquete de entrada. Entonces, lo que es importante para
ti, puedes seleccionar ese ID de instancia. Estoy copiando el ID de instancia. Estoy por aquí, estoy
buscando este nombre de instancia. Entonces solo aquellos
artículos relacionados con instancias que vienen por aquí. Ahora, seleccionando ese nombre de
instancia, y estoy creando un asistente. Ahora puedes ver que prácticamente todos estos artículos están
entrando en un mago por aquí, lo que puede ser un poco
confuso porque tiene muchos artículos
dentro de un elemento. Por lo que también puedes crear
otro dashboard. Para que puedas seleccionar un
artículo por separado. Entonces haciendo clic en el siguiente
y haciendo lo mismo por aquí y puedes
seleccionar ese nombre de instancia. Y luego puedes seleccionar en
lugar de seleccionar todo el artículo, puedes seleccionar un artículo.
Y crear un mago. Ahora aquí, solo
habla de CPU, disco no CPU, bytes de
ancho de disco por aquí. Así mismo, puedes crear para cada uno y crear
tu propio dashboard. Entonces, cuando vengas a Dashboard, verás el nombre del tablero. Al hacer clic en el tablero, realmente
verá
el rendimiento de esa instancia en particular, ya
sabe. Para que puedas eliminar el
tablero de aquí. Y se retira el tablero. Entonces así es más o menos
cómo crear un tablero. Aquí está la alarma. Así también
puedes crear alarum. Entonces ahora mismo no hay alarum. No veo ninguna
alarma por aquí. También hay edificio alarum por aquí, que manda edificio Ahora que no
tienes ningún alarum aquí, puedes crear Larum,
crear una Esto en realidad no es parte
de su certificación. Sólo te estoy mostrando porque
tengo experiencia en esto. Por lo tanto, puede establecer esta búsqueda de instancias de EC dos
por este nombre de servidor, y en realidad puede tomar
en la utilización de la CPU. Entonces CPUtilization está por aquí. Establecer matriz. Ahora aquí puede configurar la alarma para esta utilización
en particular. La gráfica de Alarum aquí por aquí será mucho una gráfica en vivo De hecho, te mostrará la visión dinámica de
lo que estás configurando. Aquí, usted está diciendo que si
quiero que este alarum se active cuando la utilización de
CP es mayor de lo que puedo
ver eso por aquí Por lo que puedes dar
en el porcentaje de aquí, 80 por ciento. Para que veas que
se establece en 80 por ciento. Ahora mismo, es
mucho quiero decir, es baja utilización
en este momento. Entonces, si solo dices
20 por ciento, en realidad
puedes ver
alguna diferencia, no mucha. Es 0.1. Entonces, del mismo modo, se puede establecer un alarum y de hecho
se puede ver el alarum en esta gráfica en
particular sí, y luego hacer clic en Y qué quieres hacer
cuando esta alarma se active, puedes crear el tema de SNS por aquí,
y este es el
tema de SNS no es más y este es el
tema de SNS no es que
un simple servicio de
notificación, y esto se activará Entonces lo he hecho para otra aplicación, para
que puedas ignorarlo. Y luego también puedes
activar la función Lambda. También puede activar el escalado
automático. Puede seleccionar el grupo de
autoescalado aquí. También puede seleccionar una acción EC
two ya que podría ser un reinicio del servidor o shalwn de un servidor
o algo así Eso se puede hacer. Da
clic en el siguiente ícono, y luego podrás, ya
sabes, crear esto pero
necesita tema de SNS por aquí Así que aquí, agrega nombre y descripción y
vista previa y crea alarma. Así que eso es bastante sencillo y
crear alarum. Entonces estas son las dos cosas
que queremos cubrir en este video. Gracias de nuevo por ver. Entonces ahora ya sabes cómo monitorear tu aplicación
con CloudWatch Hay otras cosas
que cubres más adelante en el momento, así que no te
preocupes por ello.
25. Laboratorios de AWS CloudTrail: Oigan, chicos, bienvenidos de nuevo
al siguiente video. En este video, vamos
a ver la versión de prueba de Cloud. Ahora, para la prueba de Cloud, es posible que
tengamos que ir por aquí y luego escribir
el nombre del servicio como Prueba. Entonces esto debería, bien.
No está funcionando. Prueba en la nube. Sí, ahí tienes. Entonces haz clic en eso y
deberías abrir como una nueva ventana. Y dentro de esta ventana, deberías ver la versión de
prueba de Cloud por aquí. Perfecto. Entonces ahora, recuerde que la versión de prueba de Cloud tiene
un precio en ella. Así que en realidad puedes
crear tu propio juicio. Entonces, en el video anterior
en la arquitectura, descubrimos que en realidad
puedes crear tu propia prueba de Cloud y luego
mirar un servicio específico, y luego puedes rastrear
ese servicio específico. Alternativamente, para este propósito de
demostración, ¿verdad? Entonces tienes algo
llamado historia de eventos. Entonces, en lo que estamos ahora mismo es la página de
introducción a la prueba de Cloud donde puedes crear
tu propia versión de prueba de Cloud. Entonces eso equivale a ir
a Dashboard, crear una prueba. Entonces, al crear una prueba, en realidad
estarás
creando un nombre de prueba, habilitar para toda mi organización, lo que significa que realmente
puedes habilitar para todas las cuentas
de tu organización, crear un nuevo bucket, ST bucket. Este bucket ST contendrá el registro de su
prueba de Cloud, los registros de auditoría y luego registrará esto,
cifrado, habilitando el
cifrado en este registro. Y entonces aquí está creando una nueva clave KMS para el
cifrado por aquí. Y luego aquí estamos habilitando CloudWatch
como parte del registro Cloud Watch realmente
verá los registros de aquí, pero eso es opcional y
se aplican cargos porque
estará leyendo los registros. Entonces cuando vayas
al siguiente diagrama, elegirás los eventos de registro, lo cual es muy importante.
Te voy a mostrar eso. Entonces prueba eso es una prueba. Sólo quiero llegar
a la siguiente página. Entonces aquí, ¿qué
estamos buscando? ¿Bien? ¿Qué registros de auditoría
estamos buscando? Quieres capturar
el flujo de gestión. Como por ejemplo, el flujo de
administración como en operación se realiza en
recursos de AWS como crear, um, o modificar términos de eventos de datos como
la transferencia de datos dentro de un
recurso y cosas así. Dentro de los eventos como
en las actividades, errores y comportamientos
de tus servicios. Todas esas cosas van a ser realmente, muchos datos. Recuerden eso. Um una vez que captas
todos estos datos, ¿
qué quieres que haga el evento de
gestión EM? Muestra el rendimiento de la operación
como leer y escribir, excluir eventos KMS, excluir
RDS, datos, eventos API Estos son algo que
en realidad puede desencadenar muchos registros. Entonces puedes
excluirlos y también puedes ignorar la lectura porque no
quieres que nadie logre eventos, que es una actividad de lectura. Quieres registrar solo
la actividad correcta. Alguien está escribiendo algo hacia los cambios de gestión. Eso podría ser muy importante. Por lo que también puede habilitar esto porque no hay cargos
adicionales por eventos de administración de
registros en esta prueba porque esta es su primera copia del evento de
administración. Entonces a pesar de que no
hay cargos, pero aún así se te cobrará
por el próximo evento. Por lo que siempre se recomienda
ir con cualquiera que sea el requisito actual de
la organización. Y luego si tienes alguna
necesidad de datos, como, por ejemplo, dónde los estás capturando,
puedes poner en el
nombre de la aplicación, el nombre del servicio. Y entonces puedes crear
los eventos internos bien. Esto en realidad será seleccionar la actividad inusual en función de
la línea base de días de sonido
con respecto a las tasas de llamadas de API y
las tasas de error. De esta manera,
puedes crear tu propio evento en
tu prueba de Cloud. Ahora bien, esto está incurriendo en costos
porque va a capturar muchos datos y
va a ya sabes, tu Cloud watch va a monitorear este registro también si
eliges esa función en la
que CloudWatch lo
analizará y podrás tener una
representación gráfica en Cloud Pero recuerde que no es parte de su programa
ni de su certificación. Entonces no
te van a preguntar cuáles son las opciones aquí, mientras la crean,
todas esas cosas. Quieren que sepas
qué es un reloj Cloud. Y prueba en la nube. Así que no te preocupes por todo esto en detalle, ¿de acuerdo? Entonces, cuando vas al historial de
eventos, ahora, esto es algo gratuito que viene por defecto es el historial de
eventos. Ahora bien, si recuerdas que el
último entrenamiento lo
hicimos, creamos un dashboard, borramos el dashboard,
si recuerdas, estábamos mirando Cloud watch y creamos un dashboard. Puedo ver eso lo mismo. Entonces borramos un tablero. Empezamos, ya sabes,
artículos por aquí. Hubo algún tipo de actividad de
fondo continuó. Ponemos dashboard por aquí, borramos dashboard,
así que lo hemos hecho. Y luego anteriormente, creamos
una instancia EC dos, ¿verdad? Así que hice una consola de inicio de
sesión, stop instance. Yo hice eso, y luego hicimos aminate también hice una
instancia de terminación Y luego um, sí. Así mismo, hicimos muchas
actividades por aquí. Por ejemplo, no
sé de estas cosas. A lo mejor
lo hubiera hecho algún tiempo antes, porque es todo hace 2 horas Entonces lo habría hecho
como hace un rato. Pero hagamos una
actividad ahora mismo. Demostremos que esto funciona. Aquí, vamos a la S tres. Almacenamiento escalable en la nube. Entonces aquí, voy a
crear un cubo por aquí. Así que prueba guión bucket, guión mi número de cuenta Mira, tiene que ser único, así que no tengo otra opción. Entonces tengo que dar
mi número de cuenta en todas partes para que sea único. Y entonces, obviamente,
nadie
habría usado mi número de cuenta porque mi cuenta
IU sería única. Entonces es básicamente ACL, así que voy a ir
con las cosas predeterminadas por aquí y crear un bucket Ahora bien esto va a
crear este bucket por aquí sin ningún tipo de excepción o error porque
este nombre es lo suficientemente único. Ahora, cuando vas por
aquí a tu um, incluso la historia y haces
una actualización por aquí, deberías ver poner cifrado de
bucket. Entonces ves que por aquí hay
actividad. Al hacer clic en la actividad, realidad
puedes ver el
resumen de esta actividad. Entonces el usenym era root y, ya
sabes, la clave de acceso y todo lo demás,
que se requiere Y luego también se puede ver que S tres puso cifrado de
bucket, y en realidad se pueden ver
los detalles por aquí. Entonces esto es básicamente
te dice que hubo un evento, y eso se trataba de
crear un bucket. Entonces, de igual manera, si
borro este bucket, así que eso también va a
conseguir logueado por ahí. Así que solo voy a copiar y pegar esto mucho más fácil que escribirlo. Entonces ahora verás
refrescar esto y puedes ver que puede tardar un tiempo. Entonces déjame hacer una pausa
en pausar el video. Ahí vas. Entonces
tienes el cubo de crear, Cifrado
de cubo de madera,
eliminar cubo. Entonces los tres artículos han llegado. No sé por qué este
no vino antes, pero cuando solo, ya sabes, refresco toda esta
página, entró. Entonces Delit Bucket de aquí te
da toda la, ya sabes, información al respecto, usuario lo eliminó y
cuál es el ID de evento para ello Entonces de igual manera, nos ha dado
toda la información aquí. Así que este es más o menos el
uso de la versión de prueba de Cloud. La prueba en la nube
le permite ver toda su información de
auditoría en AWS para ver las actividades que esté
realizando como parte de los servicios de AWS, ya
sabe, los datos relacionados en sí. Por defecto, lo mira. Pero recuerden
que no contiene
tantos datos porque este es
el servicio predeterminado aquí dentro. Por lo que conservará como
datos de unos 90 días. Pero más allá de eso, si necesita que
los datos estén retenidos, entonces puede que tenga que optar
por algún tipo de, uh, su propio tablero en el
que los datos se almacenarían realmente en
sus registros S tres, y eso realmente contendrá
los datos en los registros S tres Así que recuerda que esa es
la mayor diferencia entre el historial de eventos que viene por defecto
y el tablero, prueba
en la nube dentro del
cual estás creando. Entonces Um, así que esto es
algo que debes recordar cuando trabajas
con AWS Cloud Trial. Gracias de nuevo por ver este video.
Te veré en la siguiente.
26. Labs AWS Config: Oigan, chicos. Bienvenidos de nuevo
al siguiente video. En este video,
vamos a hablar sobre las manos en sesión
de AWS Config. Ahora bien, ¿recuerda que
AWS Config en la teoría, dijimos acerca de monitorear su infraestructura existente
con algunas reglas. Entonces um, no podemos hacer eso. Así que sigamos adelante y
busquemos AWS Config. Ahora bien, esto rastrea
los inventarios de recursos y los cambios. Ese es el uso de config. Por aquí, tienes
el tablero. Aquí están las
métricas de configuración por aquí, que está rastreando los registros. Entonces aquí está el estado
de cumplimiento. Entonces aquí dice cero reglas de
incumplimiento y cero recursos de incumplimiento porque no creo que
tengamos nada. En cuanto al inventario de recursos, tenemos 110 recursos por aquí. Estos son algunos de los
recursos que tenemos. Bien, entonces ahora el
paquete de confirmación es básicamente, ya
sabes, una especie de
plantilla que
realmente puedes usar uh para las
mejores prácticas. Por ejemplo, las mejores prácticas
de S tres, Amazon S tres. De hecho, puedes usar este paquete, y luego puedes
nombrar este paquete y luego puedes agregar un
parámetro aquí. Como múltiples parámetros. ¿Qué es lo que estás
buscando? Y entonces básicamente puedes
desplegar este pack. Entonces esto es básicamente como
si tienes un requisito, en una serie de requisitos
que deben habilitarse, para realmente
puedas implementar
un paquete de confirmación. O bien puedes ir por reglas. Las reglas
son mucho más simples
y es muy útil para nuestra
demo porque útil para nuestra
demo porque no vamos a estar preguntando no van
a estar haciendo preguntas sobre cómo configuras
esto y cuáles las diferentes formas de
configurar AWS config. Y esa no es la pregunta
que van a hacer. Van a preguntar sobre
la configuración de AWS en sí. Entonces, cuando haces clic en Regla, tienes la regla administrada de AWS, la regla Lambda
personalizada y
luego la regla personalizada de Guard. ¿Bien? Así mismo, así que
vamos con la regla administrada de AWS y luego escriba S
tres versión no. Simplemente no me llames adorar. Tengo tantos, ya sabes,
resultado. Bien, versionado Cuando escribo versionado, ves que tengo
una opción por aquí, S tres bucket
versioning habilitado. Entonces ahora solo abrimos estos
dos cubetas por separado. Acabo de hacer un
clic central sobre eso. Y abrí las propiedades de este particular bucket de registros de
prueba en la nube. Y se puede ver que el
versionado de bucket está suspendido. Y para éste,
también suspendido. Así que vamos a crear
este cubo por aquí. Lo siento, esta
regla en particular por aquí, que dice que va a detectar si el versionado
está habilitado en tu bucket ¿Bien? Así que haz clic en siguiente. Esa es tu regla. ¿Bien? Eso es algo
que no puedes cambiar. Aquí está el nombre de
esta regla en particular. Y entonces tienes el
alcance del cambio por aquí, todos los cambios recursos etiquetas. Voy a ir con
recursos donde
puedas seleccionarlo porque quieres que el recurso coincida con
el tipo específico, que es S tres, queremos que
coincida con los tipos existentes. Hemos seleccionado ST
aquí como nombre de recurso. Así que aquí los parámetros pueden
ser es MFA D enable, y entonces realmente se puede
dar el valor de aquí No vamos a usar eso, así solo vamos a ir con el siguiente y luego realmente puedes ver esto y verificar qué va a hacer
esto. Y luego haga clic en el
botón Guardar. Ahora damos click en él. Ahora cuando entres a esta regla
en particular por aquí bajo AWSknfak y luego clic en Refresh,
dale un minuto Verán que
los dos cubos que hay no son conformes, y ese mensaje
va a venir por aquí MFA DLT está habilitado para
su cucharón S three. Este es otro
parámetro de aquí. En realidad no estamos usando esto y lo que estamos usando en este
momento es esta regla de aquí. Entonces así es como
hay que dar parámetro en el paquete de confirmación. Entonces, cuando estés haciendo el paquete de
confirmación, necesitas identificar
la clave y luego darle la cadena
ya sea dos o caídas. Entonces aquí está habilitada la desactivación de MFA. Entonces, si entramos en esto, aquí
hay una
autenticación multifactor Creo que debería
estar en torno a la seguridad, supongo, el permiso debe ser. Entonces aquí MFA. No está aquí. Entonces, de igual manera, eso
necesita ser habilitado. Entonces eso es lo que
está buscando. Volvamos y
comprobemos esto si
esta regla se ha ejecutado
con éxito. Bien, para que veas que
ambos no cumplen. Por lo que ambos servicios
son inconformes. Si voy a crear otro cubo con
lo mismo, va a entrar también,
así que voy a crear un cubo de
prueba por aquí. Y luego estoy deshabilitando
el versionado. Así que solo crea Así que solo haz clic en Crear ahora. Ahora que he creado
este bucket y luego voy al registro de
AWS Cloud Trial, y voy al
permiso, perdón, propiedades. Entonces a partir de ahí estoy bien, esta es la autenticación multiflector Estaba buscando
permiso, así que estaba justo aquí. Haga clic en Editar, y luego aquí he habilitado el
versionado por aquí Para MFA, es necesario modificar
los ajustes en otro lugar, por lo que
hablaremos de eso más adelante Sí, he habilitado el
versionado por aquí. Entonces si solo voy a
refrescar esto en pocos minutos, tal vez 60 1 minuto
a 1.5 minutos, creo que así deberías
ver el nuevo entrando. Así que revisa para todos. Entonces,
a veces sabes lo que el compatible no
se mostrará aquí porque solo
buscaba recursos no conformes. Entonces, hemos hecho que este
en particular sea compatible, así que solo esperamos que eso se vea ahora mismo en cualquier momento. Voy a pausar
este video y pausarlo una vez que aparezca. Bien, ahora se puede ver que
este servicio en particular, que lo hemos
encendido el culto es compilingt y el resto de ellos,
que es uno de nueva creación
no es compent No cumple. Perdón por eso. Entonces, um, puedes ver que esta es más o menos la demo
que quería mostrarte. Ahora puede entender
que la configuración de AWS es para comprender y analizar
su configuración y establecer sus propias reglas, que se requieren para su
propia comunicación con AWS. Así que gracias de nuevo por
su tiempo y paciencia. Espero que hayas
entendido lo que es AWS config en términos de handshone. Te voy a
ver en el siguiente video.
27. Laboratorios AWS XRAY: Oigan, chicos. Bienvenidos de nuevo
al siguiente video. En este video, vamos
a hablar de rayos X de AWS. Ahora ya hemos visto la explicación teórica
para las cosas de los rayos X. Solo para darle una
vista rápida, los escaneos de rayos X, el funcionamiento interno de
su aplicación,
su flujo de solicitudes,
sus depuraciones su aplicación,
su flujo de solicitudes, de viento, improvisación, optimización,
conocimientos de rendimiento y todo lo demás, realmente
puede ver como
parte del interior de AWS Así que he creado, lo
siento, no AW por dentro. De veras lo siento. Es AWS Xray Entonces, si buscas Xray, entonces es una característica que
es un servicio separado, que es parte de otro
servicio por aquí,
um, que es CloudWatch Entonces anteriormente, Xray
solía ser un servicio separado, pero luego pasó a
formar parte de CloudWatch Ahora puedo ver que el
rastro está por aquí. Ahora, por defecto, no tendrás ninguna aplicación
para que puedas rastrear. Así que puedes hacer es que
habrá opción por aquí llamada
crear aplicación, crear una aplicación de muestra. Algo así. Si
vas a Trace Map, verás configurar
una aplicación demo. No se cobra mucho
solo $1 por día. Día completo lo he
estado ejecutando solo $1, se le cobra. Simplemente puedes encenderlo y luego tener esta
aplicación, apagarlo. Ahora, puedes ver
que puedes ver la tasa de lo que
está rastreando por aquí ya que esta es una
aplicación sencilla que estamos rastreando, tenemos al cliente y
luego el guardián de puntaje es básicamente tu contenedor ECS,
ECS es tu servicio Cloud servicio
Elastic Cloud, y puedes ver que
hay 100 porcentaje de tasa de
error porque el cliente no puede acceder a
la la tasa de lo que
está rastreando por
aquí ya que esta es una
aplicación sencilla que estamos rastreando,
tenemos al cliente y
luego el guardián de puntaje es
básicamente tu contenedor ECS,
ECS es tu servicio Cloud servicio
Elastic Cloud,
y puedes ver que
hay 100 porcentaje de tasa de
error porque
el cliente no puede acceder a
la aplicación porque
es la aplicación demo. También puedes ver el
tráfico por aquí. Cuando haces clic en
la flecha de aquí, realmente
puedes ver el filtro de
distribución del tiempo de
respuesta. Aquí también puedes hacer clic en ver seguimiento y
puedes ejecutar una consulta. Esto le informa sobre
cuál es la velocidad
del nodo y los métodos HDDP también
está ahí como
parte del rastreo De igual manera, en realidad puedes ver el rendimiento
de tu aplicación. Puedes um, mira el número de
solicitudes que vienen en las caídas, los segundos que está
manejando la latencia. De igual manera, podrás ver un rastro completo de
tu solicitud. Si tienes una aplicación, puedes usarla a través de rastreo y puedes
rastrear la aplicación, qué tan rápida es la aplicación, qué tan frecuente es la actualización. De igual manera, se pueden ver
todas esas cosas. También puede hacer clic en
ver el panel de control por aquí, esto le brinda información
completa sobre la aplicación del guardián de puntaje, que es parte del rastreo, que le brinda
los informes de latencia , errores, los aceleradores Toda la información,
en realidad viene a través. También se puede consultar por
un periodo de 6 horas. Eso lo puedo ver. Ha
habido algunos picos por aquí ya que esta no es una aplicación
en vivo o
algo así. No estás esquiando mucho detalle. Pero entonces esta es la huella. No es obligatorio o es
realmente necesario para que sepas
cómo
configurar el rastreo como parte
de la certificación. La certificación solo te
da una idea. Lo que es rastro y algunas de las características es lo que
hay que recordar y qué función de ello es muy importante porque
vendrían preguntas como, Oh, un cliente o cliente está
buscando la manera de, ya
sabes,
afinar o averiguar el rendimiento de la aplicación
con su arquitectura. Qué servicio sería
apropiado elegir. Te pedirán
tantos servicios que están tan estrechamente
relacionados como CloudTrail, Cloud watch o X ray Hay que entender
y lo que están pidiendo. Buscan
rendimiento en su interior y
buscan la arquitectura y el flujo de la aplicación. La Xray es la correcta. De igual manera, tendrán estos complicados
servicios apegados a tu pregunta existente y
te estarían preguntando de manera complicada. Deberías entender,
leer la pregunta dos y tres veces y luego
solo responder a esa pregunta Gracias de nuevo por
su tiempo y paciencia. Espero que te haya sido útil
entender cómo configurar Xray Hablaremos en detalle cómo hacer ese punto de tiempo más adelante
en diferentes entrenamientos, pero eso requiere
mucho conocimiento de AWS. Volveremos
a eso. Te voy a dar todos los
conocimientos que tengo. Gracias de nuevo. Te
veré en la siguiente.
28. Labs First para la creación de instancias de EC2: Oigan, chicos, bienvenidos de nuevo
al siguiente video. En este video, vamos
a crear un instante. Entonces déjame cerrar el
VPC e ir a EC dos. Ahora lo estoy ordenando a través de
instancia en ejecución, y la cierro. Se pueden ver todas
esas cosas que tengo en el
estado de parada también. Ahora, normalmente detengo
la instancia después, ya
sabes, después
de que se complete el propósito de la instancia, porque los cargos,
que va hacia la CPU y
la RAM también se detendrán. No habrá cargos
para mí hasta que vuelva a comenzar la instancia
porque esa CPU y RAM, que he estado
usando se le darán a otra persona si
alguien más lo solicita. Entonces, um, no me van
a pagar por ello. Si estás pensando
que si solo estoy dejando salir o
rentar mi carnero CPN, que se dedica a esto, no, no
estaría pagando por ello No me pagarían por ello, ni tampoco estaría pagando por ello. Por lo que ese recurso se
destinará a otra persona, o no se destinará a nadie más. Estará inactivo. Entonces esa es la
razón por la que no me pagan o estoy pagando por alguien. Entonces esa es la razón simple. Para crear instancia, solo cosas
para ir a la instancia de lanzamiento, o puedes ir al tablero, y desde allí también,
puedes lanzar instancia. Pero recuerde, el tablero le brinda la visión general completa
de la región actual. Entonces, si tienes un servidor funcionando en la
región de Mumbai o en la región CO, entonces no podrás
verlo por aquí porque esto solo habla de
Virginia del Norte aquí, USC Pne Y puedes simplemente hacer clic en
la vista global de aquí, yo solo hago clic central en ella, y
me dará las instancias que ejecutan en todas
las regiones de aquí. Entonces se puede ver que cinco
instancias en una región. Entonces, igualmente,
me da todas esas cosas. Así VPC 18 en 17 región. Entonces eso es algo de lo que
no tengo que preocuparme realmente porque es una cosa predeterminada. Pero 17 y 17 es una buena noticia. Pero ¿por qué 18 y 17? Porque he creado
dos VPC en esta región. Por eso digo del 18 al 17. De igual manera, en realidad se pueden
ver los surcos de seguridad y todas esas cosas en
un ángulo mucho mayor. Entonces vamos a cerrar esto. Vamos a lanzar una instancia. Ahora bien, esta va a
ser una instancia de prueba. Entonces solo lo voy a nombrar
como prueba y ya que voy a ejecutar el sistema operativo
predeterminado. Ni siquiera voy a
iniciar sesión en esta máquina. Es decir, a través de Put o
cualquier MobikStem o cliente. ¿Bien? Así que voy
a usar esto y usuario en realidad se muestra
por aquí, fácil de usar. Si elijo rojo en el sistema
operativo, realidad
puedes ver los cambios de nombre de
usuario
aquí a fácil de. Hablemos de
U Bundu Bundu tiene un nombre de usuario diferente. A ver. Veamos sobre eso. Bien,
está tomando tanto tiempo. Cambiemos el sistema
operativo a otro, que es como. Entonces está cambiando
el nivel de volumen, así que por eso te está
pidiendo que confirmes. Oh, Banda. Sí, así podrás
ver que el nombre de usuario es ubuntu. Entonces, si estás
buscando el nombre de usuario para averiguar el nombre de usuario, qué es y cosas así. Así que elige el
sistema operativo de tu elección. Asegúrese de estar dentro del servidor elegible para llantas
gratuitas. Entonces el único servidor
es elegible en este momento. Es este es T dos Micro. Entonces ese es el que he seleccionado. Ahora, keypare es tan importante. Sin teclado no
podrá iniciar sesión. Pero en esta situación, ya que estamos haciendo esto
con fines de demostración, por lo que realmente no tiene que
preocuparse por solo crear un nuevo teclado llamado Test
KeypareTest par de teclas de guión Ya lo he creado, así que simplemente haz clic en crear keypare y se
descargará un archivo PEM Ahora usando el archivo PEM, podrás iniciar sesión con este nombre de usuario que
viene aquí Ahora, ¿puedes iniciar sesión sin
contraseña? Bueno, no puedes. La contraseña está deshabilitada en Aula, por lo que hay que usar la clave privada para
iniciar sesión en el servidor. Entonces esa es la única
forma de comunicarse. Pero no te preocupes por ello, no
vamos a iniciar sesión aquí, pero cuando llegue el momento, te
mostraré cómo hacerlo, así
que no te preocupes por ello. En términos de configuración de red, realidad
puedes editar
y cambiar tu VPC, cambiar tu subred,
habilitar automáticamente la dirección IP
pública asignada automáticamente Puede habilitar alguna
otra característica, como la dirección IP elástica. Nuevamente, cargue el suministro.
Recuerda eso. Entonces eso es algo a
lo que deberías, uh adherirte, y luego tienes que permitir el tráfico
SSH desde cualquier lugar Entonces esto te dará
permiso para navegar por el SSH hasta el servidor
usando tu PemKey Entonces, si deshabilitas esto, entonces no puedes
conectarte a SSSCh, recuerda esto Pero de todos modos, no vamos a usar SSSuch no importa Entonces AGB, estoy bien con eso. Así que simplemente haz clic en
Launch Instance. Um, sí, proceda con el guardián TTS
existente. Lo siento, creo que cuando lo
creas, automáticamente cambió ahí, pero como no
lo he creado porque ya
existe, ¿verdad? Así que en realidad los cambios vuelven a la instancia que se inicializa
con éxito Para que no lo veas en este momento, solo haz clic en refrescar. Puede llegar en cualquier momento. Se puede ver que está en el estado
pendiente ahora mismo, así que esto se está
creando ahora mismo. W significa que tu servidor se está creando
en este momento. Entonces ahora todavía está pendiente, así que vamos a refrescarlo
debería estar funcionando ahora. Sí, ahí tienes. Está funcionando ahora mismo tienes la dirección IP
pública. Para que puedas hacer SSSarc a través de
esta dirección IP pública. Si lo has hecho si estás deshabilitado SSSaro si quieres
permitir alguna
política de seguridad más adelante, puedes hacer clic en CoTA Seguridad Lo
siento, C Networking, y entonces
realmente puedes cambiar algunos de los realmente malos en este Hyundai Entonces no lo tienes
en el networking. De hecho vas a la
red por aquí y puedes ver la um, interfaz de
red por aquí, y luego está el
grupo de servicio es un grupo de seguridad. Bien, entonces este es
un grupo de seguridad, en realidad
puedes cambiar
el grupo de seguridad y permitir artículos por aquí. Está bajo seguridad.
Perdón por eso. Entonces, en el grupo de seguridad, en realidad
estarás agregando
más solicitudes entrantes Entonces en este momento 22 poner número, que es SSSCh se está
agregando por aquí Entonces de igual manera,
estarás agregando eso. También puedes acceder a
esto yendo a seguridad desde aquí y cambiando de grupo de
seguridad, ¿verdad? Entonces eso básicamente va a tu grupo de seguridad por aquí. Así mismo, puedes hacer eso. Pero
hablaremos a detalle. No estoy realmente interesado en hablar de
todas estas cosas, pero luego sigamos adelante y, uh, um, ya sabes, en este video, esto es más o menos
lo que queríamos hacer. Tenemos una prueba en
sentido ahora mismo. Puede que no tengas estas cosas,
así que no te preocupes por ello. Esto es mayor para otro
proyecto para mi, um, ya
sabes, para mi trabajo ubunitis
y trabajo de turno abierto
y cosas así Así que no te molestes
con estos. Bien. Entonces de todos modos, sabio,
gracias de nuevo por su
paciencia y tiempo. Perdón por la
información extra si es, como, dándote
mucha información, así que lo
siento por eso. Veo el siguiente video con más, más, más información.
Gracias.
29. Introducción a Labs VPC: Oigan, chicos. Bienvenidos de nuevo
al siguiente video. Y este video,
vamos a
hablar de Nube privada virtual. Ahora, VPC, en breve lo
llamamos como es un conjunto de servicios que se
va a ejecutar en todas las regiones Entonces, si tienes una región que quieres planear
ejecutar tu instancia de EC two, primero
tienes seleccionar la región
donde quieres ejecutar, y luego crear una
instancia EC two en esa región. Este no es un parámetro opcional. Este es un parámetro obligatorio. A veces ahora mismo, no
vamos a estar molestando con toda esta configuración de VPC cuando creamos la instancia
EC two Pero más adelante punto de tiempo
en el esfuerzo en sí mismo, nos va a preocupar
por ello porque ese es algún tema que vamos
a cubrir seguro Ahora esto va a
ser un aviso para ti. Por qué lo estamos viendo
ahora mismo es porque para este ejemplo
que vamos a usar, necesitamos alguna instancia EC dos en nuestro servicio
que necesita ejecutarse. Esa es la razón por la que estamos
buscando o entendiendo VPC y lo que es EC dos instancias
y cómo las creamos. A pesar de que no vamos a
acceder a la EC se crearon dos
instancias, pero aún así solo queremos
verlo como introducción. Ahora, por aquí, tienes la VPC en el
diagrama de arquitectura bajo una región Entonces eso significa que cada
región va a tener configurada tu VPC Entonces solo tecleamos VPC por
aquí, obtienes la VPC. Entonces dice recurso
Cloud aislado, y esa es la categoría en la
que está entrando. Bien, así que voy
a etiquetar eso por ahí. Y entonces como
puedes ver por aquí, tienes que um, EVPC en la región del USD Este Ahora bien, si quieres ver todas las instancias de
VPC
en todas las regiones, habrá una cada una Entonces habrá, por supuesto,
uh, ya sabes, un
PBC en particular en todas las regiones Pero hay algo que
dice que no a menudo. Entonces hay algunas
regiones discapacitadas para mí, como pueden ver por aquí,
estoy en Virginia del Norte. Tengo 17 habilitados y
hay algunos deshabilitados para mi 13 alrededor de 13 regiones están deshabilitadas porque ya
no lo estoy usando. Entonces no hay
propósito por defecto. Uh, Amazon los desactiva, pero podemos
habilitarlos más tarde en
el momento si lo necesitas. Pero eso no me preocupa. Estoy contento con Virginia del Norte porque esa es la región
más barata. Y con los recursos que creas hay mucho
más barato que cualquier otra, sabes, áreas
alrededor de esto
porque tiene muchas zonas de avaldia. Um, bueno, entonces ese es mi secreto. Entonces sí, por eso
creo mi servicio aquí. Um, entonces por aquí, tengo dos VPCs, así que puedes tener
más de una VPC Entonces una VPC es predeterminada porque le permite configurar rápidamente instancia de
EC dos
sin ningún tipo de, ya
sabe, necesito gobernar estos requisitos previos de configuración
y cosas así Entonces esa es la razón por la que
cada región tiene una VPC. Entonces me hace mucho más fácil. Puedo cambiar a cualquier
región en este momento, y luego puedo simplemente hacer girar
EC dos instancias, solo la configuración predeterminada, bien, en la red. Así que
no tengo que hacer mucho. Eso lo veremos en
el siguiente video. Esa es la razón por la que
hay una VPC en todas partes, ¿de acuerdo? Otra razón es, como, VPC es realmente necesaria para la configuración de la
red Podría ser una comunicación de región a región o podría
ser una
comunicación de aplicación
por fases de Internet a través de Internet Pero definitivamente
necesitas tener una VPC. Ahora, cuando ingresas a esto, hay dos VPC
por aquí, ¿verdad Cuando ingresa una VPC, entonces tendrá
subredes asignadas a ella Entonces se puede ver que se
trata de subredes. Ahora bien, ¿de dónde vienen estas
subredes? Ahora, las subredes son la
configuración predeterminada de una VPC. Cuántas zonas o zonas
T disponibles tiene la VPC, que tantas materias lo siento, que muchas subredes deberían
estar disponibles para esa ¿Puedes tener um, ya
sabes, puede
haber múltiples preguntas ¿Puedes tener varias subredes,
puedes tener varias VPC? Entonces esas preguntas serán atendidas en ese momento, así que no te preocupes por eso. Entonces, como puede ver, las subredes
se conectan a una tabla de rutas. La tabla de rutas va a una configuración
de red. Entonces no nos
preocupa esto en
este momento sobre la
arquitectura del mapa de recursos, ahora
conocemos
las cosas por defecto. Ahora bien, cuando se crea
cualquier instancia de EC dos, lo
que voy a hacer
en el siguiente video, realidad
verá la relevancia entre la subred y la VPC Entonces verá la instancia de ejecución de EC two que
se está ejecutando actualmente. Entonces, si solo seleccionas
eso, tendrás esta instancia de EC dos
alojada en alguna VPC, bien, porque puedes
ver la zona t disponible, está alojada en US east una A. Dice A,
lo que significa
que está alojada en US East una A
usando la subred Entonces así es más o menos
como se define. Entonces es anfitrión uno A. Entonces ¿podemos seleccionarlo? A la hora de EC dos instancia, ¿podemos seleccionar una subred? Sí, puede seleccionar una subred al crear una instancia de EC two Cuando vas a la subred por aquí, entonces tienes muchas
subredes por aquí Entonces hay muchas subredes
Sama creadas por mí mismo. Sí, puede crear
varias subredes. Así que he creado
subredes adicionales por aquí. Se puede ver eso por aquí. Entonces puedes ver que dice
Se trata grupo fronterizo de red este uno este, uno al este porque
ese es básicamente el EU East uno es el
nombre de la región, entonces este es el nombre de la región. Pero aquí en la zona disponiabt, tienes oriente uno A,
este uno B, este uno,
C, si solo
lo ordenas por esto, Tiene dos oriente uno
A y dos oriente uno B. Ahora, ¿por qué? Porque he creado una subred para mí.
Así se puede ver eso. Entonces esto se crea para la aplicación extra lo siento,
extra. Entonces eso es algo en lo que
hablaremos alguna vez. Bien. En esta sección solamente,
vamos a hablar de ello. Bien. Asimismo, hemos
creado múltiples subredes Entonces sí, para responder a tu pregunta, es posible
crear múltiples subredes también
es posible
crear múltiples subredes
en menos de una
zona de disponibilidad Y sí, es posible
elegir tu instancia EC two,
uh, para ser alojada en una subred
específica por aquí Pero no es posible
elegir tu ubicación de copia de seguridad. Entonces solo por ejemplo, si
estoy alojando en E dos, la copia de seguridad puede estar en cualquier lugar. Entonces, si este servidor falla
desde el punto de vista AW, se puede migrar
a cualquiera de los hosts, por lo que es algo que no
podemos elegir Pero
obviamente habrá refuerzos entrando. Y también se puede ver
la disponibilidad de la dirección IP para la sidra Por lo que cada subred específica
tendrá una información de sidra. Entonces ese es el criterio base para que asignes direcciones IP. En los servidores alojados
bajo la SDU. Bien. Así que ese es el rango
del lado de allá arriba. Entonces, así mismo, tienes toda
esta información hacia esto. En el siguiente video,
crearemos una instancia EC two. Espero que haya entendido
los principios básicos de VPC. ¿Qué es VCP lo siento, qué es VPC y qué hace, qué son las cosas bajo la Entonces la superposición básica que
entiendes en este caso. En el siguiente video,
entenderemos la superposición básica de crear EC dos instancias y
acceder a esa. Gracias de nuevo por
su paciencia y tiempo, los
veo en
el siguiente video.
30. Claves de acceso a Labs: Hola chicos, bienvenidos de nuevo
al siguiente video. En este video,
hablaremos sobre este tema en particular aquí primero entendiendo la clave de
acceso, las políticas de
contraseña, el almacenamiento de
credenciales, así
como trabajar en estos dos servicios como parte
del almacenamiento de credenciales El almacenamiento de credenciales es básicamente donde vas
a guardar el almacenamiento. Entonces vamos a hacer esto en un video y luego lo
vamos a hacer en otros
dos videos en términos de clave de acceso
y política de contraseña. Comenzaremos con Access
Key en este video y luego iremos con la
política de contraseñas en el siguiente video. Ahora, recuerden que los siguientes videos que
voy a mostrarles, en realidad, hemos completado
una sección por aquí. Entonces aquí estaremos realmente creando un usuario en
términos de manos en
y en realidad estaremos asignando las políticas al usuario
y cosas así Ahora, cuando te esté mostrando manos a la hora de
explicar estos aspectos, te
estaré mostrando el
usuario ya creado. Así que no te preocupes por ello. Esto es solo un poco extra propio. Estoy poniendo esfuerzo por aquí para mostrarles cómo se ve
realmente esto, pero
no habrá práctica práctica para
esta certificación, así que no se preocupe por ello. Es solo el esfuerzo extra
que voy a poner para mostrarte
um, artículo por aquí. Entonces si te apetece, Oh, no
estoy creado ese
usuario, está bien. De todos modos lo vas a
crear. Después de tres o cuatro videos, vas a hacer eso de todos modos. Pero sólo te voy
a mostrar porque esto realmente no
requiere de manos, así que sólo voy
a mostrarte eso. Entonces para desatender todas esas cosas que el usuario ya es, lo
tengo porque
vas a crearlo todos modos más adelante en la línea Entonces veamos este diagrama. En primer lugar, en este video,
veremos sobre la clave de acceso. Las claves de acceso son un
par de credenciales, implica una clave de acceso
secreta de ID de clave, que se utilizan para asignar solicitudes
programáticas para
usar API a través de AWS CLI,
SDK, STAPIs Ahora bien, ¿qué son
estos? Um, estas son básicamente un tipo de formas de acceder
a su AWS. ¿Bien? Ahora, para que pueda
acceder a AWS a través AWS CLI, que es el software que
necesita descargar de AWS Kit de
desarrollo de software SDK, nuevamente, descárguelo de AWS e
instálelo en su sistema. Las APIs de descanso son, ya sabes, son como programas
que se ejecutan desde cliente y
en realidad van a ir a su AWS. Por ejemplo, puedes decir, cuando accedes a
open shift en Openshift desde tu sitio web de red
hat a AWS, tienes que crear este
ID de acceso y clave, crear un usuario, darle el permiso necesario, y luego crear este ID de clave y acceso
secreto y
dárselo en turno abierto Lo que Openshift va a hacer
es que usará el um, ID de
clave y el nombre de acceso, y usará el nombre de usuario que has especificado, ¿verdad Um el que en realidad
tiene las políticas para los ases correctos
para que cree recursos. Y luego
accederá a la API de AWS, que por supuesto la habría
dado como parte del usuario, y accederá a AWS
usando esas credenciales. Allr? Eso es llamar Clave de acceso. Entonces mayormente, mayormente la pregunta
sería como um, bueno, tienes una empresa
y los terceros quieren acceder a
tu servicio usando acceso o
solicitud
programática a través de uno de tus servicios
que se ejecuta en la API de Cuál de los servicios en el
siguiente sería el correcto. Entonces
te estarán pidiendo clave SSSech. Es posible que te estén pidiendo nombre de
usuario
y contraseña, y te estarán
pidiendo clave de acceso. Por lo tanto, debe seleccionar en qué situación necesita
seleccionar Clave de acceso. Sólo te voy a mostrar que mucho tiene mucho
sentido cuando te muestro. Estoy buscando IAM, Al
medio clic en IAM Por aquí, tienes al usuario, tienes al usuario dev. Normalmente, todo
como el acceso programático donde una API está llamando, uh, los
proveedores externos están llamando usando el protocolo rest
o algo así Tienes que dar realmente el nombre de usuario del usuario
que has creado. Normalmente un usuario
tendría políticas. No te preocupes por ello, estaremos creando este
punto de tiempo posterior. Entonces estarás asignando política. Entonces en esta política, dice que este usuario en particular tiene acceso
completo sobre EC dos, S tres eje completo, ases completos
Lambda. Entonces hemos dado acceso completo a solo estos tres servicios para este usuario llamado Dev, ¿de acuerdo? Ahora bien, ¿cómo puede una persona
acceder a este artículo de podgula? Como te dije antes, en realidad
puedes acceder a
este de usuario usando la consola
porque está habilitada. Puedes ver el
enlace de la consola por aquí para puedas copiar ese
acceso a este usuario. En la sección donde realmente
estaremos
creando el usuario, realmente
estaremos accediendo
al usuario usando la consola. Esa es una forma de acceder. Pero entonces no todos
estarán contentos de acceder a la consola. Como por ejemplo, sus programas, que se ejecutan
desde turno abierto hasta AWS, todos se ejecutarán
a través de terraformación Ahora cuando quieres ejecutar un
servicio desde terraforming, realidad no
puedes
ejecutarlo con la consola GI Entonces es posible que tenga que um
ejecutarlo a través de llamadas a la API ST o algo que esté usando programa para conectarse
con otro programa. Eso es lo que normalmente lo llamamos como programa de acceso médico. Ahora hablemos de
otra forma de acceder. Entonces, como sabes, autenticación
multifactor
no es más que agregar otra capa de autenticación encima de tu contraseña existente a la que realmente
puedes
acceder a tu consola, y no está prácticamente
relacionada con nuestro tema Ahora vengamos a
acceder a la clave por aquí. Tengo llave de acceso por aquí. Déjame desactivar y
recrear esta clave de acceso. Lo siento mucho, lo volví a
activar. Entonces voy a hacerlo éste. Tengo que escribir el nombre de
la clave de acceso para dele. Ahora esa clave de acceso está desactivada. Ahora bien, ¿qué es la clave de acceso? Usar la clave de acceso para enviar llamadas
programáticas a AWS desde las herramientas de AWS CLI de AWS,
Power Shell, lo siento, la
herramienta de AWS como en Power Shell, SDK o directamente a través de llamadas
APA de AWS o llamadas SPA Puede tener un máximo
de dos llaves adjuntas. Una es, o puedes tenerla activa o
inactiva a la vez. Ahora lo que esto significa es
que si su programa quiere conectarse
con el programa que se está ejecutando en AWS, necesita una gran clave de acceso. Ahora tienes otros métodos de
comunicación como SS tales, se usa para el commit de código de AWS, pero no se usa para
llamadas programáticas por Puedes ver la
descripción aquí. Puede usar HTTP
get credenciales, pero esto se usa para
autenticar la conexión HGTBX, que es code commit nuevamente
para el repositorio de commit de código Puedes usar Amazon keypass
aquí para Cassandra
para Apache Cassandra Bien. Y luego puedes usar x509 para protocolos SOP
. Todo bien. Entonces cada uno de estos métodos de autenticación
es para un servicio dedicado o una forma diferente
de conectarse a este usuario en particular
desde elementos de terceros. Pero si tu pregunta dice específicamente llamadas
programáticas, entonces necesitas
pensar en la clave de acceso Cuando tu pregunta dice que se
trata de comentarios de código entonces
tienes que pensar SSH o G. Cuando tu pregunta dice que quieres usar
a través de key pass o,
uh, para Cassandra,
entonces tienes que pensar en la credencial
del pase de claves de Amazon,
um, lo siento, espacio clave um, lo siento, espacio Y luego si dice sobre, um, el protocolo de jabón
y cosas así, entonces X cinco certificado en línea. Pero no te preocupes, esto es todo no vendrá como parte
de tu pregunta. Lo más importante
será la clave de acceso. Ahora, cree la
clave de acceso, simplemente haga clic en ella, y podrá ver
diferentes claves de acceso, que puede crear para
su interfaz de línea de comandos. Código local cuando está ejecutando un
kit de desarrollo de software, entonces puede ver, cuando está ejecutando un EC para dar
servicio a Lambda o desea
acceder a un servicio AW a
otro servicio de AWS, puede usar la aplicación que ejecuta servicio informático de
AWS o un
tercero, por ejemplo, si está utilizando OpenShift
para ese ejemplo, puede usar terceros, y luego aplicación
corriendo fuera de AWS. Del mismo modo, también tienes
otros, como Nevers para acceder a un tipo clave de
información importante por aquí De cualquier manera
creas algo de esto, va a pedir valor de
descripción, y luego va a
crear un secreto por aquí. Ahora, la clave de acceso va a
tener dos elementos por aquí. Una es la clave de acceso, otra es la clave de acceso como
lo siento, secreta. Va a ser tu contraseña
real. Entonces este es el usuario. Estarás usando lo que
darás para un ejemplo, si estás usando
turno abierto en la otra mano. Open shift dirás, usa este nombre de usuario Dev
para la autenticación, te preguntará,
dame la clave de acceso, dame la clave de acceso secreta. Tienes que copiar y pegar ambos
a OpenShift, y también tienes que dar
tu ID de cuenta Por lo que utilizará todas
estas combinaciones, por lo que usará ID de cuenta. El nombre de usuario, la clave de acceso, la clave acceso
secreta y, a
continuación, se conecta a AWS. Ahora bien, recuerde que OpenShift tendrá su propio
requisito de las políticas, que necesita ser
parte del usuario dev que
pueda realizar
ítems por ejemplo, Openshift ejecutará
mucho código de terraformación En tu EC dos instancias
o tus artículos así. Open shift dirá, necesito privilegio
administrativo
porque lo que va a hacer para ejecutar
scripts terraforming, para crear VPCs, para crear balances de carga,
va a crear un montón de cosas para tener tu turno abierto
instalado en AWS Entonces para eso, requiere acceso
administrativo. No quiere impuestos de raíz. No se debe dar
acceso root a Access Key, a cualquiera que lo solicite. ¿Bien? Entonces
solo debes crear un usuario, dar las políticas específicas
que solicita, y luego crear la Clave de Acceso
y dársela a esa API. Todo bien. Esto es
más o menos lo que
quiero mostrarte en
términos de manos. Um, así que recuerde
que el caso
de uso esta clave de acceso es utilizado por usuario de
IAM y las aplicaciones de IM para interactuar con
los servicios AW programáticamente Ahora bien, esta
palabra programáticamente debería recordar. Cuando escuchas la palabra
programáticamente, la respuesta debe ser clave de acceso Por lo tanto, debe asegurarse de que necesita rotar
la clave de acceso regularmente para garantizar la seguridad. Evite incrustar la
clave de acceso en el código fuente. Esto es asegurarse de
que, ya sabes, yo IAM gobierna, ya sabes, creado como parte de esto Hablaremos de eso más adelante. Así mismo, estas son algunas de las mejores prácticas que puedes
usar en palabras Clave de acceso. No creo que tenga
nada más que añadir aquí. Entonces, si tienes alguna
duda,
déjala en la sección de preguntas. En su mayoría responderé a todas tus preguntas
durante el fin de semana. Gracias de nuevo por
su tiempo y paciencia. Te veré en el siguiente video.
31. Almacenamiento de credenciales de Labs: Ustedes, bienvenidos de nuevo
al siguiente video. En este video, vamos
a ver el último tramo sobre este tema en particular que es su administrador secreto
y administrador de sistemas. Y vamos a recuperar el almacenamiento de
credenciales. Ahora bien, ¿qué quiere decir
con almacenamiento de credenciales? Un almacenamiento de credenciales es
una ubicación donde realmente
puedes almacenar
tus credenciales Para que puedas almacenar tus
credenciales de dos maneras, un administrador secreto y el almacén de parámetros del
administrador del sistema. Ahora bien, ¿qué son estos dos artículos? Por qué estamos
hablando de dos ítems. Hay dos razones
para esto hablando estos dos elementos en términos
de almacenamiento de credenciales. En cuanto a
credenciales para llegar, existe un servicio dedicado
llamado Secret Manager. Ahora bien, si sólo voy
aquí al secreto, consigo al
Gerente Secreto por aquí. Otro es el administrador de sistemas. Estoy abriendo los dos, así que es fácil
para mí mostrártelo. Ahora bien, ¿qué es un gerente secreto? El administrador secreto gira,
administra y recupera secretos fácilmente a lo
largo de su ciclo de vida. Entonces si creo un secreto, como token API,
que he creado en ese usuario justo en el video
anterior que hemos visto. Ahora puedo almacenar la clave API
y la clave de acceso en
la tienda secreta. Pero el problema de la niebla
tiene 30 días de prueba gratuita, pero luego por secreto,
vas a pagar 0.4 por mes. No es tan caro, pero aún así algo a considerar. También puedes usar llamadas
API y enrutar contraseña
CNM a través
del administrador secreto dando el nombre
del secreto En lugar de
proporcionar explícitamente la clave y el secreto directamente
a cualquiera de los APS, en realidad
puede
enrutarlo a través del administrador secreto con
los privilegios adecuados. Ahora el administrador secreto
tendrá su propio UsenmPassword, y el cifrado
de este
gestor secreto formará parte Tienes que pagar el servicio
KMS también porque el acceso a este secreto en particular
se cifrará a través de uh, tu
servicio de administración de almacén de claves de AWS. ¿Bien? Entonces ahora este es uno por defecto que tienes por
aquí como administrador secreto, y eso se crea
como parte de tu KMS. Ahora tienes opciones por aquí. De hecho, puede contener la información clave
hacia su base de datos RDS También puede almacenar la base de datos de Amazon
Document DB. También puede almacenar,
um, almacén de datos de turno al rojo. También puede almacenar credenciales
de otras bases de datos donde puede seleccionar el servidor
MSQolPostsq,
y luego realmente puede
dar la dirección del servidor, el nombre de la
base de datos, el
número de puerto Por lo que el servicio nos contactará
directamente con el administrador
secreto para
recuperar el secreto, cual se va a configurar en el siguiente paso, paso dos, u otro tipo de claves API, la que estás
creando para un usuario. Para que también puedas
poner esa clave por aquí
con el valor de clave clave, y luego puedes um ir al siguiente paso y
configurar el secreto. Y configurar la rotación. Así que vamos a ir con esta prueba de prueba, y luego
pasar a la siguiente. Y aquí en realidad le das
el nombre secreto por aquí. Entonces, cualquiera que sea el nombre
secreto va a venir por aquí. Y luego cuando
vas al siguiente, en realidad
puedes ver si
quieres rotar esto. Ahora puedes tener el generador de
rotación aquí cada 23 horas o cada dos
meses una vez que puedas rotar. Ahora, lo hermoso de
esto es que cada
vez que haces eso, también
puedes llamar a una
función Lambda por aquí, y luego puedes simplemente revisar el artículo y terminarlo. Ahora, no te van a
preguntar cómo hacer esto con las manos o las opciones
cuando haces las manos en. Entonces solo
te estoy dando información extra sobre cómo trabajar con
un gerente secreto. Ahora, ¿qué es un gerente secreto? Un gerente secreto almacena tu secreto de forma segura y administra
y recupera el secreto Y también gira el secreto. ¿Bien? Entonces esa es la primera cosa
primaria al respecto. ¿Bien? Ahora, principalmente se utiliza para tener
credenciales de base de datos Entonces viste que mucha base
de datos
entraba en el elemento de acción. Entonces, si surge una pregunta, cuál de los siguientes
elementos se prefiere almacenar en
AWS secret manager? Y pueden tener muchas preguntas que pueden
estar relacionadas con ella, pero una de ellas
destacará será creditis de base Busca esa información. Claves API también podemos almacenarla
e información sensible. Cualquiera que considere información
sensible. Bien, o de lo contrario harán
pregunta como esta donde tengo una credencial de base de datos y mis clientes pidiéndome
que la almacene de forma segura ¿Cuál de los servicios te
gustaría utilizar? Uno de esos servicios
sería gerente secreto. Bien. Así que recuerda
esta palabra. Todo bien. Ahora,
hablemos del siguiente,
que es sobre la característica
del gerente secreto. Gira tu secreto. Utiliza el servicio KMS
para rotación. Lo siento, por sostener la
llave de forma segura usando KMS. Y luego tiene acceso bien
ointed vía IAM. Bien. Así que
respondiendo muy directo hacia ella. Entonces, en términos de administrador de
sistemas, el administrador de sistemas se usa
para muchas cosas. ¿Bien? Como por ejemplo, puedes ver Op Center por aquí, Cloud watch, en realidad puedes configurar
administradores de aplicaciones por aquí. También se puede ver la gestión de
cambios como parte del administrador del sistema. También puede ver parchear también gran parte de
su administrador de sistemas Pero una cosa para almacenar tu credencial es
tu almacén de parámetros Ahora bien, ¿recuerda que
el almacén de parámetros es parte de su administrador de sistemas, y qué es el almacén de parámetros? Ahora, el almacén de parámetros es un almacenamiento
centralizado y administración de secretos y datos de
configuración
como contraseñas, cadenas de
bases de datos
y códigos de licencia. Puedes cifrar valores o
almacenarlos en texto plano y acceder a secreto a nivel de entrada, como te gustaría hacerlo Ahora, hay una característica más
del almacén de parámetros es que
puedes crear un nuevo almacén de
parámetros, especificar el
tipo de parámetro y el valor. Y refiera el parámetro
en su código o comando. También puedes referirlo fácilmente. Ahora, para hacer clic en
Crear un parámetro, modo que realmente pueda
dar
el nombre del parámetro
aquí, descripción, si desea almacenar hasta
2000 parámetros estándar hasta un valor de
hasta cuatro
KB de un tamaño de archivo, y la política de parámetros se comparte
con otras cuentas de AWS. Puede compartir esto como parte de las otras cuentas de AWS
que tenga. O simplemente puedes ir por uno
Avanzado donde
tienes 100,000 parámetros avanzados, que alrededor de ocho KB, eso va a ser
un cargo extra para ti. Ahora en cuanto al valor
que planeas almacenar, puedes poner en tu
base de datos valores, tus claves de licencia
y todo lo demás. Y también puedes, ya sabes, crear una
cadena segura, usando KMS. Puedes cifrarlo a través una cadena segura o
puedes
usar un tipo de datos como texto y luego puedes
poner el valor aquí Y esto creará
un parámetro en el que realmente estarás
sosteniendo el valor del mismo. Ahora, el propósito
del almacén de parámetros es que otro servicio de almacenamiento de datos de configuración y archivos secretos
se pueda retener por aquí Ahora la característica de
esto es admitir tanto texto plano como valores
cifrados, integrándose con AWS
KMS para el cifrado. Yo diría que un
caso de uso ideal de esto es almacenar valores de configuración de
aplicaciones como
valores de entorno v o
cadenas de base de datos
que quieras guardarla o pequeños secretos que tienes por
aquí, puedes guardarla. Entonces, el propósito principal o la mejor práctica es
usar el almacén de parámetros para administrar datos
configuracionales no sensibles o secretos que no
requieren rotación frecuente Así que el almacén de parámetros es básicamente
para almacenar parámetros y valores secretos no críticos como su
información de licencia y otras cosas. Cómo se destaca del administrador secreto,
el administrador secreto estará utilizando la autenticación
o encriptación de KMS. Entonces no hay opción, um para que la
guardes sin KMS. Hemos visto múltiples
opciones por aquí, puedes ver que tenemos el texto
plano o el valor clave. Pero cualquier cosa que ingreses por aquí requiere un cifrado KMS
por aquí, puedes verlo. Este no es un
parámetro opcional. Esto es obligatorio. Todo lo que
almacene como parte de esto requerirá
autenticación KMS o lo siento, cifrado, donde se cifrará el
valor. Ahora en este,
es opcional donde
puedes asegurarlo usando um, KMS. Tan seguro como encriptar
usando el valor usando KMS. Bien Pero hay opción de
no hacer eso también, porque básicamente
almacena parámetros. Bien. Entonces habrá preguntas que
surgirán. Muy confuso. Dirán, quiero
guardar algún secreto que básicamente no
es así,
um, ya sabes, no tan
frecuentemente requiere rotación, y no es tan seguro. Son solo los datos de licencia. ¿Cuáles son los
servicios que utilizaría para, um, ya sabes, almacenar este valor? Podría ser uno de los servicios
sería administrador seguro, otro servicio será
parámetro, almacén de parámetros, y
luego hay que
elegir almacén de parámetros
porque no requiere rotación, no requiere cifrado. En esa situación, cuando el
cifrado es una opción,
opta por el almacén de parámetros. Si el cifrado es obligatorio,
opta por el administrador secreto. Las preguntas serán
un poco torcidas, lee las preguntas dos
veces y dos veces para entender
la diferencia de lo que realmente
nos estamos metiendo y luego responder a la pregunta,
deberías estar bien. Gracias nuevamente por ver este video si
tienes alguna duda, déjalo en la sección de
preguntas.
32. Laboratorios: identificación de métodos de autenticación en AWS: Oigan, chicos. Bienvenidos de nuevo
al siguiente video, y esto
vamos a hablar sobre identificación de
métodos de autenticación en AWS. Una de las
preguntas importantes aquí como parte de esta
tarea en particular dos o tres, estamos identificando las capacidades de
administración de acceso AAWS es sobre los métodos de autenticación
en um identificando eso Intentaremos hacer algunas manos, pero si buscas leer a los usuarios o
algo así, lo vamos a hacer
más tarde en el momento. A lo mejor en un par
de videos
estaremos trabajando en las
manos hacia él. Entonces en este video, vamos a identificar
una arquitectura por aquí, que va a hablar identificar
métodos de autenticación en AWS. Este es un solo video que cubriremos
estos tres elementos, y esto es algo
que hemos visto una y otra vez, así que va a ser mucho más fácil para nosotros pasar por esto. Ahora, identificando métodos de
autenticación en AWS,
es decir, esa forma de identificar diferentes
métodos de autenticación. Una es tu
autenticación multifactor que no
puedes negar, que es muy necesaria y agrega una
capa extra de seguridad solicitar
al usuario que proporcione dos formas
de autenticación Una es tu contraseña, otra es un código, que genera cada minuto, y gira cada minuto
y obtendrás un nuevo código, ya sea usando un dispositivo token de
hardware o usando una aplicación móvil. Ahora, un caso de uso es básicamente habilitar el MFA en usuario de IAM, que
ya hemos visto suficiente para los videos anteriores, así
como también lo
vas a ver en el siguiente video Quiero decir, siguiente manos en
cuanto a la creación de usuarios. Por lo que esto asegura que
el usuario root o el usuario
al que
está habilitando esto sea aún más seguro. E incluso si la contraseña
se ve comprometida, gente no podrá
entrar porque el código de cinco dígitos sigue rotando y
cambiando cada minuto. El siguiente es Iidentity
center de IAM. Formalmente llamado como
AWS single sign on, ese es el nombre anterior a él, pero recientemente llamado
como Iidentity Center Ahora, Identity and Access
Management Iidentity center permite la administración centralizada de acceder a múltiples cuentas y
aplicaciones de
AWS utilizando credenciales
corporativas existentes para, um, ya sabes,
active directory directo, si tu corporativo usa
active directory, realmente no
tienes que saber, importar todos esos usuarios en
active directory a AWS De hecho puedes, um, ya
sabes, ya sabes, agregar esos directorio activo como parte del centro de identidad. Por lo que puede usar un
proveedor de identidad externo usando SAMO 2.0. Las preguntas aquí serían sobre ¿cómo
integras tu empresa? Por lo que hará la
pregunta será formalmente, como su empresa ya tiene un servicio EDAP el cual se está ejecutando con muchos
usuarios y contraseñas Nombre de usuario y contraseñas. Ahora bien, ¿cómo integras eso? ¿Qué servicio usarías
para integrarlo con AWS? Ese es tu centro de identidad. ¿Bien? Entonces así será como se enmarcará la
pregunta. Básicamente, lo que significa es como el caso de uso típico de
este centro de identidad. Simplifica la autenticación y administración de acceso para grandes organizaciones con
múltiples cuentas de AWS, permitiendo a los usuarios autenticar una y acceder a todos los recursos
asignados Ahora, también puede usar Federation
para acceder a la autenticación basada en SAML, que permite a los usuarios iniciar sesión con sus credenciales
existentes, cual está configurada
en su cuenta Si vas a IMR, solo
quiero darte algo de,
um, ya sabes, vista Se puede ver que
las consolas relacionadas IM configuración de identidad. Esto solía ser SSO anteriormente, un solo signo encendido, Uh, pero ha cambiado
a centro de identidad Ahora en realidad se puede habilitar
el centro de identidad. Entonces, cuando lo habilitas,
conecta tu directorio o crea grupos de usuarios
a través de Quiero decir, para su uso en AWS. Entonces, si ve que se administra
a través de la fuerza de trabajo a través cuenta de
AWS y accede a
las aplicaciones de integración de workf, de igual manera ,
si tiene varias cuentas, realmente puede usar esto, habilitarlo y luego usarlo para crear y trabajar con
múltiples cuentas de usuario Todo bien. Entonces ahora
hablemos del siguiente ítem, que es tu regla de mensajería instantánea de
cuentas cruzadas. La IMO de cuentas cruzadas es básicamente una regla que permite al
usuario o servicio en una cuenta de AWS
asumir temporalmente un rol de IAM en otra cuenta de AWS sin compartir credenciales
a largo plazo Ahora, cuando un equipo de varias cuentas de AWS necesita acceder
a recursos a otra cuenta, por ejemplo, si tienes una
organización y hay esta organización
llamada organización tiene esta cuenta llamada ANB Como, por ejemplo, por aquí, una de esas son
las organizaciones que ves eso. Entonces, por defecto, no
habrías habilitado la organización. También puedes habilitarlo es gratis. Entonces habrá
opción por aquí llamada habilitar organización
solo haz eso. Debería habilitarse muy rápidamente. Así que ahora tienes varias
cuentas por aquí, y quieres acceder a los usuarios a través de la red cruzada de usuarios de cuentas
cruzadas. Eso es lo que llamamos regla de IAM de cuentas
cruzadas. En este caso, los desarrolladores en la cuenta A para acceder
al S tres bucket
en la cuenta B, pueden asumir una regla que es apropiada la cual tiene el permiso
apropiado para ello. Eso se llama básicamente reglas de IAM de cuentas
cruzadas. Las preguntas
serían normalmente como en mi entorno,
tengo un desarrollador, donde un desarrollador
en la cuenta A requiere acceso
a S three bucket para escribirlo en la cuenta B. Qué tipo de servicio
debo usar o qué tipo de característica
necesito usar para habilitar el acceso para este desarrollador y darle acceso a múltiples, um, ya sabes, múltiples cuentas
bajo mi organización. Si viene este tipo de preguntas, reglas de IAM de cuentas
cruzadas.
Piénsalo en eso. Necesita tener acceso
en ambos extremos, así que tenemos que hablar de reglas de IAM de cuentas
cruzadas Bien, chicos,
gracias de nuevo por ver este video.
Veo en la siguiente. Si tienes alguna
duda,
déjala en la sección de
preguntas. Voy a poder atenderte entonces.
33. Políticas de contraseñas de Labs: Oigan, chicos, bienvenidos de nuevo
al siguiente video. Esto, vamos a
hablar de políticas de contraseña. Ahora en términos de política de contraseñas, vamos a hablar de la
definición de las reglas o los requisitos
que
el usuario de IAM debe seguir al crear
la política de contraseñas Ahora para las claves de acceso, que discutimos anteriormente, ahora la contraseña
no la configura usted, bien se
genera automáticamente. Pero cuando se habla de
las contraseñas que se crea para un usuario, cuando él o ella está iniciando sesión en la consola,
eso es establecido por usted. ¿Bien? Entonces esto es establecido por, puedes ir a
restablecer la contraseña Puede seleccionar autogenerador
o la contraseña personalizada Bien. Entonces, cualquiera de las formas en las
que realmente usarás la contraseña uh. Contraseña de generador automático
significa que
tendrás una
contraseña estricta sin que tú, um, ya sabes, crear
una contraseña más estricta Pero cuando vas por una contraseña
personalizada, aquí es donde el
requisito es
ser , um, requisitos específicos. Entonces, en cierto modo, realidad no
puedo crear una
contraseña llamada contraseña. Si creo algo así, se puede ver que la
política de contraseñas no se entiende. Lo que dice la
política de contraseñas es que debe tener al menos
ocho caracteres de largo, y debe tener
mayúsculas, números en minúscula, símbolos. Yo debería tener al menos mezcla
de estos tres siguientes, al
menos tres,
ya sea de esos rubros. Lo que vamos a
hacer es P al ritmo. SSW, cero RD, a tasa 123. Ahora bien, esto tiene una letra
mayúscula , letra minúscula, al ritmo, que es un símbolo,
y luego cero, que es un número, y luego
tiene ocho letras de largo. Realmente no necesitas
una tarifa uno, dos, tres también porque esto
realmente debería satisfacer contraseña
compleja. También podemos habilitar el usuario debe crear una nueva
contraseña cuando inicie
sesión y además usted puede habilitar
revocar toda la consulta Si alguien hubiera iniciado sesión en este usuario en este momento, esas personas se
desconectarían al hacer clic
en Restablecer contraseña. Ahora, una vez que hayas
restablecido la contraseña, estarás informando al
cliente y
en realidad estarán trabajando
con una nueva contraseña una vez que te hayas
comunicado de forma segura con ellos. Una cosa más que se
recomienda como parte de la política de contraseñas es una autenticación
multifactor. Ahora, basta con hacer clic en Asignar autenticación
multifactor y aquí
podrás ver los diferentes tipos de
autenticación multifactor por aquí, lo que habla
de una clave de seguridad, una clave de paso, una
clave física o un dispositivo, aplicación
Authenticator usando
tu móvil y realmente
puedes instalar
esta aplicación de autenticación, o puedes tener un token de
hardware que es TotptKen
que es de nuevo, dispositivo de
hardware por Todo bien. Entonces, al usar la autenticación
multifactor, su usuario estará incluso
mucho más seguro que antes Gracias de nuevo por ver
este video. Te veré x
34. Tipos de gestión de identidad de laboratorio: Oigan, chicos, bienvenidos de nuevo
al siguiente periodo. Y este video,
podemos entender los tipos de gestión de
identidad. Ahora, ya hemos
hablado del centro de identidad por aquí
y las reglas de la AM de cuentas cruzadas. Lo que entendimos sobre el centro de
identidad es que no solo creas
sname y contraseñas en AWS, sino también si
ya hay un um, LDAP o algún tipo LDAP o algún tipo
de autenticación en tu empresa, puedes integrarlo
a través de Idntity Ahora podemos entender sobre los tipos de gestión de
identidad, por ejemplo, la identidad federada Una Federación significa básicamente adición a la
infraestructura existente. Hablemos de los
diferentes tipos de identidad que se utilizan en AWS. Ahora primero es un usuario local de
IAM y grupos. Ahora bien esto es básicamente
significa que voy a IAM, creo un nombre de usuario lo siento, la sesión ha caducado.
Sólo dame un segundo. Perdón por eso. Volví. Entonces creo que tengo que cerrar todos los navegadores y
solo reabrirlos. Ahora aquí, como pueden ver, tengo los usuarios
creados por aquí, los grupos creados por aquí. Esto se llama básicamente como
el grupo de usuarios de IAM local donde se crea a nivel local dentro de
su propia AWS Lo estamos creando manualmente. El siguiente es el Gestor de Identidad
Federada. Ahora bien, lo que quiere decir con administrador de identidad
federado es
que el administrador de identidades
federado permite al usuario de un proveedor de identidad
externo
o DAP acceder a los recursos de
AWS sin crear un usuario de IAM separado
en Esta federación de identidad desde directorios corporativos como directorio
activo o DAP de
terceros como Google, autenticación Todo esto se
llama básicamente federados. Básicamente te federaste usando
un formato estandarizado como SAML 2.00 o open ID connect,
así mismo, puedes usar eso Básicamente cómo funciona, AWS integra los
DAP externos para autenticar a los usuarios. Autenticar usuario asume roles
temporales en IAM con el permiso
definido en la política de AWS IAM De igual manera, puedes usar esto. Entonces, en un caso de uso típico, puede usarlo en una organización
empresarial más grande que ya tiene credenciales corporativas
en su directorio activo, donde realmente no
tiene que
recrearlas en su punto de vista de AWS Eso es lo que discutimos
antes también. Ahora,
hablemos de la siguiente,
que son las
reglas de cuentas cruzadas, que, de nuevo, es algo de lo que hablamos
antes en nuestra sesión. Ahora, las reglas de cuentas cruzadas son básicamente reglas
que tienen múltiples, um, ya sabes, que pueden funcionar en múltiples cuentas dentro de
nuestra organización. ¿Bien? Estas reglas de acco cruzado
permiten que los usuarios o servicios se ejecuten en una cuenta de AWS con una organización para
asumir roles en otra Bien. Así que esto es básicamente una gestión de identidad
que simplifica el acceso a través de múltiples
cuentas de AWS sin necesidad de duplicar
usuarios o credenciales Entonces esto es algo que se
llama reglas de cuentas cruzadas, y esto es lo que
discutimos anteriormente también. Entonces ahora el siguiente tipo
diferente de gestión de identidad son las reglas
de enlace de servicio. Ahora bien, ¿qué son
las reglas de enlace servicio? Las rutas de enlace de servicio son
un tipo único de reglas que enlaza
directamente con los críticos al servicio de AWS. Estas reglas permiten que AWS Service realice acciones en su nombre. Por ejemplo, si vas al usuario
de IAM y
vas a rollos, ¿verdad Tienes tantos
papeles por aquí. Si ves eso,
tomemos este papel de ejemplo. AW es el rol de servicio
para el escalado automático. Ahora, cuando abres esto, puedes ver ese rol vinculado al servicio de
escalado automático. Ahora cuando haces clic en
esto, realmente puedes ver la política y también tienes la
explicación por aquí. rol vinculado al servicio predeterminado permite el acceso al servicio
AW y a los recursos utilizados
o administrados mediante escalado automático. Entonces, todo lo que es
parte de su servicio AW, que es utilizado y administrado por auto scaling es parte de la regla de enlace de
servicio de aquí. De acuerdo con esta regla, está vinculada a la política de auto escalamiento de la política de rol de
servicio. Ahora que expandimos, en realidad
obtendrás más detalles de lo que
realmente es la acción, y permite todas estas
acciones por aquí, que se trata de autoescalado y habilitación y
cosas así Así se puede ver que
todo el escalado automático entra en imagen de un hlastic bandas o nube viendo, todas
esas cosas por aquí Entonces esto se llama básicamente
una regla de enlace de servicio. Ahora, cómo funciona, el rol es
creado y administrado automáticamente por el servicio de AWS. Ahora bien, esto
es algo que hasta ahora no has sido creado, ¿verdad? Debido a que estos se
crean automáticamente llamados rol
de ejecución de servicio. Siempre que cree un servicio, ese servicio vinculará un rol
específico a él y es entonces cuando se asocia con un permiso específico
que se necesita para que el servicio se ejecute correctamente. Por lo que una regla de servicio para el escalado
automático
tendrá permisos
para el escalado automático, como puede ver aquí. Eso se llama regla de pista de servicio. Ahora la siguiente de la que
vamos a hablar es la identidad proporcionada para la web y la
aplicación móvil cognitiva. Ahora hay otra aplicación o servicio llamado
Amazon Cognito Se utiliza para administrar la
autenticación y la identidad de usuario para aplicaciones
web y móviles. Cuando llega una pregunta para proveedor de identidad para aplicaciones
web y móviles, entonces toda tu mente debería
ir por Amazon Cognito Ahora, Amazon Cognito admite la federación de
identidades a través terceros como Google Facebook y
el directorio Enterprise a Samo 2.0 Ahora bien, lo que eso significa es
que cuando inicias sesión en, um, um, cualquier sitio web
a veces, cierto, verás que tendrás opción de crear un
usuario para ese sitio web, o bien puedes iniciar sesión directamente desde tu ID de Google o ID de
Facebook, ¿verdad? Ahora bien, cómo se vincula
esto utilizando este
proveedor de identidad particular de Amazon Cognito Entonces, usando este
proveedor de identidad de Amazon Cognito, puede usar sus opciones
de habilitar la creación de usuarios
basada en Google Creación de usuarios de la página de Facebook
e inicio de sesión
directamente en el usuario usando
Amazon Cognito Cognitive permite al
usuario iniciar sesión en un DAP externo con su propia combinación de nombre de usuario y
contraseña. Una vez autenticados, crearán temporalmente una credencial a través de grupos de identidades cognitivas
para acceder a los servicios de AWS Ahora, esto se está complicando
más, pero no te preocupes por ello. En realidad no van estar haciéndote tantas
preguntas en torno a esto. Lo que
te preguntarán es como cuando estoy configurando una aplicación para mi aplicación web y
móvil, quiero dar mi autenticación de
Google. En esta situación, qué tipo de autenticación o para qué tipo
de servicio utilizaría. Entonces habrá una pregunta
como Amazon Cognito. Cuando veas eso,
esa es tu respuesta. Bien. Por lo que de igual manera, se harán
preguntas. Pero en términos de gestión de
identidad, estos son algunos de los conceptos. Esto es algo que
debes recordar. Estos son los nombres que seguramente
debes recordar. Voy a adjuntar todos los
documentos de los que solo estoy hablando en un video
diferente, tema
diferente para que realmente
puedas referir eso y, ya
sabes, entender
todo sobre eso. Gracias de nuevo por
su paciencia y tiempo. Te voy a ver en
el siguiente video.
35. Grupos y políticas de usuarios de Labs: Oigan, chicos, bienvenidos de nuevo
al siguiente video. En este video,
vamos a hacer
sesión práctica para grupo de usuarios,
roles, políticas. Todos estos elementos de acción no
podemos hacer manos en. Sigamos adelante y
hagamos las manos. Para eso, para que puedas crear un usuario
con éxito, necesitas llegar a IAM Entonces hay un servicio llamado IdentityNAccess
Management Para que puedas ver eso por
aquí, haz clic en eso central. Ahora ves que has abierto una nueva pestaña por aquí con
toda la información. Ahora actualmente eres
un usuario root con MFA, que está habilitado,
así que eso es un tick Pero existe esta señal de
advertencia
que dice que desactiva o elimina la clave de
acceso para el usuario root Parece que hay
alguna clave de acceso, así que nos está pidiendo que desactivemos
o eliminemos la clave de acceso Vamos al usuario. Usuarios no hay ninguno, y luego
está este grupo de usuarios, y está este rol. Hay tantos roles
por aquí y políticas. Ahora como te dije por aquí en el video de
interacción anterior. Ahora las políticas son
bastante importantes, así que ese es el punto final. Políticas tiene el archivo
JSON formateado. Ahora si haces clic en él, realmente
verás el um, permisos de
política por aquí, realmente
puedes verlo
a través del formato JSON por aquí. Ahora la política tiene cierto
tipo de acciones por aquí. Estos son los permisos. Ahora eso se da como
parte de esta política. Esta política llamada Access
Analyze política de regla de servicio tiene estos muchos um,
elementos debajo de ella. ¿Bien? Estas son las políticas
predefinidas, que viene por defecto con AW, lo que esta no es personalizada. También puede crear
su propia política personalizada, de la
que hablaremos
más adelante en el momento, que puede tener su propio conjunto de permisos de sus aplicaciones o servicios que
tenga como parte de AWS. Entonces hablaremos de eso más adelante. Ahora repasando las reglas,
ahora, como te dije, es para proporcionar permisos
temporales a tus servicios, usuarios
o electrodomésticos. Ahora un nombre de rol tendrá
una política adherida a él. Cada nombre de rol
vendrá con una política. Para aquí en este rol en particular llamado EC two Spot
fleet tagging
Role, se puede ver ese
nombre similar para la política también, Amazon EC dos spot tagging Esto es sólo para
identificar lo que es. Más o menos,
la mayoría de las políticas que
vas a tener, vas a tener roles
asociados a eso también, y esos roles tendrán las
políticas adjuntas a eso. Ahora, en términos de usuarios, vas a
tener usuarios creados, lo que haremos en un momento, y luego tienes
grupos de usuarios por aquí. Se trata básicamente de grupos que es usuarios van
a formar parte de él. Haga clic en usuario, haga
clic en Createser y
podrá especificar el nombre de usuario
igual que en este caso, voy a crear
un usuario de desarrollo y proporcionar acceso a Esto asegura que
brindes acceso para administrar. Consola. Ahora aquí, ¿le estás
dando consola a una persona? Aquí hay un tipo de usuario es un usuario específico en el centro de
identidad recomendado. Quiero crear un usuario de IAM. Ahora, también puedes crear
I usuario en este caso mismo donde en el que
realmente puedes crear una
contraseña de este. Puede crear contraseña de autogenerador o
contraseña personalizada. Entonces voy a dar d123
como contraseña por aquí. Puedo ver que se especifica la
contraseña. Para recordar que la única vez se mostrará
la contraseña
cuando la estés configurando en el momento
de la próxima vez, no
hay forma de que
puedas recuperar la contraseña desde la pestaña de usuario. Puedes ver que el usuario debe crear una nueva contraseña
al iniciar sesión solo desactiva ese palo
con la misma contraseña. Y luego D a la tasa a razón de
12345678 es Lo he copiado en mi
portapapeles, así puedo pegarlo. Aquí puede crear cualquier
tipo de políticas que pueda agregar a un grupo que
tenga una política establecida en él, o puede adjuntar directamente una política al usuario uh
existente. este momento no tiene
ninguna política configurarlo, así que solo lo voy a
dejar como predeterminado, así que solo voy a ir
con la siguiente pantalla. Ahora, después de que vaya a la última pantalla por aquí, se
puede ver la reseña. Puedes ver la
reseña aquí. Puedes revisar eso
sea lo que sea que estés haciendo. Entonces, a partir de ahora, no se nos da ningún tipo de
permiso por aquí. Entonces restablecer la contraseña es ahora, se establece la contraseña
personalizada, luego vamos a crear usuario. Ahora esto ha creado
el usuario y en realidad
puedes ver la
contraseña por aquí. Ahora regresa a la lista de usuarios. Ahora recuerda si saltas
este paso al siguiente paso, entonces ya no
podrás recuperar la contraseña más tiempo. Entonces puedes ver eso
más o menos cuando haces clic
en esto, ¿verdad? Vas a credencial de seguridad, um no hay forma de que puedas
recuperar una contraseña, así que puedes ver eso por aquí Dice que este
usuario nunca ha iniciado sesión en la consola porque nunca
iniciamos sesión. Entonces al hacer clic en
Managed Console Ax, puedes revocar Consolex, puedes restablecer la contraseña, pero no hay opción de
obtener la contraseña desde No hay manera, no
sólo desde aquí. La única manera que puedes
hacer es que deberías haber descargado ese archivo
que te estaba pidiendo antes. Entonces aparte de eso, no
puedes hacerlo. Pero lo otro que puedes
hacer es reenviar la contraseña, puedes crear una contraseña personalizada y luego poner la
contraseña por aquí Esa es otra opción
allá para ti. Ahora, también puede establecer una autenticación
multifactor para este usuario haciendo clic en Autenticación
multifactor ASI De esta manera, puedes usar una aplicación
Authenticator por aquí como la
aplicación Google Authenticator y puedes configurar tu autenticación
para tu debut Entonces ahora eso realmente depende de
ellos si quieren tener una autenticación multifactor
capaz de ese uso o no. A partir de ahora, permítanme
darle una oportunidad por aquí. Déjame abrir una nueva pestaña. Déjame ir a aws
dot es on.com. Ahora, sólo tienes que hacer clic en Iniciar sesión. Algunas cosas que se requieren aquí para que inicies sesión
con éxito. No puedes usar el usuario root, por lo que necesitas dar el ID de
cuenta por aquí, que puedes tomarlo
desde esta ubicación. Ponlo aquí, Dev. Contraseña es Dev a razón de uno, dos, tres, cuatro, cinco,
seis, siete, ocho. Entonces simplemente haz clic en iniciar sesión, deberías poder
acceder a tu A disconso Pero recuerda, no
puedes
acceder a nada por aquí porque no has
dado ningún tipo de políticas que te permitan
hacer nada, en realidad
no puedes, ya sabes, crear
con éxito ningún bucket
o algo así. No tienes permiso para
obtener un ID de cuenta de iphon. Ves que
se requiere permiso. Entonces no puedes hacer
nada por aquí. ¿Bien? Así que en realidad puedes
mirar el concepto. Eso es
lo único que puedes hacer. Pero esos artículos
relacionados con el rendimiento, todos esos artículos relacionados con el costo, sean cuales sean las dos instancias de EC
que
tengas por ahí, no podrás verlo, porque este es solo un
usuario ficticio que creaste Así que no podrás
ver nada por aquí, obtendrás
colores rojos por todas partes. Ahora bien, ¿cómo doy permiso? Hay dos formas en las
que puedes dar permiso a este usuario. En realidad, puede asignar el
permiso directamente bajo el permiso bajo agregar permiso y luego crear
un permiso de agregar aquí. Hablaremos de
permiso en línea más adelante punto de tiempo. Por lo que en realidad se puede adjuntar
el permiso de esto. Por lo que puedes dar
acceso administrativo si quieres ese acceso administrativo para
tu este usuario en particular. Entonces te va a dar
todo recurso, colon, todo así que lo siento, estrella astérix, lo que
significa que ¿Bien? Todo la acción es estrella, la acción puede ser todo. Por lo que el administrador tendrá permiso
exclusivo en
cada aspecto de sus cosas. Pero luego hay algo que está
reservado para el usuario root. Ese ni siquiera administrador puede
acceder para recordarlo. Bien. Entonces no es como si tuvieras un control total como usuario root. Por lo que el usuario administrativo
no es igual al usuario root. Por lo que el usuario root estará teniendo
diferentes privilegios. Hablaremos en la clase posterior e intentaremos
entender que cómo usuario
root va a ser único en comparación con
el acceso administrativo. Entonces, para el desarrollador, por lo que debe
elegir la aplicación. Para que puedas seleccionar ST.
¿Qué quieres hacer? Si quiere tener acceso completo
en S tres, usted puede dar. Se ve si este
desarrollador está hacia la S tres administración
o tareas alrededor de eso. Si este desarrollador necesita
EC dos instancias también,
así que he seleccionado esa
opción, no estoy deshabilitado. Entonces, si solo selecciono EC dos, también
puedo darle a EC dos acceso
completo. Puedo combinar múltiples roles al desarrollador
y darle eso. Entonces si necesita acceso
a Lambda también, Lo siento, me equivoqué esta
ortografía. Nosotros queremos Lambda también, en realidad
puedes darle un
acceso completo a Lambda también,
así puedo ver eso por allá. Entonces, si este tipo va
a ser solo un analista, solo
está buscando datos. Entonces puedes dar a todos estos
opción con opción de solo lectura. Tienes múltiples
opciones por aquí. Quiero decir, no tener
un método simplificado, quiero decir, no agruparlo sumarlo o, sabes, complicado
porque tienes acceso a cada segmento por aquí
de los recursos de aquí, tienes rol de Lambda Replicación, MSK,
que es tu Kafka, y luego tienes De igual manera, tienes partes más pequeñas servicio
de Awamda por Pero no para complicarlo demasiado, solo tener el eje completo
y solo leer el eje Tienes las opciones de
aquí entre las que puedes elegir. Si no,
realmente puedes volver al usuario
del grupo y realmente
puedes crear
un grupo por aquí. Aquí voy a crear
un grupo para desarrolladores. Desarrolladores. Ahora bien, este
grupo va a tener este
nombre de uso particular que he seleccionado y luego voy a tener que
buscar Lambda full Access, EC two full access para que
puedan crear servicio para sus JVM y luego puedan tener acceso completo en el servicio S
three también Entonces tendrán acceso
para crear buckets y cosas así porque
pueden poner sus datos ahí dentro He creado un grupo, he agregado usuario mientras
creaba el grupo en sí. Ahora bien, si tienes
al usuario desarrollador haciendo todas esas actividades, déjame refrescar ahora
esta página. Ahora, verá que
tiene acceso limitado sobre lo siento acceso completo
sobre EC dos instancias. Ahora puedes lanzar instancia.
No hubo problemas. Nunca antes aparecía. Y cuando está tratando crear una
aplicación S three por aquí, también debería funcionar para él. Entonces anteriormente,
no era capaz de ver
estos artículos, ¿verdad? Entonces ahora, se puede ver eso. También puedes meterte dentro de
algunos de los cubos
para ver su contenido también También puedes crear cubos por aquí para agregar algunos artículos aquí De igual manera, se pueden hacer todas
las opciones que
le prohibieron antes. Entonces de esto se trata los usuarios y las reglas, las
políticas. Las políticas básicamente están hechas de los recursos y
las acciones que puedes realizar para los recursos y eso realmente define
un servicio o,
um, ya sabes,
quien esté tratando de
acceder a los servicios de AW. Entonces el usuario es básicamente una herramienta. Entonces, si quieres crear
un usuario para un servicio, por
ejemplo, como te dije en el ejemplo anterior
sobre turno abierto, ¿verdad? Ahora bien, si crea
un usuario de este tipo para turno abierto, entonces voy a crear
turno abierto, um, acceso al servicio. Entonces aquí, no proporcione la consola de administración porque open shift no requiere consola
de administración. Así que las versiones anteriores de la misma herramienta IM tenían opción por aquí donde se puede
seleccionar el eje programático Pero dice por aquí si
estás creando un eje gramatical, pasa por clave de acceso o credenciales de servicio
específicas Entonces tenemos que
pasar por otro paso. Eso te lo diré. Entonces aquí
tengo a este grupo por aquí. No voy a
ir con el grupo. Ahora aquí, me estaba diciendo que necesita acceso administrativo y necesita acceso a
todos los servicios. No requiere acceso de usuario
root. Nadie ninguno de los servicios requeriría
que tuvieras el acceso root. Así que recuerda que
no le des a tu root
acceso a nadie. No cree esto.
Te diré cómo hacerlo en un momento. Haga clic en Crear, y luego
verá que el usuario ha creado. Ahora este usuario es básicamente un
usuario administrativo porque tiene una
política administrativa adherida a él. Ahora no lo estoy haciendo parte de un grupo porque
quiero tener esto por separado de
mis ya existentes um, sabes, grupos que
estoy creando para los usuarios. Entonces ahora, este usuario
en particular llamado acceso al servicio de turno
abierto es para acceder. Entonces ahora, ¿cómo
le doy este nombre de usuario? Ahora sé el nombre de usuario. ¿Qué es una contraseña?
Necesito dar esta información para abrir turno a la
derecha del otro lado. Este ejemplo va con cualquier aplicación de terceros no tiene que ser
sobre solo turno abierto. Entonces ahora, la
autenticación multivctor, no
es para turno abierto, porque ese es un segundo nivel de autenticación para tu usuario Entonces no es eso. Clave de acceso, muy importante. Este es el indicado. Entonces puedes ver que usa
esta clave de acceso para enviar llamadas
programáticas
a AWS desde la CLI de AWS Pero este es el uso de la misma. Entonces, cuando otra herramienta
se esté conectando a AWS, en
realidad usará la clave de
acceso de aquí. Así que haz clic en Crear clave de acceso. Y de aquí, ¿es
para Commanda Interface? No. ¿Es para código local? No. Es para ejecutar una aplicación en el servicio de cómputos de
AWS. No, esto no es entre
servicio y servicio también. Ver que el usuario puede ser creado para servicio
a servicio así como dentro para servicio al servicio ECS o al
servicio Lambda Entonces servicio a terceros, sí. Entonces esto es turno abierto, que es un servicio de terceros, y estoy seleccionando a terceros. Hay otras opciones
como aplicación ejecutándose fuera de Ara Blaier, como en su propia infraestructura,
derecho, en su propio
centro de datos o no listado Entonces
servicio a terceros, entiendo. Entonces dice que es
la mejor práctica crear un acceso temporal como la regla de IAM en
lugar de
claves de acceso a largo plazo y cosas así Pero esto es muy
recomendable para turno abierto. Así etiqueta el valor y crea la clave. Ahora bien, esta es la única vez
que te va a mostrar la clave de acceso y la contraseña de
acceso por aquí. Estos son los dos
elementos de acción que necesitas. Cuando hagas clic en hecho, esto se va a cargar por aquí. Verás para este impuesto de turno
abierto, has creado esta clave y la contraseña
no se mostrará de nuevo. Tienes que eliminar, desactivar, eliminar y luego volver a crear
si olvidaste la contraseña No hay opción
alguna. Todo bien. Ahora voy a borrar esto
porque no lo necesito. Entonces aquí está tengo que
copiarlo y pegarlo. Entonces aquí, primero desactivado, pasado y eliminado. Entonces así es como lo borras. Entonces aquí, voy a
eliminar a este usuario también, y no hay cargos por
el número de usuarios que
vas a tener en AWS. Para que puedas tener cualquier
número de usuarios. Ahora mismo así es
más o menos como puedes usar esto. Ahora en otro video, hablaremos de proveedores de
identidad porque este video va
largo. Gracias de nuevo. Espero que hayas
entendido la
sección práctica sobre cómo
crear reglas de usuarios, y hayas podido
relacionar y reconectar el tema anterior lo cual
es muy importante para nosotros hacia nuestro examen porque habrá al menos de
tres a cuatro preguntas provenientes de este particular
uh grupo de actividades Gracias de nuevo. Te
veré en la próxima.
36. Laboratorios AWS Knowledge Center: Doy la bienvenida de nuevo a
la siguiente sección. En esta sección, vamos a hablar de identificar dónde realmente
obtienes mucho apoyo en cuanto a la información de
seguridad de AW, y vamos
a mirar hacia las múltiples formas de
obtener esta información. Entonces, en primer lugar,
vamos a hablar AWS Knowledge Center. Ahora, solo vuelve
a documentar
aquí en términos de nuestro
practicante en la nube o guía de examen. Entonces aquí es muy
importante para nosotros
explorar estos servicios
o características de AWS. Parte de ella habla de
la comprensión sobre dónde se puede recopilar más información sobre la AW información segura como registros, seguridad, centros de
conocimiento. Vamos a ver
cada uno de ellos en unos videos separados y
luego vamos a cubrir todo esto como
parte de esta capacitación. Entonces ahora vamos a comenzar
con el Centro de Conocimiento. Ahora, Knowledge Center no está
dentro de su consola de AWS, pero luego necesita ir a Google y escribir
AWS Knlege Center Este es el repost de AWS, y uno de ellos es
sobre Knowledge Center También puedes obtener
alguna información sobre esta información rápida. Como por ejemplo, quieres
saber más sobre seguridad. Más información sobre seguridad. Entonces cuando escribes esto, lo
siento, yo era un errata aquí Quiero saber sobre seguridad, uno de esos sería
sobre documentación y artículos de conocimiento. Esto básicamente va
al Knowledge Center, que en realidad tiene una
redirección para volver a publicar AWS y va a Kledge Una especie de pregunta que
vas a hacer en el chat será redirigida
ya sea a documentación, que va a dost aws dot Uh,
amazon.com, o va
al repost Leg Center va a responder a la
mayoría de las preguntas, por lo que frecuentemente haz preguntas
justo a tu disposición. Esto va a hacerte la vida más fácil en términos de
seguir algunas cosas. Entonces el Centro de Conocimiento, puedes acceder directamente y luego buscarlo exactamente así. O también puedes hacerlo desde
tu consola. Te he mostrado ambas opciones. Vamos a entender algo
sobre Knowledge Center, una
colección completa de artículos y preguntas frecuentes que cubren una amplia gama de servicios y
temas de AW , incluidas las mejores prácticas de
seguridad, problemas
comunes y consejos para la solución de
problemas. Ahora, lo útil que
es, le proporciona la respuesta
detallada a preguntas
frecuentes sobre la configuración de seguridad, la problemas y el cumplimiento. Ahora bien, recuerde que
el Knowledge Center no
se trata solo de cosas de
seguridad, sino que involucra en general, todas esas cosas
que hace normalmente en AWS. Y como puedes ver por aquí, todo
esto es parte de lo
que normalmente haces en AWS. Por lo que te da la información
completa
paso a paso sobre cómo puedes trabajar
realmente con un
problema y resolverlo, así
como algún tipo de
forma más fácil de abordarlo, por
ejemplo, escribiendo
un comando CLI Entonces definitivamente vale la pena darle una oportunidad si
quieres saberlo. Por ejemplo, cómo
asegurar EC dos instancias. Entonces, cuando
escribes una pregunta como esta, obtienes los artículos
relacionados que se dieron anteriormente. Entonces, por ejemplo, asegurando
mi EC dos instancias. Ahora, se puede ver que
hay una respuesta, y hay 444 vistas,
y se puede ver que
esto es preguntado por
esta persona o esa dirección de
correo electrónico. Lo siento, esa identificación. Ahora bien, dice, Hola, soy
bastante nuevo en AWS. Tengo
acceso completo de administrador a la Consola. Tengo cuatro EC de dos
instancias DB Proxy, UI y API, y te está preguntando, ¿cómo puedo asegurarlo Entonces ahora puedes ver que la
gente está respondiendo por aquí y prácticamente puedes
ver las formas de hacerlo. Entonces las preguntas están por aquí. Ahora bien, si voy a hacer lo
mismo en Knowledge Center, ahora en realidad puedes preguntar esto como parte
del Centro de Conocimiento. Entonces cuando lo vuelvo a buscar, por aquí en este C cuatro en
lugar de todo el contenido, voy al Centro de Conocimiento, en realidad se pueden
ver algunas opciones que está disponible
desde Knowledge Center. Y uno de esto sería sobre asegurar la conexión con EC dos. Para que veas que éste. Entonces tienes
sección de preguntas donde es respondida por gente como nosotros. Hay Knowledge
Center, que AWS escribe un artículo al respecto y
diferentes formas de hacerlo. Y en realidad puedes escribir
un comando sobre esto, por ejemplo,
sea cual sea el comando que quieras escribir
sobre el post, AWS sería siempre que estén disponibles estaría
respondiendo a eso, o los compañeros
también vendrán por aquí. Se puede ver que la gente ha comentado por aquí también.
Entonces como se puede ver eso. Así que más o menos, este es
el Centro de Conocimiento, y así es como puedes usarlo. Y sí, así que en realidad
puedes conseguir algo de la vida real también
porque hay gente entrando y
haciendo preguntas como, ya
sabes, algún tipo de foro. Entonces de eso se trata la
sección de preguntas. Gracias de nuevo, chicos,
por ver este video. En el siguiente video,
hablaremos del segundo,
que es AW Security Center.
37. Laboratorios AWS Security Center: Hola, chicos. Bienvenidos de
nuevo a la siguiente. En esta idea,
vamos a
hablar de AWS Security Center. Ahora bien, lo que no podemos
discutir sobre el Centro de Seguridad
es que es un centro central para la información
relacionada con la seguridad de AW, incluyendo reporte de cumplimiento, guías de protección de
datos
y boletines de seguridad Ahora, la forma en que ayuda es
básicamente le proporciona documentación de
recursos
sobre protección de datos, informes de
incidentes y
cumplimiento estándares de
la industria
como PCI, HIPAA y GDPR Ahora pongamos en las manos
parte de este centro en particular. Ahora bien, esto, de nuevo, no forma parte
de sus servicios existentes. Va a estar fuera de los, ya
sabes, servicios, que de nuevo es,
algo
que puedes buscar en
Google, o puedes escribir awtotmason.com Ahora bien, el nombre, el Security Center ha
cambiado a AWS Cloud security, así que eso es básicamente lo que es. Ahora bien, todas las características de las que hablamos son todas iguales,
así se puede ver la
seguridad estratégica por aquí o identificar
la prevención lo siento, identificar, prevenir, detectar,
responder, remediar Entonces estas son algunas de
las opciones que
tienes por aquí en cuanto
a trabajar con ellas. Ahora, también se puede ver lo siento, sobre
el ruido de fondo. Entonces puedes ver por aquí que tienes múltiples
servicios de seguridad por aquí, lo que habla de las diferentes pruebas de seguridad libres de seguridad de
Abs Cloud, que puedes hacer
clic, que en
realidad llegarán a la
versión de prueba, pero no sé. Las URL no funcionan por alguna
razón, así que ignora eso. Así que en realidad puedes ver otras opciones por aquí en términos de identificación del cumplimiento de
seguridad. Solo estoy intentando volver a
abrir la URL, pero
parece que no está funcionando. Para que veas que tienes la
gestión de acceso a la identidad como parte de ella. Amazon Cognito, Idnity
Center, servicio de directorio, otras aplicaciones,
que forma parte de su servicio de seguridad e identidad ,
está por todas partes Ahora, también puedes ver la solución
destacada en AWS, y puedes ver las aplicaciones que a veces
algunas aplicaciones son algo que
ya hemos visto como WAF y cómo AWS automatiza responde para tu seguridad y
cosas así También puede ver a
los clientes de
aquí que han estado
usando la seguridad de AWS. También puedes ver el
cumplimiento aquí, que habla de las auditorías de
cumplimiento aquí. De hecho, puede tomar
un curso para comprender estos
requisitos de cumplimiento y también puede ir sobre protección de
datos aquí para comprender sobre
la protección de datos. También tienes un blog
por aquí que
te dice cómo trabajar con
algunos de los uh, artículos
complicados por aquí, artículos
complicados por aquí, ya que puedes ver que el último
blog trata sobre la implementación control de acceso basado en
relaciones con
permiso verificado de Amazon y Neptuno Así mismo, tienes
muchos artículos que en realidad te ayudarán paso a
paso para trabajar
hacia tu objetivo. Así que ahora, al
hacer clic en el artículo, realmente
puedes ver la información
completa, cómo te va a ayudar
algunos diagramas de arquitectura, así
como algunos de los elementos de
acción de aquí, que va a ser parte
de ese blog en particular. Así mismo, tienes blogs, y en realidad puedes
ver a los socios por aquí y también puedes ver recursos
adicionales. Entonces este es su centro de seguridad. Ahora, quiero
cubrir un elemento más que va a ser el blog de
seguridad de aquí, que es
lo mismo que acabamos ver sobre el blog de seguridad de
AWS, que es una
situación real en la que los empleados de AWS estarían escribiendo los blogs hacia soluciones y la
arquitectura de eso. También puedes ver los productos
relacionados, nivel de
aprendizaje de
estos bloques y el tipo de publicación tiene una
segregación por aquí Así que hemos cubierto
dos artículos por aquí. Una es la descripción general del
Centro de seguridad de AWS. También cubrimos el blog
de seguridad de AW. Las preguntas
serían, ya sabes, venir por aquí en términos
de que te van a estar preguntando, ¿ cómo recolectas la información más reciente
sobre la seguridad de AW? Entonces esta podría ser una de las
opciones que verás. Security Center,
blog de seguridad es donde
recoges la información más reciente sobre seguridad en
términos de cumplimiento, protección de
datos,
y luego tienes otros recursos así como mejores prácticas de
seguridad, boletines de
seguridad De igual manera, tiene todas
esas opciones por aquí en la seguridad de la nube de AWS, que se llama
Security Center. Gracias de nuevo por ver este video.
Te veré en la siguiente.
38. Laboratorios de AWS WAF: Hola, chicos. Bienvenidos de
nuevo al siguiente video. En este video,
vamos a hablar de BAF. Entonces hay un servicio
llamado Amazon WAF, que también se llama como WAF y es un firewall de
aplicaciones web Ahora, hablemos del ataque
de inyección SQL antes de entender sobre
el firewall WAF Bueno, entonces ahora aquí el señor
Hacker aquí tratando de, ya
sabes, inyectar un SQL, ya
sabes, consulta
en nuestro sitio web. Tratando de manipular el
servidor para darle la respuesta. Ahora bien, como ustedes saben eso, el SQL se
basa en algo llamado una base de datos
relacional Lo que es una base de datos relacional es que una cosa está
relacionada con otra, y así es como se han
capturado los datos y también
se han liberado Ahora bien, si ves este grupo
particular de registros de mesa por aquí, puedes ver que cuando un
cliente se registra en un banco, tiene
que dar su nombre,
apellido, dirección de correo electrónico,
contraseña, dirección,
código postal, dirección completa, luego el
número de cuenta bancaria, ¿verdad? Entonces vas a obtener un número de cuenta bancaria
temporal, que vuelve a estar relacionado con
tu número de cuenta bancaria, tu cuenta de ahorros, ¿cuál es
la cantidad actual que tienes? ¿Cuáles son las
transacciones pendientes? ¿Cuál es tu número de tarjeta de crédito? Luego a través del
número de tarjeta de crédito, tienes número de tarjeta de crédito, um, qué hay disponible, uso de
crédito y cualquier préstamo
en tu tarjeta de crédito. Así mismo, cada transacción
de aquí irá a otra sucursal que
se relacionará con esa información
en particular. Si alguien quiere
conocer los detalles
del nombre,
cuál es el
apellido, dirección de correo electrónico, contraseña y todo, todo se
almacenará en la
base de datos así. Entonces la contraseña
debería estar en alguna parte, necesita estar
descifrada, ¿verdad Entonces por ejemplo, sí, final
se almacenará
una contraseña cifrada, ¿verdad? Entonces ahí es cuando
en realidad compara la contraseña y luego ve que estás
autenticado o no Entonces, lo que la gente intenta hacer es lo que los hacks
intentan hacer es que inyecten el método post, e intentarán enviar
una consulta a la base de datos, que en realidad termina
en la base de datos de todos modos. Entonces tienes servidores de aplicaciones, servidores web, balanceadores de carga
y todos los cortafuegos Pero el resultado final
en realidad irá a la base de datos. Por lo que inyectarán una declaración
XQ a través un archivo e intentarán
empujarla a través de su sitio web Ahora, eso será si tu
sitio web es vulnerable, va a salir
con el resultado final real o tu contraseña final
o cualquier tipo de información
personal es una victoria para ellos porque
van a llegar a conocer algunos datos personales esa persona que tiene
una cuenta con banco. Entonces no solo SQL, hay XSS, A hay algunos otros formatos
además también
se van a usar por aquí Ahora, WAF va a
proteger su sistema. Ahora tengo una
arquitectura detallada sobre WAF así que esto te va a
explicar mucho mejor Vas a ver la
demo de la
sesión práctica en AWS en
este mismo video. Lo que voy a hacer es en primer lugar
voy a explicar esta arquitectura cómo
va a estar
lidiando con esto tu WAF va a estar
lidiando con esto Ahora,
ya habría entendido estándar de
AWS Shield hasta ahora y lo que WAF le va a dar
funcionalidad adicional por aquí Ahora, uh, ABS Web es un firewall de
aplicaciones web que ayuda a proteger su aplicación web de vulnerabilidades
y vulnerabilidades web comunes Y que en realidad podría afectar la disponibilidad
de tu aplicación, y también que podría comprometer tu seguridad más o menos
al, ya sabes, estas personas, estos hackers, obtener
la información personal, luego tratar de regatear
contigo por un rescate Entonces esa es la razón por la que, ya
sabes, tu
aplicación web debe ser segura. Por lo tanto, AWS WAF le da control sobre el tráfico que
llega a su aplicación al permitirle
configurar reglas que filtran o bloquean tipos
específicos de tráfico Ahora bien, en términos de caso de uso
típico, qué caso de uso realmente
puedes usar este VAF es proteger contra ataques comunes
como, ya sabes, puede bloquear hilos web comunes, como inyección SQL, uh, scripting
entre sitios,
como exceso Y dedos ataca.
Entonces Dedos ataca, tienes protección adicional llamada estándares de escudo AW, así que eso también
te protegerá contra el ataque de dedos, pero WAF también puede
hacer eso también Ahora también te puede dar protección
adicional. Como sabrás que el escudo de AWS
no se va a cobrar y
está habilitado de forma predeterminada. Entonces esto es para proteger la infraestructura
de AWS. Esa es la razón por la que el
escudo es uno estandarizado. Entonces de todos modos hemos visto
la explicación para ello. Um, entonces también hace algo
llamado limitación de velocidad. Entonces, cuando usas AWS WAF, se usa para
limitar el número de solicitudes que un solo IPDdress puede hacer a Entonces esto es muy
importante porque a veces los DIR
atacan o podría ser cualquier tipo de
inyección escule puede venir de un mismo IPDdress así que um, OSPF va a monitorear
eso y es asegurarse de que, ya sabes, envía una captura o
algo así para
evitar que la gente navegue por lo mismo Entonces, si vas a algún
sitio web hoy en día, si vas a google.com
como BW e intentas buscar un
tema específico como diez, 15 veces, entonces
simplemente te
mostrará inmediatamente una captura
pidiéndote que ingreses a la captura Entonces, lo
que está pasando es que cuando la gente está accediendo a un sitio web frecuentemente en un transcurso de 10
minutos o algo así, entonces el sitio web es
consciente de que, bien, he sido constante la presión
de esta dirección IP, así que esta vez voy a pasar por
un firewall. Voy a bloquear
esto y enviarlo a una página de Cap Shop en lugar de acceder
realmente a ella. Entonces ese tipo de redirección ocurre cuando se trabaja con este
tipo de firewall Esto se llama Web
Application Firewall. Vamos a hablar de muchos relacionados con
la secularidad Es muy vital. Debes entender
el nombre del mismo y
entender de qué
va a tratarse este elemento de
acción en particular va a tratarse este elemento de
acción Te voy a dar
una pista sobre esto. Entonces cuando escuches la palabra F, A W W AF. W en su mayoría significa
web en términos de todas
sus cosas
relacionadas con la computadora, W en su mayoría significa web. Entonces, cuando escuchas el WAF, lo primero que debes
venir a la mente, ¿podría ser web Siguiente, A mayormente
significa aplicación. Entonces donde quiera que veas
A como acrónimo, en su mayoría significa
aplicación. Y luego cuando se está
hablando de seguridad y
hay una palabra llamada F, entonces debe ser firewall. Así que trata de relacionarlo y
tratar de entender y
tratar de familiarizarse con estos
acrónimos porque um, ya sabes, cuando AWS creó estos acrónimos, tenían este tipo de mentalidad cuando los
crearon porque
querían asegurarse de
que estos acrónimos son prácticamente utilizables
y reutilizables y la
gente puede pensar en
estas cosas cuando se trata estas cosas cuando Entonces, ¿recuerdas que es un
consejo que te voy a dar por cada
sesión de seguridad para que puedas entender y cómo
puedes inmediatamente,
um, relacionarte con este segmento
en particular Entonces por aquí, tienes otro caso de uso por aquí del
que quiero hablar
son las reglas personalizadas. Como puedes ver por aquí, tenemos reglas administradas, lista
blanca, lista negra Entonces, ¿cuál es el uso de la regla
personalizada es que
puedes crear tu propia
regla personalizada y permitirte bloquear un patrón específico
de tráfico web porque hay otras herramientas de las que vamos a hablar más adelante, y esa herramienta en realidad puede, ya
sabes, mirar tus registros, ver el patrón, ver la frecuencia que viene del rango de direcciones
IP. Cuando conozcas
el rango de los DPI, sabrás por el
aspecto de los DPI públicos, sabes de
qué región proviene En estos días, se está
volviendo muy, muy difícil de identificar
debido a que todos los
servicios VPN se están volviendo muy buenos. Entonces, um, sí, hay
muchas complicaciones y va a ser más
desafiante en el futuro. Y, sí, siempre hay una manera de identificar y, ya sabes, olfatear el error o cualquier tipo de problema antes de que ocurra
algo Pero aún así, la tecnología
está mejorando tanto. Entonces, aquí hay
reglas personalizadas que puedes permitir o denegar, desde una ubicación
geográfica específica para, ya
sabes,
mirando también la
información de tu encabezado HTTP. Entonces puedes mirar la información del
encabezado HTTP y decir, Bien, este tipo de información de encabezado no
es parte de mi um,
um, mi programación, así que en realidad
puedes, uh Denegar esa
información de encabezado también. Por lo que esto impedirá que las personas
ejecuten cualquier tipo de inyección de SQUL, de igual manera En términos de integración, existe esta hermosa
integración con, um, ya sabes, otros
servicios como Cloud friend. También puede integrarlo con el equilibrio de
carga a nivel de
aplicación. Entonces eso es algo que
ya te he enseñado por aquí. Para que pueda colocarlo
en CloudFront. CloudFrind va a ser
un servicio de caché para nosotros, pero va a
almacenar en caché nuestra información, y solo va
a ser un frente de La forma más fácil de identificar esto es básicamente por
su nombre, CloudFront Así que va a estar
en la parte frontal de tu Cloud y va a almacenar en caché toda la información
y enviar la información almacenada en caché
a través Entonces Route 53 es donde está tu DNS y CloudFront es donde va a
almacenar en caché la información AWS PAF va a estar entre el enrutamiento
y el almacenamiento en caché De modo que, ya sabes, incluso
la información en caché no
irá a las que se accede
con frecuencia. Entonces esa es la razón por la que es
justo después de la Ruta 53, modo que incluso CloudFront no se utilizará
cuando haya ataque Todo bien. Entonces ahora vamos
al ejemplo en tiempo real. Entonces uno de los
ejemplos en tiempo real que
me he enfrentado cuando trabajaba para un gigante del comercio electrónico allá por la India. Así que solía alojar para
Amazon CloudFront. Solía tener estos
servicios alojados en eso. Y es un poco
vulnerable para la inyección SQL
y el scripting cruzado Entonces lo que hice fue como, al habilitar esta aplicación
web de servicio WAF FR WOL, en realidad
puedes, um, ya sabes, mirar los registros y ver
qué IP es frecuentemente, ya
sabes, accediendo a nuestro Uh, y en realidad podemos, ya
sabes, bloquearlos. ¿Bien? De hecho, podemos
bloquearlos como parte de este listado de carencias. Así que lo he hecho, y
eso en realidad ha impedido que esas series de direcciones
iPad
accedan a nuestro sitio web. Y nos enteramos por las
páginas a las que acceden, ¿no? Llegamos a saber si realmente
van a comprar esa dirección IP
realmente va a pagar, o simplemente quiere estar en la página de
inicio navegando por ahí. Ahí estamos haciendo este
escaparate, ¿verdad? Así mismo, alguna
dirección IP hace el um, vuelta a los productos y luego selecciona productos al azar. Y luego solo seguirá refrescando múltiples
productos donde, ya
sabes, cada vez que
refresques tu producto, en realidad tiene
que obtener
la información de la base
de datos
debido a los precios del producto, disponibilidad
del producto, todo esto necesita
ser revisado, ¿verdad? Entonces, um, significa esa presión extra en la base de datos para
conseguirte esa información. Entonces, por esta medida
de listas negras, esas Rs IPAR, cierto, pude, ya sabes, ahorrar muchos recursos en
mi base de datos um, ya sabes, lo
que en realidad resultó en una que en realidad resultó en factura
menor porque más
el recurso que gastas, mayor será
la cantidad que
vas a pagar por AWS Entonces esa es la razón por la que
porque hay tarifas de transferencia, hay tarifas de Internet, y todas esas cosas están
entrando en imágenes y de igual manera, realidad
puedes guardar la
facturación si um en realidad, ya
sabes, tienes un menor
rendimiento en tu aplicación. Pero un desempeño significativo
es lo que estoy pidiendo. Eso es todo lo que estoy pidiendo. Entonces aquí,
hablemos de beneficios clave. Uh, es fácil de desplegar. Es rentable,
es altamente personalizable. Entonces lo que significa que cuando hablo de altamente
personalizable, puedo crear mis propias
reglas y de
hecho puedo tener mi lista blanca
y lista negra de direcciones IP. Rentable. Solo
pagas por lo que usas en función del número de solicitudes de aplicaciones
web, reglas aplicadas, así que eso te
va a costar tanto. Y luego fácil de implementar ya que solo puedes
implementarlo muy fácilmente. Te voy a mostrar en las manos. Así que pongamos
en manos de este artículo en particular, así que lo siento, acabo de abrir
algo más por aquí. Así que vamos a escribir
WAF AF y blindar. Así que AF viene con escudo. Así que también hemos visto esto en el
tema del escudo. Entonces el escudo y VF, ya sabes, comparte el mismo
servicio um overlay Entonces tendrás el AF
en la parte superior y el escudo
en la parte inferior. Entonces sí, para que veas que
iniciando con WAF. Así que en realidad puede nuevo AWS
Wabashboard está disponible, así que esa es una Y también puedes tener la página web de la lista de
control de acceso ACL Bien, así que eso es
más o menos cosa. Ahora puede personalizar
su comportamiento de captura implementando API de captura. Entonces Java API se usa
en la captura ahora, lo que significa que um,
como te dije, ¿verdad? Entonces, si un número frecuente de personas de la misma
dirección IP estarán en acceso, realidad
puedes
leerlo para capturarlo. Entonces eso también es parte de ello. Entonces puedes ver
que en WAF derecho, tienes web ACR, tablero de
control de tablero Oh, estas son algunas de
las características de la misma. Creo que nos faltaron
las botas malas. Sí. Entonces aquí tienes inundaciones HTTP, enlatadores y probs,
lista de reputación de IP, y luego bots malos Entonces estas son algunas de
las características de la misma, y eso es lo que
realmente te están mostrando aquí. Así tablero de paneles de control, y luego tiene conjuntos de IP de
integración de aplicaciones para que pueda crear una regla aquí
sobre los conjuntos de IP Y luego puedes crear una lista
de conjuntos de p blancos por aquí. Entonces no importa si lo
bloqueas o lo permites, pero solo lo creas con el nombre de
Lista negra o lista blanca, y luego puedes
ponerlo como regla. Entonces en la regla, en realidad
puedes crear un grupo de reglas y
puedes especificar, ya
sabes, lo que tiene que
hacer para este grupo. Por lo tanto, solo ingresa los detalles del
grupo y luego establece las reglas y la
capacidad y la
prioridad de la regla y luego revisa
y crea la regla. Nuevamente, no vamos a
adentrarnos en la configuración
porque esta capacitación o esta certificación no se
trata de que vayas dentro cada componente y hagas cosas que vienen en el nivel
profesional, así que no te preocupes por ello. Entonces este es un nivel de fundación, así que no
te estarán preguntando cómo crear una regla. ¿Cuáles son las opciones a la
hora de crear una regla? No te estarían
preguntando esas cosas. Bien, entonces AWS marketplace,
administra reglas. Así que estos son algunos de los mercados que
se utilizan con frecuencia, uh, se puede ver esa protección
anónima IB. Entonces esto es de
Cloud Brick y esta es una regla administrada
por um, el personal de AWS. Por lo que esto básicamente le brinda protección de identificación
anónima brindando seguridad
integrada contra la organización
anónima de IP desde diversas fuentes de VPNs, centros de
datos, proxies DNS,
Troy Network, relés
y red PNP Entonces, si solo haces clic en
él, va a ir
al mercado, y te va a mostrar
el detalle del producto por aquí. Entonces, ¿de qué es esto um ya sabes, regla
del
mercado y puedo usar esta regla por mí mismo para mejorar
mi organización? Porque esto se aplica
al nivel de organización, lo que significa que todas
sus VPC realmente
obtendrán el
uso, el uso de la misma Pero esto implica precios. Puedo ver los cargos por aquí. Cargo por costo de uso por
mes para cada región. Pro rated by Horas
es de $35 por región. Um aquí puedes ver
que el cargo por millón de solicitud en cada zona de
disponibilidad es de 0.2. Bien, así que eso es más o menos
es un no reembolsable. Es de vendedor. Entonces de lo que se trata
esto es, te da, um, la lista de amenazas
que ya se detectó y ya
se ha marcado Así que realmente no
tienes que ir desde el cero de
buscar dirección IP que está penetrando en tu red puede no sea algo si no eres como una gran empresa, realmente no necesitas
esto y puedes hacerlo
monitoreándolo y mirándolo, no
tienes que pagar esa
cantidad al mes. Si piensas que tu
empresa no es tan grande y no te gusta tener
tanta amenaza. Pero si estás trabajando en
una organización más grande, puedes sugerir para
algo como esto, solo $35 nada para
la gran organización Pero esto te da
protección allá. Entonces tienes protección APA, reglas de seguridad
APA, conjunto
de protección de junta. Entonces esto es algo
que puedes comprar y, ya
sabes, pagar mensualmente
con tu factura. Y lo que esto va a hacer es que va a agregar más, ya
sabes, seguridad, reglas
adicionales en tu WAF, y va a
asegurarse de que, ya sabes, haga algún tipo
de control en
términos de controlar
tus placas malas,
tus, ya sabes, direcciones IP
desconocidas, direcciones IP
anónimas,
y cosas así Entonces eso depende completamente de
ti si quieres usarlo. ¿Todo bien? Entonces ahora
esta es una nueva URL. El viejo clásico se ha ido. Entonces puedes cambiarlo a eso, pero yo preferiría empezar a
usar el nuevo porque, ya sabes, va a
estar ahí por un tiempo. Entonces porque los nuevos siempre van a pasar el rato
como dos o tres años, al
menos, así que
vas a tener eso,
um, ya sabes, practicado en eso. Así que tienes tantas
categorías por aquí, control de acceso
web, conjuntos de
IP, grupos de reglas y reglas de mercado para acceso
más rápido y fácil a una regla existente para ser
importada en tu caso. Y estos son todos, ya sabes, aprobados y verificados
por la propia AWS Entonces esos son los que están
en el mercado. Gracias de nuevo por
ver este video
entendiste lo que es WAF y entendiste la arquitectura Si tienes alguna duda, déjala en la sección de
preguntas. Tu opinión realmente importa. Si tienes alguna sugerencia, siempre
puedes
hacerla en la revisión. Puedes
contactarme por mensajes. Puedes unirte a mi
comunidad y llegar a través de mí desde la
comunidad también. Hay tantas maneras de llegar
a mí y hacer que este curso sea
mejor. Todo depende de ti. Gracias de nuevo por su
paciencia. Te veré en el
39. Labs Network ACL: Yo chicos volveré
al próximo DF y solo PDO hablamos de lista de control de
acceso a la red Ahora, las ACL son uno de
los temas importantes en su AWS caia Ahora lo que podemos entender es un poco de teoría, así
como un poco
de manos sobre ACL Ahora bien, para entender primero la ACL de la
red, es
necesario entender
las siglas de la misma ACL se llama lista de
control de acceso. Entonces esto es incluso en un nivel superior que hemos comentado
en el grupo de seguridad. Ahora, como puedes ver en
este diagrama de arquitectura, por favor ignora todos
los errores tipográficos aquí porque se trata de una imagen generada por
IA Entonces um, no hay mucho
de un tipografía por aquí. Entonces, um, quiero decir, incluso si los errores tipográficos ahí, por favor ignórelo
solo por los,
um, los derechos de autor de IA
y cosas así Entonces como puedes ver aquí, así el grupo de seguridad en esta jerarquía está muy
cerca de la instancia de ECT, pero no en un nivel superior. Pero cuando se habla de
la ACL, la red ACL, está en un nivel superior
como en es hacia la
nube privada virtual de VPC donde en la que está mucho a un
nivel superior cerca Ya hemos entendido lo que básicamente es una VPC anteriormente, pero no te preocupes,
iremos en profundidad más adelante punto del tiempo cuando estemos hablando de
VPC con mucho más detalle Pero a partir de ahora, lo que
hay que entender es que la VPC es el
punto de entrada de cualquier tipo de comunicación y la VPC está encima de todos los servicios
AW ahora
se
puede ver que todos los servicios AW están rodeados y VPC
en la parte superior de la misma Ahora, lo que vas a hacer a nivel
de VPC es configurar
las ACL de red Ahora bien, recuerde que ACL
es un firewall sin estado. Como cuando comparas esto
con tu grupo de seguridad. Ahora, el grupo de seguridad es
un firewall con estado, donde donde hemos visto algunas de las actividades como
cuando
permites el tráfico dentro, automáticamente permitirá el mismo tráfico
afuera también porque tiene estado
porque monitorea el ¿Bien? Pero cuando
comparas lo mismo con
la ACL de red, es como un
método sin estado, um, de firewall en que no
monitorea la conexión Por lo que es vital que
especifiques la conexión entrante. Y también es necesario
especificar la
conexión de salida también Entonces, si no especificas
la conexión saliente, ya que esto no es monitorear la transacción enter
o la sesión, no permitirá
que las
conexiones salgan al exterior Entonces, si está permitiendo
las conexiones a través del grupo de seguridad y no lo está permitiendo a través de ACL, su red
eventualmente no funcionaría No vas a obtener una
respuesta del servidor, aunque seas capaz enviar la solicitud al servidor, no
vas a estar recibiendo
respuesta porque la ACL de red no te
permite um, salir de la información
del servidor porque está configurada
en el nivel superior, ¿bien? Porque está configurado
bajo la VPC. ¿Bien? Así podrás acceder a
eso usando ACL de red, y verás que
va a la VPC y es una de las características de
VPC es tu Entonces, cuando entres a
tu panel de control de VPC, verás en el nivel de
seguridad, verás grupo de seguridad
y verás ACL de red Nuevamente, el grupo de seguridad también
entra en este nivel, pero luego se está
asignando directamente a tu EC dos instancias, que nuevamente, solo informa
a VPC, pero es mucho más
una sesión con estado y las ACL de red este momento, tiene dos ACL de
red
configuradas por aquí Uno es para la aplicación de
muestra de rayos X, que puede ignorar. El otro es
el predeterminado, que viene por
mucho defecto. Ahora esto tiene seis subnts
conectados, por lo que anteriormente, hemos visto que las subredes son
básicamente la red que está configurada para cada una de
sus zonas T disponibles, que es parte de Entonces estoy en el norte de Virginia. Tengo seis regiones lo siento. Tengo seis zonas disponibles en la región
Norte de Virginia, así que tengo seis subredes
asignadas Ahora como esta aplicación extra, también
puedes especificar
la subred donde
quieres alojar tu
contenido, y así mismo, puedes ser muy
específico en eso, pero no lo
recomendaríamos porque puedes alojar cualquiera de
las
instancias de EC two en cualquiera de las seis zonas t disponibles Por lo que todos sus artículos deben ser parte de una red ACL,
eso debería ser parte de ella. Esta es una aplicación muy
específica y por favor no tome
ningún ejemplo de esto. Por favor, use el ejemplo que está configurado
y esto
definitivamente
también estaría ahí para usted cuando
mire su ACL de red Porque sin esto,
si borras esto, tu tráfico de red no
funcionará. Incluso tu SS tal no
podrás usar. ¿Por qué? Debido a que esto en realidad
permite esas comunicaciones, pesar de que está permitido a nivel de grupo de seguridad,
la ACL de
red debe estar habilitada para que su
comunicación funcione Ahora cuando se mira esta red en
particular ACL, usted tendrá la
regla por aquí, que es permitir y negar Como esto es apátrida, necesita especificar
lo que necesita permitir, necesita especificar
lo que necesita negar La ACL de red es un firewall sin estado que
opera a nivel de subred,
controlando el tráfico entrante
y saliente
hacia y desde las Ahora recuerda, cuando
aplicas un tráfico cuando
aplicas una regla entrante
o una regla de salida, y luego realmente
dices que quiero asociarme con todas las subredes
que están disponibles, lo
que significa todas las zonas de disponibilidad
capaces bajo Entonces, lo que significa que todas las sidras
están entrando por aquí, recién asignadas para cada una de
esta zona de disponibilidad, lo que significa que estas reglas de
entrada y salida serán aplicables
para todas Pero por defecto, la regla entrante será la primera
que esté por aquí, que es a y la segunda
que se menciona
como estrella ST Nueve Entonces, lo que esto significa es
que el que tenga el número más alto
tendrá más prioridad, ya que se puede ver que 100 es
más alto que la estrella, ¿verdad? Por lo que tomaría esta regla
en particular y permitiría todo el tráfico dentro
de todas las fuentes. Y en términos de regla de salida, lo mismo aquí Permite todo el tráfico en su interior, que tiene un número mayor, que es el sistema de clasificación, por lo que permitirá todo
el tráfico dentro. Entonces, si editas esto
y
lo cambias a éste a star
y éste a 100, entonces negará toda la
petición que sea saliente. Y va a tener esto permitir, pero luego la negación irá primero. Ahora se puede ver que yo
hice dos reglas por aquí. He dado 100 como en negar
y 101 como en permitir. Ahora bien, si ves eso por defecto, puedes ver
cuál elige primero. Obviamente voy a negar
toda la solicitud, y va a permitir
todas estas peticiones, pero el problema es como
que viene justo al lado. Entonces básicamente
negará todo lo que está entrando porque tomará en orden de clasificación. Si tienes otro
rango por aquí, que en realidad agrega otra
regla y solo
nos pones uno y dices todo
el tráfico y dices permitir. Puedes ver que cuando
dices y sales, si vas regla de salida, puedes ver que la regla número uno va ahí y
permitirá todas las solicitudes Lo que significa que
es una base clasificada. Entonces vas a poner
otro rango frente a ella. No hay otro
rango antes que uno. Uno es el inicio del rango, lo que significa que este es el primer rango que
va a estar permitiendo. Aquí estamos
hablando de todo el tráfico. También puedes personalizar
tu tráfico de acuerdo a lo que sea tu requerimiento y
hacerlo de acuerdo a eso. Vamos a hacer retroceder esto. Solo hay que
quitar esto y esto
y luego solo hacer que
este centenar lo permita. Y guarda los cambios
y ese debería ser tu artículo de retroceso
aquí en la regla de salida Perfecto. Ahora bien, esto funciona
como el predeterminado. Esta estrella no es algo
que configurarías, entraría por defecto. Entonces, si no tienes ninguna
de esta regla mencionada, irá con la predeterminada,
que es denegar. Pero recuerda, necesitamos
especificar deny cuando
estás negando conexiones
a tu servidor Eso es lo que está
implicando ahora mismo. Está implicando que hay que negarlo, tenemos que bajarlo. No es como por defecto, se
le niega como nuestro grupo de
seguridad, grupo de seguridad. Si no permites nada, será denegado por defecto, pero no en ACL Por eso tienes por aquí esta sección
inencomiable o
inamovible sección
inencomiable o
inamovible que dice, Esta es una especie de ayudante. Si eliminas esta regla, negará todas las
conexiones que entren. que significa que ninguno de tus servicios como el servicio
Lambda, sea cual sea el servicio que estés hospedando como parte de esta región, no podrás
acceder a él desde Internet. Porque estás negando
todo a nivel de VPC. Bien. A menos que
tenga otra VPC configurada y tenga esa otra VPC apuntando
a otra Entonces puedes ver que este
es otro nombre de VPC. Eso se puede ver. Entonces esa es una VPC completamente
diferente. Entonces eso aplica en
una regla diferente, y eso realmente está avanzado ahora mismo, así que no
te preocupes por ello. Gracias de nuevo por ver este video.
Te veré en la siguiente.
40. Grupo de seguridad de laboratorios, parte 1: Oigan, chicos. Bienvenidos de nuevo
al siguiente video. En este video, necesitamos hablar sobre el tema
que va a ser describir las
características y servicios de seguridad de AWS. Por ejemplo, podemos ver
tres de los um, ya
sabe, servicios o
características en su AWS. Ahora bien, una es en primer lugar, vamos a concentrarnos en el grupo de
seguridad y
luego vamos a hacer ACL y F. En primer lugar, vamos a entender sobre el
grupo de seguridad de aquí Ahora, ¿qué es el grupo de seguridad? En realidad estamos configurando este grupo de seguridad como una característica de firewall
para EC two instance, que en realidad permite el tráfico
entrante desde Internet
y el tráfico saliente desde el servidor a Entonces, hay tráfico de dos vías, pero siempre hay tráfico de
dos vías que es tráfico entrante
y tráfico saliente Entonces, si tomas una
carretera por ejemplo, una carretera es normalmente una carretera se
desciende como una carretera de dos vías Pero a veces un camino también
puede ser de una manera. Por lo que normalmente no
decimos camino de dos vías. Y que no tenemos
la costumbre de decir que es un camino de dos vías porque
un camino va a ser um, ya
sabes, diseñado para dos vías. Por lo que habrá un carril
para el tráfico en curso, otro para su tráfico
entrante. Entonces, cuando decides que la
carretera debe ser de una sola vía, entonces decimos específicamente
que esta es una carretera de un solo sentido, diciendo que habrá tráfico en curso
o tráfico entrante. ¿Bien? Así mismo,
cuando creas EC dos instancias
tienes
configurado de manera predeterminada este grupo de seguridad, permitiendo tu conexión SSH, tienes el shell seguro Para que esa conexión se
permita desde cualquier lugar. Entonces esto es algo
que hemos visto cuando creamos una
instancia de ECT, ¿verdad? Entonces este es un tráfico entrante. Así que cualquier persona en todo el
mundo puede conectarse con
su servidor usando SSH Eso es lo que estamos diciendo.
Entonces, veamos, ya
sabes, la sesión práctica. No estoy seguro de si se
ha desconectado. Sí. Sólo dame un segundo. Bien, he
iniciado sesión en un servidor. Entonces si voy a EC dos
Instancias ahí mismo, entonces debería poder
ver esta red y seguridad dentro de que
tienes este
grupo de seguridad por aquí. Ahora, cuando haces clic
en el grupo de seguridad, ves varios grupos de
seguridad por aquí. Entonces hemos puesto en marcha EC
two Instancia, ¿no? Entonces si ves que es
ver los corriendo, debería ver el T dos micro. Esta instancia tendría
un grupo de seguridad en ella. Entonces, si solo voy a seguridad, voy a tener un grupo de
seguridad por aquí, puedan ver que este es el
nombre del grupo de seguridad por aquí y pueden
ver que el grupo de
seguridad está asignado por aquí para el
tráfico entrante y saliente Ahora bien, no creo que este sea el que usamos para crear. No estoy seguro. Creo que podría ser cualquiera de las
instancias no importa. Entonces te voy a mostrar
por defecto uno que está por aquí, que se crea como predeterminado. Y esto permite todo el tráfico
como regla entrante, y esto es
todo el tráfico saliente Este es un ejemplo clásico
de un grupo de seguridad predeterminado, y el grupo de seguridad
siempre comenzará con la palabra SG Ipind ID único del ID de grupo
de su grupo de seguridad Quiero mostrarles uno
complejo también en cuanto a grupo
de seguridad. Por defecto, el
grupo de seguridad niega todo el tráfico. Así que recuerda eso. Tienes que habilitar el tráfico
en función del requerimiento. Entonces cuando se
habla de grupo de seguridad, hablamos
de uno de los complejos que configuramos para
nuestro servicio de ubernty. Nuevamente, esto no
forma parte de tu examen. Esto es solo para asegurar que cuando
pasas al siguiente nivel, sea mucho más fácil porque en lugar de solo aprender
para la certificación, siempre
es bueno
aprender para el futuro también porque eso me
gusta mucho. Entonces tenemos algo
llamado avión de control y Cuberts y
computar uberts planos. De hecho puedo ver que tengo instancias configuradas
para los Kubernetes, y quiero comunicación
entre el También, el
eje Cubont de mi sistema, así
como el eje de consola
para el Cubernt Necesito habilitar todas
estas cosas, ¿verdad? Entonces como te dije, por defecto, todo
está deshabilitado. Necesitas abrir los números
de puerto. Es como si los grupos
de seguridad fueran más o menos como un firewall, lo que ocurre dentro de
tus instancias. Entonces, si solo nos fijamos en la configuración del grupo de seguridad
para el plano de la computadora , plano
incontrolado, verá una configuración específica la
cual han hecho Vamos uno por uno. Hablemos del plano de cómputos
porque eso es lo siento, hablemos del plano de control, que en realidad es
el nodo maestro. Al mirar esto,
hay ocho
entradas de permiso por aquí, cuales se configuran como parte
de este plano de control. Ahora cuando se
habla de reglas de entrada,
ahora reglas de entrada
habla de la solicitud entrante servidor
al que está asignado este grupo de seguridad de plano de
control Si he asignado
esta instancia, déjenme abrirla en otra pestaña. Estoy asignando este control
particular um, ya
sabes, grupo de control,
grupo de seguridad, y si vas a seguridad, puedes ver que he asignado el grupo de control para mi controlador de
co garantías, que es el servidor Maestro En esta situación,
estoy permitiendo o aceptando solicitudes
que llegan al servidor. Uno es el puerto número 22. Esto es obligatorio, o de lo contrario no
podré hacer SSSCh desde mi sistema Windows
al servidor AW y
acceder a ese servidor Entonces aquí puedes ver
el rango de IP aquí. Entonces esto te dice que cualquiera, esto significa que todos los rangos de IP como fuente están aceptando conexión a este grupo de seguridad en
particular, que está listado por aquí, solo el número de puerto 22. Tan muy importante que um, no se
trata solo de
la dirección IP, sino que también es el rango de
puertos por aquí. Lo cual es más o menos
lo que necesitas para cruzar. A veces cuando eliges servicios
predeterminados
como SSSH, ¿bien? No tienes que dar
número de puerto porque por defecto, SSSH buscaría 22 Entonces está este 02024, que en realidad tiene un protocolo
asignado a un número de puerto Entonces llamaremos a
esto como protocolo, y lo llamaremos
como número de puerto. Así que vamos a asignar esto
y vamos a poner una IP a través diciendo que este es
el rango de direcciones IP que
quiero aceptar. Bien. Ahora, hablemos de
estos de aquí. Primero, terminemos todo el
todo en cualquier parte, y luego
vamos a llegar allí. Ahora tengo dos artículos
más por aquí, apenas 6443. 6443 es el puerto de
comunicación de tu clúster, y eso también está
escuchando en todas partes 30,000 a 32,000 es
un número de puerto de nodo. Entonces, cuando Cbonnts
se ejecuta en el sistema y quiere navegar por
la aplicación que se está ejecutando en el nodo de lazos
Cubone, los
expondremos
a Internet utilizando este rango de números de puerto
llamado 30,000 Esto se llama NodePort. Cuando usamos este tipo de puerto, quiero ver o navegar por
la aplicación que se ejecuta en esta nota particular de Kubernetes Para eso, para lo
navegue desde mi
escritorio desde mi computadora portátil, necesito tener este
número de puerto expuesto para poder navegar por el servicio
que navegar por el servicio se está ejecutando en Kubernetes Voy a tener que exponer esto
en el plano de control de notas, así
como también en el
plano de cómputos porque mis notas de trabajador en
realidad estarán funcionando
en plano de cómputos. Que las notas esclava
que en realidad ejecuta mi Cubertpot se estén ejecutando en esta.
Necesito exponer eso. Pero a veces por ahí, no hay que exponerlo
al mundo entero, ¿verdad? Como por ejemplo, por aquí. Entonces, lo que esto significa es
que esta dirección IP está estrechamente enmarcada
dentro de la red de AWS. Cualquier cosa dentro de la
red de AWS porque AWS tiene este rango de direcciones IP asignado a todos los servidores
internos. Entonces aquí lo que estoy haciendo es que estoy dando algunos números de
puerto personalizados por aquí, como ICMP que hará
ping a otros servidores
entre sí Y nuevamente, necesitas
habilitar ICMP o de
lo contrario no podrás hacer ping
aunque sería accesible, pero el pin no funcionará Bien, porque ICMP está deshabilitado. Así mismo, hay que habilitar tales
números de puerto como por ejemplo, aquí, estoy habilitando los números de
puerto UDP
por aquí, y esto digo, debería estar dentro de
la red de AWS y esto digo,
debería estar dentro de
la red de AWS dando la dirección IP local, la
dirección IP privada para la AWS. Entonces, lo que esto significa es que puedes configurarlo
para todo el mundo. Puedes configurarlo
para la red local, lo que está sucediendo
con tu subred También puede
configurarlo para cualquier tipo de rango o fuente
de dirección IP. En realidad puedes
configurarlo para tu dirección IP portátil
porque cuando haces clic en um elemento Nu CLKONedit, y tratas de agregar
una regla por Te lo diré. Entonces, si
solo seleccionas SSH, bien, te
lo dirá por aquí, dirección
MyIPA
también vendrá Entonces, si solo lo buscas. Um, porque mi IP, se
puede ver que mi IP. Entonces esta es mi dirección IP que actualmente estoy
usando en el sistema, y puedes ver que
IPdress se da por aquí Pero desafortunadamente, tengo
una dirección IP dinámica, lo que significa que
cada vez que reinicio
mi módem o reinicio el sistema, o me conecto a VPN, mi dirección IP cambiaría. Por lo que realmente no
se recomienda dar dirección
IP porque es una dirección IP pública y
cualquier cosa puede cambiar. Entonces solo hay que
seguir modificando. Esa es la razón por la que hacemos
punto cero punto cero
punto cero slash cero Entonces significa en cualquier lugar. Entonces eso
básicamente significa en cualquier lugar. Entonces tendrás una opción como esta y seleccionas esa y básicamente significa en
cualquier lugar IP versión cuatro o en cualquier lugar IP versión seis. Entonces, del mismo modo, tú eliges esto. Espero que esta
información extra haya sido útil para que entiendas un poco más en
detalle sobre esto. Si tienes alguna
duda, déjala en la sección de preguntas. Te
veré en la siguiente.
41. Grupo de seguridad de laboratorios, parte 2: Hola chicos, bienvenidos de nuevo
al siguiente video. Entonces aquí seguimos en el grupo de seguridad por aquí. Entonces lo que hemos hecho anteriormente
es permitir una conexión. Ahora, naturalmente la
pregunta sería sobre si quieres
negar una conexión, ¿qué vas
a hacer al respecto? Entonces, si planeas
negar la conexión, solo
necesitas hacer de tu
permiso una regla muy estricta. Entonces por ejemplo, aquí
estoy agregando uno personalizado, y aquí solo estoy diciendo
que necesito un protocolo, que también es
protocolo personalizado. Entonces solo di protocolo TCP. Y entonces puedo lo siento, digamos protocolo TCP. Y aquí estoy dando un número de puerto llamado número de puerto
2525 Entonces quiero negar conexiones a un grupo específico de
personas y quiero
habilitar la conexión con un grupo
específico de personas. Entonces como te dije antes, en realidad
puedes hacerlo como
parte de tu grupo de seguridad. No hay
forma explícita de negar a la gente. No hay opción de que niegues explícitamente a las personas el acceso
a tu servicio Pero lo que puedes hacer es especificar quién
puede acceder a él el resto de ellos
serán denegados por defecto. Entonces realmente no
tienes que mencionar una lista de negación por
aquí porque si esas personas no forman parte de tu lista particular de
direcciones IP de aquí, serán denegadas por defecto Entonces puede haber una pregunta
complicada. Entonces, ¿es posible
que niegues a ciertos usuarios como parte
de tu grupo de seguridad? A pesar de que
no existe una opción específica como denegar en grupo de seguridad, pero por defecto,
es negar, entonces sí. En realidad, solo puede especificar
quien sea probable que acceda a su número de
puerto en particular a sus instancias que tiene el grupo de seguridad
aplicado encima de él. Por lo que el resto de la gente
será naturalmente negado. Entonces esta es la respuesta. ¿Bien? Entonces así es como te
pueden preguntar en
términos de pregunta. Entonces define una regla que
permita o deniegue rangos de
puertos específicos de protocolos de direcciones
IP, ¿de acuerdo? Los grupos de seguridad tienen estado, es
decir, se permite la entrada del tráfico, automáticamente el tráfico
saliente correspondiente se Entonces eso es lo que
básicamente es el estado. Entonces, lo que esto significa, permítame reformular
esto una vez más Si está permitiendo
un tráfico dentro, eso realmente afectará
su salida también, y básicamente sintonizará
su salida para permitir que el saliente de forma natural permita ese tráfico fuera dirección IP específica o
la serie de direcciones IP que
haya especificado Por defecto, las reglas de salida
van a estar en cualquier lugar. El servidor puede
comunicarse a cualquier lugar. Pueden ver que la regla de salida
predeterminada es permitir conexiones en cualquier lugar La conexión
que sale de tu servidor estará
por defecto en cualquier lugar. Pero incluso si deshabilita esto, las reglas de entrada
en realidad obtendrán soporte
de las reglas de salida Entonces es bastante natural
que realmente no tengas que especificarlo porque
esto es estatal Bien. Entonces en un caso de uso típico, en qué escenarios
puedes usar este tipo de
grupo de seguridad es si
estás configurando un grupo de
seguridad para restringirlo solo a una
determinada dirección IP, como ejemplo, la dirección VPN de tu
empresa, como ejemplo, la dirección VPN de tu
empresa, solo permite tráfico
como HTTP y HTTPS, y también puedes ser
específico al respecto. Por lo que sólo se puede permitir
HTTP y HTTPS. Eso también es algo
que puedes hacer aquí. Entonces, cuando añades
regla por aquí, también
puedes tener una
búsqueda de HTTP. Y HTTPS. Tienes que dar dos
reglas por aquí. Entonces uno para HTTP, 15 HTTPS. Por defecto, puede ver los números de puerto se
eligen aquí. Por lo que en realidad no se pueden modificar estos números de puerto y
luego permitir desde cualquier lugar. De hecho, puedes tener estos solo configurados para permitir
en cualquier lugar y resto de, ya
sabes, todo TCP, y puedes poner el rango de VPN iPadDRSS de tu compañía VPN iPadDRSS Entonces su
administrador de red tendría el rango
de direcciones IP de su empresa, y en realidad puede poner ese rango de direcciones
IP aquí. Así que cualquier persona de tu empresa
puede acceder realmente a este grupo de
seguridad de servicios en particular, lo siento. Entonces esto es más o menos
que quiero cubrir en este video. Gracias de nuevo
por ver esto. Si tienes alguna duda,
déjala en la sección de preguntas.
42. Productos de seguridad de terceros de Labs: Un tipo spocme de vuelta
a la siguiente DOP. En esta DOP, vamos
a hablar de algo llamado entender los productos de seguridad de
terceros, que están disponibles como
parte del mercado de AWS Ahora vamos a entender los diferentes tipos
de disponibilidad o los
productos de seguridad de terceros que se pueden usar junto con su seguridad de AWS,
la seguridad incorporada Ahora, por qué vamos a
utilizar terceros mejora la seguridad de
su seguridad de AWS existente
que ya está en su lugar. Ahora puede usarlo para, um, monitorear extra en términos de
prevención de datos de
aplicaciones de red, así
como
cumplimiento de identidad y detección y respuesta de amenazas de
terceros. Esto viene con años
de experiencia en
los que el proveedor externo
ha trabajado con productos de diferentes tipos
y sus productos se
exhibirán como parte de
la seguridad de terceros
en el mercado de AWS Estaremos
hablando de la demostración en la parte final de este video, solo una rápida demostración sobre dónde
encontrar los productos de
seguridad de terceros en el mercado de AWS. Te voy a mostrar eso a tu alrededor. Pero entonces más o
menos, vamos a hablar de esto cada concepto, y vamos a
hablar de los productos, más o menos como algunos ejemplos, también, te voy a estar dando eso. Hablemos de la seguridad de la
red. Entonces como sabes que tenemos varios conceptos de seguridad
en cuanto a tu AWS, que viene por defecto. Además de eso, también puedes comprar seguridad
AW en el mercado de
Amazon como
productos como firewalls, sistemas de detección de
intrusiones, sistemas prevención de
intrusiones para monitorear y controlar el tráfico de
tu red Ahora esto te dará
un poco una visión general experimentada los productos que de los fabricantes
como Checkpoint, um, tienes Palo a las redes De igual manera, tienes muchos,
um, ya sabes, uh, softwares que te
ayudarán para IDS e IPS en términos de sistema de
detección de intrusiones y protección Así mismo, tienes otros productos
de seguridad de red. Además, lo
comprobaremos en la demo, que vas a
formar parte de este video. El siguiente es sobre la seguridad de las
aplicaciones. Herramientas que protegen la aplicación de vulnerabilidades como firewall de aplicaciones
web VAF
que ya forma parte de él, protección
DDoS, seguridad de
aplicaciones únicas La mayor parte ya está
ahí como parte de AWS, pero aún así existe la opción de habilitar también productos de
seguridad de terceros. Como por ejemplo,
Trend Micro Deep security como otro producto, señal de pecados VAF que es otro producto de terceros
y luego puedes usar FI big IP Advanced WAF Combina los
años de experiencia que tienen estos propietarios de productos, y luego arman un
producto para que lo uses. Nuevamente, la licencia y el costo serían separados
y es posible que deba pagar un poco más por eso
porque estará comprando directamente este
producto al proveedor. Y para activar
estos productos, es
necesario tener el
usuario root porque sea cual sea la activación de un producto en un marketplace o la habilitación de
suscripción, debe hacerse
desde un usuario root. Ahora hablemos de productos de
protección de datos. Ahora, las soluciones de
cifrado, prevención de pérdida de datos, administración de
claves y almacenamiento de
seguridad ya forman parte de
sus servicios AW. Hemos comentado algunos de
los que se encuentran en nuestra formación. Y también puedes optar por un proveedor de
seguridad externo externo también en esta situación donde puedes configurarlo como parte de AWS. Y estos son algunos ejemplos
que les puedo dar sobre prevención de pérdida de datos
semánticos,
Talus cyber Trust. Entonces esa es otra compañía. Prevención de pérdida de datos de McCafe. De igual manera, tienes empresas
que realmente pueden darte protección de
datos aparte de lo que AWS ya tiene para ello. En cuanto a la gestión de identidad
y acceso, contamos con un solo signo de autenticación
multifactor, gestión de acceso
privilegiado, así mismo También puedes usar los proveedores de
terceros como OCTA, identidad ping, así mismo, puedes usar el software de
terceros y luego su producto proveedor
en asociación con lo que tienes en términos de
tu gestión de acceso de identidad existente en AOBS En términos de compilaciones
y gobernanza aquí. Entonces, herramientas que ayudan a administrar los
requisitos de compilación
como GDPR, HIPAA, SOC dos y más, lo que le permite trabajar con
el o ayudar con la También puede trabajar
con plunk Cloud, junta de
auditoría, trajes de
cumplimiento de calidad De igual manera, también están disponibles
los productos de terceros, los cuales puedes
recogerlos en el mercado de AWS. Ahora cómo va a funcionar esto, eso va a estar a la
altura de los productos. Por lo que cada producto tendrá
una forma diferente de trabajar y una forma diferente de rodearlo con sus
opciones y cosas, que cambia para cada producto, que además tocaría rápidamente
pegar en la sesión de demostración. El último que va a ser lo que estamos viendo como parte
del producto de seguridad de terceros en toda
una escala es su
detección y respuesta a amenazas. Ahora, productos de seguridad
para detectar y responder a amenazas potenciales
como software antivirus, detección y
respuesta de
endpoints y soluciones SIEM, lo que permite una seguridad más
avanzada en términos de detección de una amenaza y
respuesta a una amenaza, tanto a nivel de servidor
como a nivel de servicio en W. Ahora puedes usar um, productos de
terceros
como CrowdStrike Puedes usar Splunk
Enterprise Security. De igual manera, tiene múltiples productos
con los que realmente
puede usar y dirigir la amenaza y tener una respuesta
a la amenaza. Ahora en términos de beneficios de usar productos de
seguridad de terceros es
que tiene una solución de
implementación rápida que está preconfigurada
optimizada para ABS, ya que estos productos
están diseñados para AWS, que está en el mercado, y es confiable
y aprobado por AWS Esa es la
razón por la que está ahí. Luego, tiene una
integración perfecta con sus productos existentes
en AWS, como Cloud Trial, Cloud Watch, servicio de guardia y centro de seguridad para que
pueda tener una
visión general de todos los productos
de
terceros del centro de seguridad, lo que le dará una descripción
general del mismo. Entonces tienes el modelo
como paga a medida que avanzas. Como significa que hay
algunos productos que vienen con un
preperiodo de prueba de 30 días también, te lo
mostraré. Y también lo hará, donde tienes que usar el plan
mensual por hora, o incluso puedes optar
por suscripción AVO en
función del producto
que estés seleccionando. También tendrás un
soporte de proveedor. Entonces, para este productos de
terceros, que puedas comunicarte con ellos
a través del correo electrónico o su canal de chat de
soporte. Entonces, básicamente, ofrecen
un soporte integral para uh los productos que te lo
están vendiendo porque estás pagando por el producto, que incluye su
soporte también. Esto es más o menos
quiero hablar de ello. Vamos a hacer un poco de
mercado por aquí. Así que AWS marketplace es donde puedes encontrar
comprar Deploy software. Entonces ahora por aquí, he
gestionado la suscripción por aquí. No tengo ninguna
suscripción como pueden ver. Ahora puedo ir por Descubre
productos y puedo descubrir productos por aquí y luego
buscar diferentes tipos de
productos por aquí. Entonces tienes el
catálogo por aquí, que habla de diferentes
tipos de productos availlab por aquí y conoces los editores y el método de
entrega por aquí Tienes los modelos de precios. Tienes algún software
que es gratuito, lo que significa que se da un
propósito de demostración o
algo así. Entonces, comienzas como gratis y
luego finalmente te pagan. Entonces algunos se basan en el uso, y puedes ver la
unidad de precios en función de los usuarios, host, unidades personalizadas, llantas, y luego tienes al proveedor dentro de los
perfiles de seguridad por aquí. Entonces en términos de certificados, tienes los certificados
por aquí donde es un certificado de cumplimiento o podría ser sobre las
especialidades en AWS, por
ejemplo, la especialidad de seguridad de aquí, que en realidad te muestra cosas relacionadas con
la seguridad de las
que acabamos de hablar Ya ves aquí está la
tendencia Cloud,
que es básicamente la APP CN capaz de proteger en todo el entorno de nube. Esta es una seguridad que también está integrada con las herramientas
D Wop Tienes otro tipo de plataforma de
seguridad por aquí llamada Cloud
Infrastructure Security, que correlaciona una gran cantidad de señales de seguridad para rastrear infiltración
real en términos de atacantes que ingresan o
irrumpieron en su sistema También tienes Datadog Pro. plataforma de seguridad
y observabilidad unificada basada en SAS está completa con
visibilidad y salud También tienes seguridad ACA. Del mismo modo, tienes
tantas características de seguridad disponibles por aquí. Palo Alto, entonces esto es algo que
discutimos antes. Entonces puedes ver
que viene con 30 días de prueba gratuita para Paige, y puedes ver que este es un firewall de próxima
generación en la nube, que es el mejor en seguridad de
red de su clase Que es usar inteligencia
artificial y aprendizaje automático para detener cero exploits de datos
y todas esas cosas. Tiene una opinión
de AW nuevo usuario, supongo,
cliente no contento, supongo. De igual manera, tienes
cosas de seguridad, lo que habla de ello. Así es como puedes
comprobarlo y también puedes ver algunas
especializaciones de servicios de seguridad gestionados por aquí Hay cuatro de este
por aquí, el Deep Watch. Así mismo, tienes
tantas aplicaciones interesantes de seguridad, de
terceros. Pero si me lo preguntaras, ¿de verdad
debería ir por un tercero? Depende completamente
de tu aplicación. Si no está satisfecho con seguridad
predeterminada que
ha sido dada por AWS, siempre
puede optar
por una de terceros que además
le dará más aspectos de seguridad y beneficios cuando vaya por ellos. Gracias de nuevo por
ver este video. Espero que te haya sido útil
entenderlo. Entonces, si tienes alguna duda de esto, ya sabes
cómo responderla. En su mayoría las preguntas
serían todo sobre. Te estarán preguntando por los productos de
seguridad de terceros, ¿verdad, quiero tener este poco
extra de seguridad? ¿Es posible que AWS
integre un proveedor de terceros? Para que te pregunten
algo así como O V de ello. No profundizarían
sobre cada uno de estos, pero pueden preguntarte aunque no te
preguntarán por
los ejemplos, pero te estarán
preguntando sobre,
um, ya sabes, un servicio específico y decir, quiero un producto de seguridad personalizado, um, ya sabes, personalizado de
terceros, algo nuevamente habilitar. De igual manera, obtendrás preguntas sobre este tema en particular. Gracias de nuevo por
ver este video. Te veré en la próxima.
43. Asesor de confianza de Labs: Oigan, chicos, bienvenidos de nuevo
al siguiente video. En este video,
vamos a hablar sobre AWS trust advisor. Ahora bien, es importante
que lo entiendas un
poco. Un
servicio de asesor de confianza en tiempo real que le ayuda a optimizar entorno de
AWS al brindarle seguridad y
recomendaciones de rendimiento de costos. El asesor de confianza
te va a dar todo este tipo de recomendaciones en tiempo real, um,
hacia tus servicios que estás utilizando actualmente. Ahora, si comprende
cómo funciona, el monitor supervisa su entorno de AWS y proporciona orientación sobre cómo
mejorar la seguridad, incluidas recomendaciones para
habilitar la
autenticación multifactor, los grupos de habilitar la
autenticación multifactor, seguridad
y las políticas de IAM Es como una herramienta que
se utiliza como servicio. Para que puedas ver en esta
arquitectura misma, el
asesor de confianza oxidado aquí accederá a todos tus servicios y te una imagen general de tus
servicios y te da um, la sugerencia para eso
o recomendación para ello Entonces es un servicio, así que solo tienes que ir y
buscar asesor de confianza. Ahora bien, esto debería entrar como un servicio como
puedes ver allá. Entonces ya
lo abrí para tu conveniencia. Ahora, en términos de recomendación, puedes ver que
recomendación de confianza es que está recomendando
cero acciones para ti Se ha investigado cero, y básicamente está
excluido, no, ya
sabes, incluido
excluido quiero decir, ni siquiera he hecho ninguna comprobación. Así que ahora realmente puedes
seguir adelante y descargar todos los cheques, lo que hará que bajen todos los
cheques que se requieran. Ahora, puedes ver que
actualiza tu plan de soporte AW para obtener toda la verificación de
asesor de confianza. Entonces actualmente, estoy
en el plan gratuito, por lo que actualmente no hay nada
de cheque por hacer. Y para ello, necesito
actualizar el plan a un nivel donde
haya un asesor de confianza. Entonces ahora, esto es para asesor
de confianza. Se puede ver que
el plan básico estoy en
recomendación de asesoría de confianza, solo códigos de servicio y verificación de seguridad del
curso. Pero cuando vas por un desarrollador o un negocio o empresa, tienes un conjunto completo de cheques y solo servicios más o menos iguales para
desarrollador básico por aquí. Ahora que he descargado
todos los cheques, pero cuando actualice los cheques, veamos si surge
algo de esto. Actualmente, no hay ninguna acción. Vamos a hacer clic en Info. No veo nada por aquí. Hablemos solo sobre el rendimiento
de costos. Ahora aquí, el desempeño de costos es una de esas recomendaciones. Ahora, de nuevo, ves que
esto requiere actualización, por lo que no está disponible para nosotros. Entonces, lo que hace es verificar
tu capacidad de uso de tu costo para cada uno de los servicios y te
asesora en base a eso Por lo tanto, el asesor de confianza podría
recomendarle eliminar los recursos inactivos
no utilizados o reservar capacidad en caso de que detecte que no
se está utilizando de manera efectiva. En cuanto a
comprobación de desempeño, nuevamente, lo mismo. Va a verificar
el rendimiento de su aplicación como el rendimiento de
aprovisionamiento, monitorear para instancias
EC dos sobreutilizadas, instancias subutilizadas hasta ahora y solo le va
a dar que
creo que el optimizador de costos
le dará los recursos no utilizados,
y el rendimiento le dará los recursos y el rendimiento le dará sobreutilizados
diciéndole que aumente
la diciéndole CPU o el espacio en disco duro. Um, en términos de
seguridad por aquí, así que ahora esto es algo
que está disponible o nosotros. Ahora se puede ver que esto
es algo que es gratuito. Entonces ahora aquí, grupo de seguridad, se está acercando con una
excepción por aquí. Entonces está diciendo como, 12 de
27 grupo de seguridad permite actores
irrestrictos a números de puerto
específicos Entonces eso es un riesgo para la seguridad, y de hecho
te da esa información. Entonces por ejemplo, 80, 25, 443 y 465. Entonces esto es algo que
es verde, que está bien. Y aquí está el rojo que dice
que el
grupo de seguridad está unido a los recursos que se proporcionan acceso
sin restricciones para los puertos 2021 22, que es su
número de puerto SSH, supongo, este es Y hay otros
números de puerto que hemos habilitado. Esto ha abordado
y nos ha dado, que se trata de una alerta de
seguridad roja que esto puede ser un problema. Ahora también te está dando la lista de regiones por aquí donde estos números de
puerto están habilitados ahora. Esto es raro.
Nunca he usado AP South. Ahora se puede ver
que me ha dado este grupo de seguridad en particular tiene este 22 abierto en este caso. Esto es un
riesgo para la seguridad aquí para mí porque nunca he
usado esta región en particular. Ahora puedes ver que otros grupos de
seguridad por aquí, que surge y dice que
deberías puedes dar 22, pero luego quiere que
seas específico sobre los IPs, pero luego se vuelve
caótico para mí sacar los IPs de mi sistema porque no
estoy usando de Si estoy usando de
organización eso tendría
un derecho de propiedad intelectual específico porque me voy a
unir a la organización Usar una VPN o algo así. Entonces a partir de ahí, estaré
accediendo al servidor de AWS. Pero entonces no hago eso, así que se vuelve caótico
para mí si tuviera que dar mi dirección IP codificada duro
cada vez Entonces eso es algo que
no es una gran cosa para mí. Ahora de nuevo, hay otras cosas que también
comprueba como EBS,
RDS, S tres buckets,
MFA, que es la autenticación multifactor Ahí está. Hay otras
cosas que realmente requieren una actualización por aquí
para que verifiques estos
elementos de acción por aquí, hay muchas comprobaciones que hace. En términos de
tolerancia a fallas, de nuevo, no
creo que eso esté disponible
para nosotros así que tienes eso. Ahí. Ahora están los límites de servicio por aquí como la configuración de
lanzamiento de escalado automático, no
hemos hecho ningún escalado automático. No hemos hecho ninguna
dinamo DV por aquí. Entonces todo esto es verificar
tus límites de servicio, ya sea que estés alcanzando la cuota que se le asigna para ello. Ahora bien, la cuota es básicamente una cantidad específica
de umbral que
estarías asignando para
cada uno de los servicios Por defecto, es de 80 por ciento. Entonces estás usando más que eso, que está comprobando. Y una cosa está fuera de ella es el uso de almacenamiento de código
Lambda. Entonces eso no está
incluido en nuestro plan. En términos de
excelencia operativa, esta comprobación busca
recomendaciones para mejorar la
preparación operativa de sus recursos de AWS. Entonces eso básicamente
te da que estos son
uno de los recursos. Nuevamente, no es parte de
nuestro plan particular. Todo bien. Entonces este
es más o menos tu asesor de confianza por aquí. Ahora puedes ver que hemos
habilitado al asesor de confianza. También puedes configurar la
notificación por aquí creo que está usando
SNS para la notificación Entonces puedes agregar
contactos por aquí, y luego básicamente el
destinatario recibirá alerta de cualquiera de los asesores de
confianza. Eso es más o menos lo
que quiero cubrir en este video. Gracias, chicos, por
su tiempo y paciencia. Ahora, puedes ver que la
recomendación ha entrado en imagen cuando simplemente damos
click aleatoriamente alrededor de cada uno de estos, y puedes ver esta
recomendación sobre nuestro
grupo de seguridad por aquí. Gracias de nuevo
por su paciencia y tiempo.
Te veré en la próxima.
44. Laboratorios: operación de CLI de AWS con múltiples comandos: Oigan, chicos,
volveremos al siguiente video. Y este video, vamos
a hablar de creación de usuarios, para que puedas acceder desde cualquiera de
tus modos CLI de tu AWS, necesitas acceder a
un usuario para hacerlo Te contaré sobre el
comando que necesitas usar
para
acceder al usuario, pero primero, necesitamos
crear un usuario. Y dale la clave de acceso. Ahora, la clave de acceso es la forma en
que va a acceder desde su CLI a su servicio de AWS
que se está ejecutando aquí Entonces para eso, necesitas
crear usuario de IAM, así que solo abre IAM por aquí Ya tengo un usuario
llamado Dev por aquí, que voy a
no voy a estar usando este usuario. Ahora, aquí hay dos opciones, puedes crear un usuario, y luego puedes, ya sabes, crear una
clave de acceso para ese usuario, y puedes proporcionarla
al AWCLI Pero si hay un requisito
que necesitas darle um la clave
de acceso de tu usuario root. Entonces en esa situación, cuando estás haciendo algún tipo de script orientado a la
administración donde necesites la clave de acceso de
usuarios root, también
puedes hacerlo, pero
no es recomendable en altamente recomendable no estar
usando clave de acceso root, pero aún así para ocasiones como
cuando quieres hacer mucho de línea de
comandos y quieres hacer
adiciones de cuentas de organización, cuando estás haciendo algún tipo de script orientado a la
administración donde
necesites la clave de acceso de
usuarios root, también
puedes hacerlo, pero
no es recomendable en
altamente recomendable no estar
usando clave de acceso root,
pero aún así para ocasiones como
cuando quieres hacer mucho script
de línea de
comandos y quieres
hacer
adiciones de cuentas de organización,
y quieres hacer algún tipo de actividades relacionadas con
el usuario
o algo más allá de lo que
el usuario root solo puede hacer. En esas situaciones,
es posible que tengas que crear una clave de acceso
para tu cuenta raíz. En esa situación,
puedes ir a tu nombre de usuario y hacer clic medio en
tus credenciales de seguridad. Entonces, una vez que se cargue tu
credencial de seguridad, vas a tener
una opción ahí Ahora usando esta opción, realmente
puedes crear la clave de
acceso haciendo
clic aquí. Ahora, esta opción vendría directamente dentro de tu cuenta de usuario
root. Por eso
vas por aquí y haces clic en las credenciales
de seguridad. Ahora, recuerden,
he iniciado sesión en mi cuenta root y ahí es
cuando tengo que usar esta opción. Si inicia sesión en
una cuenta normal, entonces no podrá generar la
clave de acceso para el usuario root. Para eso, en primer lugar, necesitas iniciar sesión en la cuenta de usuario root, y luego debes ir al nombre de
tu cuenta y luego ir a
las credenciales de seguridad desde ahí. Entonces una vez que haces clic en esto, el proceso es el mismo, lo que voy a hacer
para un usuario normal. Ahora aquí voy a
crear un usuario por aquí llamado AWS Iphone CLI Entonces esto es para
acceder exclusivamente a la interfaz CLI. Aquí, no
tiene que darle acceso a Admin, um consola de administración, así que simplemente puede
dejarlo sin habilitarlo. Da clic en siguiente, y en realidad
puedes agregarlo parte de un grupo existente o
puedes agregar políticas
directamente a él. Bien. Al igual que necesito
acceso a la administración porque quiero hacer
acceso administrativo sobre eso. Entonces seleccionaría eso y
pasaría a la siguiente pantalla. Ahora, basta con hacer clic en Crea. Esto debería terminar
creando un usuario. no ha creado ningún tipo de Hasta el momento no ha creado ningún tipo de
acceso a este usuario. Así que ahora pulsamos sobre ese nombre de usuario y luego crearemos el
acceso al usuario. Ahora, el acceso al usuario puede
ser a través de Admin Console. Al habilitar Admin Console, puede habilitar la contraseña
para Admin Console. Eso es algo que no vamos a utilizar para este usuario porque
este usuario se genera
para el acceso a la línea de comandos. Entonces para eso, hay que
crear una clave de acceso. Por lo tanto, puede ver que la clave de
acceso es para llamadas
programáticas como AWS desde
la CLI de AWS Por lo que CLI también forma parte de ello. SDK también es parte de él. Power Shell también es parte de él. Por lo que las llamadas API también son parte de ello. De igual manera, tienes estos artículos. Si está utilizando alguno
de estos métodos para comunicarse con AWS, debe crear una clave de acceso. Cuando estés creando
una clave de acceso, habrá opción por aquí. ¿Cuál es el uso para esto? Voy a usar CLI, así que he seleccionado ese caso de uso
particular
en este escenario, acepto la licencia, lo siento,
acepto la recomendación, y luego voy al siguiente
y luego haga clic en Crear clave, y luego debería
tener la clave de acceso Ahora tienes múltiples
formas de hacerlo. Configuración de AWS. Ahora configure es la opción para que AWS configure a
una clave de acceso específica. Ahora, cuando golpees Enter, estarás pidiendo
un ID de clave de acceso. Así que ahora copio y pegue el ID de clave de
acceso por aquí, y luego accedo a
la contraseña por aquí. Y entonces región es
la del Este de Estados Unidos. Entonces, si no estás seguro de en qué
región estás trabajando, ve a tu página de inicio. Verá
Virginia del Norte por aquí, y verá el guión de Estados Unidos el
guión Este guión uno Entonces lo mismo es lo que
estoy dando por aquí, guión
estadounidense, guión este uno Y el
formato de salida predeterminado es JSON. Para que puedas dar JCN así
como simplemente dar Enter. Bien. Entonces, por defecto,
no
te va a estar preguntando a estos dos, ni
va a venir. Ya he probado esto. Por eso viene.
Dirá que no, no, ninguno así. Yo diré. Entonces aquí le
das uno a US Iphone Diphen Aquí le das a Jason. Y luego OC, uh, en realidad
empezarás a ver los artículos, quiero decir, apareciendo. Entonces aquí no tienes que
dar ningún tipo de identificación o algo así porque
tu clave ID es lo suficientemente única. Sabrá que tiene código de
autenticación para esta cuenta
en particular en sí, así que realmente no
tienes que preocuparte por ello. Entonces ahora, lo que puedes hacer es que realmente hayas
iniciado sesión en este usuario, que acabas de crear. Usando IM, tienes si
haces clic en hecho, esta contraseña desaparecerá. ¿Bien? Así que déjalo como está. Simplemente vaya a este nombre de usuario
haga clic en ese nombre de usuario. Entonces verás qué tipo de permiso tienes
para este usuario. Ese es administrador es la
política que hemos seleccionado. Entonces está cargando la política. Dale un acceso de
nuevo. Bien, déjalo cargar. Bien, se puede ver el acceso
administrativo. Entonces ahora que tienes acceso
administrativo, vamos a hacer alguna acción
en S three bucket. Entonces primero, abramos
S three bucket. Eso es lo más fácil
que podemos hacer a este nivel. ¿Bien? Entonces, subiremos un archivo, creamos un archivo y
lo subiremos a uno de los buckets. Entonces tienes las tres cubetas
por aquí, cubeta de prueba. Ahora bien, si no tienes un
cubo, solo crea un cubo. Simplemente cree un cubo llamado cubo
de prueba con su identificación. Y una vez que tengas
la cubeta de prueba, verás que
no hay ningún archivo por aquí. Entonces puedes usar comandos
como comandos simples, como, um, like to list is the
buckets on your S three Entonces tienes tres
buckets por aquí, así puedes hacer AWS S tres, el nombre del servicio LS Entonces esto simplemente enumerará los cubos que forman parte
de su Amazon S three Ahora tienes tres
cubos por aquí. Ahora bien, ¿qué hace
estos tres cubos vamos a tomar Cubo de prueba
para este ejemplo Vamos a crear un archivo por
aquí llamado demo, así que cat Demo. Lo siento. Demo, esto
escribirá elementos en este archivo. Este es un archivo de demostración. Control D, después de presionar Enter, solo dale Control D. O también
puedes hacer VI demo y luego escribir este contenido y también guardar con el
archivo. Entonces eso depende de ti. Ahora puedes hacer un sencillo AWSs tres copias de este archivo
en particular, archivo
demo, dos un latigazo Contras Cubeta de prueba. Entonces esto
básicamente copiará el archivo desde esta ubicación
desde la ubicación de su sistema
a su S three bucket. Las características hacen una actualización por aquí, verás el archivo de demostración. Bien. Por lo que el archivo de demostración se ha transferido a este cubo de prueba
en particular. Si quieres eliminar esta, puedes usar la demo
como en el nombre. Y luego puedes hacer RM, y luego puedes seleccionar
ese hule en particular Ahora bien, esto debería
ser removido. Bien. Comando muy sencillo
para asegurar que tus funcionalidades estén
funcionando desde tu CLI También puede hacerlo desde este arranque de prueba del
símbolo del sistema. Estoy abriendo un
símbolo del sistema en Windows. Así que este es mi
símbolo del sistema de Windows por aquí. Entonces sólo un segundo. Así que abrí un
símbolo del sistema de Windows por aquí. Así que ahora en este
símbolo del sistema de Windows también, puedo hacer esto configurar. Entonces ahora le pego a Configurar, va a durar así, así vuelves a esta cosa, copia la clave de acceso. Pégalo o una
clave secreta, pégalo, y luego aquí escribe
US phone typh one Confirmemos guión uno de Estados Unidos. Ese es el indicado. Después JSON. Ahora he iniciado sesión en ese artículo. Ahora voy a estar usando AWS s3s. Entonces me sale esa lista. Entonces
ahora puedes influenciarlo. Ahora el motivo por
el que me conecté a este sistema es porque voy a
apagar esta máquina virtual. Ves que la máquina
fácil de virtual se está
ejecutando por aquí. Así que vamos a donde sea fácil. Así que sí, entonces ves que
este servidor se está ejecutando, y ahí es donde
estamos ahora mismo. En realidad estamos en ese servidor. Entonces vamos a apagar este servidor. ¿Bien? Entonces eso es lo
que vamos a hacer. Entonces primero,
vamos a entender la descripción de las instancias. Entonces AW es fácil de describir instancias de
I phonce,
perdón, describir instancias de Iphon Esto
te va a dar la salida de, ya
sabes, los
detalles de las instancias por aquí. Solo dale un parque espacial y llega
al fondo de este uh, detalle. Ahora, una vez que llegas
al fondo de la misma, el fondo tiene información muy
importante. Tu dirección IP pública, comparemos si esta es
la dirección IP pública. Si solo vas por
aquí, edita la sesión, puedes ver 52, 55, 22, 203, y eso es lo mismo
por aquí, la dirección IP interna. ¿Qué es importante
esta ID de instancia? Esto es lo que es importante.
Ahora, ¿qué es esto? Este es básicamente
tu ID de instancia. Entonces este es el indicado. Entonces ves este ID de instancia,
entonces es el indicado. Entonces, si quieres controlar la
detención de la instancia, entonces tienes que usar el ID de
instancia para ello. Veamos qué sucede
cuando ejecuto AWS EC two,
detengo la instancia de Iphon
con el ID de instancia Necesito dar el ID de instancia, que es Iphone
Iphonstceiphon Y luego pego el ID
por aquí y golpeo Enter. Ahora, um, lo siento. Vamos a instancia S. Así que ahora deberías ver
esto apagándose. Se puede ver que este
sistema se apagará. Y pudiste
cerrar la instancia desde aquí. Entonces hay tantas opciones puedes ejecutar como parte
de tu EC dos. Al igual que, puedes crear instancia. Puedes crear muchas
otras cosas,
opciones, ya sabes, qué parte
de tu EC dos instancias. Entonces, de igual manera, puedes hacer
tantas otras opciones. Y si quieres saber
sobre la ayuda específica del servicio, siempre
puedes escribir EC two help. Entonces esto te dará
todas las opciones que puedes escribir para ECT. Bien. De igual manera, solo puedes darle espacio y te da todas
las opciones por aquí. De igual manera, puedes controlarlo. También puedes poner en marcha la instancia que
has cerrado, así que sólo tienes que dar eso por aquí. Ahora bien, esto no utilizará
la misma dirección IP. Una vez que hayas iniciado, así
podrás ir a describir instancia y podrás obtener la descripción de
esa dirección IP pública. Para que veas que la dirección
IP pública ha cambiado. Así que copia esta dirección IP pública, edítela y pégala por aquí. Nuevamente, la dirección IP pública es básicamente una dirección IP
que viene dada, uh, por, ya sabes, automáticamente de forma autónoma sin tu
intervención porque dirección IP
pública sigue
cambiando porque no tienes una dirección IP estática o la
llamamos dirección IP elástica Elastic IPS es un material de
costo vinculante. Entonces lo que significa que si
tomas dirección IP elástica, tienes que pagar algo de dinero para que tengas una
dirección IP estática en tu sistema. Cada vez que su sistema se reinicie, obtendrá una nueva dirección IP
pública pero su
dirección IP privada será la misma Desafortunadamente, no podemos
conectarlo a una dirección IP privada. ¿Bien? Entonces esta es información
extra, que no se requiere
tanto para
ustedes en este momento. Pero prácticamente pudiste hacer algunas actividades
en tu CLI Hay tantos
comandos por ahí. Te acabo de dar ni siquiera un porcentaje de lo que te
he mostrado ni siquiera
era un porcentaje
porque hay tantas cosas que
puedes hacer usando CLI Gracias de nuevo por
ver este video. Espero que esta demo te haya sido útil
para, ya sabes, relajarte un poco entre sesiones de
teoría. Gracias de nuevo. Cuídate.
45. Laboratorios IAC de formación en la nube de AWS: Hola chicos, bienvenidos de nuevo
al siguiente video. Ahora recuerda que
en tu página de Git, tendrás los
detalles de configuración por aquí, cuáles son los comandos que
he ejecutado hasta ahora. Lo he puesto por aquí para ustedes, para
su referencia. Ahora, el contenido de aquí
también se da para tu video
anterior. Así que recuerda referir esto en la página de GitHub y obtener esto. Puedes copiarlo y
pegarlo mucho más fácil. Recuerde que WQ es básicamente
para guardar y dejar de fumar. Entonces esto lo pongo normalmente
cada vez que, ya sabes, ves un archivo por
aquí como un Pifive donde abro esto para
editar alguna información Ahora hablemos de formación de
nubes. Ahora en esta situación, vamos a utilizar la plantilla de
CloudFormation para conectarnos y trabajar
con nuestra aplicación Ahora usaríamos
el mismo nombre de usuario porque tiene acceso
administrativo. Entonces en el mismo
archivo de configuración de aquí, la credencial
ya está cargada Así que realmente no tengo que
trabajar con ninguna
configuración por separado. Ahora bien, lo que tengo que hacer es diseñar un archivo Yama que tenga información de
formación de nubes. La
formación de subrayado de nubes es de tres. Por favor, ignore los errores
ortográficos aquí, y luego voy a crear
esto como un archivo Yamal, que va a contener
instrucciones que deberían crear un cubo S three Ahora recuerda hacer que
esta cubeta ST sea única. Voy a dar mi
ID de cuenta para que se vuelva único porque estoy bastante seguro de que es algo
que ya existe. Este nombre ya
existiría seguro. Entonces solo voy a seguir
adelante y dar el número de cuenta para que
básicamente cree este cubo S tres
en particular. Ahora, la formación de flujos es una herramienta de automatización
donde en la que es un
servicio predeterminado de AWS. Usando la formación de nubes, puedo crear infraestructura tan simple como crear un
bucket S three o crear instancia de
EC two o puedes
hacer cualquier cosa con esto, no
hay límite para ello. Ahora voy a ejecutar un comando por aquí que me
permite crear una pila. Entonces se llama pila
CloudFormation. Cada pila se crea
y dentro de la pila, en realidad
tienes
ciertas cosas funcionando. Por ejemplo, este contenido de
archivo en particular se estará ejecutando
realmente. Antes de eso, se puede ver que el cuerpo de la plantilla es recogido de S three
bucket por aquí. Entonces, para tener este archivo, debe corregir el nombre
final de aquí
al nombre de archivo que hemos
creado en esta situación. Entonces vamos a
crear un bucket, ST bucket, y este
nombre final necesita ser cambiado. ¿Cuál es el nombre final
que hemos creado ahora mismo? Bien, la región
es usadaUna, esa es una
región preferida para nosotros, y el nombre de pila es MS tres Ahora, permítame darle rápidamente la vista de consola para la formación de
nubes. Entonces, cuando tecleas
formación de nubes por ahí, vas a llevarla
a un servicio diferente. Y actualmente, he ejecutado, creo que una
plantilla de CloudFormation temprano punto de tiempo Entonces tal vez veas algunas referencias hacia ella, por favor ignórela. Bien, ahora puedes ver
que actualmente hay una pila de muestras de rayos
X que se usó para crear
cierta aplicación. Y esa creación está terminada. Ahora, cuando ejecute
este comando, verá que esta pila MS
tres
aparecería por aquí y
comenzará a funcionar. Ahora bien, como este objetivo
de este particular, sabes, archivo es tan sencillo, bien puede llegar como exitoso
o fracaso en términos de, como, hay algún problema con el nombre del archivo o algún
tipo de otros temas, entonces puede llegar como un fracaso. Y sobre todo, creo que
terminaría en éxito. Ahora para desplegar esto, solo
tienes
que presionar Enter al final. Esto asegurará
que despliega la pila de Cloud mediante el uso este comando CLI que va a implementar
la formación de la nube Ahora usando este
método también puedes influir en los cambios en tu AWS. Solo estamos buscando diferentes
formas de influir en AWS,
no solo por tu consola de
administración, no solo por tu consola de
administración, sino también usando la interfaz de
línea de comandos, también usando la formación de nubes Si quiero crear la opción S
tres y la línea de comandos, hay una opción para crearla. AWS S tres y luego le das la opción de crear
y lo que quieras. Ese es un
método de línea de comandos para crear lo mismo que lo hicimos en el video anterior
que es SDK usando SDK, lo
creamos como B Ahora por último, vamos a usar la formación de
nubes
escribiendo la definición de archivo Yama
que la formación escribiendo la definición de archivo Yama de nubes
entiende y ejecutándola a través del servicio
CloudFormation Ahora en realidad puedes
ejecutar esto. Ahora puedes ver que ha
creado un ID por aquí. Puede usar este comando para
verificar, información sobre él. Puedo ver que por aquí, está en progreso, parece. Entonces en progreso. Ahora en realidad se puede
ver esto también aquí. Ahora, deberías ver dos de esto. Se puede ver crear completo. Entonces ha
creado con éxito, parece. Ahora puedes ver crear completo. Puedes ver alguna información sobre esto en la salida por aquí. No hay salida. También puedes consultar los eventos aquí. Bien, entonces en el evento está en progreso
progreso completo. Ahora si voy a S
tres por aquí, debería ver el nuevo cubo. Bien, también puedes obtener esta información
desde aquí también. S tres Ls para que veas que
mi ejemplo es de tres
cubetas, lo puedes ver aquí también. Mi ejemplo es de tres cubetas. Ahora ese cubo que hemos
mencionado aquí en este archivo que
es la formación de nubes. Puedes ver mi ejemplo
es de tres cubo, que se ha creado
con éxito. Ahora has entendido el
cuarto método de acceso. Ahora en el siguiente video, te
mostraré el
quinto método del mismo. Gracias de nuevo
por ver esto. Te veré en la siguiente.
46. Laboratorios AWS Cloud Shell: Hola, chicos. Bienvenidos de
nuevo a la próxima PDO En esta PDO, vamos
a mirar Cloud Shell. Este es el quinto método
para acceder a su servicio de AWS. Ahora, para Cloud Shell, debe
asegurarse de estar dentro la consola de administración de AWS. Pero en lugar de tener
un shell abierto
ya sea desde instalar
la utilidad de comandos en su servidor Windows, hacer que su símbolo del sistema parezca, capaz de servir
sus servicios AW, o crear un servidor Linux e instalar la
misma utilidad de comandos. Si tienes otra opción de lidiar con esto
usando Cloud Shell. Ahora, Cloud Shell es este
ícono de aquí en la parte superior, y este ícono realmente
creará un entorno
para que trabajes. La característica, yo
diría es que tiene la herramienta preinstalada
en este Cloud Shell. Este Cloud Shell en sí es
un sistema Linux donde
viene con las
herramientas preinstaladas como AW o CLI,
Python, Git No JS, y más Así podrás instalar otras
herramientas según necesites. Ahora recuerde que se ejecuta
en almacenamiento persistente ya que en un GB de un almacenamiento de persistencia
para cada región se da. Este almacenamiento recuerda
a través de las sesiones, lo que significa que los archivos
y script que
guardarás podrás
verlo allí cuando lo devuelvas. Esto lo
tendrás cuando en realidad
tengas Cloud Shel Tendrás un acceso
más rápido por aquí en lugar de crear un servidor y luego
ejecutarlo como lo hicimos nosotros, puedes ver que
esto ya lo tiene. Ahora si hago Ss, ahora mismo pueden
ver que está mostrando todos mis S tres cubos los
cuales tengo por aquí Ahora bien, ¿cómo se muestra siquiera? No he iniciado sesión
con AWS configure. Bueno, no tienes que
hacerlo porque ya
iniciaste sesión en esta consola
de administración. Entonces, a través de Management Console, estás invocando un Cloud Shell, lo que significa que
vas a tener este archivo Así que vamos a crear un
archivo por aquí. Lo siento. Así que crear un archivo por
aquí llamado archivo A, derecho. Entonces ahora que cierro este
y lo abro de nuevo. Entonces, si solo, ya sabes, si básicamente eliminas
este Cloud Shell, en realidad
puedes
restaurarlo de nuevo desde aquí. Por lo que seguirá viendo el archivo incluso después de cerrar la sesión
e iniciar sesión. Entonces este va a ser
un GB dado para ti. Ahora, Cloud Shell
ya está integrado con su credencial
y entorno de AWS, por lo que no necesita ejecutar ningún tipo de
configuración especial para ello Entonces más o menos esto es lo que
quería decirte en términos de otra forma de acceder a tus recursos de AWS es
usando Cloud Shell. Pero desafortunadamente, Cloud
Shell para que lo habilites, primero
necesitas acceder a
la consola de administración. Y a través de Management Console, estarás invocando el Cloud
Shell desde dentro de eso Gracias de nuevo por ver este video.
Te veré en la siguiente.
47. Laboratorios AWS Direct Connect: Oye, Is, vuelve
a este video. En este video,
vamos a
hablar de AWS Direct Connect. Ahora en esta conexión directa, vamos a entender en
qué se diferencia de VPN y en qué se diferencia de la HPO pública
de Internet Sigamos con este video. Ahora tenemos estos tres ítems que estás comparando
del último video, entendimos lo que es VPN. Ahora podemos entender qué es conexión
directa y luego en
qué se diferencia
de la VPN y en qué se diferencia
de Internet pública. La diversión primero entiende en
qué se diferencia de Internet
pública porque se
trata de una intranet. Cuando estás accediendo a él
desde la compañía y quieres
restringir tu VPCV para que se
acceda desde Internet, entonces la única forma de acceder a
él es básicamente a
través de él es básicamente a
través Internet tiene un elemento
más por aquí llamado Direcconnect. Ahora, Direct Connect proporciona una conexión de
red privada dedicada entre su centro de datos on
Promise. Oficina desde donde
trabaja y AWS. A diferencia de VPN no
atraviesa Internet público. VPN requiere, como dije,
en el video anterior, VPN Internet para que te
conectes a los servicios VPN
o endpoints, ¿verdad Pero en cuanto a una conexión
directa, no funciona con Internet
público ofreciendo
un alto rendimiento, baja latencia y una conexión más
confiable. Ese es el principal
punto de venta de direct connect. Como la palabra conexión directa
significa que va a conectarse
directamente a su centro de datos
Onpromises Para que pueda ver la
red dedicada que viene de AWS a su centro de datos y
luego vuelve a AWS nuevamente. Esto significa que su
centro de datos se va a conectar directamente
usando una red privada, y es de baja latencia. Algo que se
puede entender a partir de esta imagen misma. Ahora bien, ¿cuáles son las características clave? Las características clave incluyen una conexión física
privada a AWS sin pasar por Internet
pública Por lo tanto, Direct Connects
ofrece baja latencia y rendimiento
más consistente en
comparación con la conexión basada en Internet. También es que puedes elegir entre varias
opciones
de ancho de banda, por ejemplo, 50 MBBS a 100 GBBs de una transferencia de datos que
puedas tener entre uh, tu centro de datos y tu AWS Ahora bien, ¿cuál es el caso de uso aquí? W situaciones que puedes usar esto? Puede usarlo para empresas
que frecuentemente transfieren gran cantidad de datos
entre promesas a AWS. Por lo que esto se
sugiere principalmente o se usa para una solución de nube híbrida
o modelo de nube híbrida Y la actuación aquí. La aplicación requiere una conexión de
red de alto rendimiento de baja latencia. Entonces esta es la mejor
solución para eso. Empresas que utilizan recursos tanto en las instalaciones como en la nube, lo que necesita una
conexión estable entre ellos. O están conectando una
base de datos en las instalaciones que tiene los datos del cliente y su aplicación
es alojada en AWS, lo que realmente requiere que
los datos se transmitan en formato cifrado y se sirvan al cliente. Entonces en esa situación
o en ese proceso, necesitas una
conexión altamente um, ya
sabes, estable entre ellos. Este es uno de los métodos con los que puedes crear la conexión
estable, y esta conexión
no requiere Internet, lo que significa que tus
datos no van a quedar comprometidos en
ningún momento. Entonces eso es algo
que debes recordar. Muy bien, prácticamente he
cubierto esto en términos de las cosas teóricas y
ya sabes la diferencia entre una VPN y Direct
Connect también. Así que vamos a hacer las manos. Entonces, en términos de Direct
Connect, viene como, ya sabes, servicio separado en
sí mismo en AWS llamado
Direct Connect. Ahora, cuando vas
a Direct Connect, en realidad
puedes ver
esa documentación. Por lo tanto, es
para facilitarle el establecimiento de una
conexión de red
dedicada a partir de sus propias promesas a AWS. Entonces, lo que significa que su oficina, su centro de datos o, ya sabe, inscripción de
co-ubicación puede tener una
conexión directa con AWS, y puede ser una conexión
privada Lo siento, puede serlo. Se trata de una
conexión privada entre ellos. Por lo tanto, puede ver las
características de aquí, como un costo de ancho de banda reducido , un rendimiento de red
consistente , una conexión
privada a AWS, y
también es elástica porque puede girar de 50 MBS a 100 MBS. Bien, esa es la conexión máxima, pero aquí puedes ver
que el
proveedor de conexión uno GBBs a diez GBBs De igual manera, se puede escalar esto. Como puedes ver por aquí, para crear una conexión, simplemente haz clic en Crear una conexión. Aquí dices qué tipo de nivel de
resiliencia necesitas. Máxima resiliencia,
tienes alta resiliencia, tienes desarrollo
y pruebas. Esta es la carga de trabajo
no crítica más baja
con menor resiliencia aquí. Entonces dale siguiente y luego puedes seleccionar
la velocidad por aquí, que es de un GBB
a 400 GBb por aquí, y la ubicación
que quieres que sea Entonces aquí está la ubicación de
sus centros de datos por aquí. Entonces este es su sitio AW, la ubicación a la que desea encuentra
la ubicación a la que desea
conectar la conexión. Entonces ese es un sitio AW por aquí. Por lo que se puede ver que es en esta ubicación en particular
y el proveedor de servicios. Así que el
proveedor de servicios te ayuda a dar la conexión
al centro de datos, y también hay una
configuración adicional y hacia algunas
configuraciones adicionales por aquí. Luego está este resumen de
conexión para que puedas ver el
ocho proveedor. Hay dos conexiones
que vienen desde su ubicación y revisar y
crear creará esto. Pero ves esto esto
cuesta alrededor de 0.6/hora,
aproximadamente 4:39 de uso mensual
para el uso del puerto y transferencia de datos
adicionales, puedes hacer Para la transferencia de datos, de nuevo, apenas se cobra y se va a crear
dos conexiones. Entonces aquí, esto proporcionará la resiliencia ante el fracaso. Si va a ser
una conexión más grande, en realidad se
puede ver la
máxima resiliencia por aquí. En realidad tenemos una información
más grande. Primera ubicación,
tienes este proveedor, la segunda ubicación es una ubicación
de respaldo por aquí. Y luego tienes
otro proveedor. AT y TF,
ya hemos seleccionado, así que seleccionemos Verizon Aquí tengo cuatro conexiones dando aquí, $90 por hora, alrededor de 65,880 mensuales y los cargos por transferencia de datos
son separados, lo que significa que se puede
ver que la facturación comienza
una vez que se establece la conexión entre el router AWS
y la ruta y entre el router AWS
y la ruta y
su router
o 90 días a partir del pedido Lo que ocurra
primero. Entonces de igual manera, tienes la opción
de crear esto, y esto permitirá
la conexión directa. La conexión directa es
mucho
más cara que la propia VPN
porque utiliza la red privada
para conectarse con ella. Entonces esto es
más o menos quiero
mostrarte en el lado demo de las cosas para que obtengas la mesita
de lo que realmente estamos
haciendo por aquí Gracias de nuevo por ver este video.
Te veré en la siguiente.
48. Labs SDK de AWS con Python: Hablé de nuevo al siguiente
video en este video, vamos a hablar de SDK. Uno de los temas que tenemos, que está aquí como parte de su programa es
usar SDK también. Ahora, vamos a
ver rápidamente una demostración aquí hacia SDK. Entonces esto es API es SDK CLI. Así que hemos completado la CLI, así que es hora de
que exploremos SDK Nuevamente, esto no va a
ser parte de tu examen, así que muy bien puedes saltarte esto. Solo voy a
mostrarte una cosa simple, um, orientada a
SDK por aquí, que puedes
usarla en tu AWS. Ahora recuerda eso,
déjame volver a iniciar sesión una vez más. Acabo de iniciar sesión
en el sistema. Entonces aquí vamos
a hablar de SDK. Voy a usar un
lenguaje por aquí, que se
usa frecuentemente, que es Python. Voy a hacer las manos
en sesión usando Python. Para eso, debes
asegurarte tener Python instalado
en tu sistema. Hacer un pseudo um lo siento, hay un retraso en el sistema Pseudo yum instalar
Python tres Iphone Y, ver si lo recoge. Python tres
ya está instalado. Así que vamos a instalar
Python P PIP iPhony. Se requiere Python PIP para que puedas instalar
el Boto tres Boto three es tu
controlador Python para tu kit SDK, que es básicamente para tu configuración de
AWS SDK Ahora puedes usar el comando PIP
three por aquí, y luego puedes
instalar Boto Esta es básicamente tu configuración de
Python para, um, ya sabes, tu AWS. Esto le ayudará a conectarse a
AWS y ejecutar SDK desde Boto. Entonces puedes ver que por aquí, se está instalando ese 40 clo Boto tres root
uno. Uh, versión. Lo siento, boto
tres, versión 11235,
Boto core, y además está
instalando una transferencia Ahora esto va a asegurar que tienes el STK por aquí Ahora cuando ejecutas cualquier Python, um, ya sabes, comandos
o scripts de Python, que va a
tener la llamada de AWS,
esto realmente va a
obtener los elementos de, ya
sabes, AWS del back end. Ahora ahora anteriormente,
hemos configurado AWS, por lo que solo puedes
verificar si sigue ahí, solo marcar tres. Todavía está conectado
con el servicio IS. Ahora, también tienes
una forma alternativa,
así que puedes simplemente abrir este archivo, que está en tu carpeta de inicio. Llame a la carpeta de AWS. Y en esto, tienes un archivo
llamado credenciales. Así que en realidad puedes guardar tus credenciales por aquí. Ahora, puedes mirar eso. La credencial
en realidad se guarda por aquí. Así es como inicias sesión. Entonces, incluso antes de hacer esto, puedes poner estas
credenciales ahí mismo, y luego puedes acceder a ellas. Para que no tenga que ejecutar AWS config con los detalles de las
credenciales ahí Ahora que pones
ahí las credenciales y está
ahí por defecto, así que realmente no
tienes que preocuparte por ello. Ahora voy a crear
un archivo por aquí, que es un archivo Python, y este archivo Python
listará los S tres buckets Entonces ahora este archivo Python, vamos a copiar y pegar el código, que lo pondré
ahí para ti. Esta es una configuración de Python donde estás importando b23, que es tu caso SD de un kit de desarrollo que
usa AWS en segundo plano Aquí, crea un cliente S three que es básicamente
tu S three bucket. Y aquí, esta respuesta es S
tres lista de respuesta bucket. Entonces aquí estamos imprimiendo valor diciendo existente S three bucket, y está imprimiendo uno por uno cubos que es parte
de su respuesta por aquí Digamos que uno
rápido este archivo. Y luego ejecutemos Python. Y entonces realmente puedes
ejecutar, uh, el Python tres, que es uno que
está en la tienda con la PUI y en
realidad te ha mostrado
la salida por aquí Entonces cubetas existentes,
tienes tres cubetas. Así que esto es básicamente, um, ya
sabes, ejecutar esto a través un kit de
desarrollo de software SDK Entonces,
este es otro método
para acceder a su
infraestructura existente en su AWS. Entonces hemos
hablado de, ya sabes, consola
de administración, perdón, consola
de administración, hemos hablado de CLI Hemos hablado sobre el uh, usando Python a través de
SDK también. Ahora, recuerde que
no tiene que ejecutar AWS Config. Entonces, si te estás conectando
con una nueva sesión, realmente no tienes
que
ejecutar AWS Config por aquí en
este escenario
porque en realidad estarás cargando el
USM y la contraseña, lo
siento, el ID de clave y código de acceso a la
clave directamente en el archivo que
mencioné anteriormente Así que este archivo
realmente lo recogerá, así que en realidad no tienes que
ejecutar la configuración de AWS
en este escenario. Y este archivo Python se
ejecutará porque
irá a Boto Boto,
irá a estos archivos de
credenciales en particular
y luego se conectará a cualquiera que sea
la cuenta a la que esté mapeada Después ejecutará la lógica
dentro del script Python. Así es como básicamente funciona. Gracias de nuevo por
ver este video. Te veré en la siguiente.
49. Introducción a Labs CLI: Oigan, chicos. Bienvenidos de nuevo a los próximos s vamos a
hablar sobre la línea de comandos de AWS. Ahora en nuestra capacitación, vamos a discutir sobre
una de las características aquí, que es básicamente para
su acceso programático Entonces necesitamos crear un
usuario para que éste pueda acceder, así que lo haremos en algún tiempo. Pero a partir de ahora, lo que
voy a hacer es que voy
a tener la
interfaz de línea de comandos iniciada para nosotros. Y para eso, necesitamos
tenerla descargada para diferentes sistemas
operativos. Para acceder a Command
Line Interface, solo Google AWS descarga la CLI, y podrás acceder a esta página de Command L Interface, que es aws.amazon.com Ahora bien, esto debería
llevarte a esta página en que tienes documentación
de ejecutar esta herramienta. Así como otras herramientas
también, que forma parte de ella. Entonces aquí tienes pasos que involucrando hacia esta versión que estás usando como ALI two, que ofrece nuevas características como instalador
mejorado, nuevas opciones de
configuración y centro de identidad también, que es un sucesor de AWSSo Diversas características están ahí. También está AWS S, que es una revisión de desarrollador. Entonces ese es otro programa de estantería de
línea de comandos que le brinda las características de conveniencia
y productividad. Así que parte del uso de aquí, cómo se pueden ejecutar algunos comandos básicos usando la interfaz de línea de
comandos. Entonces estas son cosas de aquí. También puede ver acerca ayuda de escaneo
automático y
crear grupo de esquí automático. De igual manera, tienes tantas opciones por
aquí que puedes usar. hay referencias
completas Aquí hay referencias
completas en términos
de trabajar con,
um, ya sabes, más referencias
hacia las opciones de
línea de comandos, que también se da
como parte de esto. Bueno, vamos a explorar algunos
de los aspectos básicos, como ustedes saben, que
esto es, quiero decir, necesitamos saber sobre la interfaz
Kamana, pero no operada completamente, así que eso no es parte de
tu certificación Pero solo para su comprensión, en realidad
estaremos trabajando
con la instalación de la misma. Estaremos trabajando
con um, ya sabes, algunos de los
comandos predeterminados que vamos a ver también en términos de CLI ¿Bien? Entonces eso es algo que voy a hacer
como parte de este video. Gracias de nuevo
por ver esto. En el siguiente video,
veremos la instalación de Windows, la instalación MCO, la instalación de
Linux, y también te informaremos sobre la instalación de Amazon Linux, también Gracias de nuevo.
Te veré en el siguiente video.
50. Instalación de la CLI de Labs Linux Actualización de AWS Linux: Oigan, chicos, bienvenidos de nuevo
al siguiente video. En este video,
vamos a, ya sabes, apagar este servidor,
el servidor anterior, que usamos antes y
luego terminarlo en realidad. Es mejor que apagar. Y luego crear el de
Amazon Linux. Entonces Amazon Linux uno, ya lo
hemos hecho, para que puedas seguir de nuevo ese video. Ahora es solo un cambio en la selección del sistema
operativo. Para que veas que el sistema se está apagando, así que está bien. Entonces abre esto, edita
este existente, y cuando lo edites, simplemente
cambia la dirección IP. Todo lo demás es igual
excepto el nombre de usuario, iphone use EC two, Phonue Ese es el nombre de usuario Así que simplemente haz clic en Bien,
luego haz doble clic en él. Entonces, si lo conectas. Está tomando un poco de
tiempo. Ahí vas. Ahora estamos conectados
a EC de dos instancias. Perfecto. Ahora, una vez que estés conectado a la instancia
Easy two, todo lo que tenemos que hacer es um usar el comando curl
para descargarlo. Las mismas cosas. Um recuerda, en esta situación,
tendrás ya instalada la CLI de AWS Veamos eso. Vamos a descargar
primero este rizo. Bien, este archivo está descargado. Bien. Ahora vamos a ejecutar AWS y luego escribir la versión
phoniphon Entonces mira si
ya está instalado. Ahora, puedo ver que
la versión antigua está en almacenada, que es 215. Ahora, necesitamos
actualizarlo a la última versión. ¿Bien? Entonces este video, puedes considerarlo como ejecutando esa actualización que
hemos planeado hacer. Comprima este archivo. Zip también es
variable en Abs Linux, así que esto es algo bueno. No es necesario instalar
este paquete por separado. Ahora que has descomprimido, entra en AWS y
ejecuta sudo Es mejor. Copio basado. Copia más allá del comando desde aquí. No estoy escribiendo ningún tipo
de comando diferente. Sólo estoy escribiendo
el mismo comando. Dot slash instala la ubicación
predeterminada. Si no está seguro
de la ubicación, siempre
puede escribir qué
AWS. Eso te lo dirá. Bien, entonces está en una ubicación
diferente. Se puede ver que el usuario bin AWS. Así que solo tienes que escribir la ubicación de la
casa de AWS. Um usuario solo estoy
buscando la carpeta de inicio de AWS. No lo veo aquí abajo, así que veamos que es
un local lo tiene. No, ahí no tiene
la carpeta home. Bien, entonces sí
busqué alguna documentación, pero no hay nada de eso. Entonces procedemos con
el mismo comando. Sólo vamos a copiar este
comando para actualizarlo. Entonces ahí está la carpeta home está en una
ubicación diferente, ¿verdad? Entonces ahora, si
escribe la carpeta Bin va
a estar en esta ubicación, use una carpeta Bin. La
ubicación de la instalación, lo
que encontré hasta el momento no estaba en esta ubicación. Entonces el que he
encontrado está en el OPT AWS. Entonces ubicación es así que
voy a probar con este directorio, a
ver si acepta. Así se puede ver eso.
Ahora puedes ejecutar esto. Veamos si funciona
ahora mismo con la última
versión. Ahí vas. Entonces se actualiza
con 218 ahora mismo, he dado OPTAWS porque
encontré esta carpeta en Es muy raro
encontrarlo en este directorio, pero como este
sistema operativo es un poco viejo, entonces esa es la
razón por la que está ahí. Entonces ahora tienes el V dos
océano como parte de los Optaws. Entonces así es como
hay que hacerlo. Voy a copiar todos esos comandos
personalizados que ejecuté en el uh, tu
página de GitHub llamada AWS, voy a poner el enlace de la
página Github por ahí. Entonces esto
se compromete directamente Github el Bloc de notas
más uno Entonces voy a
copiarlo y pegarlo por ahí así lo
llamaré como calificar
tu CLI AW Entonces lo que hemos cubierto
hasta ahora es básicamente instalar la instalación de AWS CLI Entonces eso es algo que
hemos hecho, y no tenemos el comando, así que solo copiaré el
comando de aquí Y también hemos visto cómo actualizar con éxito
su CLI de AWS, y sobre todo este
comando debería funcionar, pero en caso de que su AWS se
encuentre en una carpeta diferente, entonces puede que tenga que
cambiarlo a esa carpeta Entonces te he mostrado
cómo hacerlo
también en términos de un directorio diferente,
yo también te he mostrado. Entonces eso es más o menos
lo que queremos cubrir en la parte CLI de las cosas.
Gracias de nuevo. En el siguiente video, veremos algunos comandos que podemos
ejecutar como parte de CLI, y los veré
en el siguiente video
51. Labs de Instalación de CLI de Linux: creación de instancias de Ec2: Hola, chicos bienvenidos de nuevo
al siguiente video. En este video,
vamos a ver cómo hacer la instalación de Linux. Pero voy a dividir esto en múltiples partes para
que, ya sabes, te resulte fácil hacerlo porque la instalación de Linux
es mucho más larga, y como estamos planeando
hacerlo en la máquina EC two. Ahora, no te he dado información sobre cómo
crear una máquina Z dos, así que solo voy a hacer eso así como
parte de este video. Bueno, hemos creado
una instancia EC dos, pero nunca la hemos lanzado
ni hemos trabajado con ella, así que solo voy a recrear
eso completamente de nuevo Entonces para eso, tenemos que entender en
primer lugar la CLI, hay ciertos requisitos previos para que la instale realidad hay toda una página de
instalación, si estás buscando,
¿qué es esto otra vez? Um, aquí, tendrás los pasos completos de instalación en términos de trabajar con la instalación de
Windows, instalación de
macOS, como
puedes ver aquí y
la instalación de Linux. Desde la página anterior,
hemos visto la instalación EC como paquete ExCfle MCO, que es exactamente como Si está
buscando el paquete MCO,
el paquete de Windows también
es exactamente el mismo que el paquete MCO,
así que no hay mucha
diferencia Ahora, para la instalación de Linux, la instrucción
es bastante larga, como puedes ver, simplemente sigue
bajando porque hay
muchos componentes en ella. Ahora, primero entendamos
los requisitos previos aquí. Esto es decir que
necesitas tener Zip como parte de tu paquete Linux para
tener esta instalación. Necesitas tener, GLPsy, GRO así como s como parte de tu paquete Linux si quieres
instalarlo con tu CLI Y la CLI es compatible con
sento Fedora,
Ubantu y Amazon Linux, así
mismo, y también basado en Linux mismo, y también Entonces, debido a que AWS no admite
repositorios de terceros que no sean SNAP, por lo que SNAP es una herramienta que se instala en el sistema
LinxOperting, que es
administrador de repositorios al igual que AWS solo admite
SNAP aquí. Por lo que también
encontrarás instrucciones para eso. Ahora recuerda que si
estás trabajando con Amazon Linux y
tienes la CLI de AWS, la cual
está preinstalada Entonces, si puedes ver por aquí, imagen de
Amazon Linux viene
con AWS CLI preinstalada Ahora bien, si buscas
actualizar tu CLI AW, primero
tienes que eliminarla. Así que solo tienes el
comando para eliminarlo. Te han dado el
mando para quitarlo. Y una vez que lo hayas
eliminado con éxito, entonces
podrás, ya sabes, instalar usando los tres métodos
diferentes. El primer método es básicamente
descargar el archivo desde el Amazon AWCali
amazon aws.com Entonces este es el sitio web oficial donde estarás descargando tu paquete desde el archivo zip para que
lo instales en Linux. Entonces nuevamente, se requiere ZIP porque estarás descargando un
formato de archivo Zip para Linux. Así que descomprimir es un
paquete separado que
necesitas instalar si
no está ya instalado Y tienes AW CLI. En realidad estamos
renombrando este nombre de archivo a AW CLI V archivo zip de dos puntos, y lo estamos comprimiendo
usando el Y luego lo estamos
instalando usando sudo la carpeta de descomprimir Tendrás una carpeta de AWS
y luego vamos a ejecutar el
comando install dentro de esa, y eso va a instalar tu CLI de AWS en ese sistema
operativo La ventaja de esto es que
básicamente estarás descargando la última versión porque no
tiene ninguna versión, por lo que habría vinculado
a la última versión. Entonces, a diferencia de esto, no tendrá la versión predeterminada cuando el sistema de
putting esté listo. Entonces tienes a Amazon
el próximo 2023, pero no hay 2024, pero la CLI tendría la
última versión por aquí, lo que significa que no
tendrás esa última
versión por aquí Para ustedes, que está instalando
esto como parte de eso, primero deben
quitarlo y luego seguir
las instrucciones. Te diré cómo
hacerlo paso a paso. Entonces estaremos creando
dos videos separados, uno para el defol
Linux, sabor bond Y también
crearemos uno para tu, ya
sabes, Amazon Linux
también. Todo bien. Suena bien. Entonces, sigamos
adelante y hagamos esto en las manos. Lo que tenemos que hacer primero antes de comenzar nuestras manos es que necesitamos llegar a la CE dos instancias por aquí
y crear una nueva instancia. Entonces, si ya tienes una instancia
creada, simplemente elimínala y
toma instancia de Clunch Ahora, voy a usar la
instancia con el nombre de AWS CLI ya que estamos
probando CLI por aquí Entonces una instancia, puedes
crearla con Amazon Linux, otra con UpantF
vamos a crear instancia de Ubundu Seleccione la llanta
libre habilitada, y debería poder ver
que está eligiendo la arquitectura de 64 bits X
86 Y luego T dos Micro,
eso es suficiente para nosotros. Entonces en términos de Kepare, voy a usar el teclado
existente por aquí Si no tienes teclado
existente, es buen momento para
crearlo en realidad. Te recomendaría crear altamente un
archivo PPK a partir de esto Haga clic en Crear y luego
haga clic en el nombre dado aquí, que es algo que
puede repetir y guardar ese archivo. Selecciona PPK aquí
porque usaremos Put as in through mobile system Así que asegúrate de dar PPK porque cuando edites la
sesión por aquí, ¿verdad También he dado PPK aquí. Se puede ver ese PPK. Entonces esto es básicamente usar Putty para que
lo conectemos desde el término móviles Entonces usas PPK y luego haces
clic en Crear un par. Entonces, una vez que crees un par, este se descargará a
tu barra
de descargas que realmente puedas proporcionarlo cuando te estés
conectando a la instancia, más tarde punto de tiempo usando móvil móvil exterm,
puedes descargarlo Es mucho más fácil y también tienes
la versión no pagada. Entonces esta es una versión de prueba
o una versión gratuita o prueba, en la que puedes usarla
para fines no oficiales, y puedes ver los cambios de
red, LOS tal desde cualquier lugar, así que asegúrate de que
esta esté habilitada. No tiene que habilitar
nada más. Y luego tienes
configurado el EGB y luego haces clic
en Launch Instance Esto debería tomar alrededor de
un par de minutos y esto debería ordenar la, ya
sabes, la máquina Amazon. Lo siento, abres Do
machine para tu AW CLI, y luego puedes lanzar otra instancia por
aquí o puedes esperar a
que eso termine y luego recrear
esto o como quieras, lo
haré en un tramo Aw CLI, Amazon Dinux así que recuerda que
solo puedes tener una instancia como gratuita, así que la haces una por una Así que no me importa
si cobra por mí, así que solo lo estoy haciendo de todos modos. Estoy eligiendo Amazon
Linux por aquí ya el nombre también implica
que es Amazon Linux. Estoy seleccionando la misma instancia. Dando la información sobre mi keypare la que
estoy usando por defecto Y entonces aquí estoy dando información sobre SSA no
cambiando ninguna información, va a ser la
información por defecto sobre instancia de lanzamiento. Esto lanzará una máquina AMI. Imagen de la máquina Amazon, por lo que también
utilizará el sistema
operativo Amazon. Parte de ella. Tienen dos
instancias ejecutando una es un CI árabe para ustedes chicos, será sólo una instancia. Puedes hacer esto más tarde. El único cambio entre estos dos es el sistema
operativo. Y cuando cambies
el sistema operativo, recuerda
que el
nombre de usuario también cambia. Para Ubundu va a ser U
Bundu como nombre de usuario. Para la imagen de la máquina de Amazon, va a ser
fácil de Iphen usuario Ese va a ser el nombre de usuario. También puedes
comprobarlo cuando estés creando en ese proceso
de creación. Yo lo sé, así que por eso no lo
he comprobado. También puedes validarlo
haciendo clic derecho en Conectar, y de hecho puedes ver
el nombre de usuario aquí. Esa es otra forma
de verificarlo. Entonces, um, hasta el momento hemos
completado el ítem. ¿Lo cerré? Supongo que la he cerrado. Perdón por eso. Sí,
así que lo siento por eso. Creo que lo cerré. Bueno, entonces ahora que has
completado el primer tramo, hemos completado la creación de
instancias aquí en la CLI En el siguiente método, vamos a acceder a
esto usando MobikStem estos dos servicios
usando mobitem y luego vamos a
instalar Gracias de nuevo por ver esto voy a ver en la siguiente.
52. Método de instalación fuera de línea de la CLI de Labs Linux: Oigan, chicos, bienvenidos de nuevo en
el siguiente video de este. Veremos los diferentes métodos para descargar el paquete
e instalarlo, y también se le llama
como método offline. Entonces, por ejemplo, tienes servidores dentro de una infraestructura que no
es accesible
a Internet. ¿Cómo usarías
nap para instalar? Bueno, en realidad no se puede. Así que en realidad estarás
descargando este archivo, enviándolo a través y luego instalándolo a través del método de línea de
comandos. Esto es básicamente un material libre de
Internet donde tendrás Internet
en tu servidor de salto. O en el que
harás esta operación en un servidor de salto y una vez que
completes la operación, desplazas este paquete
al servidor real y
luego lo instalas. Ahora, sólo voy
a copiar este comando. Anteriormente,
vas a instalar, creo que la versión 218 de AWS CLI Veamos qué versión se instala
esta. Este es un comando curl. Por defecto, cada sistema
operativo tendrá el comando curl. comando Curl dice que el archivo de
salida debe estar en
un nombre de archivo personalizado, verá ese
archivo descargado. Ahora voy a usar
el comando unzip. Bien. Un Zip no está ahí. Así puedo instalar con Snap en
sí mismo, Snap instalar Unzip. Entonces bien, no
es capaz de conseguirlo. Déjame probar APK. Por lo que la APT debería descargarla. Lo siento, si
antes dije APK, me refería a APT. Así que probemos
sudo APT, Instalar. Lo siento. Instalar nz. Entonces está descargando
el paquete de NZP. Así que ahora vamos a
usar este archivo NZP
para descomprimir este archivo picular El sistema es un poco
rezagado debido a, sabes, la menor cantidad de configuración
que tenemos en el sistema, así que es un poco rezagado La red
también está en grado, supongo. Puedo ver que está descomprimiendo
este archivo en particular. Ahora bien, este archivo,
básicamente puedes descomprimirlo en un sistema y puedes
crearlo como un tarball Simplemente puedes usar star
Iphone CV de y luego crear el
tarball así Y entonces esto debería ir
con cualquiera de sus sistemas. Puede que tengas alguna duda,
si no puedo
instalar o descargar este paquete, entonces cómo lo
voy a enviar. Ahora tienes un tarball. Ahora puede enviarlo
a través de múltiples sistemas y luego um tener eso instalado. Mira el tamaño de un archivo por aquí. Es una bola estrella 223 MBT. También puedes disparar esta
bola de alquitrán, lo que incluso la reducirá más. Lo siento, Gs, el Tarpl que lo
reducirá aún más para
que puedas enviarlo a través dos sistemas que no
tienen Internet ont Entonces porque este
salto boox estará diseñado para conectarse a
esos servidores, ¿verdad? Así se puede ver eso. Es incluso menos que el propio archivo Zip. Entonces, ¿cuál es el siguiente paso? El siguiente paso es que
puedes acceder a
la carpeta de AWS y ejecutar el comando de instalación de
Doslash Ahora bien, este comando de instalación, creo que necesitas un usuario root. Entonces necesitas hacer psudo y
luego dot slash Instalar. Así que esto debería tener
todas las cosas de AWS localizadas. Y como esto está en uso
de local entonces
puedes escribir la versión de iPhone de AWS. Bien, entonces está diciendo que
va a chasquear. Mandíbulas. Ahora, puede ver qué
AWS le dará la ruta completa donde
está instalado AWS. Si quieres una
versión más reciente de la misma, también, puedes actualizarla. Eso es algo. Ahora, ¿cómo sabes
qué posición o qué ubicación
está instalada
?, puedes usar qué comando de AWS te
indicará la
ubicación del mismo. Si nos fijamos en este comando, le está diciendo que actualice
una instalación existente. Tienes versión anterior de esto y has descargado
este archivo zip, todo lo que puedes hacer es ejecutar este
comando con la ubicación. Ahora, se puede ver que está
instalado en el usuario Curva local. Obtuviste esa salida, así que pones este uso local bind, que es la
ubicación predeterminada, por supuesto. Hasta y a menos que no uses Snap SNAP está creando en una ubicación diferente
como puedes ver. Va a cortar SNAP y luego está metiendo todos
esos archivos ahí Pero si lo estás usando a través de
la instalación normal, entonces realmente puedes
usar este comando. Para actualizar tu versión
de tu ub CLI. Es la
ubicación actual es la misma. Tenemos que revisar
el
directorio de instalación si este es el mismo. Entonces hagamos el LS I y LTR. Sí, se puede ver que
existe el directorio de
instalación , ¿no? Entonces esto es más o menos eso. Entonces podemos ejecutar este comando. Si tiene una versión posterior
o la última versión después del 29, puede ejecutar este comando. Y lo que hará este comando es como tú ya en
la carpeta ApS, derecho. Entonces solo necesitas quitar esto. Entonces es solo que se queda mucho rezagado. Entonces para instalar. Lot
slash Instalar Ahora puedes ver que
saltando en tienda porque ha detectado la misma versión
que intentas actualizar Este tipo de actualización
también lo puedes hacer si
tienes una versión anterior instalar y si estás planeando
actualizarla. En el siguiente video,
veremos sobre Amazon Linux y lo
actualizaremos a la
última versión ahí. Gracias de nuevo por
ver este video. Nos vemos en la siguiente.
53. Instalación de la CLI de Labs Linux mediante Snap: Oigan, chicos,
volveremos al siguiente video. En este video, vamos
a ver cómo utilizar esta máquina en particular y
conectarla con MBiXtem Ahora bien, este es uno de los videos. No lo he hecho hasta ahora, así que puedes instalar este extem
móvil el cual es gratuito Y entonces en realidad puedes
crear carpetas como esta. Lo siento, carpetas
como esta nueva carpeta, y luego seleccione la CLI de AWS Ese es el
nombre de la carpeta, y luego dentro eso puedes
hacer clic en tu sesión. Entonces realmente puedes ir a tu CLI de AWS y copiar el IPR
público desde allí, ponerlo aquí, tomar el
nombre de usuario del conector, hacer clic
derecho y conectar y
el nombre de uso de aquí Entonces puedes especificar el nombre de usuario y luego colocar ese
nombre de usuario por aquí y luego darle ese AWS CLI Open también como apodo para ello para que desaparezca
aparecerá aquí Y luego no olvides
dar Good Advance y luego usar Private K y dar el nombre del archivo de la
carpeta por aquí. Para mí, tengo un nombre de archivo
ya aquí como parte de esto. Sólo voy a copiar
esta ubicación por mí. No es dejarme copiar. Déjame solo editarlo
y luego hojearlo. Simplemente haga clic aquí y
podrá
navegar por la ubicación y luego podrá precisar
la ubicación Todo bien. He localizado la ubicación como
pueden ver por aquí, esto debería ser
lo suficientemente bueno para mí. Así que haz clic en Bien. Y luego
solo haz doble clic en él. Te preguntaré si quieres aceptar la autenticación. Um, bien, eso es raro. Diciendo no apoyar formulario
de autenticación. Vamos a intentar esto otra vez. Parece que no ha
tomado esa ubicación, así que vamos a intentarlo de nuevo. Bien, entonces dice que has
alcanzado el número máximo sección
de guardar. Bien, lo tengo. Tengo que contarle algunas sesiones por aquí porque estoy
en la versión de prueba, bien, dejándome guardar
más sesiones por aquí. Vamos a hacer clic en esto ahora mismo. Entonces va a estar haciéndote
una pregunta por aquí. ¿Aceptas,
aceptas compartir el fideicomitente y
algo así? Entonces solo tienes que decir que sí, y entonces deberías
poder entrar en él. Ahora estoy en el sistema
operativo U Bundu, como puedes ver por aquí, y el comando de AWS es, ya
sabes, no funciona Entonces hay múltiples formas de
instalar la versión de AWS DS, y se puede ver que la
aplicación instala AW CLI, tiene SNAP instala AW CLI Por lo que este es uno de los temas
apoyados por aquí como discutimos
en este documento. Entonces, cuando estás haciendo clic en
instalar múltiples métodos, derecho, así tienes descargar e instalar,
que es este. Tienes ARM para ARM Linux,
cómo quieres instalarlo. Tienes solo un paquete de
arquitectura diferente por aquí, y tienes el paquete Snap. Entonces para Snap, solo
tienes que usar este comando. Así que solo tienes que instalar AWS CLI
y luego obtener eso instalado. Entonces si solo ves eso, um, pudo sudo, supongo Entonces sólo vamos
a escribir sudo. Instala a presión AWS CLI classic. Ahora bien, esto va a
descargar este paquete y va a instalar
no solo este paquete, sino también su dependencia. Aquí podrás ver la versión de
iPhone de AWS para iPhone. Entonces ahora esto debería llegar
a AWS CLI, 218. Cuando escriba AWS, ahora verá ese mismo
comando de ayuda que
hemos visto antes. Este es uno de los
métodos fáciles de instalarlo. Entonces, si quieres hacer el otro
método de instalarlo, también, te voy a mostrar
en el siguiente video. Para eliminar esto, creo que el comando remove debería
ser eliminado por aquí, esto debería quitar el paquete. Bien, ya se puede ver que
eso se quita ahora. Cuando tecleo tíos
tengo versión Iphone, se
puede ver BDS no encontrado Así que método más o menos simple
de instalar usando Snap. Entonces, en el siguiente video, te
mostraré el otro método de instalación porque
a veces Snap no será parte de tu sistema
operativo. Como, por ejemplo, si vas a los sentos o a cualquier tipo de
otro sistema operativo, no
tendrás Snap, entonces se
convierte en una
complicación para ti Entonces te voy a mostrar el otro método que es usado
predominantemente
por personas mayores, así te veré en
el siguiente video.
54. Instalación de la CLI de Labs para Windows: Oigan, chicos. Bienvenidos de nuevo
al siguiente video. Y este video, vamos
a instalar la CLI de Windows. Entonces, si solo haces clic
en él, esto debería obtener tu CLI de Windows
descargada a tu sistema Si haces clic en el macOS,
se va a descargar eso, igual manera, primero
completaremos la
instalación de Windows. Entonces para que conozcas la instalación de
Windows, va a estar ahí aquí. Nosotros solo vamos a opciones, vas a encontrar descarga
por aquí que debería tener. Entonces como pueden ver por aquí, ya
lo he descargado varias veces,
como pueden ver. Voy a abrir este archivo. Ahora bien, esto viene con
la información de lo que vas a configurar. Entonces esta es una versión dos de
su interfaz de línea de comandos de AWS. Así que solo haz clic en siguiente. Acepte los términos y
condiciones aquí. Simplemente haga clic en siguiente
nuevamente después de estar de acuerdo. Aquí está seleccionando
la ruta en la que va a instalar su CLI versión dos Haga clic en siguiente. Y luego
haga clic en e instale. Bueno, el sistema operativo Mac
es exactamente el mismo. No tengo un sistema
operativo Mac. Entonces, si descargas el sistema
operativo Mac, ábrelo, así te va a decir o te mostrará los mismos pasos exactos
que acabamos de seguir. Entonces ahora solo necesitamos
instalar esto, y luego solo tenemos que dar click en Finalizar una vez finalizada esta
instalación. Ahora lo que pasa es
como que va a estar en compilación con
nuestra línea de comandos, así que va a ser utilizada como parte de nuestra línea de
comandos de Windows. Solo estoy esperando a
que se instale el producto. Bien, entonces ahora que
la instalación está terminada, haga clic en el botón de acabado. Ahora ve a abrir una ventana de línea de
comandos, así que voy a mi prompt de ejecución. Estoy escribiendo CMD en mi solicitud de ejecución y luego
haciendo clic en Bien. Entonces me voy a otro
colon por aquí. Otro símbolo del sistema está abierto. Ahora puedes ver que esto es solo un
símbolo del sistema ordinario. También puedes hacer
lo mismo por Macos. Abra su
símbolo del sistema escriba AWS. Anteriormente, si
estuvieras tipo AWS, habría dicho
comando no encontrado. Pero esta vez después de
instalar la CLI, se
puede ver que este comando
en particular está funcionando Así que AWS ayuda, y
obtendrá todos los temas de
ayuda disponibles aquí. Así que solo le das una barra
espaciadora por aquí, así que mostrará todas las opciones
disponibles por aquí. Puedes ver lo que sea que puedas
hacer desde la consola, en realidad también puedes hacerlo
desde AWS. Lo siento, AWS CLI también. Así mismo, tienes
todos los comandos por aquí los cuales puedes usar. Entonces estos son los artículos. Entonces, básicamente, estos
son los servicios que ofrece AWS, y estas son las diferentes
formas de acceder a ellos. Veremos en detalle más adelante momento así
entenderemos una sesión separada
sobre cómo trabajar con sus servicios AW en el
futuro. Te voy a dar algunos
artículos en SS tres, además de fácil control de
instancia también. Entonces solo
te voy a enseñar sobre eso. Solo para
comenzar con AW CLI, para que en la próxima capacitación
o la siguiente certificación, no
lo encontraras desafiante Entonces esto es
más o menos lo que quiero
cubrir en este video. Gracias de nuevo por
su tiempo y paciencia. Te veré en el siguiente video.
55. Zonas de disponibilidad de los laboratorios: Ahora que entendimos
lo que es una región, entendamos qué
son las zonas T disponibles. Las zonas T disponibles son básicamente centros de datos,
que está disponible. Ahora bien, dentro de una región, puede tener al menos
dos zonas T disponibles o puede tener actualmente, veo un máximo de
seis zonas T disponibles en la región Este de Estados Unidos una región, que es Northland Virginia Entonces en esta región,
se ven seis AZ, lo que significa que estos
son seis centros Theta Ahora, este centro de seis Theta tendrá subnt
asignado a ellos, clasificando
cada uno un nombre de subred asignado a cada una de las zonas de
disponibilidad Lo que es una subred de subred es un grupo de
direcciones IP que se pueden asignar para los
servicios que está alojando en cada una de estas zonas de
disponibilidad Ahora, eso está
configurado bajo VPC,
bien, Nube Privada Virtual Entonces VPC toma
muchas subredes, las cuales se clasifican a
cada zona de disponibilidad, y esas se configurarán como parte de todos los servicios que
vas a Entonces, si estás configurando
una instancia EC two, en realidad
estarás
configurando, um, serás realmente
lo que estarías configurando según
la instancia EC two, estarás configurando
lo que se llama una subred De igual manera, lo harás lo siento, estarás configurando VPC como parte de tu instancia EC two En ese escenario, estarás mapeando tu nube
privada virtual que tiene una subred y
cada subred
tendrá cada una de las zonas de
disponibilidad, y luego estarás
creando un servicio en esa zona de
disponibilidad en particular También hemos visto ese proceso. Sólo te mostraré ese
proceso una vez más. Entonces como hemos visto regiones por aquí en el video anterior, cada región tiene zona de
disponibilidad. Tomemos, por ejemplo, esta región particular del Norte de
Virginia, que se lanzó en 2006.
Esta es la primera. Entonces, si ves eso, Irlanda es la segunda,
que duró 2007. Entonces como puedes ver por aquí, tienes las seis
zonas de disponibilidad por aquí. Hablaremos de zonas locales y longitud de onda un poco más tarde. Pero las zonas de disponibilidad son
básicamente un centro de datos. Entonces, ¿cuántos
centros de datos hay? Hay seis centros de datos. Si quieres listar
la vista por aquí, realmente
verás las
regiones con zona de disponibilidad, así puedes ver el número
de regiones por aquí. Hay por
reciente Osaka Japón, lo
siento, Tokio
Japón, que tiene cuatro COL tiene cuatro aquí como zona de
disponibilidad por aquí. Ahora, se puede ver
el general. Por lo que tiene 41
zona de disponibilidad, 13 región. Entonces esta es la región de Asia Pacífico
y China. Entonces aquí tienes la clasificación
basada en la región y
donde viene pronto. Bien, entonces
te da una visión completa de todo lo que tienes. Y entonces esto es
región por región, ya
sabes, clasificación
de aquí. Entonces eso es más o menos. Entonces entendamos qué es la zona de
disponibilidad. Zona de disponibilidad,
como dije, usted, hay 108 zonas de disponibilidad totalmente con 34 regiones en ella. ¿Bien? Ahora, 34 regiones cada una con zona de
disponibilidad múltiple. Tienes un total de
108 zonas de disponibilidad las cuales están disponibles para ti. Entonces esto no es más que
sus centros de datos. Ahora bien, ¿puedo saber la ubicación
de estos centros de datos? Ahora, en realidad, no se
puede porque zona de
disponibilidad algo, que AWS
lo mantiene por sí mismos. Solo
conocerás la dirección principal de una ubicación específica, dirección de región
específica. Aparte de eso, no
lo sabrás. Pero, ¿de qué otra manera puedes conocer un
poco más de detalle al respecto? Si vamos a Virtual
Private Cloud, tu VPC predeterminada
tendrá los detalles Entonces tu VPC predeterminada,
al hacer clic en ella, verás las
subredes conectadas a Básicamente, cuando configures una subred, verás todo esto, ya
sabes, disponible uh, artículos por aquí en términos
de zona de disponibilidad. Entonces, si vas a subnutl puedes crear una subnut
seleccionas una Ahora tienes la opción de seleccionar la zona de
disponibilidad. Entonces ahora puedes ver
que estas son
las zonas disponiblesilt disponibles
en esta VPC en particular Por lo que este VPC pertenece
al Norte de Virginia. Entonces, si estoy diciendo que quiero verificar
la región de Mumbai, entonces estoy haciendo clic
en el medio en la región de Mumbai. Ahora, tengo un VPC abierto
aquí en la región de Mumbai. Sí, en realidad puedes abrir varias pestañas con una configuración de
región diferente. Entonces, para una prueba de latencia, he creado, ya sabes, VPC por aquí en la región de Mumbai para
verificar la prueba de latencia, que llegaremos
más tarde en el momento Entonces, cuando estés en la
VPC de la región de Mumbai, verás que ahí
tienes una VPC, cual está configurada por defecto Esta es la VPC predeterminada. Cuando estás configurando la
subred por aquí, y tu subred concreta y
seleccionas diez lo siento,
la VPC predeterminada, o si estás creando
una nueva VPC y quieres asignarle una
subred, De nuevo,
si llegas a una zona de
variablety por aquí,
estarás viendo la zona de
disponibilidad, que está disponible como parte de
esta región en particular, que es la región de Mumbai La región de Mumbai tiene tres zonas de
disponibilidad. Lo mismo. Si voy a
recoger a Oregon, lo siento. Así que aquí, cuando elijo, crear una subred, vamos a crear una subred por
aquí muestra una Ahora verá
la zona avaibt,
que es cuatro zona de disponibilidad
en la región de Oregon Ahora bien, esto le indica la cantidad de centros de datos
que están disponibles para usted. Uh, en esta ubicación, en esta región en particular. Entonces así es como se llega a conocer cuántas zonas de disponibilidad hay y cómo
utilizarlas, ¿de acuerdo? Entonces ahora mismo, no
sabes nada la red o de tu
subred ni nada, así que no te preocupes por ello Pero solo te estoy dando
como echar un vistazo a los diferentes uh,
artículos disponibles. Normalmente se menciona como A, dos B, dos C, D, así mismo. Lo mismo aquí en
la arquitectura también, verás que la zona de
disponibilidad menciona el mismo
nombre que la región excepto que agrega un
carácter justo al
lado , llamado ABCDE, EF Aquí hace seis zonas de
disponibilidad, por lo que apenas comienza desde A, y luego BCD E F, por lo que va hasta F. Asimismo, se nombran
las zonas de disponibilidad Entonces, si estoy viendo
este en particular, entonces esta zona disponible,
um, nombre de región es USS dos Por lo que se llama como USS dos A, BCD porque tiene cuatro zonas de
disponibilidad. Todo bien. Entonces esto es lo que se supone que debes entender a
partir de este video, y esto es para
asegurarte de que
entiendes lo que es
zona de disponibilidad con su zona de mano. Así que recuerda
revisar el siguiente video que te da un
poco más de detalle sobre la zona de disponibilidad. Gracias de nuevo. Te
veré en la siguiente.
56. Configuración de un sitio web con Labs Cloud Front: Oigan, chicos. Bienvenidos de nuevo
al siguiente video. Y este video, vamos a hablar de CloudFront manos a la Entonces aquí vamos
a crear un sitio web en Cloudfront y vamos a navegar por el cache Así que esta es más o menos una experiencia simple y
práctica hacia CloudFront, y es tan simple que
tenemos que crear un solo archivo Así que ahora he iniciado sesión en la CE dos siones que he
creado antes. Entonces estoy bastante seguro de que tienes que no
te he pedido que lo borres, así que debes tener eso
corriendo por aquí. Por lo que a esto se le llama
AW CLI Ion machine. Estoy usando el mismo
que creé para CLI. Ahora lo que voy a hacer
es que voy a crear un archivo por aquí
llamado index door GMO Ahora bien, esta va a ser
mi página de índice de OGM, así que voy a dar una etiqueta
H one por aquí Voy a cerrar
esta etiqueta H one, y aquí voy
a tener el contenido. Este es mi sitio web de Pocket. Entonces voy a crear este
tipo de página de HGMO por aquí. Voy a usar una etiqueta
HGMO por aquí. Sólo para indicar que se
trata de una página de HGMO. Yo también voy a cerrar
este OGM, y este va a ser
el contenido de aquí Esto es básicamente
contenido destacado por aquí donde va a decir que este es mi
sitio web de S three bucket. Ahora guarde en salir de este archivo, esto realmente debería tener
este archivo con este aspecto. Una vez que tengas este archivo,
puedes subirlo a S tres. Solo asegúrate de que
sigues conectado con AWS porque tienes de
todos modos nosotros nos conectamos, supongo. Veamos s3s S si lo conectas,
sí, estás conectado. Ahora, en primer lugar,
vamos a crear un cubo o vamos a utilizar este cubo de
prueba solamente. Mi ejemplo, S tres bucket en sí lo usaremos
como nombre de nuestro sitio web, y luego voy a empujar este
contenido por ahí, S tres copia, índice o SMO. A esta S tres cubetas. Yo sólo por darle S tres
colones slash slash, copiarlo a este cubo Lo siento, debería ser CP. Debería que me lo copien. Ahora en mi cubo ST, debería tener el
voy a marcar esto porque hemos estado usando tantas veces. Entonces aquí, mi bucket de ejemplo
tiene el índice al archivo HMO. En realidad no puedes leer
el archivo aquí porque S tres es una ubicación donde
puedes copiar y almacenar el archivo, pero no hay forma de leer el contenido del archivo porque un archivo podría ser de cualquier cosa, así que ST no
te permite hacer eso. Ahora que has copiado
el archivo a través, ya sabes, de tu sistema Linux
al bucket S three, deberíamos ser buenos para crear
un sitio web a partir de esto. Ahora como vamos a
acceder a este bucket ST
a través de un sitio web, ahora necesitamos habilitar
este bucket ST para acepte permisos
para que sea navegado desde Internet Por defecto, ST bucket se crea con bloquear todas las direcciones IP
públicas, um, así que necesitamos deshabilitar eso para permitir que Cloud friend
sirva el contenido de, uh, este bucket STR
al público. Entonces para hacer eso, puedes hacer clic
en permiso por aquí. Y dentro de ese permiso, verá bloquear la configuración del bucket de
acceso público. Por lo que actualmente está encendido. Entonces, lo que significa que en realidad está bloqueando todo el
acceso público a este bucket. Así que haz clic en Editar
por aquí y luego desactiva esto y puedes
hacer clic en el botón Guardar. Entonces es conformar
y luego dar click en Enta creo
que tengo esa ortografía de. Haga clic en Confirmar y
esto debería
permitirle acceder a su bucket
desde Internet. Usted CloudFront
podrá usar esta
información y nosotros
podremos proyectar este archivo en
particular a través de Internet Así que ahora vamos a
CloudFront por aquí. Vamos a cerrar todo
esto y luego abrir CloudFront Así que ahora que
CloudFront está Ahora puedes hacer clic en Cloud
crear una distribución Cloud. Ahora, al hacer clic en la distribución de
CloudFront, puede seleccionar el
origen de su sitio web Entonces puede ser de cualquiera de este elemento de acción
que está por aquí, puede
ser de un equilibrador de
carga
si está apuntando su
aplicación a un EC dos balanceador de carga apuntará
a su aplicación en EC two y EC two apuntará a su aplicación
que se está ejecutando en ella Pero ante esta situación, la
vamos a usar desde S three bucket. Entonces este es el indicado
y desde aquí, el camino de origen por aquí, en realidad
podemos ignorar esto. Ahora mismo, no tenemos que
dar un camino de origen por aquí. Si tienes un nombre por aquí, que es, ya sabes, algo que puedes
usar como nombre de sitio web, y ese es el nombre que
puedes ingresar por aquí. Hay ciertos aspectos
que no puedes cambiar. Como, por ejemplo, este va a ser un nombre de amigo
en la nube, así que prácticamente puedes
tener lo que quieras. Pero tu nombre de dominio sería algo así por aquí. La ruta de origen es básicamente si quieres dar una ruta
específica después de esto, R no la necesitamos en este momento. Entonces solo vamos con público. Tan público, es decir,
cualquiera puede acceder a él. Si tienes alguna
cabeza o información personalizada, puedes dársela aquí. Entonces ahora esto va a
ir con Origin Shield. Origin Shield agrega capa de almacenamiento en caché
adicional, lo que ayuda a reducir la carga en el origen que ayuda a
proteger su disponibilidad Y ahora aquí tenemos
el comportamiento de caché, así que esta es la configuración de
caché aquí. El protocolo del visor es HTTP y HTTPS o redirigir HTTP a HTTPS.
Yo seleccionaría esto. Si alguien accede al sitio web HTTP, le mostrará el sitio web de
HGTV por separado, y el mismo control también
se mostrará en el
sitio web HTTPS Pero siempre es
muy recomendable tener solo navegación HTTPS. Pero aquí, si
seleccionas HTPS Oly, las personas que están intentando con HTTP en tu URL
no podrán acceder a él Por lo que siempre es tener una
redirección de HGTP a HGTPS Permitir método Entonces esto va a ser recibiendo
tu solicitud o tu o, ya
sabes, información del jefe de
información por aquí. Ahora bien, no se recomienda tener toda esta
información porque información de
publicación significa que también
puede enviar información
a su servicio. Eso no está restringido. Vista de acceso restringido. Esto es básicamente para
tu configuración de Cookies, y luego tienes algunas
configuraciones de Cookies por aquí también, la optimización de la política de caché, vamos a ir
con la predeterminada que se recomienda para ST. Vamos a tener los predeterminados
por aquí también. Ahora tienes
tantos ajustes aquí. Entonces aquí tienes
la protección vA. Por lo que estamos habilitando la protección
VAF
aquí para cualquier tipo de
ataque a nuestro sitio web Y luego aquí en el entorno, usa toda la ubicación de borde, mejor rendimiento, usa
Norteamérica y Europa. Por lo que esto va a estar priorizando
tu información. Entonces en base a eso el precio
dependería de. Si vamos a ir
por todas las ubicaciones de borde independientemente de la ubicación, cada ubicación de borde
va a recogerla. Entonces, si haces clic en la información de
precios,
CloudFormation, lo siento, precios de
CloudFront Ahora, verás que
hay un di gratis por aquí,
un TB de datos transferidos
fuera de Internet al mes es gratis o 10,000 solicitudes
HTTB o HTTPS por
mes o dos um, creo que son 2 millones de funciones de
Cloudfront en vocación por mes,
y luego certificado SSL gratis, sin limitaciones, todas las
características son Si quieres entender
el precio completo, si vas más allá del valor
definitivo aquí, puedes ver la nube
desde una TB jubilarse. Ya
te está dando una jubilación de TB. Ahora aquí, en realidad puedes
buscar precios por aquí, cuánta cantidad de transferencia de datos
quieres buscar. Es un GB por mes, transferencia de
datos, un
GB al mes otra vez. Número de solicitud
va a ser um, para un GB de datos
significaría 5,000 solicitudes, que es como en
este cálculo, verás que
cuánto te
van a cobrar, te
van a cobrar. El primero, va
a ser de 0.09 USD. Es bastante barato y el costo mensual total
es de unos 0.12 USD Este es prácticamente tu cálculo de Estados
Unidos, pero entonces
en realidad puedes, ya sabes, verificarlo para diferentes ubicaciones también y encontrar el cálculo para diferentes
ubicaciones por aquí. También tienes un paquete de
ahorro de seguridad por aquí, que en realidad
puedes usarlo para ahorrar leyendo
las preguntas frecuentes. Así podrás ahorrar hasta un
30 por ciento de, uh, ya sabes, por mes
en el frente de la nube. Pero de todos modos, formas en las
que vamos a usar el artículo básico por aquí. Entonces aquí la versión HTDV. Entonces, si tienes un certificado
personalizado, certificado
SSL, puedes
elegirlo desde aquí, pero vamos a
usar el predeterminado. Aquí está la versión del protocolo. Vamos a ir
con los predeterminados de
aquí y los registros estándar Lo que habla de
la solicitud del espectador, quién la está viendo y
puedes encenderla
y lo que significa que
puedes ponerla en un
cubo por aquí. Entonces lo pondremos en la cubeta
de prueba de aquí. Bucket no válido para
registro estandarizado habilitar ACO. De igual manera, no
lo necesitas en este momento
porque se complica. Haga clic en distribución,
y esto debería permitirle crear una distribución de
CloudFront Ahora, la distribución de CloudFront te
va a permitir crear un sitio web
y tenerlo alojado Y en realidad se puede ver que se encuentra actualmente en la fase de
despliegue por aquí. Dice la ficha de seguridad. Yo, ya sabes, es crear esto comparte tu opinión,
pidiendo comentarios. Sigamos por aquí y veamos la progresión de esto
en el estado de despliegue. Siguen desplegándose, por
lo que puede llevar un poco de tiempo. Solo estoy buscando cualquier
tipo de eventos por aquí que también puedas agregar páginas de
error personalizadas. Puedes agregar comportamientos, orígenes por aquí, seguridad. Si hay algún tipo de alertas de relator de
seguridad
o algo así, en realidad
puedes verlo También puedes consultar las métricas, tus
métricas de distribución aquí. No hay datos porque supongo, todavía
está pasando por aquí en términos de distribución
de despliegue. Déjame pausar el video y
pausarlo una vez que esto se complete. Entonces chicos, recién iniciados, se
puede ver que el despliegue
se ha completado y ve la fecha del despliegue
que se completa. Al hacer clic en esto y realmente
verá los
requisitos por aquí como en los detalles
de los detalles generales de esta distribución en
particular. Se puede ver la seguridad, se
puede ver origen. El origen realmente tendrá, el S tres detalles del cubo por aquí y ese es
básicamente tu origen. Entonces, si quieres navegar por
esta aplicación, puedes usar esta distribución
a mi nombre por aquí, pero aún está
modificada por última vez como desplegada
en este momento. Entonces, si solo
accedes a este sitio web, puedes ver actualmente
viene con Access esta noche. Ahora bien, esto resume bastante
que todavía se está desplegando, así que vamos a
esperar un poco más de tiempo. Entonces ya han pasado
como de diez a 15 minutos, así que tal vez tengamos que
esperar unos minutos más, y luego creo que debería
estar desplegándose. Um Así que ahora recuerda que
puedes editar este elemento de acción
en particular. Creo que hice algo
mal, supongo que aquí. Por eso volvió a
desplegarse porque la
última vez que
vimos que en realidad estaba dando
las líneas de tiempo por aquí, no
sé qué
hice mal por aquí, pero volvió a desplegar, dame algo de tiempo
así que déjalo arreglar Ahora, recuerde que en realidad también
puede mencionar la toga índice como su página
raíz, para tener el índice m
como su página raíz Aquí en la configuración de aquí, tiene el documento
raíz predeterminado. Aquí puedes seguir adelante y
editarlo y poner este,
um, índice a HGML por aquí
y puedes guardar los cambios Ahora, ¿a lo mejor yo hice esa
la razón? No lo sé. Si solo accedes aquí a este
punto índice HGML, veamos. Sigues obteniendo este acceso hizo excepción. Sólo
dame un segundo. Ahora bien, este error podría significar que el S tres no
es accesible, objeto
S tres, que está indexado a
STMO no es De ahí
viene el acceso Dinit. Ahora bien, ¿cómo lo vamos a arreglar? En primer lugar,
abriremos S tres e
intentaremos navegar por
el S tres y ver si el ST es realmente
accesible para que
podamos entender si
esto es un problema con el frente de Cloud o el propio ST. Abramos este
archivo S tres por aquí y
en realidad obtendrá una URL por aquí para navegar por este
archivo de manera pública. Nosotros hemos habilitado
hemos desactivado esto. Vamos a refrescar este. Cuando hago Control refresh, puedes ver que estamos obteniendo
el mismo resultado por aquí. El anterior
venía de caché. Cuando haces una actualización de Control, mantén presionado control y presionas F five, actualizará la
caché y te
pedirá que obtengas los nuevos resultados. Estás obteniendo este acceso
en el nivel S tres. Entonces, para que arregles este
problema del frente de
la nube, el frente de la nube
parece estar bien. Se trata de desplegar la aplicación, pero el problema es como que esta excepción
viene de S three end. Entonces para arreglar esta excepción, lo que puedes hacer es
como primero entender el permiso de tu bucket.
Un poco más encerrado. Entonces lo que hemos
hecho es, ya sabes, hemos desactivado el blog
llamado acceso público, pero aún así no hemos dado acceso público
a Access How bucket. Entonces como puedes
bajar por aquí, tenemos lista de control de acceso. Ahora, cuando lees la lista de
control de acceso de aquí, esto básicamente otorga acceso
al propietario
del bucket para leer y arrepentir, listar y escribir objetos y
leer y escribir ACL de bucket Bucket ACL, ya sabes, algo que
puedes hacer como dueño, eso es obviamente que no
puedes hacer eso Pero para el acceso público, se
puede ver que eso prácticamente no
está disponible por aquí. Ahora bien, aquí es donde
se complica. Ahora solo básicamente tenemos que
editar esto y habilitar
el acceso público, pero el problema es
como editar está deshabilitado. Cuando vea la información, este bucket tiene la
configuración de cumplimiento del propietario del
bucket aplicada para la propiedad del
objeto Entonces básicamente, se aplica
en el nivel topper. Entonces, si quieres
modificar, ya sabes, requisitos
específicos para
este bucket en particular, tienes que cambiar
la propiedad del objeto por aquí haciendo clic en Editar aquí y cambiar esto a ACL
deshabilitado para habilitar ACO Por lo tanto, debe reconocer
que está habilitando ACR para un bucket específico y luego
hacer clic en Guardar cambios Ahora cuando bajes
a la misma opción, verás el botón de
edición por aquí. Haga clic en el botón Editar. Ahora tienes Relación de objetos
y cubetas. Entonces para todos, acceso público, podemos enumerar los objetos
que están en el bucket, pero no podemos bucket
Co no se puede leer. ¿Bien? Así que sólo podemos enumerar
el acceso a los objetos. Así que solo haz clic en,
entiendo. Guarde los cambios. Pero solo aplica para aquellos que se van a crear
más tarde en el punto del tiempo, pero este ya está ahí, así que es posible que tengamos que hacer la configuración por sí mismo el permiso
Guru por aquí, y tienes el
conjunto similar de permisos que es como cada vez que se creó
esto, es el mismo
permiso en ese momento, simplemente haz clic en Editar por aquí
y leer sobre los objetos selecciona, gente pueda leer los objetos que hay
en este cubo público, y yo digo, entiendo, y luego guardo los cambios. Ahora cuando frentes esta
URL, mira si funciona. Ahora puedes ver que este es el mismo contenido exacto
de ese archivo en particular. Entonces ese contenido está funcionando. Cierra esto y
prácticamente actualiza esto y ya puedes ver que este contenido viene
de S three bucket ahora. Ahora bien, este contenido está básicamente alojado en tu amigo Cloud. Se puede ver la URL de CloudFront, cual la he tomado de
aquí desde este URO de CloudFront, luego la puse al otro lado de aquí Ahora cuando intento esta es
la información del bucket, S tres información del bucket. Si solo pones HTDP por
aquí, puedes verlo. Quieres desactivar esta
información, muy sencillo. Hay dos opciones para ti. Puedes cambiar la información del
bucket yendo al permiso de bucket, y luego puedes editar esto y puedes eliminarlo,
guardar los cambios. Ahora bien, esta información en particular no
vendrá.
Aún viene. Entonces eso es más o menos, ya sabes, pensé que deshabilitaría el acceso público hacia el
objeto, pero aún así, creo que es una información
general que te muestra el contenido
de lo que tiene. Entonces eso está bien, supongo. Entonces aquí tienes la información diciendo que
hay índice para archivar. Te dije que hay
otra manera, ¿verdad? Así que ve aquí al objeto
raíz y edita
este objeto raíz y di que objeto
raíz debería apuntar
al punto índice HGMO Entonces esta es también otra
forma en la que puedes desactivar esto. Pero supongo que desplegará
estos cambios ahora mismo. Entonces esperemos a que se desplieguen
los cambios. Puede tardar un par de minutos. O para que se desplieguen. Ahora creo que el
despliegue está terminado, supongo, dice despliegue. Pero si solo
escribes el sitio web, puedes ver que no
tienes el acceso que tenías antes y estás
obteniendo directamente el índice,
que es el archivo frontal. Entonces aquí, de esta manera
podemos evitar que esa información se imprima en la página principal de su sitio web de CloudFront Entonces ahora puedes ver
cuántas veces lo refresco. Me sale esta página sin
siquiera teclearla. Entonces si estás escribiendo HTTP
también, no hay problema, se redirige a HTPS y obtienes el índice
a GM de contenido Esto se debe a
que acabo de habilitar Index H GML como el objeto raíz
predeterminado En este caso, cada vez que acceda a este sitio web o a este nombre domin en
particular, obtendré el contenido
de Index H GMO Así es como puedes
alojarlo en CloudFront. Gracias de nuevo por ver este video. Fue
útil para ti. Déjame seguir adelante y eliminar
este frente de Cloud en particular porque no queremos que
esto se esté ejecutando porque va a
estar tomando gran parte de, ya
sabes, cargos de AWS, así que sigamos adelante y tengamos
este no implementado deshabilitado Y luego una vez que esté deshabilitado, tendrás la acción para eliminar esta instancia en particular, ya
sabes. Entonces creo que sigue
operativo, supongo. Sí. Entonces sí, solo
dale algo de tiempo y habrá opción para que elimines esto. Gracias de nuevo. Es sume el siguiente video.
57. Laboratorio que describe cuándo usar varias regiones: Hola chicos, bienvenidos de nuevo
al siguiente video. En este video, vamos
a hablar sobre cuándo
usar múltiples regiones de AWS. Ahora bien, esta es una de las preguntas
importantes aquí
sobre de aquí
sobre
que te pregunta cuándo
usar varias regiones de AWS. Entonces aquí vamos a
cubrir la recuperación ante desastres, la continuidad del
negocio, la baja latencia para el usuario final
y la soberanía de los datos. Entonces estos son algunos de los
elementos que vamos a ver como parte de este video
en particular. Ahora sí recuerda que
para la baja latencia, he creado un video
al final de la sesión. Bueno, completo el
siguiente ítem de acción. Al final de la
sesión, he creado un video práctico en el
que puedes probar las manos de latencia para entender un poco
más sobre la latencia. Eso es lo único que realmente
puedo mostrarles en términos de todos estos elementos de acción porque más o menos la recuperación
ante desastres, continuidad del
negocio y la soberanía de los
datos se basan en la teoría y no
hay una manera real
de implementarla. Pero la baja latencia es algo que puedo
mostrarte como un práctico. Pero para no perturbar
esta visión general del curso, pongo ese video al final
de esta sección en particular. Sigamos adelante en este
video y vamos a entender. En primer lugar, comenzaremos
con la recuperación ante desastres. Ahora, el uso de varias regiones de AWS puede proporcionar beneficios
significativos. En el VDO anterior,
hemos visto sobre trabajar con múltiples
zonas de disponibilidad, ¿de acuerdo Las zonas de disponibilidad
en realidad
le brindan una resiliencia hacia su aplicación
y le brindan alta disponibilidad para
su aplicación. Pero, ¿y si necesitas
más que eso? Por ejemplo, si
ves el modelo, de la infraestructura global. Entonces ahora mismo estamos por aquí. Hemos desplegado nuestra
aplicación por aquí en términos de la Virginia
del Norte, lo
siento, Virginia del Norte es donde hemos desplegado
nuestra aplicación. Tan perfecto. Por lo que ahora, mis clientes se
encuentran actualmente en las Américas, como en la parte norte de las Américas principalmente
en esta ubicación. Pero de repente estoy recibiendo solicitud de varias
personas de la ubicación de la India. Ahora, en esta situación, ahora necesito poner
un servidor en esta ubicación
porque cada vez que, ya
sabes, la gente accede a él, tiene
que pasar por aquí y luego acceder a
ella a esa región. Entonces eso se convierte, ya sabes, mucha latencia
por aquí viniendo de la India a las
Américas, ¿verdad? Entonces lo que hago es, como,
quiero implementarlo
en base a región de mi uh, ya
sabes, aplicación que
estoy alojando por aquí. Entonces, lo que hago es
planificar un servicio, un equilibrador de carga que en realidad
puede, ya sabes, equilibrar la
carga del
servicio entre la región americana y
la región india y alojar
mi servicio en la región de Mumbai Y la primera pregunta es, como, ¿podemos
hacer esto? Sí, podemos. Ahora, ahí es donde estamos
entrando en este tema de multi región para AWS. Aquí, el uso de varias regiones de
AWS puede proporcionar beneficios
significativos en términos de disponibilidad, rendimiento
y cumplimiento. Ahora, estos son algunos de
los escenarios que
puedes trabajar con múltiples regiones. Ahora, la recuperación ante desastres es una de las cosas importantes donde
el propósito es garantizar que la infraestructura y la
aplicación puedan recuperarse de manera rápida y confiable de fallas
como fallas en una sola región. trata de un fracaso basado en la región donde podría tratarse de
un ciberataque, lo que ha ocurrido
en la región de los árabes Entonces eso podría
impactar en varias regiones, lo siento, múltiples
zonas de disponibilidad en una región. Entonces esta es una estrategia replicando infraestructura
en múltiples regiones, que puede cambiar a una región
secundaria en caso de falla
regional o cualquier tipo de ataque a una región específica Ahora bien, si quiero
hacer lo mismo, también
puedo si tengo
clientes solo en EU,
puedo tener mi aplicación alojada en el Norte de Virginia,
UTILIZA una y
también puedo alojarla en Ohio Espo solo para tener
una redundancia por aquí y solo puedo
apagar las instancias hasta que si hay algún
desastre pasando por aquí, entonces puedo cambiar
a las Ahora, recuerda que
puedes configurar para
algunos de los servicios, hay una opción uh
de hacerlo también. Ahora en términos de continuidad del
negocio, el propósito es mantener una operación comercial
ininterrumpida durante interrupciones o desastres y garantizar que el servicio
permanezca accesible Ahora, la estrategia es
utilizar la región para replicar infraestructura
crítica y los datos manera que si una región cae, operación pueda
continuar sin problemas desde otra región Ahora lo siguiente
importante sobre la baja latencia para endcer Esto es lo que te estaba
diciendo al inicio del
video sobre baja latencia. Ahora aquí, el
propósito es asegurar que la latencia
entre el usuario final y su aplicación
mediante la implementación recursos más cerca de su ubicación
geográfica. Distribuyendo aplicaciones
en varias regiones, cada una cierra dos
bases de usuarios clave para garantizar que
se recomienda un tiempo de respuesta más rápido y una experiencia
de usuario mejorada. El siguiente es sobre la
soberanía y el cumplimiento de los datos. Ahora aquí, los datos son tan
importantes y para cumplir con las leyes
y regulaciones de datos locales que
requieren que los datos confidenciales se
almacenen en límites
geográficos específicos. Por ejemplo, um, un dato, que trata sobre la
información del usuario de una región específica, por su nombre y
etnia y, ya
sabes, su número de
seguro social o cualquier tipo de información
que
tenga hacia esos datos, necesita ser, sabes, cumplir con los requisitos
regulatorios en esa región específica porque
cada región tendrá requisitos
específicos como GDPR. Entonces de igual manera, uh, ya
sabes, necesitas cumplir con
esa información. Eso también es algo
que se puede hacer sobre una base regional. Entonces, si estás trabajando
con EAU, por ejemplo, entonces puedes tener tu propio centro de
datos UA en esa región, y esa región solo contendrá toda la información relacionada con UA
en esa región. Entonces esto es sólo un ejemplo. Entonces esto es más o menos, um, las razones por las cuales o
beneficios o cuándo usar multi región en
términos de trabajar con AWS. Gracias de nuevo por
ver este video. Te veré en la siguiente.
58. Introducción a la ubicación de los bordes del laboratorio: Hola chicos, bienvenidos de nuevo
al siguiente video. Hablemos de la ubicación del borde. Como puedes ver en la vista de lista, ves que hay estas
ubicaciones de borde en todo el mundo. Qué son las ubicaciones de borde y por qué estas muchas
ubicaciones de borde están ahí. Entonces, para entender sobre
las ubicaciones de borde, para que pueda ver que en
cada una de esta región, como en Norteamérica, tiene estas muchas ubicaciones de
borde. En Europa, tienes estas
muchas ubicaciones de borde, y en términos de América del Sur, tienes estas muchas ubicaciones de
borde. Y en Asia Pacífico, tienes tantas ubicaciones H. Ahora, sabemos que
tenemos dos, ya sabes, tenemos tres
zona de disponibilidad en India, puedes ver Hydrobad
tienes tres, tienes Mumbai, tienes tres Por lo que total seis zonas
ty disponibles en la India. Y eso se puede ver,
en Brasil, ¿no? Entonces tienes
uno disponible lo siento, tienes tres zona de
disponibilidad en Brasil en Sudamérica. Y respectivamente, también tiene
otras ubicaciones de borde. Ahora, a pesar de que tiene
tres zonas disponibles, pero todavía tiene estas
muchas ubicaciones de borde. Ahora, ¿qué es la ubicación de borde y por qué hay tantas ubicaciones de
borde disponibles? Ahora, las ubicaciones de borde
son centros de datos de AWS que sirven contenido al usuario
final con baja latencia. Ahora, forman parte de la red de entrega de
contenido de AWS, se llama CDN Y lo que entregan
es que almacenan en caché. Ellos guardan todas las cosas
que ustedes hacen. Y luego, cuando
refrescas la página, no viene del servidor, sino que viene de
la caché porque la caché se mantiene en
la red de entrega de
contenido, que son estas ubicaciones de borde. Así que ahora como puedes ver que cuando estás alojando cualquier tipo de contenido en Brasil y ubicación de
tu cliente
es en Brasil. Entonces,
naturalmente, elegirás tu región como Basilea y
luego estarás alojando, ya
sabes, tu
aplicación en Brasil. Bien. Entonces cuando haces eso, cuando alojas tu
aplicación en Brasil y tendrás tu instancia
EC dos y todo creado en
Brasil porque estás atendiendo al cliente
que se encuentra en esta ubicación. Cuando estás atendiendo
al cliente que se encuentra en esta ubicación, que es Brasil, ahora, todo tu contenido vendría de este centro de
datos en particular, ¿correcto? Pero hay esto, ya
sabes, en el Sur,
tienes Bogotá. Entonces es otro lugar en
Sudamérica, um, y, um, creo que es parte de, como pueden ver, esto
es parte de Colombia. Y hay otros lugares, cuando se habla de
Brasil, gente, no sólo en Brasil, sino luego gente de Bolivia,
Perú, Colombia, Venezuela. Por lo que en realidad estarán
tratando de acceder a su sitio web, que está disponible
o su aplicación, que está disponible en Brizo Ahora, cuando haces eso, necesitas
una ubicación de caché, ya
sabes, alrededor de esto. Oh, bien, entonces, bien, así que este es el nombre del país
real. Bien, no me di cuenta. Entonces esto es Buenos
Aires, Argentina. Tienes algún otro lugar de Brasil Las Bo y luego Perú
por aquí, y luego Chile. De igual manera, como te dije, derecho, gente estaría navegando por
aplicaciones desde diferentes ubicaciones como
Argentina, Bolivia, Perú. Acabo de mostrarte que
esto es Columbia. Lo que han hecho es que
contratarán un pequeño lugar donde tengas este
par de servicios, que es de AWS llamado Content Delivery
Network o AWS CDN, así
como Amazon CloudFront Usarán Amazon
CloudFront y pondrán estos dos servicios en diferente ubicación por aquí Entonces, cuando la gente navega por tu aplicación
desde esta ubicación, entonces la caché sucedería
en esta ubicación misma. Y no tiene que viajar, ya
sabes, tu
solicitud de webset no tiene que viajar hasta aquí También puedes controlar
el nivel de caché, ya que en like puedes controlarlo cada 24 horas donde
puedes borrar la caché. Entonces la primera, ya sabes, después de 24 horas, la caché
se borra automáticamente, y la primera solicitud
irá a buscarla del servidor real
que está alojado en Brasil Y luego una vez que baja
el contenido, bien, se
carga en la CDN Y CDN entonces comenzará a dar el contenido de
su fuente local, que es su red de
entrega de contenido por aquí Ahora, en este método, tu contenido será mucho más rápido, recibirá mucho más rápido. Y sí, es información en
caché, pero aún así
será mucho más rápida Pero recuerda que
la caché se puede activar o desactivar en función del sitio web con el
que estés tratando. Entonces por ejemplo, si
quieres revisar tu solicitud bancaria para verificar la cantidad de
dinero en tu cuenta. Ahora bien, el contenido de caché es inútil
porque no puede mostrarte, ya
sabes, la
información repetida durante 24 horas. Por lo que necesita ir a buscar la información más reciente
de tu banco Entonces lo que significa que
en esa situación, no
hay caché, y no hay uso de tu red de entrega de
contenido. Pero si se trata de un sitio web de comercio electrónico donde durante las próximas 24 horas, las ventas no
van a ser cambiadas. Por lo que va a ser fácil
si sostienes las imágenes de ese producto en particular en la red de entrega de contenido y luego obtienes esa
imagen del producto descargada. Porque si tomas toda la
página directamente en un sitio web, los artículos que está tardando más tiempo en cargarse
son tus imágenes, ¿correcto? Entonces, si tus imágenes
pueden cargarse más rápido, los datos se pueden actualizar
desde la base de datos. Entonces es por eso que normalmente
mantienen una URL separada para las imágenes y una
URL separada para tu contenido. Para que cuando guardes en caché, el caché
contendrá las imágenes y todos esos videos grandes
y cosas
así, por lo que será mucho más rápido para ti descargar
el video en reproducción. Debido a que alguien de
tu zona ya
habría descargado ese video, ese video ya estará disponible
en la caché. Entonces, en lugar de
descargarlo desde una ubicación lejana, lo descargará de
la ubicación más cercana porque ya está en caché Esta es la razón
de una ubicación de borde. Este es el ejemplo que
quiero
darte y en el siguiente video, veremos la relación entre todos estos
tres para que puedas entender la
relación entre porque esta pregunta
habla de la relación también. Por lo
que concluiremos eso con el siguiente
video donde
hablamos de la relación entre región disponibleBt
zonas y ubicación Gracias de nuevo.
Te veré en el siguiente video.
59. Configuración de la conexión de peering de laboratorios: Oigan, chicos. Bienvenidos de nuevo
al siguiente video. En este video, te
voy a contar cómo hago ping al servidor en
otra región. Este es un video extra, si quieres ver hasta
ahora cómo configurar comunicación
entre pares para hacer ping de una máquina virtual a
otra máquina virtual, que está en una región diferente. Así que abre dos consolas ECT solo
estoy haciendo clic en el medio consola
ECT dos veces, y luego nosotros PC dos
veces también. Sólo estoy dividiendo la
consola EC dos al lado derecho. Tengo EC dos consola, BPC,
VPC y E o si no
lo puedes hacer fácil dos y VPC otra A está en la misma
región en este momento como puedes ver aquí en
lo más destacado de aquí, todo está en la USC Voy a abrir esta instancia 21
EC dos y VPC para North Virginia Y luego voy a cambiar
esto a la región de Mumbai. Por lo que no tiene que
ser región de Mumbai. Podría ser cualquier otra
región para esa materia. Así que ahora las sesiones que
vas a hacer
aquí continuarán realmente
para UMBirgion por aquí, y esta VPC también
reflejará Entonces necesitas hacer dos
conjuntos de configuración. En primer lugar, es
necesario tener instancia ejecutándose y necesita tener una dirección
IP asignada a ella. Ahora, las series de direcciones IP
básicamente se basan en la subred de la VPC a la
que estás asignando Cuando estés creando
cualquier tipo de servidor, realidad
estarás creando
un servidor en una uh,
VPN específica, ya sabes, lo siento, VPC, y ese BPC se
especificará al momento de crear o
lanzar la instancia Ahora tienes la VPC
predeterminada por aquí, que actualmente se está ejecutando Esta es la VPC predeterminada. Estas son las subredes predeterminadas. Se
crearían automáticamente varias subredes para cada región y estas son el
número de zonas disponibles. Basado en el número
de zonas disponibles, tendrá el
número de usted puede ver esa
zona de disponibilidad por aquí, y tendrá el
número básico de subredes aquí Esa es la
configuración por defecto. El predeterminado, no
habrá conexión PR, por lo que no debe
encontrar esto también. Acabo de editar el
que utilicé para la creación. Entonces habrá puerta de enlace de Internet, habrá tabla de ruteo. La tabla de enrutamiento es
cómo puedes
acceder a Internet porque
estás usando la puerta de
enlace de Internet por aquí. Bien, la puerta de enlace de Internet es
para asegurarse de que la VPC esté conectada a
su red local así
como a su
Internet también Entonces esta es la serie IPTRSS. Si ves la subred tendrás la
información de sidra por Entonces como tienes seis de ellos, así estás dando únicos, pero si ves esto
dos primeros no cambia 17231, y luego para diferente, zona de
disponibilidad,
estás dando ocho, empieza desde cero y luego 16 32 y luego 48 y
después 64 y 80. Esto le da bastante el número de direcciones IP disponibles
para que las asigne. Recuerda que esta VPC y esta dirección IP es
para tu red local, lo que significa tu sistema, lo que significa usar esta, puedes asignar 491 sistemas
con una dirección IP cada uno Eso es lo que esto significa. Esta es la cantidad de instancias
que puede crear dirección IP
disponible
que le indica cuál es el número de iPaddre disponibles
para cada Entonces este es
más o menos el predeterminado. No hemos hecho ningún cambio
al predeterminado. Aunque tenemos el predeterminado, en realidad
usaremos uno personalizado. Hablaremos de eso. Como nos estamos comunicando desde su región de Virginia del Norte
a Mumbai. En primer lugar, es necesario
crear una instancia EC two. Pero el problema si crea una instancia de EC two en este momento, obtendrá una excepción
más tarde en el momento porque cuando esté
haciendo una conexión de pares, no
funcionará. Si ves que creas una conexión
entre pares aquí, crea una conexión de pares, y aquí, solo da
un nombre aleatorio. Entonces Estados Unidos dos I&D
Entonces esto es básicamente Estados
Unidos a India. Entonces esto es básicamente Estados
Unidos a India Y aquí, el VPC
es el D cuatro VPC, lo
estoy recogiendo, que tiene la información de sidra de 17231 Recuerde que
la VPC que se crea por defecto en todas las regiones utilizará la
misma información de sidra Entonces, si haces clic en la
información de sidra de aquí, verás que esto
se agrega manualmente Voy a quitar lo que
agregué manualmente. Así que solo quita esto. Entonces tendrás
esta única sidra. Entonces, si ves la sidra, 17231 está emparejando
la sidra de aquí Entonces, si trato de crearlo con
la misma información de sidra, así que solo tengo que
copiar este ID de VPC por aquí y
seleccionarlo, no debería ser Entonces aquí seleccionas,
aquí seleccionas dos. Por lo tanto, seleccione otra
VPC a la anchura del par. Entonces aquí, selecciona otra
región y dale Mumbai y dale el ID de VPC Ahora bien, esta ID de VPC no funcionará. Te lo diré, te voy a
mostrar. Simplemente haga clic en Crear conexión PR. Una vez que hagas clic en eso,
vuelve a por conexión nuevamente, y verás que ha fallado. Al hacer clic en esto para entender la razón por la que falló, falló debido a
que el ID de VPC es
incorrecto o el ID de conteo es
incorrecto o la sidra superpuesta En nuestro caso, es
sidra superpuesta porque la que
estamos tratando de conectarnos y a la que estamos tratando de
conectarnos está en
la misma red Para que puedas ver el 17231. Y aquí también en la
VPC, es 17231. En un lado,
debería ser diferente. Bien. Entonces voy a usar
el predeterminado en esta um en
particular, región del norte de
Virginia. Y aquí voy
a crear una nueva VPC, simplemente haga clic en Crear VPC luego
VPC y luego el nombre de la
misma va a ser um, prueba de
latencia VPC, versión IP para entrada manual, y he dado 17232 punto
cero punto cero Ahora bien, si ve el comparar
esto, este es el 31. Estoy dando 32 por aquí. Entonces esta va a ser
una dirección IP única y el arrendamiento es predeterminado No seleccionar dedicado. Te va a estar cobrando más. Y recuerda esto antes crear VPC, las VPC se cargan Entonces, si vas a
crear más de una VPC, se te va a
cobrar, pero no tanto si ves la VPC por aquí y
la VPC por aquí, falta algo Esa es tu subred.
Si ve eso, hay subredes por
aquí adjuntas a la
tabla de enrutamiento y luego a su puerta de enlace de
Internet este momento, no hay aquí hay una tabla de ruteo
que es creada por Defa pero no hay una
subred por No hay
conexión a Internet también aquí. Entonces necesitamos hacer
algo de actividad aquí, primer lugar, para crear
subred. Así que ve a la subred Ahora, ya tienes tres
subredes las cuales ya están asignadas a VPC aquí, así que no
puedes hacer nada Entonces se puede
asignar un subnt a una VPC. Se puede ver que se
le asigna a 31 series IPR. Entonces estamos usando una
nueva VPC en sí misma. Entonces vamos a estar cambiando
este nombre de VPC. Bien, entonces crea una
subred, selecciona la VPC. Entonces ves la prueba de latencia VPC. Este es el nombre que
hemos dado, ¿verdad? Y también muestra
17232 por aquí. Entonces esto es lo que necesitamos.
Aquí, da un nombre sub neto. Ahora primero intenta entender cómo se
configuran los nombres de subred. Medio haciendo clic en la
subred por aquí, y luego estoy seleccionando esto mirando el nombre de la zona de
disponibilidad de subred Entonces tengo esta B, una C, una A. Puedo entender que
hay tres, entonces debería ser una B, una A. Entonces primero
configuraré una subred aquí y luego seleccionaré
una A por aquí Y entonces se puede ver que
el bloque de sidra de aquí, por lo que debería ser el
mismo IPdreso Punto cero punto cero slash 16. Debería ser lo mismo
para la primera, pero puedes agregar otra
subred aquí misma No es necesario
que agregue los tres elementos. No tengo que añadir tres. Puedes agregar solo dos también
eso está completamente bien. Pero al menos dos deberían estar
ahí como parte de una VPC. Entonces para eso a bajo balance y, ya
sabes, fallar tolerante a
caídas En realidad no se puede volver a dar
esta dirección IP. Si vas a
dar la misma
dirección IP aquí y aquí, lo que está pasando es
que el bloque de sidra el Estin que estás
creando para esta
también para que seleccione esta zona
de
disponibilidad en particular utilizará la misma serie de direcciones
IP, que tiene unas 65 mil direcciones
IP si
eliges esta Pero el problema es
así también usando la
misma dirección IP. Entonces se convertirá en un problema. No lo aceptará. Si haces clic en el crear, dirá superposición de direcciones.
Hay que cambiar esto. Puedes usar esta barra y
puedes cambiarla a la
siguiente disponible. Eso es raro.
Normalmente cambia, así que puedo ir a 16 por aquí. No sé por qué no está
funcionando por alguna razón. Pero puedes cambiarlo así. Si ves
también el anterior , dirá
lo mismo. Entonces 310, 311-63-1302. Para cada sidra, tienes que dar extensión
de esta dirección IP para que tengas disponible la
cantidad específica de IPDdress Entonces ahora solo estoy dando dos de
esto y lo cambié a 16. Ahora Clic en crear subred
debería funcionar realmente. Veamos cuál es
el tema aquí. Creo que tengo que
dar 22, supongo. Permítanme
confirmarlo sólo un segundo. Sí, tengo que dar
20 por aquí, no 16. Lo siento. 20 por aquí, 20 por aquí como Bob. Por eso no estaba cambiando. Entonces, si va a default, creo que ahora va a cambiar. Puedo ver eso cambiando 0-16. Perdón por ese error. Ahora ves que 4,096 IP Rs disponibles porque
he dado 16 no funcionó El rango es tan grande, viste que venía
a 65.000 iPs que podemos usar Por eso
no me funcionaba. Ahora es fijo nutricons crear subred y tienes dos
subredes creadas por aquí Entonces, en conjunto, tienes uh, tres subredes para tres zonas t
disponibles en la región de Mumbai
y dos de ellas. Ahora que hemos completado la creación de la subred y la hemos
asignado a VPC Ahora si vamos a VPC,
seleccionamos la VPC, verás mapa de recursos Tienes la subred
configurada a una tabla de rutas, pero no hemos configurado
la tabla de rutas correctamente Pero antes de ir
a la tabla de rutas, configure la
puerta de enlace de Internet o de lo contrario su servicio, que está alojado bajo esta VPC no
llegará a Internet Para que puedas ir a
Internet Gateway, crear una nueva puerta de enlace de Internet. Y luego prueba de latencia IGW lo estoy dando como nombre de puerta de enlace de
Internet Ahora en esta puerta de enlace de Internet, necesitas hacer una configuración. Hay que conectar VPC
para puerta de enlace de Internet. Seleccione la VPC, la VPC de
prueba de latencia y haga clic en adjuntar. Ahora, si vas a VPC y
revisas la asignación de recursos, verás esta configuración de
red Pero lo que no verás
es el adjunto de
esta tabla de rutas y
la puerta de enlace de Internet. Si ves este de aquí, ves que está
adjuntando por aquí. Entonces hay una comunicación. Entonces, para apegarlo,
ve a Tabla de Rutas. Ya tengo una tabla de rutas, así que en realidad se puede
ver desde aquí. Dice tabla de rutas. Simplemente puede hacer clic en esto abrir la tabla de rutas, luego su pestaña. Ahora puede ver que esta es
una tabla de ruta predeterminada la cual se asigna a esta latencia
particular Test VPC Ahora, esta es la configuración
predeterminada que viene con
cada tabla de rutas. Esto te habla de
la serie 17232. Ahora, haga clic en Editar tabla de rutas. En esta tabla de rutas, es
necesario especificar lo
que la está enrutando. En primer lugar, haga clic en. No modifiques el local
, que sea así. Hagamos clic en Agregar
ruta por aquí y busquemos el
Internet frente a uno. ¿Qué quieres
adjuntarlo con Internet? Todo toda la dirección IP, que está en esta VPC en particular, debe tener acceso a la
puerta de enlace a Internet Seleccione la
puerta de enlace de Internet por aquí y dé la puerta de enlace de Internet
que acabamos de crear. Ahora lo que pasa es que
esto va a ser etiquetado. Entonces esta tabla de rutas sabrá sobre esta puerta de enlace de Internet
que hemos creado. Ahora cuando vaya a
VPC, seleccione la VPC. Si vas a mapas de recursos, verás que hay una conexión por
aquí ahora mismo. Así que cualquier cosa cualquier tipo de servicio EC dos instancia
que vas a crear ahora se conectará a
esta puerta de enlace de Internet. Si ha seleccionado esta VPC como parte de la instancia EC two Ahora tendrás dos opciones
en selección hacia VPC. Necesito seleccionar esta VPC
si quiero usar esta, um, ya
sabes, conexión de emparejamiento
porque usará esta
serie de direcciones IP Entonces, si creas, te
voy a mostrar eso, solo te
mostraré rápidamente, um, así que ahora mismo, estoy
en la VPC aquí Estoy en la EC de dos instancias aquí. No hay ninguna instancia ejecutándose
como una que se termina. Haga clic en Launch Instancia y luego haga una
prueba de una instancia. Una instancia de prueba
utilizará la VPC predeterminada. VPC predeterminada no es la
que configuramos, así que puedes ver la VPC predeterminada Ahora, cuando solo selecciono este
predeterminado por aquí, nuevamente, necesitará crear un nuevo par de claves aquí para
esta región en particular. Keypair es completamente diferente. Necesitas crear
otro par de claves por aquí y
necesitas descargarlo. Recuerda elegir PPK si estás planeando acceder
al servidor, pero yo no voy a
acceder al servidor, así que solo lo voy
a hacer como demo Ahora cuando creo este servidor, su servidor está funcionando en estado, pero ves la
dirección IP, es 17231 No puedo hacer el emparejamiento cuando tiene el mismo rango de direcciones
IP. Necesita tener un rango de direcciones IP
diferente. Para ello, sólo tengo que
terminar de nuevo esta instancia. Esta vez, necesito
lanzar instancia. Lo mismo, prueba de latencia. Entonces esta vez
voy a dar click en. He seleccionado la lógica web
como un seudónimo clave. Voy a editar esta configuración de
red y
cambiarla a la VPC de prueba de
latencia Ahora en esta ocasión,
puedes ver que está seleccionando ya sea APA o B, puedes seleccionar la zona
disponible que quieras Y luego aquí en para asignar dirección
IP, habilitarlo. Esto básicamente significa que te
dará un
PublicipAddress Haga clic en Launch Instance, va a crear
una instancia por aquí. Ahora bien, esta instancia va
a estar funcionando muy pronto. Así que solo haz clic onda fresca. Ahora se puede ver
que está funcionando. Ahora bien, esta instancia se está
ejecutando en 17232, uno. Esto es lo que
queríamos tener eso. Ahora que te estás ejecutando en esta dirección IP para que puedas copiar
esta dirección IP Intenta hacer ping desde el
servidor de North Virginia, pero no haría ping porque no
hemos hecho una configuración. Esa es una configuración de peering. No hemos terminado de pelar. Entonces ahora sigamos adelante y hagamos
la configuración de emparejamiento. Ahora para hacer la
configuración de emparejamiento, solo
tienes que ir a cualquiera de los servicios,
ambos están bien. Entonces recomendaría ir a North Virginia VPC una vez que estés
en la VPC de North Virginia, hay una
conexión de emparejamiento por Simplemente haga clic en
Conexión de peering y luego cree una nueva conexión de
peering. Seleccione el nombre de la
conexión de emparejamiento, lo que elija, y luego
seleccione esta VPC en particular, seleccione otra región
como destino,
seleccione la región de Mumbai o la región
que haya configurado Nueva VPC, copia el nuevo ID de VPC, que está alojado en Porque esto está usando una serie de direcciones IP
diferentes. Ahora, haz clic en Crear emparejamiento. Ahora vuelve a la conexión de
peering. Ahora puedes ver esa solicitud
inicializada así que esta salida es diferente Ahora ha cambiado a aceptación
pendiente. Ahora si acabas de
regresar a tu VPC de Mumbai, si vas a
conexiones de peering Si acabas de actualizar esto, puedes ver esa conexión
pendiente y aquí hay información. Puede aceptar o rechazar la solicitud de conexión
pendiente
otro menú de acción. O el tiempo de hoy para hacerlo. Así que ve aquí,
acción, acepta solicitud. Ahora esto va a aceptar esta solicitud y
va a crear comunicación sidra de
la 17231 a la serie 17232 Acepte la solicitud. Ahora,
veamos si se trata de provisiones. Y se puede ver que
está activo en estos momentos. Entonces tienes la fuente, solicita una sidra, aceptas el
CIDR por aquí, Ahora, una cosa más que debes
hacer antes de acceder a ella. No creo que
vaya a funcionar ahora también. Lo único que necesitas
hacer es establecer en el nivel EC dos de tu
um, grupo de seguridad. Entonces grupo de seguridad necesita ser actualizado porque actualmente solo acepta 22 número de puerto
hacia todas las fuentes, ¿verdad? Entonces hay que indicarle que acepte el ping ICMP también porque
sin el ping ICMP,
no puede hacer ping a sí mismo
también porque no permite el ingreso de ICMP en ninguna
parte ICMP es su solicitud de ping. Ahora haga clic en Editar reglas de entrada y luego seleccione ICMP desde aquí, IP versión cuatro, y
luego simplemente le da todo Luego haga clic en guardar
regla y luego esto debería permitir reglas ICMP
como conexión entrante Creo que he reemplazado como tal. No hagas eso. Tienes que agregar una nueva regla haciendo clic
o agregando una nueva regla. Perdón por eso.
Creo que he reemplazado. Pero no importa
para nuestro entrenamiento, uh, está completamente bien. Aún no
tienes acceso a él. Déjame confirmar si esta
es la dirección IP, que estoy ejecutando
es correcta o no porque la dirección IP habría cambiado si
crearas otra. Parece que es el mismo
, dame un segundo. Bien. Una cosa más
que tenemos que hacer es eso. Entonces ahora que has activado tu
conexión de emparejamiento, bien, tu tabla de rutas en
la conexión de emparejamiento está vacía. ¿Ves eso? Entonces no hay manera de que el
enrutamiento ocurra a través de VPC. Entonces necesitas crear
una tabla de rutas, y cuando miras
esta tabla de rutas, deberías ser parte de la tabla de rutas
existente, que forma parte de tu VPC Entonces si vas a tu VPC, ve a Mapeo de recursos, tienes la tabla de rutas aquí, haz clic en esta, abre
otra ventana En esta ventana, al igual que
configuras la puerta de enlace de Internet, necesitas editar la
ruta y agregar una regla. En esta regla, en realidad
no se puede repetir la misma instancia por aquí. No te permitirá
repetir la misma instancia. Yo solo intento eso luego dar conexión de
emparejamiento por aquí. Esta es la conexión de emparejamiento. Entonces te está diciendo
qué conexiones
prear y realmente obtienes
la sugerencia por aquí Este es el que
actualmente está siendo um, ya sabes, usado. Así que selecciona esa
conexión de emparejamiento y guarda los cambios. Ahora, estaba diciendo
que ya existe. Entonces eso es lo que
dije que
en realidad no se puede usar la misma serie de direcciones
IP. Por lo que también puedes dar
0.0.0.16. Así que simplemente haz clic en Guardar y en realidad
podrás ver eso. Entonces puedes dar
alternativamente uh, este en lugar de esto, también
puedes dar la dirección
remota también. Entonces puedes dar 17231
punto cero punto cero slash 16 pero si das
0.0.0.16 Significa todo en esa serie en ese lado en particular. Esto también se puede
dar y hacer clic en O Guardar. Ahora, si vuelves a la
conexión de peering y seleccionas
esta conexión de emparejamiento, ve a Tabla de rutas, verás la información de ruta por aquí Esto más o menos te dice que se crea la tabla de rutas. Ahora sigamos adelante
y veamos si prende. Bien, sólo dame un segundo. Entonces, lo último que
se supone que debemos hacer para que eso
funcione es ya que
hemos completado la adición de tabla de
rutas en el servidor de destino, que es Mumbai, ahora necesitas
hacer la misma
adición de tabla de rutas para, ya sabes, la adición de PCX como en, como, por adición de conexión en
tu servidor fuente también Entonces aquí le hemos dado la información del servidor
fuente, que es su información de
sidra de origen y el PCX en el servidor
fuente Ahora hay que
dar lo mismo por
aquí en esta tabla de ruteo. Ahora ve a VPC, estamos
usando la VPC predeterminada, ve a Mapa de recursos,
y obtendrás el atajo aquí
para tu tabla de rutas Si vas en este método, no
te equivocarás porque a veces habrá enormes tablas de ruteo,
no sabes cuál es. Si descubres la VPC
y ves el mapa y realmente
llegarás a la tabla de ruteo
real,
la correcta Entonces dentro de la tabla de ruteo, estás teniendo estas rutas
por aquí, edita esta ruta. Y luego agregar una
regla y luego dar la dirección IP del otro extremo. Es 32320 punto
cero punto slash 16. Si miras esto, toma
un ejemplo por aquí. Aquí has insertado la conexión
entre pares con 31, que es tu servidor fuente. Ahora aquí, tienes que dar el
servidor de destino por aquí y volver a
dar la conexión entre pares y usar el ID de conexión del mismo nivel. Por lo que también se puede ver
que está diciendo US IND. Este es el
ID de conexión de pares en el extremo remoto. Entonces eso es algo
que estás recogiendo y luego guardando los cambios. Ahora después de guardar los cambios, puedes simplemente seguir
adelante e intentar anclar la dirección IP y
verás una respuesta del servidor. Entonces, lo que significa que
está obteniendo una respuesta de esta instancia de
servidor en particular. Entonces así es como tienes que
usar la conexión de
emparejamiento entre regiones para que
puedas llegar a un servidor
en un host remoto. Ahora puedes hacer SSSarh
también al host remoto. Solo hay que habilitarlo en el
grupo de seguridad de servicio, lo siento. Entonces una vez que estás en
el grupo de seguridad, agregado grupo de seguridad,
agrega regla S tal, y luego puedes mencionar
que 172 u un conjunto 231 punto cero punto cero slash 16 31 series, cualquiera
puede hacer SS tal. Ahora, si solo se guarda
la regla por aquí, ahora,
SSsuch está permitido a partir del 31 Voy a hacer SSsuch no
tengo la clave,
así que no voy a poder iniciar sesión, pero se puede ver que esta aceptando la conexión por mí No tengo la llave, así que no
voy a poder iniciar sesión. Pero si tengo la clave, puedo poner la clave por aquí y puedo iniciar sesión
fácilmente porque he abierto esta conexión
por aquí a
esta serie iPre porque la
estoy navegando desde la región de Virginia del Norte hasta el servidor que está
alojado en la región de Mumbai Una vez que el par esté conectado
y cuando haya agregado la ruta al
par, um, en realidad, cuando haya agregado
el par a la ruta, va a ser
muy fácil
para usted configurar un grupo de seguridad. Ahora también puedes crear un grupo de seguridad
para este propósito. Y luego cada vez que
creas una misión EC two, usas ese
grupo de seguridad en
lugar del predeterminado que se crea cada
vez que creas un EC two porque cada vez
que lanzas una instancia de EC two, vas a obtener
un nuevo grupo de seguridad, tienes tantos grupos de seguridad porque cada vez que
lanzas una instancia de EC two, básicamente crea una nueva. Entonces para evitar eso, puedes
crear uno por defecto, y puedes
llamarlo como predeterminado. Y cada vez que creas
una instancia EC two, puedes seleccionar ese grupo de seguridad
en particular. Bien. Entonces este es solo
un video para mostrar cómo es capaz de comunicarse a
través de otra VPC Ahora, recuerde que las VPC se cobran en función
del número de VPC Una VPC va a ser gratuita. Entonces, si vas a
tener múltiples VPC, va a ser un problema Entonces, en primer lugar, eliminar la conexión de
emparejamiento por acción. Conexión de emparejamiento Delet. Tabla de ruta directa
también, seleccione esa opción. Entonces esto dirote
mesa en ambos extremos, y luego podrás
ver que está Una vez que hayas hecho eso, sigue
adelante y elimina la
VPC, mira si te permite No. Todavía necesita el um, creo que el recurso
necesita ser terminado. Entonces esa es nuestra uh
EC dos instancia. Así que sólo vamos a cerrar nuestra instancia de
EC dos por aquí. Entonces esto nos va a ahorrar
algo de dinero. Así que cuanto antes lo hagas, antes te lo quitas, ¿verdad? No se va a
cobrar porque podría ser de 1 hora en
cualquier momento, así que es mejor quitársela. Así que solo quita las subredes. Estas son las subredes extra
que he creado con el nombre D. Así que se borra subnas Creo que ya puedo intentar
borrar con PC. Puede tomar un
poco de tiempo. Entonces eliminemos también la tabla de
rutas. La mesa de sequía,
pero no va, entonces es la tabla principal de rutas. Puede tomar un
poco de tiempo para estos soles de clase de arranque
se eliminen Dretke, vamos
a tratar de derribarlo. Bien. Ahora va a bajar
una vez que borras la subred VPC se elimina ahora, y deberías ser bueno con
las tablas de ruta también Por lo que esto también se eliminará y su conexión de emparejamiento también
se eliminará. Esto
te cobrará por que te
cobren o recibas un poco de pago
extra. Entonces aquí, la conexión de emparejamiento, si borras en la región de Mumbai, dele aquí también Entonces no hay necesidad de que
lo digas por separado. En cuanto a ruta, también
eliminará la ruta. Entonces subred, no hemos creado ninguna VPC,
no hemos creado Entonces eso debería deshacer todo el trabajo que hemos
realizado hasta ahora y
va a impedir que te
cobren al día siguiente por la mañana. Gracias de nuevo por
ver este video. Si tienes alguna duda,
déjala en la sección de preguntas. Realmente agradezco
tus comentarios porque por tus comentarios es como me voy a asegurar mejorar mi trabajo y mejorar
mi formación en base a eso. Gracias de nuevo.
Te veré en el
60. Introducción a las regiones de los laboratorios: Hola, chicos. Bienvenidos de nuevo
al siguiente video. En este video,
vamos a entender cuál es la relación
entre regiones, zona T
disponible
y ubicación de borde. Este es el primer tema
en los enunciados de tareas 3.2, por lo que podemos entender cada uno
de estos componentes, y luego vamos a entender la
relación entre ellos. Entonces, para continuar, te
he dado el mapa
del mundo por aquí. Digamos que también revisaremos el mapa mundial en términos de
AWS en su propia página web. Pero tratemos de asumir
que este es tu mapa del mundo. En este mapa del mundo, una de las regiones en tu
mapa mundial es la IP de Estados Unidos y él es una. Este es el nombre de la región
que es personalizado por, ya
sabes, AWS para
mantenerla como nombre de región. En primer lugar, entenderás
la región en este video y luego iremos a las zonas de disponibilidad y luego a las ubicaciones de borde. Entonces, en primer lugar, comencemos con
región. ¿Qué es la región? Región es básicamente
en un término general, habla de una
ubicación específica en tu mapa. Por ejemplo, América
es una región, y entonces quiero decir, en América, usted tiene América del Sur,
tiene América del Norte, que de nuevo es,
clasificaciones de regiones por allá Entonces, cuando los árabes quisieron
mencionar regiones, así que querían asegurarse que ahora las regiones estén
separadas por nombres por aquí Ahora en este nombre por aquí, se
puede ver US East one. Entonces, lo que esto significa
es que tiene el alcance de ir al Este
dos y al Este tres
también para que en realidad puedan aumentar el número de
regiones dentro de este Este de Estados Unidos. Ahora se puede ver a ese EU
como es Estados Unidos y se puede ver al Este diciendo que está
en el lado este. Entonces hacia el lado de Nueva York se llama básicamente
el lado Este. El lado oeste es básicamente Los
Ángeles y Las Vegas. Esos son considerados como el lado oeste o el extremo
oeste de EU. Y entonces las regiones centrales
son básicamente Texas o, ya
sabes, que viene
en la región central. Entonces, de igual manera, lo que han
hecho es como en Oriente, lo
han hecho uno,
es la primera ubicación la
que AWS ha comenzado
con sus servicios. Entonces esto es básicamente una región. Llamado USC's one, que
tiene múltiples centros de datos. Por lo que el número mínimo de centros de datos que
debe tener una región es de dos. Este es el
requisito mínimo para que AWS
tenga tolerancia a fallas
entre dos centros de datos. Esta es la razón por que cada vez que se acerca una nueva
región, se
asegurarán de que
la región tenga al menos dos o dos mínimo dos se mantenga como los centros de datos como
parte de la región. Los centros de datos se llaman como zona de
disponibilidad de la cual
hablaremos en el siguiente video. Ahora entremos en los futuros de facturas
globales, vayamos a Google y escribamos infraestructura
global. Siento lo de mi garganta.
Entonces alguien va a AWS Global Infrastructure
y
en realidad van a ir a este sitio web, que es awstoramazon.com Y aquí verás infraestructura
global. Entonces, una vez que estás en la infraestructura
global aquí, puedes ver toda esta información como cuántas regiones hay, zonas de
disponibilidad están ahí, pops
CloudFrind están Ahora, hablaremos a
detalle cada uno de estos, así que no te
preocupes por ello. Pero recuerda eso
um cuando estás hablando de um, regiones. Las preguntas no serían sobre cuántas regiones
hay en AWS. Las preguntas no
serían así
porque las regiones siguen creciendo, así que no te estarán preguntando, cuántas regiones
hay en AWS. Entonces ese tipo de, como, número de regiones, número de zonas
disponibles
no sería la cuestión. Pero te estarían preguntando, cuáles son las zonas de
disponibilidad mínima serían parte de una región. Entonces este es un
requisito obligatorio que, ya sabes, que AWS se arregle por sí mismo
que debe tener un número mínimo de dos zonas de
disponibilidad para que pueda hacer
redundancias y
tolerancia a fallas en términos de una falla de
los centros de datos Ahora bien, si bajan, verán en realidad resaltado
esto es Norteamérica. Se puede ver
que esto es Sudamérica. Se puede ver esto es esto
es de en el este de Asia, y luego tiene Asia
Occidental por aquí. Entonces Asia se
divide en dos ya
que en, como, incluye Europa
y así como, como, tu continente africano,
así como tu Medio Oriente. Y luego en términos de, um, ya sabes, lo siento, esto es Asia Occidental y
esto es Asia Oriental. Lo siento. Perdón por eso. Si sólo te he confundido. Entonces para que veas
eso por aquí, tienes regiones por aquí, que está
apareciendo en color azul, lo
siento, color verde Y estas son básicamente regiones. Las regiones tendrían un cierto conjunto de zonas T
disponibles como puedes ver aquí. Entonces mínimo que he visto son dos, pero no veo
nada cuales dos disponibles Te Zone estos días. Sólo veo mayor de ellos
son tres zona T disponibles. Esta región en particular se encuentra en Brasil y esta en Sudáfrica. Y estos dos están en Australia, como pueden ver, y este, están
construyendo datos, quiero decir, una región que tiene
al menos dos centros de datos, zonas de
disponibilidad en Auckland. Tienes uno en Yakarta, Indonesia,
tienes en Singapur, tienes en Malasia, luego viene uno en Tailandia, y tienes uno que
viene en Taiwán. Taiwán es básicamente,
uh, ya sabes, el Taipei, supongo,
ese debería ser el lugar donde
va a llegar. Y tienes uno en Hong Kong, y luego tienes tres
en China, en realidad, dos en China, uno
en Corea del Sur, Seúl, y
tienes dos en Japón. Tienes dos en la India, también. Aquí no hay mucho
en Rusia. Esta región es Rusia, Mongolia está, como,
completamente vacía por aquí. Tampoco lo son estos países
como Afganistán, Pakistán, y ahí
no hay nada. Ten uno en Bahrein,
tienes uno en Emiratos Árabes Unidos y tienes uno que
viene en Arabia Saudita. Entonces cada región cuando
resalté, se
puede ver el número
de zona de disponibilidad. También tienes uno en Tel AV
, que es Israel, y tienes uno en Irlanda, uno en Reino Unido. Ahora se puede ver
que Reino Unido también tiene tres zonas de
disponibilidad. Entonces más o menos,
todo mantiene tres
zonas de disponibilidad como por defecto. Y también se puede ver
algo interesante llamado fecha de lanzamiento. Entonces cuando esta
zona de disponibilidad entró en existencia, así se puede ver Irlanda una es mucho antes que el propio
Reino Unido, porque apuesto a que es por toda la, ya sabes, la adquisición
de terrenos y la
construcción del centro de datos solo una
tarea un poco costosa en Estados Unidos. Entonces tal vez en Irlanda. Esa podría haber sido la
razón por la que ha llegado tarde. Ahora bien, los únicos dos
lugares donde tienes más zona disponible es
básicamente tu zona de EE.UU. Este, que es tu Norte de Virginia,
um, y esto tiene seis zonas de
disponibilidad El otro es Oregon. Entonces esta tiene alrededor de
cuatro zonas de disponibilidad. Aparte de esto, no
he visto, cuál tiene más zona de disponibilidad, pero esto puede cambiar
en el futuro Ahora, um, ¿es mejor
tener más de tres zonas de
disponibilidad? No, no lo es. Si tienes dos zonas de disponibilidad,
eso sería suficiente. Tres es sólo para
romper el equilibrio. Cuando tienes dos, si tienes
tres, rompe el equilibrio. Entonces es por eso que tres es más
o menos preferido en todas partes, y esa es la cantidad predeterminada. Pero dos en sí es
suficiente porque
tendrás el centro de
datos primario y tendrás el de rotundancia de respaldo
uno en caso el centro de datos primario
vaya a tener algún problema Entonces estas son las regiones, y regiones tiene nombre. Entonces, cuando vaya a
la consola de AWS, verá todas las
regiones por aquí. Algunos son habilitados para
ti, otros no lo son. Entonces si puedes ver que hay 13 regiones no está
habilitado para mi cuenta, así que sólo puedo hacer clic
medio sobre ella. Bien, entonces el
clic central no funcionó, así que solo tienes que ir a la parte inferior de esta pantalla y luego haces
clic en Regiones administradas. Bien, entonces ahora
va a cargar esta pantalla y verás
las regiones recién deshabilitadas. Ahora puedes
habilitar esta región
seleccionando estas regiones y
haciendo clic en el botón Habilitar. Pero no estoy usando la región, así que estoy igual
que estar deshabilitado. Y también aquellas regiones
que no estés usando, también
puedes, ya sabes, deshabilitarlas. Pero eso es algo que no se puede
hacer con los predeterminados. Entonces, los predeterminados que
tienes ahí afuera, requiere
que
tengas, ya sabes, eso necesita estar habilitado que está habilitado por defecto,
lo
que significa que en
realidad no puedes deshabilitarlos, pero puedes habilitar y deshabilitar estos artículos adicionales si tu base de
cliente por aquí. Entonces esa es la razón por la que no
está habilitada por defecto, así que eso es algo que puedes habilitar más tarde
en el momento. Pero estas son la región. Cada región tendrá un nombre. Entonces se puede ver que Este uno Este dos es entonces Westbound
West dos está ahí Entonces tienes uno del Este, que es tu Virginia del Norte
y luego Ohio. Entonces estos son dos lugares
en tu lado este. Y luego en el lado oeste, tienes el California y Norte de California
y así como Oregon. Entonces estas son dos
localizaciones que tienes. Así que del mismo modo, tienes
diferentes ubicaciones por aquí, como, uh Asia Pacífico, tienes Mumbai, que
es AP Sur uno, y luego HydraBadrgion
será Sur dos, supongo
, Entonces sí, AP Sur a la región de
Hyderabad. Entonces esto es en la India. Entonces de igual manera, tratan de
usar el número para seguir incrementándolo de manera que puedan tener múltiples regiones
en múltiples ciudades. Entonces esto realmente les
ayudará a globalizarse y tener
presencia en todo el mundo Ahora, como ya les dije,
estas son regiones. Entonces en el siguiente video,
entenderemos cuáles son las zonas de
disponibilidad. Gracias de nuevo por
ver este video. Te veré
61. Longitud de onda de Laboratorio, zonas locales y latencia práctica: Oigan, chicos, bienvenidos de nuevo
al siguiente video. En este video, vamos
a hablar de latencia. Ahora bien, ¿qué es la latencia? latencia es básicamente
la lentitud que experimentas cuando
navegas por un sitio web o abres una aplicación o cuando estás escribiendo
algo en el sistema um, ya
sabes, y luego
obtienes una respuesta posterior, obtienes una respuesta más lenta
del servidor Cuando tecleas
Enter, por ejemplo, estás haciendo un gran
comando por aquí. No estás listando los archivos como 10,000 archivos
en esta carpeta. Sólo tienes que presionar enter. Cuando presionas el propio enter, verás que se vuelve
más lento en tu respuesta. Entonces la respuesta más suave es
básicamente cuando presiono Enter, debería ejecutarse de
inmediato. Pero si hay un retraso de
milisegundos, no se
dará cuenta Si hay segundos de retraso, empezarás a notar la
diferencia porque, uh, coordinación de
tu ojo y tu mano
será un poco diferente a
lo que has visto anteriormente Entonces esa es una experiencia
donde se puede ver, um, se puede ver el
término llamado latencia. Ahora bien, esta latencia viene
cuando tecleo esto, ¿de acuerdo? Pero hay una manera de medir
realmente la latencia. Por ejemplo, veamos, cómo se ve
cuando no se tiene latencia. Entonces he preparado un diagrama. Bien. Entonces he creado un diagrama, así que poco a poco voy a descubrir este documento en particular
que ven aquí. Entonces primero, es como la comunicación
intraEZ que es sub menos uno o sub un milisegundo
a dos milisegundos La
comunicación más rápida disponible en la misma zona de disponibilidad. Ahora, puedo mostrarte incluso
más rápido que eso cuando estás
pagando al anfitrión local. Loclos significa en sí mismo. Es la dirección IP de loopback. Ahora se le llama como oculos por defecto como
nombre de host que se le ha dado Entonces cuando hago ping a los oculos, se
puede ver el tiempo aquí tomado Entonces este es el más rápido que
puedas ver porque toma alrededor de 0.0
026 milisegundos Es tan rápido que es
capaz de llegar a sí mismo. Así que eso es perfecto, ¿verdad? Pero no podrás
ver este tipo de respuesta en ninguna otra cosa relacionada con la
red. Incluso si haces ping a esto tú mismo. Como por ejemplo,
entro por aquí, he lanzado ciertas
EC dos instancias. Te voy a mostrar eso. Llamemos a instancias en ejecución. Entonces tengo tres instancias
corriendo por aquí. De hecho, estoy conectado a esto
en la CLI base, y copio la dirección IP
privada Bien, no estoy usando la dirección IP
pública a partir de ahora. Lo usaré más tarde. Cuando pin la dirección IP
privada de este
servidor en particular a sí mismo, verá un pequeño
nivel de latencia aquí, que es casi el mismo
que el que ve por aquí. Entonces son los 26 por aquí. Esto es 27 y 28 está llegando. De igual manera, se ve uh, el nivel similar de
latencia porque es la misma dirección IP
en el mismo sistema. Ahora bien, ¿y si pin otro sistema que está en la misma
zona de disponibilidad? Así se puede ver eso. Este es otro sistema que
creé para la prueba de latencia, y esto en realidad se crea en la misma zona de
disponibilidad. ¿Bien? Para que puedas modificar la zona disponible
al crearla También te lo he mostrado ya. Así que usa eso para, um, ya
sabes, poner ahí tu zona de
disponibilidad. Entonces es muy simple instancia de
lanzamiento. Y luego en la instancia, solo editas esto y
luego seleccionas qué
zona disponible
quieres luego seleccionas qué
zona disponible De esa manera, sería muy fácil para ti seleccionar qué zona de
disponibilidad deseas. Copia esto, rosa éste. Este es el siguiente servidor
que hemos creado, pero está en la misma AZ. Usted aquí en este diagrama, este diagrama real
parte de aquí, la comunicación intra AZ. Disponibilidad zona de comunicación. Puedo ver que está
entrando en un milisegundo, así que básicamente
no está en 0.0, cierto, porque no está pagando
en
él a veces se pone 0.9, bien Pero la mayor parte del
tiempo es de aproximadamente 1.5, 1.6, 1.8, un punto. Entonces, si lo promedias, va a ser alrededor de
1.1 0.5 promedio. Se puede ver que el
promedio es de 1.44. Ya ha
promediado por aquí. Pero aquí, punto promedio 0.025. Así que es bastante rápido para
ser muy francos, ¿de acuerdo? Entonces porque se está conectando
a un servidor justo al lado de él. ¿Bien? Ahora bien, esa es la primera que
has visto ahora mismo. El siguiente es como zona de disponibilidad
cruzada. Así que he creado este servidor en otra
zona de disponibilidad de un F. ¿Bien? Así que lanza instancia
y créala en una F. Así que esta es otra
zona disponible Entonces sigamos adelante
y hagamos ping a este. Ahora, puedes ver que, si está en una zona de
disponibilidad diferente, está en un centro de datos diferente Ves un poco de esto
lleva un poco de tiempo extra, pero sigue estando en promedio. Entonces lo hemos cerrado a los 16, así que lo cerraremos
a los 16 supongo. Se puede ver que el promedio ha aumentado
un poco por aquí de
uno.44 a uno.799 Entonces lo que significa que, se está tomando un poco más de
tiempo pero no
mucha diferencia en cuanto a
tu promedio, tiempo de vida. Lo siento, tiempo promedio, está recibiendo una respuesta
del servidor. Entonces esto es básicamente te dice que la zona
avaibt del otro lado también
está bien, Um ahora hablemos de región. Esto es un extra de configuración que hice para
la configuración de región. Entonces si voy a IFI clic
medio en el EC dos y cambio esta región
a Asia Pacífico Mumbai He creado un servicio
por aquí, lo siento, EC dos instancias por aquí, y esto se está ejecutando
en AP sur uno A. Esa es la zona de disponibilidad. He configurado
la tabla de rutas de VPC y luego configuré
la comunicación entre ellas.
Por eso está funcionando. Si estás pensando
que no está funcionando para ti, sino con solo
crearlo, no funcionaría porque implica mucho
trabajo en el back end. Se llama comunicación de
igual a igual. Entonces ahora hay
que pensar o ver cuál es
realmente la salida
que vas a obtener. Debido a que esta dirección IP en
particular sigue siendo la dirección IP propia de Aws, como puedes ver que la
emparejé igual. He dado una
serie diferente por aquí, 17231. Esto es 172, 32, o de lo contrario no se
conectaría arrojará error si está en el mismo rango de
red, la misma sidra Así que cuando pin esto, se puede ver que hay muchos
milisegundos por aquí Así que aquí son 187
milisegundos. Entonces a esto se le llama
la región transversal, um, que venga a los 16. Cruz región AWS. ¿Bien? Entonces se puede ver que 187
milisegundos, es uno promedio. Por lo que realmente puede
conectarse con uno de sus servicios de AWS a otro servicio AW está
alojado en otra región. Pero el problema único
problema es como, uh, la comunicación aquí será, um, ya sabes,
sería como, tiene mucho retraso aquí. Lo siento, um, sí, la
latencia estaría ahí. Lo siento. Yo sólo voy un
poco por aquí, cruz Una comunicación es uno,
dos, uh, diez milisegundos. Intra AZ, lo hemos comprobado. Cross AZ, lo hemos comprobado. Región a región, como se
puede ver que
viene de 50 milisegundos
a 300 milisegundos Entonces seguimos bien,
porque estamos 50-300. No fuimos al
máximo de 300. Tal vez si hubiera creado un servicio en la esquina, como tal vez en la región de
Tokio o,
um, en esta región, tal vez en la región de China o
podría estar en Australia. Entonces puede tener
300 milisegundos, diferencia, podría ser
eso. Entonces no lo sabemos. Entonces tenemos que probar eso.
Bien. Ahora lo siguiente va a ser la
ubicación del borde, frente a la nube. Ahora bien, aquí es donde
toma un poco de, ya
sabes, artículo tuyo. Entonces aquí tienes la
ubicación del borde frente a la nube. Si vas a
crear Cloud front en esta situación, sí, entonces obtienes una respuesta
con un milisegundo
a 20 milisegundos Ahora, esta latencia se reduce y el usuario final si ese usuario final
está cerca del frente de la nube. Entonces esa también es una condición de luz porque
vemos ese plan, ya
sabes, amigos de la nube no
está en todas partes. ¿Bien? Entonces si digo eso si
veo en la India, ¿no? Entonces verificamos la
ubicación del borde, ¿verdad? Entonces en la India, entonces en India, es Pune ahí Mumbai
es la Nueva Delhi,
su Chennai, el Bangalore allí Arabad está ahí, Entonces, si alguien está navegando desde
ninguna de esas ubicaciones, están navegando
desde Kerala, supongo, desde el otro Southend, entonces van
a ir a Chennai Y luego primero,
irán al servidor de Mumbai, obtendrán ese recurso por
primera vez y luego eso se está almacenando en caché en
Cloudfront en la región de Chennai Pero entonces todavía van a obtener el retraso por aquí o la
latencia por aquí porque Um, todavía tendrán que ir
y pasar por Jen
porque no es como gente que navega en
Jane sería mucho más rápida que en comparación con Kiera o bang loads
allá por aquí Entonces de igual manera, si vas
al extremo sur de la misma, entonces vas
a tener un problema. Al igual que, todavía tendrás latencia en esa
perspectiva también. Pero, ya sabes, es mejor
que venir bien de Mumbai. Entonces esa latencia es
lo que han dado aquí en esto
como 20 milisegundos. Entonces de uno a 20 milisegundos. Por lo tanto, puede ser más rápido como un milisegundo cuando
estás como cuando hay una ubicación de borde y el
usuario final está más cerca el uno del otro Pero si están muy lejos, pueden llegar a 20 milisegundos. Entonces eso es lo que
hemos visto hasta ahora. Y luego en términos de
zona local y longitud de onda. Estas son dos cosas que
te dije lo comprobaremos más tarde, ¿verdad? Ahora bien, las zonas locales son básicamente, te
voy a mostrar por aquí. Ahora, no podrás ver las zonas
locales como nombre de región,
nombre de los lugares como
cómo ves la ubicación H, pero luego podrás
ver las zonas locales por aquí. Ahora vamos a entender primero qué
es una zona local. Ahora,
las zonas de longitud de onda y locales están diseñadas para extender la infraestructura de AWS
más cerca del usuario final y los dispositivos, pero tienen un propósito ligeramente
diferente y se dirigen a diferentes casos de uso. Primero, entendamos
sobre la zona de longitud de onda. Ahora bien, la longitud de onda si
viene longitud de onda o alguien
te dice longitud de onda o en la pregunta, piensa en cinco G. Cinco
G es una longitud de onda, por lo que viaja a través de una onda. Entonces, una longitud de onda de AWS es una
infraestructura de AWS especializada que integra servicio de computación y almacenamiento de
AWS dentro del
proveedor de telecomunicaciones, como el centro de datos en el
borde de una red de cinco G. Esto minimiza la
latencia causada por enrutamiento del tráfico de la red cinco
G a la nube Se utiliza la red de telecomunicaciones
cinco G, para transferir los datos a la
nube, que es mucho más rápido. ¿Conoces la velocidad de
cinco G? Es muy rápido. No muchos lugares tiene
esta zona de longitud de onda. Ahora, la zona de longitud de onda se utiliza para servicios de latencia
ultrabaja. onda se utiliza para la latencia
ultrabaja, lo
que significa que va a ser muy cara porque usa cinco G. ¿Qué tipo de situaciones
usarías latencia ultra baja? Conducción anónima de vehículos. Si miras en Los Ángeles y otra
parte de California, verás que va a haber un
auto saliendo a la carretera
sin chofer, ¿verdad? Si lo has visto, utiliza la tecnología cinco G para
tener una latencia ultrabaja. No estamos hablando de
baja latencia por aquí. Si ves este
diagrama por aquí, estamos hablando de latencia
ultrabaja, que es menor a
diez milisegundos. Eso es como si
estuvieras justo al lado del servidor. Entonces aquí se ve esa cruz AZ. Cross AZ es el
que en realidad
te dio de uno a diez milisegundos. Lo que las zonas de ultra ultra lentes son prometedoras son
menos de diez milisegundos, a menudo menos de
cinco milisegundos Entonces básicamente, usa
las cinco aplicaciones G, que es dada por tu
um, proveedor de datos, proveedor de
telecomunicaciones,
como si estás hablando AT&T o si estás
hablando de Verizon Así mismo, utilizan
esas redes para una entrega más rápida de datos con latencia
ultrabaja para vehículos
anónimos, AR VR como realidad argumentada
o realidad virtual y un propósito de juego en
tiempo real, ¿verdad? Así mismo, tienes diferentes
situaciones en las que
vas a usar tu este
tipo de zona de Waveland Entonces, si ves el gráfico
global por aquí, no
tienes tantas
longitudes de onda en todas las ubicaciones Entonces tienes ocho zona
Waveland en el norte de Virginia y
tienes alguna en Oregon Entonces ahora estas zonas
de Waveland se concentran básicamente en la región de California así
como en el
estado de Nueva York, como está por aquí Ahora bien, esto es para asegurar hoy en día vienen muchos autos de
conducción autónoma, Robo taxi también viene. Entonces para esas situaciones, se usa, y también AR VR. Entonces aquí, puedes ver en Londres, también
tienes onda um, hay
dos zonas de longitud de onda. Ahora, esto también va a ser parte de su zona de disponibilidad, pero proporciona una infraestructura crítica
para su aplicación. Ahora,
hablemos de zona local. Bueno, cuando se quiere
hablar de zona local, zona local no es tan
rápida como menor latencia
como una zona de longitud de onda, pero sigue siendo baja
cuando se habla de comunicación cruzada
AZ. Ahora bien, cómo puedes hacer esto, ya
sabes, baja latencia, al tener un centro de
datos móvil o
tener un centro de datos que
esté cerca de las ciudades del Metro. Por ejemplo, si
ves el norte de Virginia, tienes 14
zonas locales por aquí. Ahora, estas 14 zonas locales se dividirán en muchos lugares. Estoy bastante seguro que en el
New York, uh, ya sabes, en el strip de Nueva York, así
como en las regiones de Oregon Bo
se pueden ver siete
zonas locales por aquí. No tienes
zonas locales en cuanto a Londres. Bien, pero tienes zonas
locales por aquí. Entonces, ¿qué es la zona local? Como te dije, la zona local
básicamente está extendiendo
tu servicio de AWS. Entonces, ¿cuáles son los
servicios extendidos? Tú computas almacenamiento, base de datos. Por lo que estos tres
servicios se extienden, y donde se extiende, está más cerca de ndcer
colocándolo en una ubicación
geográfica específica Que son zonas muy
pobladas, bien, zonas
muy pobladas donde sea que tengas, tendrás vamos a ver si la zona local está
en la región de Japón. Se puede ver que
hay una zona local porque Tokio está
muy poblada. Entonces tienen una
zona local por allá. Entonces, que en realidad puede dar una respuesta
más rápida
a los clientes, así
como
a las personas que también usan AWS. Veamos si Mumbai
tiene una zona local, Mumbai también tiene dos zonas
locales por aquí,
que, de nuevo, se usa
para um ya sabes, comunicación
más rápida,
y tendrá base de
usuarios accediendo a
tu aplicación mucho más rápido porque estás
más cerca de la zona local. Ahora, la región de Mumbai no tiene una zona de Waveland debe
ser porque, como, el cinco G se
estrenó recientemente en India o
podría ser porque, igual que, no hay vehículo
autónomo o ARVR tan popular Entonces, una vez que se vuelve popular y la gente comienza a
desarrollar cosas usándolo, y cuando tengas los juegos en
tiempo real entrando en imagen, entonces AA Blas también lanzará zonas de
Waveland Entonces en este momento
entendemos lo que entendemos hasta ahora es que el servicio de base de datos del servicio de almacenamiento del
servicio de cómputos se
alojará más cerca de las áreas
altamente pobladas en términos de zonas locales. Ahora, esta latencia de radios para aplicaciones que requieren acceso de
baja latencia a centros de datos prometidos o
usuarios en ubicaciones específicas. Las zonas locales son útiles para cargas de trabajo que necesitan comunicación de muy baja
frecuencia, pero no necesariamente
requiere ultra baja uh, latencia de wavelenzon Entonces estas son las diferencias reales
entre ambos, y así es exactamente como se ve la
latencia
cuando lo haces. Ahora hemos hecho toda
esta comprobación de latencia. Hagamos una comprobación de latencia
para nuestra dirección IP pública. Ahora ya sabes que esta dirección IP
pública de
aquí no tiene una
dirección IP pública, ignórala. Entonces tomemos la dirección IP
pública por aquí. Entonces
tomaremos uno de estos. No importa
cuál lo escojas. Entonces, si solo haces ping a la dirección
IP pública del servidor, verás que tiene
la latencia por aquí, pero es muy menor. Toma la IP RS pública de
esta e intenta hacer ping a esta. No está funcionando
por alguna razón. Vamos a refrescar esto. Vamos a probar este. Sí,
1.554 milisegundos Entonces esta es básicamente su respuesta de dirección IP
pública. Pero lo que encontraste, que
es muy bueno para que
entiendas es que cuando
vayas región a región,
obtendrás esto. Ahora, también puedes probar ping google.com y también
puedes obtener el, ya
sabes, el tiempo que
te lleva responder aquí También puedes consultar
awsotmazon.com y en realidad puedes
consultar Entonces esto es mucho más rápido que
google.com. Eso ya lo ve. Entonces esto es, nuevamente, viniendo
de cloudfront.net. Entonces así es como
viene básicamente. Entonces aquí también, viene de, creo que también viene
de algo así como un CloudFrint que es
del servicio de Google Entonces, del mismo modo, ya sabes,
esto es básicamente, um, ya sabes, cómo encontrar la latencia ya que
viene de Cloudfrint Este es un muy buen ejemplo. Se puede ver que
es mucho más rápido. Que en realidad navegar
en la dirección IP pública. Aquí estoy navegando quiero decir, perdón por ser una dirección
IP pública por aquí, que es 1.25 y 1.54 El promedio será alto, pero aquí es 1.25 y ocasiones viene con punto
cero como 0.8, y reducirá el promedio. Se puede ver que 11 por aquí y el promedio
por aquí es de 13. Lo que significa que Cloud friend
está realmente trabajando. Estoy en la
ubicación de Londres en este momento, el frente de la nube viene de la ubicación de Londres
en este momento. Gracias de nuevo por
ver este video. Espero que te haya sido
útil
entender cómo funciona la latencia
y cómo funciona tu aplicación
en términos de latencia. Tenemos
conexión directa aquí también, lo que nos faltó explicar. Ahora puedes ver que Internet
público por aquí es el
más alto donde tienes latencia variable más alta
debido a
la conjección y enrutamiento de la red Y el conector directo
lo discutimos al respecto. Así que esto es básicamente tener, um, su infraestructura de AWS
conectada directamente a su uh, infraestructura
privada. Entonces en esta situación también, se obtiene como de un milisegundo
a diez milisegundos Ahora bien, esto es, quiero decir, zona de longitud de
onda es
mucho más rápida que, uh, la conexión directa misma. Ya ves que lo populares que se están volviendo estos
dos en estos momentos. Estas dos son inclusiones recientes. Por eso lo hicieron
parte de esta certificación. Por lo que estos se agregan como parte
de esta certificación. Aunque no hay dudas
sobre ellos en esta habilidad, pero aún así es muy bueno
conocer estos dos nuevos servicios. Gracias de nuevo por ver este video. Te
veré en el próximo
62. Grupo de autoescalamiento de Laboratorios con Política Dinámica Práctica: Oigan, chicos. Bienvenidos de nuevo
al siguiente video. En este video,
vamos a hablar de
uno de los
servicios importantes en AWS, que es tu auto skilling. Ahora, el autoskiing es
parte de tu EC dos, y en su mayoría se llama
como EC dos Autoskilling es lo que vamos a
ver porque también
hay otras habilidades de auto
por ahí, y no
estamos hablando Entonces, si vas a la consola EC
dos por aquí, verás en la parte inferior grupos de
autoscaling por aquí Ahora, esto te dará una breve idea sobre el
escalado automático, qué es, y puedes leer
la documentación, puedes ver los beneficios
y cosas así. Pero ya sabemos
lo que es el autoescalado. Ya configuramos autoscaling en los videos
anteriores Hicimos configurar el escalado automático en instancia
ECS cuando
configuramos el escalado automático
era parte de él, y no había opción
para que lo desactivaras, y esa es la única
forma en que continúa Vamos a crear el grupo de
escalado automático por aquí. Ahora, dale un nombre a este grupo
de escalado automático de aquí. Voy a dar esto
como servidor HTTP AG,
AG como escalado automático. Ahora, recuerde que necesita una plantilla de lanzamiento para que pueda
crear un grupo de escalado automático. Ahora bien, ¿qué es la plantilla de lanzamiento? ¿Por qué lo necesitamos de
repente? Um, déjame explicarte eso. Si vas a Easy to console, tienes varias instancias
ejecutándose por ahí, ¿verdad? Entonces, si nos fijamos en estos, um, signore toda la instancia
terminada Pero entonces, si tienes ciertas
instancias ejecutándose ahora, ¿
puedes hacer que esas instancias parte de tu auto
skilling? No se puede. Si ya tienes
instancias ejecutándose, no
puedes convertirlas en parte de
un grupo de auto skilling Tienes que crear instancias desde cero a través del grupo
de auto skilling Esa es toda la agenda
del auto skilling. que significa que no puedo agregar un grupo existente de instancias
en el grupo de auto skilling Segundo, si recuerdas, hicimos el ECS Entonces, en ese clúster ECS también, tuvimos que crear nuevos servidores de esquí
automático a través del esquí automático
a través de
ECS como los servidores, que es parte de un
servicio de los contenedores Tuvimos que crear un nuevo grupo de
escalado automático y luego a través de eso
podrás crear encuestas y luego
contenedores dentro de eso. Aquí
se aplica lo mismo o la misma lógica. Tus instancias existentes no
calificarán. Pero lo que puedes
hacer es si tienes instancia
existente ejecutándose y quieres hacer que quieras, ya
sabes, crear dicho tipo de
instancia como plantilla, puedes seleccionarla y
puedes hacer clic derecho en ella. Y luego ir a imagen y plantilla y crear plantilla
a partir de esta instancia. Entonces lo que
hará es crear una plantilla, igual que esta instancia
en la sección de plantillas. Y esa plantilla,
una vez que hayas creado, puedes venir aquí y luego seleccionar esa plantilla que has creado lo siento,
que has creado. Ahora, si no tienes
ninguna plantilla de lanzamiento, simplemente haz clic en Crear una plantilla de
lanzamiento y
crearemos una nueva
plantilla de lanzamiento ahora mismo. Ya tengo una plantilla de lanzamiento
que es EC a esta, esta plantilla de lanzamiento en particular. Entonces lo estaremos
viendo cómo hacer eso. Entonces el HDDPI EC dos
era el nombre de la misma. Entonces esta es una plantilla de lanzamiento. Y detalles muy simples que vas a dar
sobre plantilla de lanzamiento. No es como, um, es una cosa compleja para todos. Entonces vamos a dar el
nombre de una plantilla de lanzamiento. Vamos a dar
el tipo de instancia. Que incluye el
tamaño de instancia y la familia de instancias. También vamos a especificar la guía de esquí
automático
aquí si necesita
alguna orientación para esto. Que se habilite,
iremos con las cosas por defecto. También vas a elegir un inicio rápido, sistemas
operativos, qué
va a tener esta plantilla en particular como sistema operativo, así que vamos a seleccionar eso. Entonces aquí en el tipo de instancia, vamos a seleccionar la instancia elegible
gratuita o la instancia que quieras
seleccionar y luego renunciar a keypare Kepare es importante porque esos servicios que se crearon
como parte del escaneo automático, usamos el mismo par de claves aquí Ahora bien, no hace falta
mencionar ninguna configuración de red, podemos hacerlo más tarde también. No se necesitan volúmenes. Porque como puedes ver que el volumen de propósito general ya
se está
asignando aquí, puedes
aumentarlo a 20 GB más o menos, donde en los que puedes
acomodar más tamaño de archivo en cada sistema, cada servidor. Así que crea una
plantilla de lanzamiento por aquí. Deberían crearlo para ti, pero este nombre ya existe, así que solo voy
a ignorar eso. Voy a ir por aquí y seleccionar esa instancia por aquí. Lo he creado la misma manera que te lo acabo de
mostrar ahora mismo. Haz keypair, uh, tienes
que micro por aquí. No es una instancia spot. Perdón por eso. Así que haz clic en siguiente por aquí
y verás los requisitos en términos de las
opciones de lanzamiento aquí. Así que no hay
mucho cambio por aquí. Esto se ha importado
de tu plantilla de lanzamiento. Bien. Entonces de tu plantilla, que se reporta ahí, ¿no? Por lo que estos ajustes son
importantes a partir de ahí. Una de las
configuraciones importantes que
vas a ver es la configuración
de red. Aquí vamos a
usar la VPC defol, y aquí vamos a
seleccionar todas las zonas t disponibles Por lo que nuestro servicio
se creará en cualquiera de las zonas disponibles siempre que
solicitemos que se cree el servicio Ahora aquí, el
mejor esfuerzo equilibrado para el escalado automático de la zona de
disponibilidad
intentará automáticamente en términos de establecer la zona disponible
más saludable Vamos a mantener eso como opción predeterminada,
ir a la página siguiente. Ahora, estas son las
opciones en términos de sus
opciones avanzadas de autoescalado por aquí Ahora bien, para recordar
que estas opciones se
pueden modificar
posteriormente también punto, para que puedas
configurarlo aquí ahora mismo o puedes
configurarlo más tarde también. Así que no tenemos ningún balanceador de
carga todavía no nos entienden en las manos
sobre el balanceador de carga, lo
estaremos viendo más adelante en el momento Pero si tienes un balanceador de carga, si planeas conectar
un balanceador de carga existente, puedes hacerlo Ese balanceador de carga se convierte en parte de tu grupo de auto
skilling. Entonces aquí VPC lechuga básicamente habla sobre
la facilidad de agregar asociar su grupo objetivo de lats de
VPC
con el grupo objetivo de auto skilling
, lo
que facilita la disponibilidad de la
red para uh, mejorando la
capacidad y capacidad de la red,
y también es fácil
para escalar también Ahora bien, aunque si estás seleccionando
adjuntos a los lats de VPC, necesitas tener un lats de
VPC creado, pero no lo hemos hecho hasta ahora,
así que solo vamos a ir
con Ahora, aquí en la comprobación de estado, vamos a usar la opción
predeterminada por aquí. El cheque por defecto
habilitado para el EC dos. Tendrás una sección de
monitoreo donde realmente podrás ver el monitoreo de todas tus instancias EC two así como tu grupo de escalado
automático como bow. Verifique aumentar la disponibilidad de reemplazar nodos no saludables. Pero por defecto, va a ser o re habilitar para que
no tengas que
preocuparte realmente por ello. Aquí, este es servicio de propagación y se adjuntará volumen
y se utilizará para eso, pero nuevamente está en el cargo
separado basado. Términos de monitoreo, use el monitoreo predeterminado que viene con el grupo de
escalado automático No vamos a habilitar ningún monitoreo en Cloud watch o calentamiento de
instancias en este momento porque todo
se cobra por separado. Entonces vamos a
repasar la siguiente. Entonces la capacidad deseada es, capacidad
mínima es una, y la capacidad máxima es cinco. Hablemos de esto. ¿Cuál
es la capacidad deseada? capacidad deseada es básicamente la capacidad actual
cuando se crea una instancia de
agrupación automática, inmediatamente, cuál es
la capacidad actual de la agrupación automática es una. No puedes ir a cero porque tu
capacidad mínima es una. Si seleccionas deseado es
cero y mínimo es uno, estarás creando
una instancia de servidor con una capacidad cero. Eso no va a
funcionar para ti, lo que siempre debe ser
el mínimo y deseado debe ser lo
mismo cuando lo creas. Pero entonces lo que sucede es que
si el sistema se da cuenta una vez que la política que hemos configurado no estamos haciendo
ninguna política en este momento, cuando configuramos una política, basada en la política, la capacidad
deseada cambiaría Si especifico una política como una política dirigida
en una escala dinámica, estaré diciendo que si mi promedio de CPO alcanza el
50 por ciento, es
necesario activar más
servicio para manejar esa solicitud Ahora, cuando estás en
ese tipo de escenarios, tu política se habilita y buscará
la CPUtización Si es cruzar 50, si es cruzar 50, entonces va a aumentar
la capacidad automáticamente. Entonces eso se basa en las políticas que
vas a hacer. Entonces, si va por dos, entonces su
capacidad deseada será de dos. Tu mínimo será
uno, máximo es cinco, lo
que significa que puede subir hasta un máximo de cinco en cuanto a
la capacidad deseada. ¿Bien? Entonces esto es lo que estamos estableciendo como nuestra
regla aquí. Así que puedes escalar de 1 a 5 escalas y volver a una porque esa es la capacidad
mínima deseada. Aquí en la política de mantenimiento, hemos dado múltiples
opciones por aquí. Esto es básicamente para decir que cuántos servidores deberían estar disponibles cuando una instancia
vaya por mantenimiento. Por ejemplo, hay
algo de mantenimiento que ocurre en términos de actualización de
instancias, y cuál es el número máximo de instancias debería
estar disponible. Entonces en esa situación,
actualmente no hay política, que significa que
se trata de una reequilibrada, lo que significa que las
nuevas instancias se
lanzarían antes de terminar
otras instancias existentes Aquí está lo mismo que
lanzar antes de terminar, que significa que se
lanzaría una nueva instancia y esperaría a que
estuvieran listas antes de
terminar la otra Por lo que esta es
disponibilidad prioritaria, por lo que se recomienda esto. Al mismo tiempo, puedes lanzar y terminar al mismo tiempo. Pero esto implica
un poco de, ya
sabes, es un ahorro de costos, pero luego también implica un
poco de tiempo de inactividad. Entonces siempre es mejor ir por priorizar disponibilidad
porque ese es el Um, eso es un poco de dinero necesitas gastar porque
vas a tener esta instancia alojada y
esperar a que la instancia esté
lista antes de terminar, lo que significa que vas
a tener una instancia extra, que va a estar Y luego una vez que esté listo, entonces se dará por terminado. Entonces esto siempre está
listo, lo siento, esto siempre se
recomienda en términos de trabajar con una
inscripción en tiempo real. Todo bien. Por lo tanto, esto permite
escalar en la protección. Cuando lo habilita, siempre que
su servidor se escale hacia fuera, cuando intente escalar adentro, lo protegerá
de escalar adentro Entonces lo que significa que el tamaño
del servidor no se reducirá debido a que esta
protección está habilitada. Así que desactiva esto a partir de ahora
y haz clic en el siguiente. Puede agregar el tema SNS para estas
instancias en particular donde
puede enviar notificaciones con un simple
servicio de notificación aquí Haga clic en siguiente. No
necesitamos eso ahora mismo. Agrega impuestos por aquí si quieres
agregar texto y luego haz clic en Revisar y Crear grupo de escalado
automático. Contamos con mayor grupo
de escalado automático. Ahora se actualiza el aforo. Se necesita
crear una instancia. Se puede ver que en la administración de
instancias, qué instancias se están
creando aquí. Entonces se crea una instancia
y una instancia se está ejecutando. Para tener una buena visibilidad, puedes ir al tablero
EC dos, instancias
C y puedes ver esa instancia que
se está ejecutando por aquí. Ahora bien, esta es la misma instancia que se configura aquí. Entonces esto es básicamente impulsado por este
escalado automático en particular Para que veas que
la pantalla de actividad, podrás ver la real aumentando
la capacidad 0-1 A partir de ahora, aquí no hemos hecho
ninguna política, estas son las
opciones por defecto que hemos puesto. Cualesquiera que sean las
opciones predeterminadas
que haya por aquí, puede modificar estas
opciones. Se pueden ver lats. Se puede ver el equilibrio, se pueden
ver los chequeos de salud. Puedes ver la política de
mantenimiento de instancias aquí. Se puede ver la
configuración avanzada en términos del um, trabajando con el grupo de
autoescalado Ahora bien, ¿dónde está la política? La política está por aquí sobre el esquí automático o el desollado
automático Aquí hay tres
tipos diferentes de pólizas. Una de ellas es la
política de capacitación dinámica, predictiva y acción
programada Puede seleccionar de
cualquiera de estas políticas, lo que realmente puede
hacer que esta capacidad
suba y baje
en función de, um, ya sabe, instancia, um, carga y promedio de cualquier
política que esté configurando. Tienes la
pantalla de monitoreo por aquí, aquí puedes ver
el monitoreo de tus
instancias de escalado automático aquí y puedes ver las dos
instancias EC por aquí. Si tienes varias instancias
EC dos, va a traer a colación una versión
consolidada de la misma. Ahora recuerde que el monitoreo en estas instancias
tomaría un poco de tiempo para que acumule datos porque cada vez
que inicies una nueva instancia, los datos de esa tardarían tiempo llenarse por
aquí. Todo bien. Entonces ahora hablemos de
las políticas de aquí. La primera política de la
que quiero hablar es crear una política de
escalado dinámico. Un clic
de política de escalado dinámico tiene tres
tipos de políticas por aquí. Tienes el escalado de
seguimiento del objetivo. Tienes el escalado por pasos, que es básicamente,
hablemos primero del escalado de seguimiento de
objetivos. Ahora en esta, estarás
monitoreando un tipo específico de recurso o métricas
en tu instancia EC two. Por ejemplo, la utilización promedio de
CP. Entonces, cuando vea una utilización
promedio de CPU excede un valor objetivo
de 50 en porcentaje. Va a crear una nueva instancia o
va a escalar. Ahora, puedes crear algo
de instancia de calentamiento. instancia de calentamiento
básicamente es que
dará algunas
líneas de tiempo específicas como en segundos para que la instancia se caliente
y luego entre o sea parte del servicio de escalado
automático Este ejemplo te puedo
dar en términos de cuándo estás trabajando
con aplicaciones, lo que toma alrededor de
cinco a 10 minutos después de que se inicie la instancia. Entonces en esas situaciones, siempre se
recomienda dar esos segundos particulares de
cinco a 10 minutos segundos, convertirlo en segundos
y entregarlo aquí. Esto asegurará
que las instancias no
entrarían en el grupo de
escalado automático a menos que sea, ya
sabes, pase por esos 300 segundos o los segundos
que sean los que
vayan a dar aquí. Ahora, ese es el
primero por aquí. El segundo es escalado escalado. El escalado de pasos es básicamente que utiliza la integración
con la alarma de reloj en la nube. Ahora, cuando creas
una alarma de Cloud watch y esta alarma suena, y luego básicamente la
acción se toma aquí. Ahora puedes agregar múltiples opciones por aquí donde
puedes agregar pasos. El escalado paso es básicamente
paso a paso con escala. Entonces, por ejemplo, si mi alarma
alcanza el 50 por ciento, quiero agregar una capacidad
o una unidad por aquí. ¿Correcto? Y luego digo agregar, y después selecciono Cloud Wash no tengo nada en este momento. Se puede ver la nube, no
hay nadie. Entonces cuando añades este, entonces puedes agregar
otro paso por aquí. Y el siguiente paso podría
ser reducir la escala. Entonces es como si llega al 40% día, quieres reducir la escala. Así mismo, puede ser
para agregar capacidad, eliminar capacidad también. Así mismo, puede
escalar y reducir la escala en
función del paso usando
su alarma de lavado en la nube. El siguiente es el escalado simple. Entonces esto también está usando un uh, ya
sabes, nube que um, el mismo tipo de cosas, agregando, quitando lo mismo, pero tendrás solo una
opción por aquí para hacerlo. Entonces esto es más de
un escalado simple. Entonces, vayamos con el
escalado objetivo en este ítem, y luego iremos con el
20% como valor objetivo, por lo que es fácil para nosotros hacer esto. Lklicon crear y ellos deben crear su Y esta
política de seguimiento estará haciendo un seguimiento de CPU promedio de
tu instancia por aquí Actualmente, tu promedio de
CPUtilización es de aproximadamente 2% de edad. Ahora, tenemos un mando
por aquí que puede ser usado para aumentar la
tensión en el sistema. Se puede utilizar el pseudo
eMiphony instalar estrés. Entonces esta es una herramienta, y luego
puedes ejecutar este comando stressiphon Iphon
CPU.To es de 60 segundos, o puedes hacerlo Por lo que depende de qué tan rápido esté iniciando
su aplicación. Entonces para hacerlo,
solo ve por aquí, selecciona tu instancia,
haz clic derecho y conecta tu instancia. Una vez que esté conectado
a su instancia, puede ejecutar ambos
comandos de instalación de estrés, así como ejecutar
el estrés también. Entonces estoy instalando
estrés en este momento. Déjame ejecutar el estrés. Ahora bien, esto va a
ejecutar estrés por 600 segundos para una CPU porque se trata de una micro instancia T
dos. Por lo que sólo tiene una CPU. Entonces tú mismo puedes
comprobarlo aquí en esta pantalla de
monitoreo, ya sea que se esté
incrementando o no. Entonces no está habilitado. Bien, entonces ha llegado a través. También se puede ver eso
por aquí en la CE dos bajo autoscaling pasaporte
grupal Entonces estamos esperando que esto
aumente ya que hemos
ejecutado este comando. Este comando va a empujar la carga en una CPU
durante 600 segundos. Entonces esto debería tomar
unos minutos más, cinco a 10 minutos, perdón, dos a 3 minutos
para que refleje esos números en
su monitoreo, y entonces debería
poder ver el aumento de carga, y si va más allá del
20 por ciento, verá que la
capacidad deseada aumentaría. Entonces volveré a ti
y en algún momento pausaré el video y haré una pausa y te
mostraré cómo se hace esto Oigan, chicos. Bienvenida de nuevo. Estaba fuera en un pequeño descanso. Entonces, cuando ejecuté este comando, lo que ha pasado es como si
estuviera fuera por un pequeño descanso, así que un pequeño descanso como en
más de 15, 20 minutos. Entonces lo que ha pasado es como la capacidad se incrementó 1-4, como se puede ver, y luego se
mantuvo a cuatro a cinco. Después
se terminó la ejecución del guión y luego
comenzó a terminar 5-4, y luego se puede ver
cuatro a tres y
luego tres a dos
y luego dos a uno Empezó a reducirlo
y comenzó a eliminar, terminando esas instancias,
lo cual no es necesario porque el script se completó y luego bajó
el sistema de archivos Creo que en el monitoreo, verá las
estadísticas exactas de lo que ha sucedido. Pero desafortunadamente, el
monitoreo no ha llegado a través. Bien. Entonces no puedes encontrarlo, pero esta es la
imagen general de las estadísticas de la CPU. Sólo voy a hacer eso
otra vez una vez más. Esta es la instancia en ejecución, así que voy a aumentar
el CPO en esta Sólo voy a conectarme a esta
instancia en particular una vez más. Voy a ejecutar estos
dos comandos ahí dentro. Así que sólo vamos a esperarlo. Bien, entonces ahora este
comando se está ejecutando ahora, así que empezarás a ver los cambios muy
pronto. Voy a estar activo. Yo solo estaba muy distraído, así que por eso dejé esto Entonces veamos si esto aumenta
la carga en el sistema. sobra conmigo. Debería
llegar muy rápido. Entonces la carga comenzó a ocurrir. Creo que esta es la
instalación am debido a la instalación am de un estrés de
paquete, ¿verdad? Entonces la red, ya sabes, había salida de entrada. Entonces es por eso que
en red está arriba. Pero la CPU debería
estar levantada momentáneamente. Entonces déjame pausar este video y esperemos a que salga
la CPU. Bien, chicos, así puedo ver que la actualización está
ocurriendo ahora mismo. Por lo que se puede ver en el
monitoreo por aquí, la instancia de ACPU
ha llegado al 49% Entonces si ves la
actividad por aquí, entonces va 1-3 por aquí. Por lo que ha entendido que se
ha incumplido la política de seguimiento de
objetivos, por lo que hay una alarma activada y debido a que la gestión de
incidentes, ve
que
se forman dos instancias más y está en servicio Si vuelves al grupo de
autoescalado, estás viendo que la
capacidad deseada se ha convertido en tres automáticamente
sin nuestra intervención Ahora, después de que hayan terminado los 60
o
600 segundos, o si hago un Control C, verás que
las instancias
que ha creado terminarán
automáticamente, y luego comenzarás a ver los servicios bajan
al estado deseado como uno solo. Lo he cancelado. Si
ves este monitoreo EC dos, verás que irá
bajando poco a poco en este momento, y luego empezarás a
ver actividades como ir 3-1 automáticamente
sin nuestra intervención. Déjame pausar este video
y mostrarte eso también. Vamos a verlo ahora mismo. Entonces voy a entrar en
el monitoreo. Entonces la carga ha bajado. Veamos cuántas instancias
tenemos ahora mismo. Tenemos tres instancias. Déjame ver si hay un
plan para derribarlo. Entonces eventualmente después de
unos minutos, debería bajarlo, por lo que no se activa
el escalado en proceso, sino que puedes proteger las instancias de
escalar para que
realmente puedas ir a la acción y
sentar escala en protección. Entonces esto vendrá como
protegido de la escala en, esto impedirá que este
servidor
en particular se escale pero no sé por qué
alguien haría eso, pero solo eso te lo estoy diciendo. También hay otra
opción por aquí donde
puedes dejar de escalar
en la encuesta anterior. Aquí debe haber
opción aquí en alguna parte. En este artículo en particular
llamado política de
terminación, la política de terminación puede
ser algo así como, se puede establecer como instancia antigua. Esta política es
básicamente el orden de terminación será básicamente
la instancia más nueva, lo que significa que la instancia más nueva
que se creó
realmente terminará primero en lugar de la instancia anterior. vieja instancia estaría ahí corriendo para siempre hasta que
no sea realmente necesaria
para terminar. Y aquí puede habilitar instancias para escalabilidad
y protección. Cada nueva instancia
se creará por defecto. Vamos a continuar, ya sabes, protección de
la piel que
no necesitamos porque queremos escalar si realmente
no hay ningún requisito. Entonces ese es el
punto de la dinámica, donde escalas y vuelves a
escalar si no hay
mucho gasto de solicitud. Le daremos un poco más de tiempo, ver si se escala
porque lo hizo anteriormente, así que creo que debería
es solo cuestión de tiempo. Vamos a esperar para
que empiece a escalar. Bien, chicos, no
quiero retenerlos más, pero esto, ya saben, lo reducirá
y luego publicaré otra actualización sobre esto cuando esté
creando otro video. Para que te lo enseñe. Pero, normalmente toma
alrededor de 5 minutos cinco a
10 minutos para que se dé cuenta de que no hay más carga en el
sistema y luego comienza a escalar así que no te
preocupes por ello. Te voy a mostrar en el siguiente video. Antes de comenzar el video, solo te daré
una rápida actualización de esto para mostrarte que
lo ha hecho. En el siguiente video, estaremos hablando de las
otras dos políticas más, y luego llegaremos a un cierre de grupos de
autoescalado. Gracias de nuevo por ver este video, nos vemos
en el siguiente.
63. Introducción al balanceador de carga AutoScaling de Labs: Mis chicos volvemos al
siguiente video en este video, vamos a
hablar de balanceadores de carga Ahora, en este video,
vamos a seguir adelante. Anteriormente, configuramos el equilibrador
Easy to load. También he dominado mi instancia y la
configuración del balanceador de carga. Ahora en este video,
vamos a trabajar con nuestro
balanceador de carga por aquí Entonces actualmente tengo un balanceador de carga y
déjame eliminar esto Bien, tengo a ese director. Ahora en esta sesión de
equilibrio de carga, vamos a usar el grupo de
escalado automático como nuestro balanceador de carga Entonces en este momento, no
tienes ningún grupo de
autoescalado No hay un balanceador de carga
disponible para usted. Para crear cualquier grupo de
autoescalado, lo que hemos hecho anteriormente
es lanzar una plantilla Sigamos adelante y
lanzemos una plantilla ahora. Clicon lanza plantilla
y luego déjame nombrar esta plantilla como web iphon Es para AG, entonces voy a dar Como autoscaling,
autoscaling group, ASG podemos nombrarlo así
y luego lanzar plantilla,
así que vamos a hacerla como plantilla de
lanzamiento LT .
Ahora bien, esta va a ser nuestra plantilla de lanzamiento web
para nuestro grupo de autoscaling Ahora, cuando esté creando una plantilla para un grupo de escalado
automático, se
recomienda habilitar la
guía de escalado automático aquí Lo que te ayudará a configurar la plantilla para el autoescalado EC
dos Eso es lo primero
que vas a hacer. Después de eso aquí,
vas a elegir el inicio rápido y
vas a seleccionar Amazon Linux. Entonces vas a
crear un tipo de instancia, que voy a
elegir T dos micro y luego el
par de claves por defecto voy a usar. Y aquí puedes seleccionar un
grupo de seguridad existente por aquí. Entonces voy a elegir
el predeterminado,
que permite cada tráfico para que no tenga que
preocuparme por los grupos de aquí. Subredes, puede seleccionar dos subredes o una
subred por defecto, o simplemente puede dejarla como incluir en las plantillas de lanzamiento.
Así que eso también funciona. Así que no tienes que preocuparte
realmente por esto, y luego puedes eliminar
la configuración de red. No lo necesito. Solo seleccione el grupo de seguridad que
tiene acceso a Internet. Aquí selecciona el
tamaño GB, convirtiéndolo en diez GB. Ahora, finalmente,
necesitas bajar los
detalles de avance por aquí, en estos detalles, vas a copiar y pegar este ítem por aquí. El anterior actualizado 11t en lugar de hola de EC dos instancias, pongo hola de
Fácil a auto escala Copia y pega esto por aquí y luego haz clic
en Launch template. Ahora bien, esto va a crear
una plantilla fácil de lanzar. Esto es bastante fácil. Se crea la plantilla de lanzamiento. Vamos a verificar. Ahora se
ha creado la plantilla de lanzamiento. Ahora lo siguiente va
a crear un grupo de autoescalado. Ahora, puedes tener tu
balanceador de carga listo para el grupo de
autoscaling si está ahí, pero puedes crear
un balanceador de carga aquí mismo en el grupo de
autoskiing, para
que no tengas que preocuparte Elige crear un grupo de
desollado automático, dale un nombre al grupo de
autoskeing Entonces aquí usa plantilla de lanzamiento de
webfen auto ski group
LT Entonces los detalles del Df se cargan
por aquí. Haga clic en siguiente. Ahora aquí tienes que seleccionar VPC por aquí y seleccionar
la zona de disponibilidad Voy a elegir
todas las zonas disponibles
aquí para que mi servicio pueda distribuirse en todas las zonas
disponibles, haga clic en Siguiente Ahora, aquí es donde puede elegir el grupo de capacitación automática
sin un equilibrador de carga
o adjuntar un equilibrador de
carga existente
donde puede elegir entre el equilibrador de carga
existente
que tiene ahí fuera,
o puede crear un nuevo equilibrador o puede crear Ahora, al crear un
nuevo balanceador de carga, grupo de capacitación
automática solo
le permite crear un equilibrador de carga de aplicaciones
o un equilibrador de
carga de red Como se trata de un contenido de
aplicación, crearemos un balanceador de
carga de la aplicación, y luego el nombre del
balanceador de carga va a ser HSLB Eso dice que es balanceador de carga de
aplicaciones. Frente a Internet interno
elige orientado a Internet. No puede deshabilitar estas
subredes porque hemos hecho un grupo de escaneo
automático de todas las subredes o zonas de
disponibilidad,
todas las zonas de disponibilidad también están seleccionadas para su
equilibrador de carga Y entonces aquí tienes
el número de puerto HTTP, puedes agregar um otros números de
puerto también. Una vez que haya creado
esto no en este momento, sino una vez que lo haya creado, puede ir a la consola de
equilibrio de carga y puede agregar más oyentes
al balanceador de carga existente Pero al crear
esto, solo puedes agregar un oyente por aquí, que es ocho oyente, ese es uno predeterminado Entonces aquí, puedes
elegir el grupo objetivo. Ahora puedes elegir un grupo objetivo existente o
crear un nuevo grupo objetivo. Esto en realidad creará un TG. Sólo estoy dando un
nombre por aquí. Automáticamente
crearé un grupo objetivo. No hay que especificarlo. Ahora, si recuerdas,
en el anterior, creamos un grupo objetivo. En ese grupo objetivo, tenemos um teníamos una lista de
instancias que se creó, y luego importamos la instancia
existente a nuestro grupo objetivo y
luego guardamos o registramos esa instancia
en particular parte del grupo objetivo. Ahora, no tienes que hacer esto porque
a medida que estás creando AG um, o grupo de autoskilling, serás cualquiera que sea la instancia del grupo de auto skilling que
se va a crear, se
agregará automáticamente a este grupo objetivo Realmente no tienes que
agregar cada instancia o registrar cada instancia
en tu grupo objetivo. Iba a ser agregado
automáticamente. Por eso dije que creas un grupo objetivo como parte de la
configuración de equilibrio de carga. Entonces una vez que hayas terminado con esto, aquí
estamos diciendo que no necesitamos Lets VPC y luego
vamos a ir con la configuración
predeterminada, habilitar cualquiera de este servicio de
monitoreo o cualquier cosa porque se va a cobrar adicionalmente Haga clic en siguiente Esta
capacidad es una, capacidad
mínima es una, capacidad
máxima es de cinco. Por lo tanto, la política de esquí automático
opcional, el escalado automático objetivo. Entonces aquí hay una
opción de elegir qué tipo de póliza
quieres seleccionar. Entonces hay opción de no política de esquí
automático donde
puedas seguir adelante y hacerlo más tarde como
lo hicimos nosotros, o podemos ir por la predeterminada
que es el
autoescalado dirigido y un
valor promedio de CPU de 80 por ciento Entonces, una vez que
el valor promedio de la CPU alcanza el 80% teach, esto va
a hacer girar nuevas instancias. Bien. Ahora, prioriza la
disponibilidad lanzando antes de terminar,
lanzando una instancia
y haciendo que se registre antes de terminar
para Y entonces no queremos
habilitar la báscula en protección. Por lo que ya
lo hemos comentado en los videos anteriores. Pasemos a la siguiente pantalla, y luego no queremos SNS Entonces pasemos a la siguiente pantalla. No queremos agregar ninguna etiqueta, y luego hacer clic en Crear grupo
de cribado automático. Ahora se crearía este
grupo de auto skilling,
y luego se creará tu
equilibrio de carga Entonces se crearán todos esos
elementos de acción, puede ver esa política de capacitación de
escalado automático, equilibrador de
carga, un grupo objetivo, un oyente y una
instancia Entonces verás que ahora
se estará ejecutando una instancia. ¿Bien? En instancia se
crea primera instancia, es un estado deseado. balanceador de carga habría
creado para que se cree Banza, se
habría creado el grupo
objetivo, como puedes ver por aquí, déjame quitar el anterior, eso no causa
ninguna confusión Después tienes creado el grupo de
escalado automático. Cuando entras dentro del grupo de
autoescalado, tienes que sí alcanza
la capacidad deseada, capacidad
mínima, máxima
se define aquí Tienes todos los demás elementos
de configuración. Si vas a la política de escalado, hemos habilitado el escalado
dinámico. Que es para 80 por ciento
por aquí, CPUtilización. Gestión de instancias,
solo tenemos una instancia configurada, esa es la deseada y luego monitoreo y otras cosas. Vamos al balanceador de carga,
se llama el balanceador de carga Vas a conseguir las reglas
del oyente. Entonces el oyente predeterminado
es configurar y agregar
oyentes adicionales si lo necesita Y mapeo de red,
se puede ver que este mapa
a todas las zonas, todas las zonas de disponibilidad
disponibles bajo la región. Si ves esta asignación de
recursos, el oyente HTTP AT conectó a la regla
del grupo objetivo, y luego se
presenta el grupo objetivo y dentro del grupo
objetivo ya, la instancia del servidor que
hemos configurado
ya está entrando Entonces, en realidad no
tenías que hacer nada por aquí. Entonces el grupo objetivo
apuntó
automáticamente a esta instancia
en particular que está corriendo por aquí. Vamos a navegar por el sitio web, a
ver si funciona. En primer lugar, navegaremos por ese sitio web individual,
veremos que uno funciona. Vamos a copiar la dirección IP
pegada por aquí. Ahí vas. Hola
desde autoscale Fácil de escalar automáticamente. La instancia está funcionando. Veamos si la
URL de equilibrio de carga está funcionando o no. Copia el nombre DNS por aquí, y luego póngalo ahí afuera. Vea si la URL de
equilibrio de carga funciona bien y la URL de bajo equilibrio también
funciona bien. Esta es una buena noticia.
Usted es capaz de navegar directamente desde la instancia,
así como desde el equilibrio de carga. Ahora bien, si hay un requisito que el servidor requiera ser escalado o
lo siento, escalado, uh, puedes hacer esto manera autónoma porque
tienes un conjunto de políticas, lo que significa que cuando
tu utilización de CP alcanza el 80 por ciento, vas a traer más instancias para
manejar la carga, y también
escalará porque no de
que el servidor requiera
ser escalado o
lo siento, escalado, uh,
puedes hacer esto de
manera autónoma porque
tienes un conjunto de políticas,
lo que significa que cuando
tu utilización de CP
alcanza el 80 por ciento,
vas a traer
más instancias para
manejar la carga,
y también
escalará porque no estamos
permitir la protección
de incrustaciones en protección. Gracias de nuevo por
ver este video para eliminar este eliminar el grupo de
autoescalado, así que la mayoría de los artículos se
habrían ido Y entonces es posible que tengas que eliminar
manualmente tu um, grupo
objetivo, balanceador de carga También tienes que eliminar manualmente
tu plantilla de lanzamiento. Entonces así es como
necesitas retroceder. Gracias de nuevo por
ver este video. Te veré en la siguiente.
64. Introducción al balanceador de carga EC2 de Labs: Oigan, chicos. Bienvenido de
nuevo a otro video. En este video,
vamos a hablar sobre la experiencia
práctica en balanceador de carga En el video anterior, M entendió que el
balanceador de carga es algo que está disponible bajo el panel de control de servicio
EC two Y debajo de eso, vas
a tener el balanceador de carga. Ahora vas a tener disponibles
múltiples
balanceadores de carga Entonces, en primer lugar,
vamos a configurar el balanceador de carga de
la aplicación a través una instancia separada de EC two Ahora, sigamos adelante y creamos una instancia EZ two
para que podamos trabajar con ella. Ahora bien, esta instancia de EC dos debería
tener algo que, ya sabes, algo que esté alojado en ella, así que es fácil para
nosotros navegar por ella. O para acceder a él. Tomemos HTTP es un ejemplo muy común
que normalmente
usamos porque eso es
lo único que realmente puedes navegar en nuestro sitio web. Entonces eso es mucho más fácil. Entonces lo que voy a hacer en este video es que
primero voy a lanzar una
instancia de un EC dos, y voy a crearlo como servidor
webpon o sifón Entonces esta es la primera
instancia de web EC 21. Es muy
recomendable que hagas escalado
automático en esto en lugar hacer un lanzamiento de instancia EC two porque cuando
lanzas instancia, básicamente
significa que solo
tienes una
instancia de servidor de esa. No es un problema, puedes agregar otro servidor y luego puedes ponerlos parte del grupo. Entonces eso también está ahí. Pero cuando creas servicio
manualmente así, hay una buena posibilidad de que alguien más lo
elimine también porque incluso tú tienes protección de
eliminación y
todas esas cosas, pero un servicio individual como este no viene bajo equilibrio de carga
o alta vaibilidad Entonces eso es algo
que debes considerar. Pero en este ejemplo,
vamos a hacer eso. En el siguiente ejemplo,
hablaremos sobre autoescalado y la adición del balanceador de
carga a Veremos esa perspectiva así elegiremos
Amazon inuxie Vamos a elegir D a Micro. Vamos a elegir la clave por defecto, que tengo por aquí. Escogeremos un grupo de
seguridad existente que ya
hemos estado usando
llamado el predeterminado,
que permite la
conexión de tráfico desde cualquier lugar. Entonces cuando clicon
compara la regla de grupo, podemos ver que está permitiendo todos se conecten
al servidor, lo
siento, conectarse a su infraestructura donde sea que
esté asignado
el grupo de seguridad Así que solo le pegué a Cancelar. Entonces ahora el grupo de seguridad es algo a lo que
vamos a acceder en todas partes. Entonces aquí voy a
configurar la historia diez GB. No se necesita
tanto espacio. HGB funciona bien, pero
voy a hacer eso. Ahora, no lances la instancia. Como vamos a hacer esto. Hay dos formas
de hacerlo, ¿de acuerdo? Puede iniciar instancia, y luego puede conectarse a la instancia y
luego instalar HTTP y configurar HTTP
allí. En la instancia. Pero en lugar de hacer eso, lo
haremos con
éste solamente. Cuando haces clic en Detalles
avanzados por aquí y cuando
bajas, tienes algo llamado datos de
usuario opcional. Aquí, puede escribir hash y
luego exclamatorio Bin Bash, y luego puede escribir
um update Esto hará una actualización general, y luego m instalará iPhony HTTPD Este es el proceso
que estamos planeando
instalar y luego hacer eco. Esta es la página EC dos
instancias H GMO. Puedes poner H uno también aquí, esto
lo resaltará. Entonces H OMG Puedes copiar esto y
poner esto en el frente
también y quitar la barra Entonces esto hará eco en un archivo, que es básicamente el índice de página
predeterminado para HMO,
ropa interior, W GMO, índice H Entonces este es el archivo al
que lo actualizará. Y luego sistema CTL, iniciar HTDPD sistema
CTL, habilitar HTDPD Por lo que esto iniciará
el servicio HTTPD y habilitará también el servicio
HTTPD Entonces, cuando el sistema se reinicia
es básicamente arrancarlo. He puesto este por aquí. Puedes tomarle una captura de pantalla. Este es básicamente el comando. Es un comando muy sencillo, aquí no
hay ninguna complicación. Básicamente, estoy actualizando
Yum, instalando HTTPD, creando esta línea en particular, y reemplazándola en el índice
predeterminado a Estoy iniciando y habilitando HTTPD. Eso es. Ahora basta con hacer clic
en Launch Instance. Ahora cuando lanzas instancia, realmente no
tienes que
conectarte a la instancia e instalar HTTP porque estos elementos van
a ser ejecutados como parte de la creación de la instancia. Después de lanzar esta instancia, si solo vas a ejecutar instancias y
actualizas esto y luego seleccionas esto y tienes la dirección IP
pública copia esta IPRRspase pública por aquí y escribe HTTP dos puntos slash,
y se espera
que veas esa página de la que acabamos de hablar que veas esa página de la que Puede llevar algún tiempo
porque puede que actualice Yam, y luego
instalará los componentes, por lo que puede tomar un
poco de tiempo Pero deberías ver eso.
Hola de Fácil de instalar. Deja que Control se refresque. Creo que lo reemplacé hola
de fácil a instancia. Creo que lo reemplacé por
copiar en otro lugar. Entonces esta es la redacción que
hemos incluido finalmente. Hola de fácil a instancia, y esas son las mismas páginas que vienen por aquí en esta dirección IP. Perfecto. Ahora que hemos completado la configuración
de la instancia, vamos a configurar
el balanceador de carga Ahora vamos a elegir
el balanceador de carga predeterminado
para cualquier aplicación que sea
su balanceador para cualquier aplicación que sea de carga de aplicaciones Aquí vamos a nombrarlo como carga de aplicaciones
webby fin ALB Ahora, debes
asegurarte de elegir Internet
frente a Internet o de lo contrario
no podrás navegar por él. No obtendrás la dirección DNS y no serás
navegado desde mi escritorio Así que asegúrate de que esté
orientado a Internet y asegúrate de
que sea la dirección IP, versión cuatro está habilitada. Doble pila significa que obtendrá versión cuatro y la versión
seis y la pila dual sin versión cuatro significa
que obtendrá solo la dirección IP de la versión seis. Eso es más o menos vamos a ir con la Versión cuatro
en este momento. Perdón por el ruido
de fondo. Entonces aquí tengo la
configuración de VPC por aquí. Ahora, en esta VPC, tengo toda esta zona de
disponibilidad Es obligatorio que seleccione dos zonas disponibles como mínimo y una subred
cada una de estas por zona mínimo y una subred
cada una de estas También puedes seleccionar
todas las zonas. No hay problemas al respecto. Entonces tu servicio, que es aplicable en eso
será parte de él, y tu balanceador bajo también
formará parte de todas las
zonas Así que permítanme seleccionar dos o
tres zonas que se necesita. Entonces voy a ir con
cuatro zonas por aquí. El grupo de seguridad
es el mismo que se seleccionó para
el predeterminado, por lo que se selecciona el predeterminado. Entonces aquí está la configuración del
oyente. Esta es la parte muy
importante de la misma. Digamos, por ejemplo, que tu aplicación funciona en
HTTP o funciona en HTTPS, cualquiera de los dos. Pero si tu aplicación también
funciona tanto en HTTP como en HTTPS, no
hay problema. Puedes agregar otro oyente
por aquí como agregar oyente. En este, puedes
configurar HTTPS. Puedes ver 443 y luego
seleccionar un grupo objetivo. Pero mi aplicación actualmente
solo se ejecuta en HTTP. En ese escenario, no
quiero agregar otro
oyente para HTTPS Pero lo que hay que hacer
es que tenemos que seleccionar algo llamado grupo
objetivo por aquí. No verás
ningún grupo objetivo. No estoy seguro de por qué estoy viendo al grupo
objetivo por aquí. Entonces me quite
ese grupo objetivo. Creo que sí eliminé la acción D Se elimina. Déjame refrescar esto. Lo tengo. Grupo objetivo, ¿qué es un grupo objetivo? ¿Por qué necesitamos
crear un grupo objetivo? Ahora, ¿estamos creando
el balanceador de carga? Pero en esta configuración de
balanceador de carga, que hemos hecho hasta ahora, no
hay método para especificar
el destino, ¿verdad? Estamos diciendo que mi balanceador de carga debería
estar frente a Internet, por lo que la gente de Internet
debería poder navegar por él Estamos diciendo
configuración de red para mi balance de carga, mis balances de carga deben
establecerse en esta,
um, cuatro
zonas de disponibilidad en esta VPC Pero no estamos diciendo a
dónde tiene que ir, dónde
hay que encaminar la solicitud. En nuestro caso, nuestra
solicitud de ser enrutados a nuestras instancias,
que está por aquí Actualmente, las
instancias en ejecución solo una, que es web fácil a una. Ahora cómo voy a apuntar esto desde el lado de la
equilibradora vial A eso se le llama un grupo objetivo. Un grupo objetivo tampoco, te
mostraré cuando haga clic en Crear. Cuando hago clic en Crear, lo
ves, puede
apuntar a instancias. Puedes seleccionar
varias instancias y convertirlo en parte
del balanceador de carreteras, pero no es muy
recomendable hacerlo de esta manera, pero esta es la
forma principal que debes entender Cuando estás configurando
el balanceador de carga, esto es
lo primero que debes hacer Para configurar el balanceador
a través de instancias y luego a través de auto scaling y luego
a través de la función Lambda, quieras hacer,
puedes hacerlo más tarde Ahora, esto admite el
equilibrio de carga de instancias dentro una VPC o VPC específica y también facilita el escalado automático EC
dos Hablaremos de escalamiento
hija más adelante, cómo vamos
a configurar el
balanceador de carga para un
momento posterior O bien, puede seleccionar la
dirección IP donde puede admitir el equilibrador de carga VPC y en
los recursos de promesas también, y también
facilita el enrutamiento de
múltiples IPAddress e
interfaces de múltiples IPAddress e En lugar de instancias, también
puede elegir IPAddress. O también puede elegir
las funciones de Lambda,
o también puede elegir el equilibrador de
carga de la aplicación Balanceador de carga de aplicaciones, nuevamente, parte del grupo objetivo Entonces, cuando esté haciendo el balanceador de carga de
red, puede usar el grupo de destino
para apuntar al equilibrador de
carga de la aplicación Entonces puedes dar los detalles del
balanceador de carga de la aplicación aquí, que es parte
del grupo objetivo, que es el siguiente No hemos creado el balanceador de carga de
aplicaciones, estamos en proceso
de crearlo. No he pulsado el botón crear balanceador de
carga, así que aún no se ha creado. Entonces iremos con
la opción de instancias. Aquí voy a hacerlo
como web iphone target group, Iphone TG diciendo target group. Y aquí me estoy enfocando en mi grupo objetivo estará
enfocado en este puerto TCP de 80. Mis aplicaciones um,
que se van a ejecutar en esta instancia
estarán en este particular,
um, protocolo y,
um, el número de puerto. También tienes la opción de seleccionar
directamente HTTPS. Bien, entonces cuál está dirigido
al número de puerto AD. Entonces, en lugar de seleccionar TCP, puedes seleccionar directamente
HTTPS, lo siento, HDDP Entonces, si tienes HTTPS habilitado
en tu aplicación, puedes seleccionar HTTPS. Pero en este HTTP vainilla, solo
estamos habilitados HTTP. Bien, no HTTPS. Ahora, aquí puedes
ver la VPC predeterminada. Se puede ver el protocolo HTTP. Aquí puedes ver algunos
de los atributos de aquí en el protocolo de comprobación
HTDPelth,
la raíz de contexto, que
es tu directorio raíz Del mismo modo, ve algunas opciones
predeterminadas por aquí, y luego da clic en siguiente. Ahora, aquí es donde necesitas
seleccionar o registrar tus objetivos. Ahora, a partir de ahora, las instancias
disponibles que están en estado de ejecución son esta instancia en particular. Aquí es donde hemos
alojado nuestro servidor web HTTP, simplemente haga clic en Incluir
pendiente a continuación. Ahora incluye como pendiente a continuación. Cuando haces eso,
puedes ver que esta instancia disponible se convierte en
tu instancia de destino. Una vez que se haya convertido en tu instancia
objetivo, puedes hacer clic en
Crear grupo objetivo. Ahora, una vez que se cree el
grupo objetivo, verá los
objetivos totales de aquí como uno y actualmente
no utilizados e iniciales. este momento no ha sido mapa bajo ningún balanceador de carga,
pero lo haremos Ahora que has creado
el grupo objetivo, puedes cerrar este
y luego volver a tu pantalla anterior donde tienes que seleccionar
el grupo objetivo. Simplemente haga clic en actualizar y luego seleccione el grupo objetivo
que haya creado. Ahora que has seleccionado
el grupo objetivo, puedes seguir adelante y hacer clic en
el Crear equilibrador Existen algunas
opciones avanzadas sobre el grupo objetivo, cuales hablaremos
más adelante punto del tiempo cuando surja la necesidad. Pero a partir de ahora, se puede
ver que el oyente y la regla dice por aquí es
que tienen protocolo GDB AD, que se reenvía a
su grupo objetivo web grupo objetivo web tendrá las instancias que
va a formar parte de él. Stickyession es pegajosidad es pegajosa la sesión
no es más que un recurso si una
solicitud se enruta a una instancia de servidor
específica, se asegurará de
que esa pegajosidad permanezca
encendida no es más que un recurso si una
solicitud se enruta a una instancia de servidor
específica, asegurará de
que Cada vez que entra esa información o la cookie del navegador, ese usuario
en particular sigue
actualizando la solicitud, terminará en el mismo servicio que ha sido procesado
por primera vez. Eso se llama sesión pegajosa. Eso necesita
habilitarse a nivel de grupo objetivo. Eso está deshabilitado, está bien. Ahora puedes ver que
estás obteniendo el 100%, lo
que significa que
te dice que el servicio que está configurado dentro este grupo objetivo
está disponible al 100%. Entonces hay una regla, y si haces clic en la regla, realmente
puedes entender
la información de la regla, como cómo ocurre el enrutamiento. Una de las cosas importantes que
quiero mostrarte en el balanceador de carga es
el mapeo de red En el mapeo de red,
puedes ver todos esos, um, ya sabes, servidores o lo siento, todas esas zonas
T y subredes disponibles para estas zonas T disponibles
están mapeadas por aquí. Otra
cosa importante que quiero
mostrarles es el
mapeo de recursos por aquí. El mapeo de recursos le muestra
claramente la forma en que se mapea. Entonces, cuando alguien entra y
accede a este nombre DNS, llegarán a este AD
HDP y luego eso básicamente tiene una regla por aquí que reenvía
al grupo objetivo El nombre del grupo objetivo
es web iphone TG, y ese grupo objetivo tiene un objetivo dentro de
ese uh en particular, grupo y
no hay nada malsano y el grupo
objetivo está dirigido a esta instancia
en particular, la instancia de EC dos por aquí. Te da la
jerarquía completa y cómo las solicitudes se
pasarán a la siguiente línea. Esta información básica te
dará información sobre cómo se transmite la
información. Ahora puedes ver que el monitoreo no
habría llegado hasta ahora, pero el monitoreo te dice sobre el rendimiento de los ELB, cuántos, 500 errores, 400 errores y todos esos errores que tan enfocados o que acabas de recibir También puedes integrarlo con otros servicios AW, que de nuevo, uh incurre en
costos adicionales adicionales por aquí como WAV o config o
acelerador global igualmente le daré la información
completa sobre esos elementos de acción. No estamos aquí para configurar
todas esas cosas. Yo grupos de seguridad,
tenemos el SG que hemos creado por defecto en
los videos anteriores, el mismo grupo de seguridad que
estamos eligiendo aquí. Esto
resume prácticamente la configuración. Sigamos adelante y naveguemos por esto. Para navegar, copia
el nombre DNS y luego simplemente reemplazarlo
en lugar de la dirección IP. Cuando presionas Enter, va a HTTPS, solo asegúrate de seleccionar HTTP. Creo que vino en HTTP. Ahora solo para controlar la
actualización y se puede ver que esta instancia
viene por aquí. Esto es más o menos
lo que quiero
mostrarte si creas
otra instancia, por ejemplo, lo que
haremos es crear otra web iphone
EC dos a menudo dos. Entonces en esta instancia, lo que haremos es,
dejaremos todo por defecto. En esta instancia,
copiaremos y pegaremos lo mismo, y luego diremos,
como el servidor Ken aquí. Vamos a dar esta información
adicional aquí diciendo que
se trata de un segundo servidor, así que voy a seleccionar
el par de claves y lanzarlo. Entonces ahora está lanzando
la instancia. Ahora que hemos agregado una nueva instancia a
nuestro servidor existente. Ahora esperemos a que
la instancia se inicialice, entonces
está inicializando Ahora lo que hacemos después de que se inicialice vamos a
navegar por esta instancia, ver si esta instancia
funciona bien, individualmente Uh, eh. Creo que
sigue subiendo. Sí, tomaría algún
tiempo para que surgiera y luego yum se actualizara e instalara componentes
y todas esas cosas Va a tomar
un poco de tiempo. Así que vamos a ver
si esto funciona bien. Voy a pausar
este video
pausarlo una vez que esté terminado.
No quiero retenerte Bueno, no está
funcionando por la
configuración
del grupo de seguridad, así que sólo voy
a modificar eso. Entonces solo voy a cambiar el grupo
de seguridad por otra cosa, que normalmente usamos. Entonces solo voy a ir a
seguridad, cambiar de grupo de seguridad. Y luego solo voy
a quitar eso y estoy seleccionando el predeterminado
y agregando eso. Entonces esto debería solucionar el problema. Como, sí, di aquí. Ahora tienes el nombre de segunda
instancia por aquí. Entonces, cuando navegues por
la primera instancia, vas a
obtener esta instancia, y luego el segundo servidor va a
llegar a esta. Entonces, a partir de ahora, lo estamos
navegando individualmente en esta dirección IP
directamente en el sistema. Ahora, lo que voy a hacer
es que voy a agregar todo lo
que tengo que hacer es no tener que modificar el balance
vial aquí. No tengo que hacer nada.
Ir al grupo objetivo. Um, seleccionar el grupo objetivo y luego todo lo que tengo que hacer es
registrar este target, simplemente hacer clic en registrar target, seleccionar la segunda instancia
que está por aquí. Ya está aquí la primera instancia, seleccione y segunda instancia
de seleccionada y luego incluya en la pendiente a continuación y luego
registre los objetivos pendientes. Ahora tienes dos objetivos. Ahora bien, este es un
muy buen ejemplo, quiero mostrarles en cuanto a cómo funciona
la sesión pegajosa. Por defecto,
las sesiones pegajosas a sp lo
que significa que no tengo
sesión pegajosa por defecto, lo que significa que si voy
a refrescar esto, bien, entonces voy a
obtener el segundo servidor, si lo voy a
actualizar de nuevo, lo
voy a obtener
del primer servidor. Entonces esto es lo que pasa cuando la sesión
pegajosa está deshabilitada. De hecho,
cada
vez que refrescas , recibes, ya sabes, tu solicitud enviada a
un servidor diferente. Eso es básicamente el método
round robin. Entonces, si ves que el ALB está configurado por defecto, método
round robin Entonces lo que eso significa es que tu petición
irá una por una. Uh, a cada servidor que tenga. Entonces ese es el método de deformar de tu solicitud siendo enrutada
como parte del Aquí puedes ver que el monitoreo
ha comenzado a funcionar. Hay dos monitoreos
que entraron en existencia. Una es la respuesta, perdón solicite el
número de solicitudes que están recibiendo y
el tiempo de respuesta. Entonces algunos otros vinieron por
aquí en términos de errores. Entonces existe este error 404 XX, que significa que algo
relacionado con él podría ser permiso denegado o archivo no encontrado o
algo así,
podría ser 400 X.
Así que podría ser 400 X. 404403, así mismo, todas esas
excepciones vendrían y
se mostrarían por aquí
diciéndote la cantidad de excepciones que
viene a través tu saldo de carga Por lo tanto, método
muy útil para identificarlo. Entonces, en términos de grupo de
orientación, grupo de orientación tiene
toda la
información sobre cómo se
enrutaría su solicitud Bien, entonces ahora mismo, esta
zona de disponibilidad tiene dos objetivos, para que puedas obtener esa
información desde aquí. También puedes ver el monitoreo de estas máquinas virtuales y cuántos hosts has
agregado como parte de este grupo objetivo y
cuál es su salud. Entonces hemos sumado uno a dos y todos esos
dos están sanos. Por eso está arriba. Si no es saludable,
va a bajar. Así que no hay un
anfitrión malsano por aquí. Se puede ver el promedio de anfitrión
saludable. Se puede ver la solicitud de tiempo de
respuesta objetivo y todas esas cosas que
vienen de esa zona también. Así mismo, como que
obtienes todos esos detalles. Ahora, en los grupos objetivo, tienes la
configuración de la comprobación de estado por aquí. Entonces aquí, se
habla de dos fallas consecutivas de chequeo de
salud que
se considera insalubre. Y luego va
a marcar ese host insalubre y no va a ser parte de tu balanceador de carga Por lo que cinco
chequeos de salud consecutivos son un éxito. Por lo que el anfitrión insalubre va a un
anfitrión va al estado insalubre, necesita hacer
cinco chequeos de salud para volver
al estado saludable. Entonces el intervalo es de 30 segundos
y el tiempo de espera es de 5 segundos, y el código de éxito es de 200 Así que 200 mayormente en
lenguaje HTTP significa éxito. Entonces hay algunos atributos por aquí sobre la pegajosidad Aquí es donde se puede
habilitar la pegajosidad. Aquí donde
realmente puedes cambiar tu
modo drowin redondo a
promedio ponderado o cualquier otro
modo. Simplemente haga clic en Editar. Tienes el menos pendiente solicitado ponderado aleatorio y tienes round robin.
Ese es el predeterminado. Entonces tienes la
pegajosidad por aquí, así puedes seleccionar la
pegajosidad si quieres que esa pegajosidad Ahora acabo de seleccionar
la pegajosidad. La duración de la pegajosidad es de un día. Ahora puedes hacerlo siete días también.Harly soportar segundos Siempre se recomienda
tener una sesión pegajosa de un día. ¿Cómo quieres que la sesión
pegajosa sea Cookies de generador de balance
vial o cookie basada en aplicaciones Cookie basada en la aplicación significa que
su aplicación tendrá
un nombre de cookie único y puede rastrear
el balance de la carretera. El ALB rastreará
ese nombre de cookie y luego básicamente
mantendrá esa pegajosidad seguimiento del equilibrador de carga
significa que generará automáticamente
un ID de sesión de cookie y se
rastreará ese ID de sesión Ahora, solo
guardemos los cambios, y luego echemos un vistazo a
nuestro sitio web ahora mismo. Entonces ahora estoy refrescando esto. Actualmente, estoy atascado con esta
única instancia de servidor. Ahora la instancia no está
cambiando tan a menudo. Se puede ver que estoy atascado con la segunda instancia del servidor sin importar cuántas
veces me refresque. Esto es lo que significa
sesión pegajosa. Le tomó un poco de tiempo
superar ese cambio. Pero en el momento en que ha llegado el
cambio, sea lo que diga que hayamos hecho,
se puede ver que soy refrescante, se
puede ver que está cambiando. Debido a que estoy haciendo refrescamiento
controlado, estoy manteniendo el control
así como FI juntos. Entonces ahora puedes ver
cuántas otras veces refresco no va
al primer servidor. Sólo se está pegando con
el segundo servidor. Esto se llama sesión pegajosa. Te he enseñado todas esas cosas
sobre el Balanceador de Carga. En el siguiente video, haremos la misma configuración de Load
Balancer a, um, a través del grupo de autoskilling, y luego veremos cuál
es el beneficio de Gracias de nuevo por ver este video.
Te veré en la siguiente.
65. Desinstalación práctica de ECS de Labs: Oye, bienvenido de nuevo
al siguiente video. El retiro de esto podría
complicarse por el
trabajo que hemos realizado. Entonces te voy a mostrar cómo
eliminar los componentes
del ECS Así que solo selecciona el clúster. Primero, vamos uno por uno. Tenemos que ir al mejor artículo aquí, los despliegues. Así que tenemos que detener
las implementaciones,
um, eliminar la tarea Quiero decir, detener la tarea, um, eliminar la tarea, y
luego necesitas
eliminar el servicio
en el clúster. Así que tuvimos que ir
desde el reverso. Cuando empezamos, comenzamos a partir de implementaciones de servicios de tareas de
clúster, luego hay que ir
al revés Simplemente vaya al servicio,
vaya a las implementaciones y luego verá
que Deployment seven se está ejecutando en este momento Necesitas
servicio de actualización ahora mismo, me aseguro de que tu tarea
deseada sea cero, esto asegurará que no
haya ninguna tarea ejecutándose. Esto equivale a detener toda la tarea porque
si la detienes, existe la opción de detenerla
en la definición de tarea. Si detienes la tarea, ésta comenzará de nuevo
automáticamente. Lo primero es que impidan que su implementación
complete cualquier tarea, por lo que su implementación se convierte en cero, para que pueda ver que ya
no está desplegada. Una vez que ya no estés
desplegado, entonces puedes ir a la tarea. Se puede ver que no hay tarea
por aquí. Eso es bueno. Ve a tu definición de tarea, selecciona la definición de tarea, y luego creo que necesitas
ir a cada una de
estas y seleccionarla. Acción darse de baja, es necesario
registrar todos ellos. puede ver que
ya se ha ido todo, esto debería ser bueno.
Volver al cúmulo. Un nombre de clúster y luego
eliminar el servicio. Si esto te deja dt, entonces estás en claro
ahora estás en el claro. Nos registramos, desdesplegamos
y eliminamos el servicio. Y luego
puedes ir a la tarea. Creo que
automáticamente se habrá ido ahora. Sí, se ha ido.
A continuación este clúster, seleccione el clúster,
elimine el clúster, copie y pegue esto y
modifique la D a D
pequeña y presione el botón de
eliminar debería eliminar su clúster. Es decir, cuando hagamos la sesión de balanceo de
carga, volveremos a crear. Pero esa vez lo haremos
manualmente porque no
queremos que esa instancia del servidor
se esté ejecutando hasta ese momento. Por lo que puede tomar un
poco de tiempo
eliminar el clúster PCS. Una vez hecho esto, entonces
eliminaremos el espacio de nombres
también porque el espacio de nombres es muy importante para que lo eliminemos Voy a pausar este video. Bueno, eliminar el
clúster significa que
también
eliminará tu instancia EC two porque tu auto
skilling
se eliminaría como parte de la
eliminación del clúster, así podrás ver que ya no hay un grupo de
auto ski Entonces eso es básicamente
la eliminación del clúster. Tendrás un enlace por aquí, que te dice que redirijas
a tu formación de nubes. Así que ahora puedes ver que
se ha eliminado con éxito. Tardó unos 5 minutos, creo que 2 minutos para mí. A 5 minutos. Entonces ahora
creo que esto debería desaparecer. Sí, ahí tienes. Espacio de nombres, selecciona el espacio de nombres, um, y tienes el nombre aquí. Bueno, el espacio de nombres viene
bajo el mapeo en la nube, por lo que básicamente es el espacio de nombres en el
nombre del espacio de nombres. Entonces solo presiona el botón t. Esto puede tomar alrededor de
un par de minutos para que se complete como pll para que puedas ver
eso girando. Déjalo ya que es
solo cerrar la pestaña, saldrá y no es realmente importante que nos quiten
eso de inmediato. Entonces, que se tome su
tiempo para que se haga eso. Bastante aclaró todas esas cosas que
acabamos de crear. No tenemos cluster, no
tenemos tarea, no
tenemos nada
que acabamos de hacer. No tenemos el grupo de
autoski ni la instancia
disponible para nosotros. Gracias de nuevo por
ver este video. Te veré en la siguiente.
66. Configuración de ECS de Labs Parte 1 Prácticas: Hola chicos, volveremos
al siguiente video de este video, vamos a hablar de ECS Este es el primer tema que
vamos a comenzar en términos de
entender su servicio de cómputos de
AWS. Ya hemos visto múltiples ubicaciones y fáciles de instancia, así que no vamos
a hablar de ello, sino que vamos a crear una instancia
ECS y luego
vamos a trabajar con ella Ahora, la instancia ECS viene
con dos opciones. O puedes ir con
Fargate o EC de dos instancias. En este video en particular, vamos a utilizar el ECS con EC de dos instancias
en lugar de Fargate Más adelante,
verá en esta sección en particular, estaremos
hablando de ECS usando Fargate
y trabajando con ECS en Fargate y trabajando con ECS Eso es básicamente un servicio de cómputos
sin servidor. Bien, así que vayamos por
este camino para el ECS usando Est Así que siga adelante y llame
al servicio ECS y luego
haga clic en el medio para
abrirlo en la nueva pestaña Ahora bien, recuerden que esta es
una configuración multiparte, así que vamos a configurar
múltiples elementos por aquí, y finalmente, vamos a
poner en marcha nuestro clúster, bien. Entonces esto es lo primero con lo que voy a
empezar en este video. En primer lugar,
vamos a configurar un clúster Clic en
Crear clúster. Así es como
puedes interactuar con servicio
ECS al crear
un clúster Ahora, el clúster le brinda
la infraestructura para que ejecute un contenedor, pero no estaremos creando un contenedor mientras
creamos un clúster. Lo que vamos
a hacer es el primer paso es crear una infraestructura
como clúster, donde en la que
estaremos especificando el número de instancias que
se van a ejecutar a un clúster. Y luego haremos
una definición de tarea. En esa tarea, estaremos
especificando qué tipo
de contenedor queremos ejecutar
como parte de este clúster. Y también estaremos configurando un servicio bajo
el clúster e integraremos la tarea y luego haremos que
esa tarea se ejecute y luego
el clúster el servicio dentro del clúster comenzará a
aparecer con contenedores Vamos a hacer clic en Crear Cluster. El primer paso es
crear un clúster. Voy a dar
HTTP uh, clúster ECS. Ahora bien, este va a ser
el nombre de mi clúster. Entonces esto me dirá que
es un HTTP donde estoy usando esta aplicación GeneX aplicación para
solicitud HTTP, ECS como en palabras, es
lo que estamos haciendo servicio de
contenedor Y luego es un cúmulo. Entonces
esto es sólo para definir eso. Cuando creas un nombre de clúster, vas a obtener el
espacio de nombres también asignado a él, así que vas a ver un espacio de
nombres asignado allí Ahora en esta situación, estamos eligiendo EC dos
en lugar de Fargate Fargate es básicamente
no tienes que especificar ninguna instancia de EC two serve como
esta. Si selecciona esto. puede ver que automáticamente, creará o
generará servicio de cómputos
sin servidor, que es cero mantenimiento Pero en términos de EC two instance, hay mantenimiento
requerido donde
realmente vas a tener el creador de instancias EC
two. Perdón por el ruido
de fondo. Entonces aquí tienes el ASG, así que esto no es más que grupo de
autoscaling Grupo de Auto Scaling,
hablaremos en un momento
posterior. Creo que está cubierto por aquí. Entonces hablaremos mucho más de detalle sobre los grupos de escalado externo, pero aquí solo resumen. Entonces estaremos creando grupos de
autoescalado, y poco a poco va a escalar. Por lo que normalmente vamos
a definir la capacidad mínima y
máxima deseada. ¿Bien? Entonces mínimo
significa como el número de servidores que
se necesita crear mínimo, debe mantenerse siempre, lo
que significa que no
disminuirá desde el mínimo, sino que escalará
hasta el máximo. O se puede decir escalando
al máximo y escalando
al mínimo. Mínimo, podemos mantenerlo como uno y máximo,
podemos mantenerlo como cinco. Esto asegura que el número
máximo de servicio que puede crear es
cinco y un mínimo, mantendrá todo
el tiempo es uno. Ahora, aquí hay dos
opciones en términos de modelo de aprovisionamiento para
su grupo de autoskilling Una es la instancia bajo demanda
y spot. Estos son el tipo
de instancia, ¿de acuerdo? Por lo que ya hemos discutido
bastante al respecto. La instancia bajo demanda es
básicamente pagar por la marcha, y no se
requieren compromisos
a largo plazo ni costos iniciales para ello, lo que significa que crea una instancia de EC dos
yendo a EC dos Entonces eso es básicamente una
instancia, ya
sabes, bajo demanda, ¿verdad? Entonces lo mismo es lo
que estamos haciendo aquí. Entonces necesitamos que esta carga
esté funcionando todo el tiempo, y esto es para un contenido
web, ¿verdad? Entonces lo necesitamos. Pero la
instancia spot por otro lado, te
permite ahorrar
90 porcentaje, que es descuento
aplicado a ti. Pero el único problema es como, utilizará la capacidad de
recursos ECR no utilizada Pero la utilización se hace
mayor y, ya sabes, no
hay espacio no utilizado, entonces obviamente no
tendrás servicio para ser desechado. Entonces existe el riesgo de um, ya
sabes, no tener ningún
servicio disponible para ti. Entonces queremos ir sin
el riesgo porque
necesitamos al menos algún servicio
para estar funcionando todo el tiempo, y vas a ir a la
demanda en este caso. El siguiente es sobre la instancia
del contenedor AMI. Lo que esta instancia contenedor, hay dos redacciones
que vamos a ver
más adelante punto del tiempo Uno es el contenedor y
la instancia del contenedor. La instancia de contenedor es básicamente donde se
alojarán los contenedores. Esto es realmente necesario para que elijas el tipo de
instancia aquí. He hecho esto usando
este T dos micro, pero es muy lento, así que
voy a ir con T dos grande o mediano. El medio es mucho mejor. Entonces voy a ir con
T dos medio el cual tiene dos cps y cuatro GB de RAM. Ahora por aquí, voy
a usar crear nuevos
roles por aquí. Entonces si no tienes
nada y
viene por defecto para
crear un nuevo rol, entonces muy bueno. Entonces
solo ve con esto. Simplemente viene porque ya
he probado esto, así que esa es la razón por la que ya existe un
papel en este nombre. Así que sólo tienes que ir con crear un nuevo
rol no debería ser un problema. Términos de par de teclas, solo usa el teclado predeterminado
que tienes. Yo solo elijo a Tom cad por aquí porque
tengo ese par de llaves. También tengo Docker Cub,
voy a elegir eso. Sea lo que hayamos hecho hasta ahora, trabajamos con tales teclados solo elige eso y debería estar
bien En términos de configuración de red, vas a usar
la VPC predeterminada y todas las subredes disponibles, lo que significa todas las zonas t
disponibles Estas cinco instancias se pueden crear en todas estas
cinco zonas de disponibilidad. Así que el grupo de seguridad existente, acabo de dar esto acaba tomar el grupo
de seguridad predeterminado. Si no estás seguro de
esto, ve a EC dos. Vaya a Grupo de Seguridad, y luego busque
el grupo de seguridad. Entonces entiendes que todo esto es grupo de seguridad de tráfico. Todo el tráfico entrante
es aceptado por defecto. Todo bien. Ahora que ya
hemos completado esta tarea. Ahora sigamos adelante con la dirección IP
pública asignada automáticamente. Es solo básicamente
usar una configuración de subred. No queremos dar a nada ningún ajuste específico por aquí. El monitoreo es opcional, y no
quiero ir por
monitoreo debido a los cargos que puede ocurrir
mientras el monitoreo está en su lugar. El cifrado, nuevamente,
es opcional para su tienda administrada, así
como Fargate FM y tienda Así que no estamos usando
Fargate a partir de ahora. Uh, si quieres cifrarlo, crea la clave KMS y luego
puedes elegir esa, ya
sabes, la clave KMS de aquí Entonces eso es básicamente encriptamos los datos usando la clave,
pero no los necesitamos. Ahora mismo, no
necesitamos ningún cifrado. Si tiene alguna etiqueta a
especificar para este clúster, puede agregar esas etiquetas
aquí. Haga clic en Crear. Bien, entonces ahora el
clúster se está
aclarando , ya sabes, creado. Bueno, la
creación del clúster puede tardar entre cinco y 10 minutos. Entonces, para mí,
todavía está en progreso, y se puede ver que
la creación de clústeres, definición de
tareas, creación de
servicios, todo se hará
a través de la formación de nubes, porque la formación de nubes es básicamente el escalón de cada bit de configuración ECS
porque ECS es componentes pequeños, y esos componentes pequeños
se ejecutan juntos, y cómo se ejecuta juntos
es a través de la formación de nubes. Entonces verás formación de
nubes uh entrando en casi todas partes. Ahora que has
creado el clúster, simplemente haz clic en el
clúster y
realmente podrás ver algunos detalles sobre el clúster
en la descripción general. Obtendrás muchos
más detalles una vez que termine esta creación de clúster. Uh, verá servicios, tareas, infraestructura,
infraestructura, necesita aprovisionar
ese servidor, así que todavía está aprovisionando
ese servidor, la instancia um, contenedor. Eso va a subir por aquí
una vez que haya hecho eso. Y entonces métrica
va a venir por aquí y luego programar tarea. Ahora bien, la tarea es básicamente
cómo creamos los contenedores. Esto es básicamente
lo que lo llamamos
como definición de tarea, lo
haremos en un momento. Pero lo que es la definición de tarea es básicamente una tarea
no es más que un plano de
su aplicación Básicamente es un archivo de texto
en formato JSO que describe los parámetros que el
contenedor necesita tener Puedo tener especificación como qué tipo de tipo de
lanzamiento usar. Y puede tener
qué imagen de Docker quieres ejecutar como
parte del contenedor ¿Cuáles son la
utilización de la memoria de la CPU, las estadísticas, la
cantidad que desea que se asigne la memoria
de la CPU para
cada contenedor? Cuantos requisitos de memoria tienes que también se
pueden mencionar. Tienes límite suave
y límite duro, y luego qué
sistema operativo quieres que se ejecute,
um, sistema operativo, um, imagen de
Docker, es todo lo mismo Y también habla de configuración de inicio de
sesión para que puedas usar los registros para, ya
sabes, ponerlo a
través para entender, ya
sabes, cuál es
el trabajo que está pasando. Y entonces podría tratarse de variables de entorno
que hay que ejecutar. También puedes establecer si
tienes varios contenedores, también
puedes establecer la prioridad para que cada contenedor
comience primero, cuál iniciar
primero, de igual manera. Todas esas cosas deben
definirse en una tarea. Y la tarea se
ejecutará a través de un servicio. El servicio llamará para esas tareas y ese
servicio ejecutará tarea. Entonces, lo que hemos hecho hasta ahora es crear infraestructura para que
sus contenedores funcionen. Ahora puedes ver que se crea esa
instancia de contenedor. Este es el ID de instancia. Entonces esto básicamente
irá a EC dos instancias. Si ves Zero instance, if instance,
verás esta instancia
ejecutándose ahora mismo. Anteriormente he
probado los de aquí. Entonces este es el que
creé para este ejemplo
en particular. Entonces, si solo
copias este
ID de instancia y lo buscas por aquí, puedes ver que coincide. Entonces este es el
ID de instancia que ha creado. Entonces ahora
se completa el despliegue, ¿no? Entonces ahora es por
eso que se acerca. Por lo que esta formación particular de
nubes también
se completa,
crear completa. Entonces esto también se hace. Entonces se hace la formación de nubes. Instance, se crea tu
instancia de contenedor y estás listo para que estés listo para crear una definición de
tarea. Así definición clicontask. Crear una nueva definición de tarea. Así que aquí estoy creando
una definición de tarea para mi servicio HTTP en. Tarea. Tarea TDP. Y aquí, hay que seleccionar la misma, que es EC dos instancia lugar de contenedor de cómputos
Fargate Ahora recuerda que, ya sabes, si seleccionas Fargate, entonces deberías
haber seleccionado también el tipo de clúster como Fargate, o de lo contrario será confuso Entonces es mejor
seleccionar lo mismo. Entonces, es en EC dos
instancias por aquí. Ahora bien, este es el requisito de
infraestructura para su tarea donde se creará su
contenedor. Entonces ahora no estamos hablando tu tipo de instancia familiar y familia de
instancias o
tipo de instancia, perdón, tamaño. Entonces aquí estamos hablando de que
el contenedor tiene que ser. Esta es la asignación
del contenedor. Entonces este es el
requerimiento de infraestructura de un contenedor. Entonces aquí el modo de red es AWSvcOperating la
arquitectura del sistema es La CPU es una CPU y me
voy con un GB de RAM. Entonces mi misión virtual, misión virtual
media
consiste en tres GB de RAM. Entonces voy a ir con una CPU
virtual una memoria. Aquí, no tengo que
seleccionar nada sobre el rol de tarea o la
ejecución de la tarea, lo ignoras. Y aquí van a conseguir este diciendo que crean
un nuevo rol por aquí. Así va a
ser, déjalo como está. El siguiente es sobre
el contenedor esencial. Este es el contenedor
que
va a venir como parte de su tarea. Ha especificado
el requisito de tarea para esta definición de tarea. Entonces, si quieres ejecutar esta tarea en
particular en un clúster, ese clúster debería
tener una CPU virtual, una memoria, y
debería tener Linux X 86. Este es el
requisito. Una vez que haya completado el requisito, deberá coincidir con el
requisito de su clúster. Tu clúster tiene
tres GB de memoria, pero yo he dado un
GB como requisito. Tu requerimiento está hecho. Validaré el
requisito con su
configuración de clúster actual y dirá
que es exitosa. El segundo es básicamente
tu contenedor. Contenedor es básicamente lo que vas a tener o
correr en tu contenedor. Entonces primero, vamos a decir, voy a ejecutar nginx o servicio
HTTP o nginx Y luego hay que dar
una URL de repositorio completa. Ahora bien, esta URL del repositorio
debería tomarse de algo llamado Elastic Container,
um, repositorio. Entonces esta es la ECR, se
puede ver eso. Si solo haces clic en
él, se abrirá una nueva pestaña. Registro elástico,
lo siento no repositorio. Registro contiene todos
los repositorios, tanto públicos como
privados ¿Qué significa esto? Esto significa que si
quieres especificar la
imagen nginx aquí, puedes crear un repositorio privado o puedes crear un repositorio
público ¿Bien? Entonces ahora que tienes estas dos opciones por
aquí disponibles para ti, entonces todo lo que tienes que hacer es
poner esa URL por aquí. Pero tú en la URL ahora mismo. Entonces necesitas obtener esa URL de
nginx de esta ECR en particular Entonces, para obtener eso de
este repositorio público, simplemente haga clic en estos
tres botones de aquí. Por lo que en realidad
verá el listado completo o las opciones bajo ECR En ECR, vaya a repositorio
público y repositorio y podrá
crear un repositorio público Si haces clic en
repositorios por aquí, vas a crear un registro
privado Aquí crearás
un registro público. Pero si quieres ver todos
los registros públicos, que
ya está disponible en AWS dentro de ECR,
puedes hacer click sobre esto Después busca IngenX. Ahora puedes ver que Engine X ha surgido y esta
es cuenta verificada, y esto es del
propio nginx y tiene 1.3
mil millones Así que puedes hacer click en
nginx por aquí. Luego están estas
opciones por aquí donde tendrás
la descripción, tendrás los
términos y condiciones de uso,
y luego etiquetas de imagen
y todo. Actualmente, Stable Pearl es la que es la versión
actual, ya
puedes ver el URI
por aquí. El URA también está aquí. Así que solo haz clic en Copiar. Y pega esa URA en esta imagen URI ubicación y haz de esto como un contenedor
esencial. Contenedor esencial significa que este
es un contenedor obligatorio, y este va a ser
el contenedor predeterminado. También puedes agregar otros
contenedores,
así puedes crear otro
contenedor haciendo clic en agregar otro contenedor y agregar
otro por aquí. ¿Bien? Por lo que los dos contenedores se crearán como parte de esta tarea. Bien. Entonces ahora que
esto se ha completado, ahora voy a usar
el mapeo de puertos de
aquí para el puerto número 80, TCP. Y protocolo HTTP. Por lo que también
se agrega este número de puerto. Ahora puedes hacer que el sistema de archivos
raíz solo
leído también,
así que eso depende de ti. La CPU virtual es una. Un ensayo y una
CPU virtual y un límite duro de un GB y un límite suave de 0.5 GB. Lo que esto significa es
que límite duro significa que la utilización máxima de este proceso o de este contenedor en
particular va a ser de un GB, y este 0.5 es
límite suave para lo mismo. Se puede agregar la
variable romana cfVich. El registro está habilitado
usando Cloud watch, estoy deshabilitando porque
requiere um dinero extra Aquí puedes habilitar el reinicio
si presionas el código de salida o, ya
sabes, puedes ver el periodo de
reinicio del código de salida. También puedes usar
algunos parámetros o scripts de archivos
shell para
ejecutar como una comprobación infernal. También puedes tener
dependencia de inicio si eres
más de un contenedor. También puede tener la configuración de tiempo de
espera del contenedor aquí ajustes de red
acoplan una configuración, por ejemplo, cuando alguien inicia sesión, ¿cuál es el comando que necesita para ejecutar? Qué carpetas
trabajas o directorio, así mismo, el punto de entrada. Entonces los límites de recursos
para el
límite UD, el límite será predeterminado, pero puedes agregar
el límite U aquí. Se pueden agregar etiquetas así
como parte de este contenedor. Almacenamiento o monitoreo por
defecto es impuesto por defecto si
quieres puedes agregarlo. Haga clic en Crear. T debería
crear tu contenedor. Lo siento, crea una tarea. Ahora bien, una vez
creada esta tarea, ya ves
que, está usando la imagen
HTTP contenedora de este repositorio así que este es el límite suave y el límite duro
que hemos dado aquí. El contenedor utilizaría al
máximo una CPU
virtual que vemos y un GB ofrecen consumo
total de RAM en
la instancia del contenedor. Ahora bien, esto es
más o menos lo que queríamos configurar por aquí y
estos son todos los elementos. Esta tarea no se ejecuta. Necesitas algún servicio para ejecutar esta tarea
ahora mismo. Se crea la tarea. Para mí, dice revisión cuatro. Para ustedes, va a
decir revisión uno porque no es la
primera vez que hago esto. Este es el cuarto
yo lo estoy haciendo. Así que lo hice para algunos
otros propósitos y esas cosas. Así mismo, tienes espacio de nombres creado automáticamente,
y tienes el clúster. Entra dentro del clúster,
selecciona el servicio, da clic en Crear, esto va a estar
creando un servicio para nosotros. Ahora en esta creación de servicios, tenemos todas estas opciones
que nos van a ser útiles para
crear el servicio. Vamos uno por uno. Entonces ahora estamos aquí para
crear un servicio. Para crear el
servicio, permítanme simplemente reiterar el
código de tema al clúster. Selecciona el nombre del clúster
y en la parte inferior, tienes un servicio de llamadas de primera
pestaña y luego haz clic en
Crear servicio. Ahora una vez que estés en el servicio, entonces puedes ver que
esto está bloqueado porque este va a ser
el nombre de tu clúster. Y aquí también está
bloqueado para decir que es
fácil de instancia porque tu clúster está configurado en
Fácil de instancia. Aquí hay dos opciones para su
configuración de cómputos. Una es la estrategia
proporcionada por la capacidad, otra es el tipo de lanzamiento
seleccionado. Si selecciona el tipo de lanzamiento, en realidad
puede optar
por EC dos porque ese es el
método de implementación para su clúster. Si está proporcionando,
si está seleccionando la estrategia de capacidad
proporcionada. Aquí esto es para lanzar tu
estrategia para tu tarea. Ahora, cómo puedes lanzar
esta estrategia es tener múltiples um, proveedores de
capacidad para ti. Por defecto, solo
tendrás uno, que es tu
proveedor de capacidad como en este clúster. Entonces esa sería tu capacidad, el componente dentro de
tu clúster. También puede
combinar esto alternativamente con un servicio Fargate y también instancia de
Fargate spots Y también puedes priorizar. Entonces no vamos a
hacer eso ahora mismo, vamos a ir con el
predeterminado en este programa. Y entonces la
configuración de despliegue es que, ya sea que quieras
desplegarlo para una tarea o un servicio, Um ,
ahora, si lo estás
haciendo para una tarea, se recomienda principalmente
para trabajos por lotes, pero no para publicación web, algo así como lo que
vamos a lograr. Debido a que esta tarea es
básicamente se
ejecutará y luego se termina
y luego, ya sabes, vuelve, y si
quieres volver a ejecutar, la tarea en función de tu
horario, la ejecutará de nuevo. Entonces eso es como un horario por lotes. Pero un servicio es un
proceso que sigue funcionando indefinidamente
hasta que lo detienes Por lo que elegiremos el
servicio por aquí. Ahora, puede seleccionar la tarea
HTTP aquí. La revisión es la última, y esta es la última revisión de aquí. Y aquí hay que dar
el nombre del servicio. Es obligatorio. Aquí estoy dando servicio de guiones
HTTP HTTP Ese va a ser el
nombre del servicio. Aquí voy a decir réplicas, colocar y mantener
un número deseado de tareas en todo su clúster Voy a dar sólo una, esta es la única tarea
que va a manejar. En términos de
opción de implementación, por defecto, actualización
rodante se presenta 102 cien por ciento como mínima en ejecución y tarea
máxima en ejecución. Es la tarea mínima en ejecución, la
tarea máxima en ejecución. Si tengo los datos de
tarea deseados cuatro, y si tengo ambos como 200 o ambos como 100,
entonces no importa Tanto como 100, significa que
iniciará cuatro trabajos en total. No esperará a que se
complete un trabajo y sea
exitoso y luego pasará al siguiente trabajo
como en una tarea para completar y luego no
irá a la tarea. Empezará, ya sabes,
todas las tareas juntas, lo que aumentará la
carga en tu sistema, que, ya
sabes, si hay un
fallo en la tarea anterior, no la detendrá, así que
algo así. Entonces, si das una variación del 100 por ciento o, ya sabes, una variación como esta, tendrás una tarea
comenzando tras otra. Entonces esa es la razón por la que
damos esta variación. Tenemos falla de implementación en la
que volverá a la versión anterior
si ya
tienes la versión existente y la
estás actualizando. Entonces algunas de las opciones de
aquí en términos de descubrimiento de
servicios,
servicio connect. Aquí vamos a utilizar el mismo
grupo de seguridad por aquí. Aquí se
mencionan las opciones de equilibrio de carga. No estamos usando ninguna
opción de equilibrio de carga, automáticamente, se escala y luego completa el
volumen y el
etiquetado está todo hecho Esto es más o menos y
luego haz clic en Crear. Esto debería crear el servicio. Ahora, puede llevar algún tiempo
porque volverá
a pasar a la formación de nubes y
comenzará a escribir, ejecutando algunos programas hacia la
creación del servicio
para su aplicación. Esto va a llevar algún tiempo. Puede tomar alrededor de cinco a
10 minutos de nuevo para obtener todo esto ordenado y llegar
a ese estado de funcionamiento. Actualmente, se puede
ver que no
hay progresión por aquí, no ha comenzado a
ejecutar la tarea. Al hacer clic en la
tarea, se puede ver que todavía se encuentra
en estado pendiente. Lenta y seguramente
comenzará a ejecutar la tarea, que es básicamente
la definición de tarea que has
creado aquí. Entonces esta es una
definición de tarea por aquí. Entonces esto es básicamente
crear el contenedor, que es GDP engine x container
de este repositorio. Por lo que esto está pendiente, por lo que puede tomar algún tiempo
para que esto se complete. Entonces en la tarea se está ejecutando,
creo que ya está hecha. Así que simplemente haz clic en él, y verás esta
instancia de contenedor por aquí. Entonces tienes un creador de
contenedores. ya lo ve. Ahora mismo está en estado de
funcionamiento. Aún aprovisionamiento, puede llevar algún tiempo reflejar los cambios. Ahora, da click en Contena Instancia, y verás que
la instancia total aquí Es la dirección IP pública
y todo lo demás en los recursos y
redes por aquí, tarea, atributos y todo. Entonces está subiendo aquí. El estado de instancia del contenedor. Vamos a codificar el clúster. Sólo tenemos que verlo funcionando. Puede que tarde un tiempo
para que refleje el estado, pero la tarea está terminada. Veamos la formación de nubes. Aún creación y progreso. Vamos a darle algo de
tiempo. Debería tomarme un par de minutos
más y luego debería entrar
con un estatus adecuado. Voy a hacer una pausa en el video
hasta que se complete. Bien, chicos,
quiero terminar este video en esta nota que lo hemos desplegado
con éxito. Y si estás
intentando navegar por
él, no funcionaría el
sitio web en el EngineX
si intentas navegar
desde la consola EC two La instancia de aquí no
funcionaría para ti
porque no es como, quiero decir, hay un
par de correcciones que
necesito hacer para que eso funcione. Entonces lo haré en
el siguiente video, pero si realmente te
interesa continuar con este viaje de ECS y que eso funcione,
para que
puedas seguir el siguiente
video y hacerlo Pero recuerda que
no va a ser
parte de tu examen. Por lo que las manos sobre sí mismas
no forma parte de tu examen. Esto es solo por
mi curiosidad. Te estoy dando estos pedacitos
y pedazos de manoson Um, así que de todos modos espacio, te
he cubierto los
temas para el examen Pero si quieres
ir más allá de eso, este video y el
siguiente video realmente te ayudarán
a brillar en ECS Ahora bien, recuerda que, si estás tratando de navegar por
esto, no va a funcionar. Yo solo intento por aquí, funcionaría para mí
porque lo arreglé. Entonces esta página no
vendría por ti. Tampoco podrás conectarte
a este servidor. Entonces, si haces clic derecho
e intentas
conectarlo, no funcionará, pero está
conectando para mí. Entonces ahora, lo arreglé. Voy a mostrar cómo lo
arreglé en el siguiente video. Gracias de nuevo
por ver esto porque lleva algún tiempo
sucediendo. Quiero darle al
siguiente video una oportunidad para que lo arregle y te
muestre cómo solucionarlo. Gracias de nuevo
por su tiempo y paciencia.
Te veré en la siguiente.
67. Configuración de ECS de Labs Parte 2 Prácticas: Oigan, chicos, continuando atrás
del video anterior, voy a arreglar este
problema uno por uno. En primer lugar, que trabajemos en esto. En primer lugar, necesitas conectarte
a esta instancia EC two, a través de un exterm móvil o tienes que
hacer clic derecho y conectarte Usando esta opción de conexión. Ambas cosas no
funcionarían en este momento, es por la
puerta de entrada de seguridad, la predeterminada. Todo lo que tienes que hacer
es si ya te está funcionando
bien, si no te está funcionando,
solo tienes que seguir la solución
que te voy a dar. O ve a este grupo de
seguridad, o puedes ir de
aquí también a
este grupo de seguridad o a lo que sea que
hayas configurado para esto. Ambos serán iguales
porque ambos usan el mismo auto ski y ambos están usando el
mismo grupo de seguridad. Simplemente haga clic en el medio,
se abre una nueva pestaña. Entonces, lo que sea que haya por aquí, solo edite las reglas de entrada, seleccione lo que esté
aquí, borre. No lo mires porque está asignado
al propio grupo de seguridad. Haga clic en Agregar regla
y luego seleccione todo TCP y luego diga en cualquier lugar IP versión
cuatro y presione la regla de guardar. Ahora bien, esto debería desencadenar su conexión a
la instancia EC two, y debería poder
acceder a la instancia EC two. Todo lo que tienes que hacer es
crear una nueva sesión. En esa nueva sesión,
pon select como sech, pon la dirección IP pública de la instancia
del servidor ECS
server instance por aquí, la dirección IP pública,
que comentas Luego dale a la
configuración avanzada use la clave privada. He usado el archivo Docker
Cub PBK, así que eso es algo que
he hecho y luego puse el usenam como ECT, y luego deberías estar conectado así que eso es algo que
he hecho y
luego puse el usenam como ECT,
y luego deberías estar conectado
a este servidor en particular. También puedes usar Clic
derecho Conectar, y luego también puedes
conectarte así. Creo que debería estar
funcionando, supongo. No, no
me está funcionando como conexión de búsqueda. Entonces no está funcionando para mí por alguna razón, pero
debería funcionar para ti. Bien, entonces para mí,
esto está funcionando. Entonces esto es suficiente para mí, así que para mí trabajar con ello. Ahora bien, ¿cómo arreglé este sitio web? Voy a llegar a eso ahora. En primer lugar, cierra todas las pestañas, lo cual no es
relevante para nosotros en este momento porque no
necesitas instancias también, y todo lo que tienes que
hacer ahora mismo es
volver al clúster. Ahora, hicimos alguna configuración en nuestra definición de tarea, ¿verdad? Entonces eso en realidad nos
está causando algún problema. Entonces voy a redefinirlo, y voy a mostrarte cómo en lugar de
borrarlo todo, cómo retroceder
a lo anterior, quiero decir, cómo, ya sabes,
llegar a una nueva
configuración Entonces todo lo que tienes que hacer es como, seleccionar tu definición de tarea, modificar tu definición de tarea ahora. Así que selecciona la
definición de tarea aquí. Entonces en este momento
solo tendrás una definición de tarea, así que tengo
diferentes para ignorarme. Entonces, si tus declaraciones de tareas
como HTDP task Ce y una, solo
seleccionas eso ¿Bien? Entonces para mí, la
última es la tarea seis, y luego creo
esta nueva versión. Ahora esta nueva versión
se basará en mi versión anterior, que es la versión seis, tarea
HTTP, ¿bien? Así que no hay necesidad de cambiar nada. Simplemente cambie más la
red de AWSVPC a default, Entonces esta es la
modificación que se requiere para que lo hagamos. No es necesario modificar nada más. Solo asegúrate de que tu número de puerto
host diga 80, número de puerto de
contenedor dice 80. Entonces esto significa que va a
utilizar puerto de
host número 80 y el puerto de
contenedor número 80. Entonces lo que significa que este
particular un contenedor que voy a
tener va a estar usando mi número de puerto de host
de 80 número de puerto, y luego un número de
puerto contenedor de ATO aquí. Esta es más o menos
la configuración. Nada más necesita ser
cambiado. Haga clic en Crear. Ahora deberías crear una nueva
versión de tu tarea HTTP, que se llama Colón siete. Ahora que tienes la nueva
versión de la tarea HTTP, ahora tienes que
volver al clúster, seleccionar el clúster, seleccionar el servicio y
dentro del servicio, tendrás implementaciones. Cuando vaya a las implementaciones, verá que
actualmente estará ejecutando uno para
su revisión uno Entonces para mí es correr seis. Eso está bien. Haga
clic en Actualizar servicio. Y luego desde Update service, selecciona el último, que es siete, que es dos para ti. Entonces la tarea deseada es una, misma cada configuración es la
misma porque estamos modificados el material de nivel de red
y el material del número de puerto. Eso debería venir como siete
y luego dar clic en Upadat. Ahora esto se va a redesplegar para que veas que
actualmente esta esta activa Y uno está corriendo
y uno se desea. Entonces, cuando actualices estos datos, deberías ver que esto se vuelve
deseado uno corriendo uno, y luego se
convertirá en 100 porcentaje y este se convertirá en porcentaje
cero, y luego esto
se activará. Entonces eso es lo que
estamos buscando. Por lo que se puede ver que el servidor
tiene inicio de marca, lo
que significa que es
aprovisionar el servidor. Por lo que va a ejecutar el
servidor ahora mismo. Voy a iniciar el servidor. Y una vez que esté en
estado de funcionamiento, llegará al 100 por ciento, y luego esto irá
a cero porcentaje. Puede tomar un par de minutos hacer este
proceso completo. Una vez hecho este proceso, entonces podrá ver que la
implementación está en curso, lo que significa que su
aplicación se está implementando. Lo que haremos es cuando
configuremos el balanceo de carga, volveremos a esto nuevamente. Volveremos a configurar otra instancia de
EC dos. Esa vez vamos a ejecutar
múltiples instancias de su aplicación. Entonces tendremos múltiples
contenedores ejecutándose así
como también tendremos múltiples elementos de acción
ejecutándose,
así que solo esperando que se completen
las implementaciones Voy a pausar el
video y pausarlo una vez que se complete. Todo bien. Ahora eso está terminado,
y se puede ver que es primaria
100 por ciento, y esto se ha ido a cero. Lo que significa
que ha migrado a la última versión para
mí, son siete para ti Podría ser uno también. Una vez que se complete esto, prácticamente se completa su
implementación. Puedes ver que el
mensaje de éxito ella y todo
lo que tienes que volver es a tu tarea y
deberías ver nuevas instancias comenzaron a atropellar
aquí hace 41 segundos. Esto se apagará lentamente. Esta es la instancia um,
container. Entonces esto se apagará lentamente. Estos dos contenedores en realidad
estarán funcionando en éste. Si solo hablo o PSI y A, puede ver que todas estas
son máquinas que salen, y esta es la
que está funcionando 12 minutos hasta por
12 minutos en este momento Sólo estoy esperando que puedas
dar guión guión nulo. Guión TRUNC. Sin baúl. Ahora bien, esto me dará la
dirección IP y el número de puerto,
si hay establecimiento
de IPs y número de puerto Necesito ver si hay una
nueva máquina virtual creada. Comprobemos eso. Vamos a EC dos. Veamos si hay alguna máquina
virtual creada. Ahora se puede ver que hay otra máquina virtual creada. El grupo asesino Otis ha creado otra misión virtual, esa instancia
estaría funcionando en esta misión virtual.
Esa podría ser la razón. Solo tengo que duplicar esto
y luego editar la sesión, cambiar la dirección IP. Marcar también, necesito
cambiar la dirección IP. Todo bien. Entonces ahora
veamos esta instancia ahora mismo. Docker PSF y A, F y F y O. Borracho. Entonces estoy en una instancia
diferente, ¿verdad? No, estoy en la misma instancia. Eso es raro.
Voy a intentarlo de nuevo. Es el 181, dos, y este es el 18. Bien, es la misma.
Déjame copiar esto de nuevo. No, dice que algo
mal está pasando aquí. Bien, no me está dejando
porque he llegado a mi límite. Eso debe ser por eso. Bien vamos a tratar de dejar eso. No estoy seguro de lo que está pasando. Déjame intentarlo de nuevo. Una vez más. Parece que esta es esta
vez que hice lo correcto. Es por las sesiones
que puedo ocupar. Esa debe ser la
razón por la que esto estaba ocurriendo. Entonces veamos hacer BS Ip y A. Bien, entonces ahora tengo
la nueva imagen. A ver, Iphone no trunca. A ver. Ahora se puede ver que está escuchando
en el número de puerto 80. Si lo hago en Inicio tengo
una toma AN de Escucha, debería ver el
número de puerto 80 corriendo aquí, puedes ver que Un
número de puerto está escuchando. Este sistema, su instancia de
contenedor no tiene ninguna aplicación
ejecutándose en el número de AiPort Es solo que el
contenedor está ejecutando el número de puerto 80
y está proyectando ese número de puerto 80 a través de
su máquina EC two. Lo que significa que debería ver que debería poder navegar por esta aplicación con esta dirección IP por aquí. Justo ahí. Así es como necesitas navegar por
tu aplicación. Necesitas saber dónde se está ejecutando esta instancia de
Docker, y luego necesitas
ejecutarla allí Eso es más o menos
lo que quiero
mostrarte y así es como
puedes hacerlo. Te he mostrado la
implementación así como parte de este video en particular, cómo implementar una versión más reciente
de tu aplicación de tu tarea o tu contenedor
para que esté en tu aplicación. Eso es más o menos
también
te he demostrado que solo
esperé un tiempo y luego
se apaga la primera instancia. Entonces, ya sabes, cerró el escalado automático cerró
la primera instancia. El segundo donde, ya sabes, la imagen es la imagen del hablador
está corriendo, así que eso simplemente siguió corriendo Entonces um así que esta URL todavía funciona
bien sin ningún problema. La otra instancia que
tenía fue terminada de nuevo. Entonces eso es porque el
escalado automático desglosa el tamaño de la instancia 2-1 nuevamente. Entonces esa es la
razón por la que no se desplegó en el
otro nodo
porque sabe que lo
va a derribar. Esa podría ser la razón por la que White creó un nuevo nodo y lo
desplegó en él. Entonces de todos modos base, esa es la decisión de
autoskilling a tomar. Entonces así es como necesitamos que tu ECS
funcione todas tus aplicaciones y también
funcionen las pruebas Gracias de nuevo por
ver este video, nos
vemos en el siguiente.
68. Prácticas de Pods EKS de Labs y despliegue: Oigan, chicos, bienvenidos de nuevo
al siguiente video. En este video, vamos
a trabajar con AWS y, um, servicio
AWS Communities, y vamos a
crear Engine Export. Pero antes de crear
Engine Export, primero
necesitamos conectarnos
al servicio de AWS existente. Desde la línea de comandos.
Hay dos métodos. Abre la CLI de AWS
y luego usa AWS. Hay opción
donde configuramos AWS usando las credenciales
de seguridad. Ya te he mostrado
como parte de la anterior. Es un método para hacerlo. Como método más rápido
de hacerlo es básicamente entrar en tu consola y abrir el CloudShell Ahora Cloud Shell es uno de los métodos más fáciles
de trabajar con AWS CLI y todos estos uberntis porque Cloud Shell automáticamente
tendrá los comandos Kubernetes y
Cube CTL ya en compilación así que um,
pensando en eso, podrás Todo lo que tengo que hacer ahora mismo
es abrir esto en una nueva pestaña. Por defecto, Cloud Shell viene
con un tamaño de fuente más pequeño. Entonces, si vas a la
configuración de aquí, puedes cambiarlo
a gran tamaño de fuente y modo claro u oscuro,
puedes cambiarlo. Actualmente, estoy en
el tamaño más grande. Por favor, tengan paciencia conmigo si
no son capaces de verlo con claridad. Voy a escribir el comando, que es el primer comando
que necesitas escribir. No tienes que
configurar ninguna de las credenciales porque
ya estás en tu cuenta
y desde tu cuenta, estás abriendo el CloudShell Entonces ahora todo lo que tengo que
hacer es ejecutar AWS, EKS, IP e iPhonrgion luego
decir en qué región Estoy en USO spawn. Y luego tengo que dar actualización guión Cub config guión nombre del
guión, y luego le doy el
nombre del clúster Aquí voy por aquí
para obtener el nombre
del clúster y
pegarlo por aquí. Ese es el nombre de mi grupo. Ahora cuando hagas eso,
agregará un nuevo contexto. Ahora
se crea el contexto y
sabe que el clúster EKS
se está ejecutando con este nombre. COV en su número de cuenta. Este es su número de cuenta,
clúster, nombre de clúster, y este es SEs uno porque esta es una región
que está utilizando, y es ARN AWS EKS Entonces esto es básicamente que
ha formado un URO o URI, y ha montado este URI en este archivo de configuración en
su directorio home. Ahora, control de Copa,
consigue ollas phen A. Ahora cuando hagas este comando, ahora todos estos
reportes de ollas vienen todos de tu
clúster de comunidades que está por aquí. Si ves éste,
será lo mismo. Estas son las ollas que
está mostrando por aquí. Ahora, vamos a crear la configuración
nginx. Así que vamos a seguir adelante, crear un despliegue
nginx, desplegar a TO En esto
copiaremos pegar cosas, solo tomarlo del bloc de notas Um, hay un problema en VI, lugar de VI usar gato mayor que símbolo
y luego pegar. Y luego hacer Enter
y hacer un Control D. Así que eso guardará salir del archivo. Hay un problema con
los VI básicamente el formato no viene
correctamente en Cloud Shell. Entonces de todos modos, SCAT está
ahí para ayudarnos. Así que ahora crea un servicio
ph e implementa dot GMO. En este servicio,
copiaremos pegarlo del archivo de servicio
y luego Control D. Ahora tendrás
dos archivos creados. Utilice Coop Control, aplique FNF
para implementar ambos archivos. Oki. implementación del motor, la
implementación se realiza y luego la implementación del servicio, se realiza la
implementación.
Ahora, Control de Cop. Obtener macetas, desplegar servicio. Ahora tengo dos ollas creadas por defecto debido
al despliegue,
Deployment tiene dos de dos
porque hemos dicho aquí réplicas tiene dos y
tiene el EnginExImage El servicio también se despliega. Uno es el servicio a la comunidad, ese es uno por defecto, otro
es el servicio motor. Ahora si ves eso, hemos implementado este servicio
como balanceador de carga Lo que significa que ha dado la
dirección IP externa automáticamente, y ha dado la URL
del balanceador de carga Ahora, solo para asegurarte de
que esto está funcionando bien, solo copia la URL, ponla en el servidor web, y luego solo dale a
AnTatry y puede que unos minutos para que se
replique para crear el clúster,
despliegue de estos Cubonuts, solo Entonces, si vas a todo el espacio de nombres, o puedes ir al valor predeterminado, verás esas
dos nuevas implementaciones, que ya pasaron en
la sección POT Y si vas a
servicio y networking, si vas al servicio,
vas a ver el servicio enginx por
aquí Al hacer clic en el servicio
Motor X, puede ver el balanceador de
carga URO Todavía no está disponible, así que solo dale algo de tiempo, y luego intentemos hojearlo. Debería funcionar bien. Puedes
ver los puntos finales por aquí Los puntos finales se ven
bien, por lo que puede tardar algún tiempo en desplegarse.
Esa podría ser la razón. O de lo contrario está buscando HTTPS. Probemos HTTP. Esa es también una de las
razones por las que no está funcionando. Vamos a darle otro
par de minutos y luego lo intentaremos de nuevo. Pausaré el video y
lo pausaré una vez que empiece a funcionar. Después de un par de minutos, puedes ver que
obtienes esta página. Bienvenido a EnginX. Yo no
sabía nada. Solo me tomé un poco de tiempo porque también tiene que crear
algún servicio DNS. Y este servicio CB DNS
entró en existencia. Después de eso, empezó a funcionar. Entonces esto tampoco es
creado por mí mismo. Este es un servicio autónomo que se activa
cuando se crean puertos. Entonces ahora tienes esa
URL en particular funcionando también, el servicio EngineX por aquí Entonces el servicio EngineX
donde haga clic en él, asegúrese de que
no sea HTTP ya que es
HTTP porque EnginX se está ejecutando en HTDPpot número 80, y esto por Entonces, si solo copias el enlace ,
pegarlo y luego lo
cambiaste a HTTP. Debería trabajar bien.
Eso es todo amigos. Ojalá entiendas
cómo crear instancias en tu ECS y cómo hacerlas
ejecutadas usando Kubernetes Gracias de nuevo por
su paciencia y tiempo. Te veré en otro video.
69. Configuración práctica de EKS de Labs: Hola, Grasp, vuelve
al siguiente en este video, vamos a hablar sobre el servicio de
Elastic Kubern Este es uno de los temas aquí
que estamos cubriendo EKS. Entonces esta es una
sesión práctica para ello. Nuevamente, esta sesión práctica no
tiene nada que ver con tus certificaciones AW reales, pero esto es solo para
una práctica orientada, tu introducción a eso. Aquí vamos a
alojar el servicio EngineX en Kubernts ahora para hacer eso
para alojar tu servicio lo siento, nginx y para
ejecutarlo con éxito, primero
necesitamos buscar EKS Y tienes un
servicio separado para EKS por aquí, y luego voy a hacer clic
en el servicio EKS. Ahora bien, recuerden
que esto es otra vez, hay un par de
partes por aquí en este particular video um. primera parte es que
vamos a crear un cluster de Cubons Una vez que hayamos creado
el clúster, vamos a agregarle nodos. Así como agregamos nodos
a tu clúster existente, en tus coberats de la misma manera que vamos agregando
nodos como parte de él Ahora hay dos
formas de agregar nodo. Puedes usar un Fargate. Una vez más, Fargate se utiliza para un nodo sin servidor o se
puede utilizar la instancia de EC dos En primer lugar, vamos a cubrir
la instancia de EC dos y luego vamos a mirar el punto de tiempo de los datos de
Fargate Para crear un clúster, una vez que haya accedido al servicio EKS, tiene la opción
de clúster por aquí. Tienes otra
opción donde
tienes EKS en cualquier lugar y
ECS en cualquier lugar también Entonces esos son básicamente un elemento basado en
suscripción donde en el que la
ventaja de esto es como si tuvieras que pagar
por una suscripción, y obtendrás soporte 24
bar siete de AWS lo siento
experto en la materia SME en EKS. Esto básicamente es
parte de tu paquete. Entonces este es, um, un paquete basado en suscripción. Es lo mismo que está
disponible en ECS también. También para
servicio de antena elástica. No nos interesa
buscar esto porque cuando sabes cómo
configurar un clúster, esto es más
o menos lo mismo. Sigamos adelante y
creamos un clúster. Vamos a crear un clúster
por aquí y vamos a nombrar este clúster HTTP EKS. Ahora tenemos que crear
un rol de IAM por aquí. Ahora ya tenemos
este rol de EKS Admin. Si no tiene rol de administrador de
EKS, simplemente haga clic en esta
consola para IAM, y luego aquí puede seleccionar, aquí puede seleccionar el servicio AWS, seleccionar EKS desde aquí y
puede seleccionar el clúster de EKS Esto se
selecciona automáticamente porque este enlace uh, será redirigido a esos requisitos
específicos Se puede ver que
ese es en gran medida el requisito real al
que lo está dirigiendo. Entonces, cuando haces clic en siguiente, puedes ver que la política en
particular
también se carga como parte
de esto porque esta
selección en particular vendrá con esta política y luego da clic
en siguiente y luego dar un nombre de rol por aquí y
luego dar clic en Crear rollo. Pero recuerden que este
papel debe estar ya aquí así que lo que significa que
deberías conseguir el Mendroll de CKS Si no, solo
créalo con el mismo nombre, y podrás
verlo por aquí. Sólo tienes que refrescarlo por aquí y verás este papel. Entonces, los roles son importantes para los servicios porque como
comentamos anteriormente, los roles son para los servicios, que es obtener acceso a otros o acceder a otros
servicios dentro de AWS. Aquí está la versión uberts. La versión actual es una. 31. Y hay dos tipos de soporte disponibles para esta versión
en particular. Uno es un soporte estándar
que expira en 2025, lo que significa que
necesita actualizar a la siguiente versión después de
esta línea de tiempo en particular, y la que se
llama soporte extendido. Por lo que esto está disponible hasta 2026. Por lo que el gradual es 14 meses y 26 meses
para el apoyo extendido. 14 meses, no tienes que
pagar nada extra. No hay costo adicional. Pero si vas por 26 meses, tienes que pagar extra aquí
donde en realidad estarás extendiendo el soporte
en la fecha de finalización del clúster se
actualizará automáticamente a la siguiente versión. De igual manera, deberá pagar costo
adicional por hora se le
cobrará por esto. Iré por uno estándar. El eje del clúster por aquí es básicamente para acceder a
su clúster. Permitir
la acción de administración del clúster, la opción predeterminada,
así que vaya con eso. Aquí para el modo de
autenticación de clúster, esto es para configurar
el origen, el clúster que utilizará para la autenticación a través de IAM Usaremos la API EKS, que es la
opción predeterminada aquí. No vamos a encender
ningún cifrado por aquí, así que simplemente lo dejamos como deshabilitado. Entonces tenemos el turno zonal
ARC. Ahora, el
cambio zonal ARC es básicamente, um, ya sabes, es básicamente lo que llamamos controlador de recuperación de
aplicaciones Entonces ocurre el turno zonal, para asegurarte de que tienes disponibilidad incluso hay algún desastre en tu zona
particular Puedes habilitar esto, pero prefiero
desactivarlo porque esto, nuevo, es una carga adicional, así que no quiero habilitarlo en este momento porque es
para fines de prueba. ¿Por qué hacemos esto? Zona y
desplazamiento se utiliza para configurar el entorno de clúster
para la resiliencia en la
falla de la zona de disponibilidad de antemano. En caso de zona de disponibilidad, desplazará automáticamente, pero muy raramente sucede, así que voy a desactivar Al hacer clic en la siguiente opción. La
opción de networking está por aquí. Estas son las subredes
que vamos a tener nuestros clústeres creados y estas son la versión IV force
que vamos a seleccionar Grupo de Seguridad, seleccionaremos el predeterminado que ya
hemos modificado. En el video anterior, si
trabajaste en la configuración de ECS, y el segundo video dando
seguimiento a la solución de esos problemas, ahora habríamos creado
este grupo de seguridad predeterminado Entonces, puedes usar eso. O si quieres, puedes
crear un nuevo grupo de seguridad, dar abierto, um, ya sabes, todo el tráfico, y luego
simplemente puedes seleccionar ese grupo de
seguridad también. Aquí Punto de acceso es
público y privado. Haga clic en siguiente. El siguiente
es la observabilidad La observabilidad asegura que
tienes opciones por aquí
donde puedes enviar tus datos de la
información de tu clúster a prometheus Pero nuevamente, cualquier cosa que selecciones aquí
es extra pagadero, ten cuidado con lo que vas
a seleccionar porque de nuevo, estos son algo
que es extra pagadero en términos de trabajar
con estos elementos de acción. No voy a
habilitar nada de eso. Voy a habilitar los
predeterminados por aquí. CDN, CNI, Cupxy y luego agente de identidad
EKS prod. Entonces estos son algo
que es por defecto. Entonces, si quieres volver a
seleccionar esto, este es el encargado incurriendo en uno Este es un deber de guardia para el monitoreo de tiempo de ejecución de
EKS. Así que no habilite nada que sea extra,
simplemente haga clic en siguiente. Y entonces esta es básicamente la versión que
necesitas instalar. Por lo que ya se eligió
la versión estable, por lo que puede ignorar elegir cualquier versión para estos componentes
adicionales, por lo que puede hacer clic en siguiente. Ahora, aquí estamos en la página de resumen y
aquí vamos a revisar y crear.Esto es menos lo que
hemos seleccionado Presiona el
botón Crear. Estoy esperando que surja
alguna excepción ahora mismo. Por aquí, dice que el clúster
HTTP EKS no se puede crear porque EKS no admite la creación de instancias
de plano de control en. Um, EU East one E.
Dice que en esta región, no se
puede crear plano de control. Entonces esas son formas muy
sencillas. Lo que significa que puedes
crearlo en cualquiera de esto excepto por, um, uh, una E. Así que eso es
lo que está diciendo. Por ejemplo, entonces tenemos que ir
a la configuración de red
y hacer clic en Editar, y luego hay que averiguar
que E esta zona de vaibity en particular,
eliminar esa zona de disponibilidad y luego ir siguiente, siguiente, siguiente Después haz clic en Crear ahora. Una vez que hayas eliminado esa zona de disponibilidad en
particular, podrás crearla. Este es un procedimiento estándar. Si estás trabajando con
alguna de las regiones, una zona t disponible, en realidad no
puedes crear
tu plano de control. Así que recuerda que eso es algo que es
estándar para AWS. Ahora el clúster se
crea en este momento, por lo que se puede ver que el clúster se está creando actualmente. Este proceso puede tardar
entre dos y 5 minutos porque
me tomó
unos 2 minutos y obtengo algunos detalles por aquí una vez que tengo el
clúster completamente creado. Una vez creado el cluster, voy a pausar este
video una vez que esté hecho, entonces estaremos haciendo el
segundo tramo de este video. El segundo tramo es
básicamente configurar el nodo y también
vamos a explorar algunos de los
conceptos que también forma parte de su clúster EKS en
esta consola. Pasaré este video y lo
pausaré una vez que esté terminado. Entonces el código del clúster
se creó en 10 minutos, así que vamos a entrar en el clúster. Este clúster tiene
información, por ejemplo, su fecha y la versión de los uberuts también
el proveedor EKS También cuenta con el punto final
del servidor API para conectarse y trabajar con
el punto final del servidor API, así
como
proveedor de conexión abierta también. Estos son métodos de
comunicación y autenticación. Entonces estos se enumeran aquí. Y no hay problema de salud, hay algo de ambientación por aquí. La configuración de la versión es estándar. Eso es lo que hemos seleccionado, y el cifrado está apagado y tampoco hay cambio
zonal En cuanto a recursos,
esto es muy importante. Lo que vemos en los
Cummints y la línea de comandos, en realidad se
puede
ver eso por aquí Se puede ver, cargas de trabajo, se
puede ver, um,
ollas, um, conjunto de réplicas,
implementaciones, conjunto completo de estados, Verás las
notas ahora mismo, uh en esta sección de notas. Pero no ves nada porque no
configuramos ninguna nota. Esa es la segunda parte a la que
vamos a ir. Nombrar espacios, y luego servicios
API, arrendamientos. Del mismo modo, se ven
algunas cosas por defecto. Entonces ya está
la configuración del clúster. Entonces hay ciertos
elementos que son ollas configuradas en el espacio de nombres del
sistema Cub Esos son los co servicios DNS. Ahora todo está esperando que creamos los nodos para
que el resto de los ítems comiencen
a poblar aquí Entonces, para crear los nodos o para agregar lo
que lo llamamos como grupo de nodos, cuando agregas un grupo de
nodos, los nodos se
crearán automáticamente porque no hay
opción de crear nodos. Estos son los nodos.
No hay opción de crear nodos, pero puedes crear
los grupos de nodos. Ahora, o creas grupos de
nodos y luego o bien creas el perfil de
Fargate aquí Hablaremos de esto más adelante. En primer lugar, vamos a hacer
los grupos de nodos, y después verás que los
nodos se están poblando aquí. Entonces, cuando haces clic en Agregar grupo de
nodos por aquí, tienes que seleccionar el um, tipo o el nombre
del grupo de nodos. Ahora voy a dar HTDP
IP y NG como grupo de nodos. Entonces aquí no vas a tener ninguna política de EKS
contigo en este momento. Lo tengo porque lo
he creado, hice una prueba para asegurarme de
que todo funcione bien. Entonces no encontrarás
nada por aquí, solo haz clic en crear una
regla de mensajería instantánea, al hacer clic en eso, obtendrás el servicio de AWS y luego irá a EC dos, el cambiarlo a EKS así que lo voy a hacer es primero dejarme
borrar el que tengo mucho mejor. Solo estoy borrando el rol de política de
nodo. Yo sólo voy a hacer eso. Lo he quitado. Ahora bien,
si solo refrescas esto, no
deberías encontrarlo,
va a ser así. Entonces lo que haces es
crear un nuevo rol y luego EKS luego hay
opción aquí para grupo de nodos, seleccionalo, selecciona siguiente
y luego obtendrás un nombre predeterminado por aquí y
luego haz clic en Crear rol. Ahora, dice que
ya fue tomado, el nombre ya existe. Pero aunque
lo crees a tu final, no
podrás
verlo aquí. Este es un
criterio específico aquí. De hecho, puedes
ir a esto aprender más y luego entender los criterios con
mucho detalle de manera. Pero conozco los criterios, así que voy a crear un papel por mí mismo. Ahora, crea un rol. Da clic en Crear rol y luego no selecciones
nada aquí. Si lo haces, serán políticas
preseleccionadas. Se aplicarán permisos. Haga clic en cualquiera de esto y
luego haga clic en EC two. No hagamos eso. Vamos a
ir por aquí. Nosotros lo hacemos comenzando. Vamos a hacer clic en
Crear rol y luego solo seleccionar el servicio de AWS
y dar clic en siguiente. No nos está permitiendo, ¿verdad? Aguanta. Todo bien.
Hagámoslo de esta manera. Simplemente haga clic en Crear rol, seleccione Política de confianza personalizada. Y luego solo
iremos por el siguiente. Y luego aquí se agregan
cuatro servicios por aquí. Búsqueda de servicios de EKS
para políticas EKS. Lo siento, no políticas
de servicios. Entonces política EKS,
hay que seleccionar EKS el que voy a seleccionar es
el nodo trabajador EKS. Entonces política de nodo trabajador,
esta de aquí. También puede seleccionar la póliza
mínima también. Entonces A el uno está bien. Entonces, si selecciona
la directiva de nodo, no se necesita
mínimo. Entonces A el uno está bien, así que iría por
la política de nodo. Y luego se puede
seleccionar el otro, que es el EKS, CNI Lo siento. Perdón por eso. Entonces la política del CNI por aquí,
puede seleccionar esa. Y entonces puedes seleccionar
más o menos
otro por aquí, que es el registro de
contenedores EC dos. Entonces aquí puede seleccionar Registro de
contenedores, acceso de solo
lectura,
y luego hacer clic en siguiente y luego hacer clic
en Crear rol. Ahora, da un nombre aquí. Es política de nodo. Y luego simplemente hago clic
en Crear rol. Digo que falta mi
nombre principal. Déjame ver si esta es
la forma correcta de hacerlo. Sólo dame 1 segundo. Déjame copiar y pegar esto. A ver si
puedo modificar esto. Sí, así voy a pegar
ponerlo en un bloc de notas y ponerlo en
lo que copia
pegado hace un momento Entonces lo que copié pegado
es la política de confianza. Entonces la política de nota ECS tiene
esta relación de confianza, y necesita tener el nombre
principal así, diciendo que este es un servicio
E a aw amazon aws.com Y entonces hay que
decir STS asumir regla. Esta es la relación de confianza que se debe establecer
con este servicio. Eso debería ser parte de su política de
nodo porque el nodo tiene que conectarse con la
instancia EC dos para la comunicación. Recuerda que esto es obligatorio, que
deberías tenerlo. Si no tienes todas
estas tres políticas así
como esta relación
con la confianza, no
va a aparecer por aquí. Ahora se puede ver que se acerca la política de
nodos EKS. Entonces solo revisa la nota. Pondré la nota en el
mismo video debajo del video. Y entonces puedes acceder a
eso y, ya sabes, puedes copiar y pegar esa misma política de
confianza en esta um, también
en las reglas. Ahora que ya lo has completado, ahora puedes usar
las cosas predeterminadas. No es necesario
modificar nada. Pero si tienes alguna etiqueta, manchas y etiquetas, puedes
colocarla por aquí y
luego hacer clic en siguiente. Ahora aquí estamos eligiendo
qué tipo de, um, carga de trabajo um, ya sabes, distribución de
carga de trabajo
vas a hacer en términos de computación
y opción de esquí. Ahora aquí estamos eligiendo
Amazon Linux dos, y estamos eligiendo
instancia bajo demanda en lugar de spot, y estamos seleccionando
T tres medio. Como nuestra familia y el tipo
del tamaño de la instancia. Tipo de instancia que estamos
eligiendo aquí, estamos dando un tamaño
de disco de 20 GB y estamos creando dos nodos aquí
como tamaño deseado, un mínimo es dos y el
máximo son dos nodos. Máximo no disponible, dice en cualquier caso o en
cualquier escenario, ya sabes, si va
a haber downtime o si va a haber una
actualización en tu versión de la versión actual de
uberts cuántos nodos pueden estar indisponibles
o pueden bajar Entonces has puesto número
por aquí y has dado uno. También se puede dar porcentaje
como 50 porcentaje. También significa uno, si
vas a ir por porcentaje. Ahora aquí uno, lo que significa que un nodo bajará
y luego irá al proceso de actualización y el otro nodo se
actualizará más tarde punto de tiempo. clic en siguiente, y estas son las subredes en las que tus
notas van a ser hoster y um
solo sigue adelante con Um, solo dale 1 segundo Lo que he hecho es como si
hubiera agregado el E uno también por aquí para que
mis nodos también puedan ser, ya
sabes, creados
en el nodo e1e Entonces una zona de disponibilidad E. Así que solo ve por aquí y haz clic
en Crear. Ahí vas. Entonces el E no importa si vas a
crear nodos en él, pero importa si
vas a crear lustre en él ¿Bien? Entonces esa es la
diferencia entre un clúster y un grupo de nodos. Entonces ahora que el
clúster no se puede crear en una E una zona T
variable, sino que también se pueden crear nodos
normalmente en una E. Entonces por eso he
seleccionado eso. Entonces ahora estoy en el grupo de nodos. Entonces volvamos al cluster. Y volvamos a
calcular por aquí. Esto puede llevar un
poco de tiempo, y como puedes ver,
eso es procesarlo. Y si abres la
instancia EC two, en algún tiempo, empezarás a ver
instancias creadas para tu grupo de nodos bajo este
clúster, clúster ECS Por lo que
se creará la instancia EC dos. Si vas hacia Fargate,
Fargate creará una inscripción
sin servidor para Pero como esto va
a ser en EC dos, va a ser en
EC dos instancia. Verás aparecer
instancia. Esto puede tomar otros
cinco a 10 minutos para que inicie las instancias, haga todos esos despliegues, creaciones de
macetas y todo Pausaré el video y lo
pausaré una vez que esto
esté completo. Esto se completa y como pueden
ver por aquí, tengo dos notas aquí configuradas como parte
de este grupo de nodos. Ahora bien, estos dos nodos van
a estar trabajando conmigo en todas las aplicaciones que voy a desplegar
a los convenios Y estos van
a ser desplegados en. En cuanto a recursos, ahora cuando vas a la
carga de trabajo y ves macetas, verás que se están creando muchas
macetas. Ahora, todas estas partes son parte del espacio de nombres
del sistema Cup que
no es más que sus sistemas centrales, los pots de espacio de
nombres de aquí Tampoco tienes nada
por defecto porque es solo algo que necesitamos
crear en la tercera parte. La tercera parte, la
pondré en el siguiente video. Uh, donde estaré creando
macetas para nuestro nginx, y luego estaremos navegando por
el servicio EngineX a través este sistema EKS de tela portuaria. siguiente son los
despliegues del conjunto de réplicas y
todas esas cosas No hay nada por defecto, pero si vas al sistema Coop,
verás algo Tiene la
configuración del clúster que tiene los nodos, que es parte del clúster. Y luego los espacios de nombres, que está disponible y todos esos elementos por aquí en términos
de redes de servicios, mapas de
configuración y
secretos, almacenamiento, autenticación, autorización,
políticas, extensiones. Vas a conseguir
todas esas cosas, que es la
oferta de Cubants en AWS, pero es mucho más fácil que lo administres porque vas a estar viendo
eso todo en una sola consola Pero si me preguntas ¿cuál es
la mejor manera de crear pods? Debido a que no hay opción tuya para crear un pod por aquí, no
hay opción
para crear un pod. Lo que significa que necesitas
usar Línea de comando. En el siguiente video, te mostraré cómo trabajar con Línea de Comandos y crear pods usando esta herramienta de línea de
comandos en particular. Gracias de nuevo por ver este video.
Te veré en la siguiente.
70. Labs Fargate en primer plano: Oigan, chicos nosotros el siguiente video. En este video, vamos
a hablar de AWS Fargate. Vamos a configurar
ECS usando AWS Fargate, eso es más o menos lo que
no podemos hacer en este video Entonces, sigamos adelante. Ya estoy en el servicio ECS y ya he
hecho clic en el clúster, y puedes hacer clic
en Crear Ahora, en realidad me estarás
mirando creando Fargate. Quiero decir, las instancias a través Fargate y serás testigo lo fácil que es
hacerlo cuando se compara con
la instancia EC dos Entonces ahora voy a
crear HDDPiphenECs. Guión Fargate ECS. Lo siento, acabemos ahí. Entonces este es HTPiphens
guión Fargate. Entonces este es básicamente
el nombre del clúster. Y aquí, voy a usar Fargate por aquí
para servidor menos Entonces no tengo que dar
ningún tipo de detalles sobre el tipo de instancia EC dos
ni nada por el estilo. Entonces puedo saltarme todas esas
cosas porque Fargate
básicamente ejecutará , ya sabes, ejecutará todas las instancias que
tengas y es muy útil para busto y pequeños lotes
y cargas de trabajo como
servidores web y Pero es muy recomendable
ir por EC dos instancias si tienes una carga de trabajo consistente
y grande, pero esto es solo una demostración, así que solo voy a
usar Fargate por aquí Recuerda que Fargate no es gratis, por lo que es posible que
se apliquen cargos cuando
vayas a buscarlo Así que simplemente haz clic en Crear. Ahora bien esto va
a crear un
clúster por aquí en algún tiempo verás que viene el
clúster. Pero no lo esperemos.
Pasemos a la definición de tarea. Definición de tarea nueva. Esta es la definición de tarea
para HTTP, puerta Iphon. Tarea Iphone. Entonces aquí, estoy eligiendo Fargate
como el tipo de lanzamiento Y aquí, el modo de red está deshabilitado y viene
tan adecuadamente como VPC, por lo que no hay que modificarlo Entonces, el requisito de
infraestructura de instancia, he dado los predeterminados. Y aquí en los detalles del
contenedor, he dado los detalles del contenedor como el nombre del contenedor ginex, y luego la URL RO, que obtenerla
desde aquí del registro de contenedores GeneX copiar, pegarlo por aquí, nada más que modificar Número de puerto,
protocolo de contenedor, número de puerto. Creo que también son los 80. Ese es básicamente el
número de puerto lo siento nombre de puerto, perdón, DPI y 80.
Es opcional. No hay que
darle realmente, así que es automático. Va a desactivar
el reloj Cloud. Y luego voy a crear. Ahora, esto ha creado
la tarea para Fargate. Se ha completado la creación del clúster, por lo que puede ver el
clúster tal como se ha creado. Vamos a meternos en el cúmulo. Vamos a crear un servicio. Ahora aquí, esto
automáticamente dice AWS fargt y el nombre
del clúster existente En cuanto a la estrategia de capacidad
proporcionada, se
puede ver que Fargate ya
está seleccionado y no hay forma de
usar la predeterminada También puede agregar otra capacidad de instancia
puntual y
dar más peso. Entonces voy a dar cinco a uno. Quiero decir, quiero que se creen más instancias en la instancia spot de
Fargate, pero también necesito
al menos una instancia en Fargate para asegurarme que algunos servidores estén disponibles permanentemente y algunos servidores estén disponibles siempre que
haya un requisito Así que voy a crear 51 es dos donde se da más
prioridad a la instancia spot. Por lo que la última versión de Fargate va
a ser utilizada aquí Entonces esa es la última versión, y voy a usar el
servicio por aquí. Se Fargatetask. Y entonces aquí el nombre del servicio, que va a ser um, HTTP. Servicio telefónico Fargate. Voy a crear
una tarea deseada y después voy
a dar click en Crear. Ahora bien, esto habría creado
el proceso de implementación, y esto va
a llevar algún tiempo implementar la aplicación. Una vez
desplegada la aplicación en Fargate, volveré y
te mostraré cómo navegar por ella. Supongo que casi toda la
tarea está terminada. Vayamos y verifiquemos. Vaya a su clúster, nombre de
clúster y dentro de
ese vaya al servicio. La única manera de
obtener la dirección IP de Fargate si sigues
las mismas instrucciones Una vez que estés en el servicio, ve a la tarea en la tarea, realmente
verás el nombre de la tarea, cuando hagas clic en
verás los
detalles de Fargate aquí Esto es básicamente
de detalles de Fargate, que es parte de tu tarea Esta tarea se está ejecutando y esto ha creado una instancia de spot de
Fargate Como hemos dado más
prioridad para la instancia spot, por lo que ha creado
instancia spot, pero no se preocupe. Si hay un
problema, si hay un problema donde el recurso no
está disponible, entonces realmente creará
la instancia en Fargate Porque hemos
dado ambas opciones como parte del balance. Fargate spot te da
más descuento
porque utiliza los recursos disponibles
que no se están utilizando Eso es más o menos por lo que está diciendo Fargate spot y es por
eso que hemos dado más prioridad o más H al Fargate para que cree
una instancia de spot de Fargate Ahora aquí está la dirección IP
pública, copia el IPRress público
pegado por Y ves esa bienvenida
a Engine ex page. Esto es más o menos cómo puede configurar y cómo puede navegar por su instancia ECS en Fargate Gracias de nuevo por
ver este video. Te veré en la
siguiente y antes de eso, si ves las CE dos, no
habrá nada corriendo por aquí. No habrá instancias EC dos ejecutándose porque esto
se está ejecutando en Fargate Fargate es un servicio de
computación sin servidor, lo que significa que se
está ejecutando sin
ninguna interfaz .
Gracias otra vez, chicos. Te veré en el siguiente video.
71. Introducción a Labs Lambda: Es bienvenido de nuevo al
siguiente video en este video, vamos a hacer sesión práctica
sobre Lambda. Ahora bien, ¿recuerdas
que esta es una sesión simple muy corta
sobre Lambda usando PHP Vamos a imprimir
hola mundo usando Lambda. Bien, entonces para hacer eso, necesitas estar en
tu consola de AWS. Una vez que estés en la consola de AWS, puedes ir al
servicio llamado Lambda. Entonces este es un
servicio separado disponible para ti, haz clic en él al
medio para
que se abra en una nueva pestaña. Una vez que estés en esa pestaña, realmente
podrás ver
las opciones que tienes. Ahora, ante todo,
verás de qué se trata. Es un cómputo. Entonces es una
especie de poder de cómputo. Entonces es un cómputo sin servidor. Es fundamental para su pequeña carga de codificación que necesita
ejecutarse en segundo plano. Así que ahora puedes empezar creando
una función por aquí. También puede ejecutar una función de prueba por aquí
usando diferentes programas. Entonces básicamente, cómo funciona es que escribes tu programa
y luego lo ejecutas. Entonces ahora recibes el
mensaje por aquí. Entonces el código que
vas a escribir es básicamente código Python. Así que selecciona ese código Python y
copia y pega los valores
que tenemos aquí. Entonces creo que puedes copiarlo
y pegarlo, supongo. Sí, no se puede editar. Entonces esto es solo un material de demostración, así que solo puedes correr. Entonces lo que vamos a hacer es que vamos a
crear una función. Vamos a invocar
la función Lamb Do. hay algunas llamadas gratuitas de Lamb Do Aquí hay algunas llamadas gratuitas de Lamb Do dadas
para que las pruebes. Se puede ver que la primera solicitud de 1 millón de
trans por mes es gratuita, y los primeros 400 GB por
segundo al mes son gratuitos. Después de eso, por
solicitud va a ser 0.20 por 1 millón y por GB, va a ser de 16 dólares Puede ver mucho
más en detalle sobre los precios de Lambda
aquí, así como puede usar la calculadora de precios para comprender cómo va a funcionar en su
infraestructura global. Ahora, haga clic en Crear función. Ahora bien, esto debería
permitirte crear una nueva función. Ahora puedes crear desde cero, lo que significa que puedes crear tu función Lambda
desde cero donde no
tengas ya un blueprint existente o un contenedor que necesites implementar
a través de Lambda Entonces aquí está tu plano. Aquí realmente puedes usar un blueprint existente
y luego
puedes ejecutar ese blueprint
como parte de Del mismo modo, tienes
los estándar donde crear microservicio, función
hello world, y luego también
se da alguna interacción con la API por aquí, y luego también se
dan streams por aquí
y automatización de ID De ahí que estos son algunos de los planos que es una variable, que puede modificar el plano existente e improvisarlo de acuerdo
a Os tienes la
imagen del contenedor por aquí, puedes dar la
URL del contenedor y básicamente ejecuta la función Lambda
ejecutaría un contenedor, y las lógicas en ese
contenedor se ejecutarían como parte de esta AMBDAFunction O de lo contrario puedes
usar otro uso del autor desde
cero donde puedes construir tu
experiencia Lambda completa desde cero. Vamos más cerca de Torio. Así que vamos a abrir un nombre de
función por aquí. El nombre de su función como función
Hello World. Entonces ahora esta función va
a ser solo para hola mundo. Ahora aquí, es necesario
seleccionar el tiempo de ejecución. El tiempo de ejecución es básicamente donde se ejecutaría
esta función. Entonces, si estás decidido
y tienes un código en PHP y estás tratando de
ejecutarlo en nodejs,
no va a Entonces um, no PHB, lo siento, Python. Tienes código Python y
necesitas seleccionar el
entorno de tiempo de ejecución adecuado, ya
sabes,
correcto para tu código. Entonces tienes Java 11, Java 17, uh, dot net
y otro framework. Que en realidad puedes usar aquí. Recuerda que, si
tienes codificación Java,
puedes ejecutarla aquí. Se puede utilizar en aplicación para ejecutar el programa Java. Pero el caso es que
es un poco caro porque va a cobrar en función del número
de solicitudes que llegan, así que va a ser un poco caro
porque no tiene servidor Selecciona Python por aquí, 321 lo siento uno, dos versiones, y luego selecciona la
arquitectura en la que
quieres que se ejecute este código. Entonces básicamente en base a
esta arquitectura, se creará toda
su
función Lambda. Aquí hay dos
opciones, ARM o Intel en esta situación, estoy eligiendo Intel y aquí
hay algunos permisos DFO sobre subirlo a tu Cloud watch y para
tu propósito de registro, y luego tienes
el rol de ejecución,
va a crear un nuevo rol va a crear un nuevo rol para los permisos básicos de Lambda Entonces si quieres habilitar la función de firma de
código, también
eres de la misma manera,
los servicios de terceros, que está asociado a
esta función Lambda. Puedes habilitarlo. No
queremos hacer eso ahora mismo. Sigamos adelante y
creamos la función. Ahora lo que hemos hecho
hasta ahora es que
hemos nombrado a esta
función que hemos dicho, ¿cuál es el tiempo de ejecución
va a ser? Esta función va a ser. Y en esta creación de funciones, así que en realidad estamos desplegando
el código por aquí. Ahora bien, este código predeterminado ya
viene con hello world. Esto es más o menos
lo que queremos usar. Entonces esto es básicamente
imprimir hola de Lambda, para que puedas cambiarlo a
hola mundo. También. Así que prácticamente la misma función que
queremos usar para
este archivo Python. Ahora, una vez hecho esto, si tienes un código personalizado
que necesita ser subido, también
puedes subirlo como un zip follow desde la ubicación S
tres también. Ahora, todo lo que tienes que hacer es una vez que esto se haya creado
con éxito, solo
tienes
que, um, ya sabes, mirar tu archivo de
configuración. Actualmente,
solo tienes un archivo Python que va a estar
corriendo por aquí. A continuación, tienes, ya sabes, no
implementaste cambios, así que simplemente
puedes hacer clic en esto En primer lugar, puedes probar esto. Ya sabes, si quieres probar esto con un
evento de prueba, puedes crearlo. No lo probemos
con un evento de prueba. Así que vamos a
desplegarlo directamente. Así se puede ver que la implementación código y luego la implementación
fue exitosa. Ahora prácticamente hemos
terminado con esto, hemos desplegado esta función. Ahora tenemos que hacer las
pruebas para lo mismo. Para probar esto para probar esto muy
simple desde arriba, tendrás esta opción
del sitio de configuración hay
opción para que lo pruebes. Ahora necesitamos
crear uno de prueba. Esa es la razón por la que te dije, aguantemos la prueba uno porque tenemos que
crearla de todos modos. Prueba hola mundo. Va a ser el nombre de la misma. Ahora aquí, la parte par
es básicamente para compartir este evento solo para la
consola Lambda en el creador. Nos vamos a quedar
con los básicos y aquí está la plantilla que
vamos a usar para las pruebas y luego
presionar el botón de prueba por aquí y luego el flujo
par fue exitoso. Cuando haces clic en el detalle, realidad
puedes ver el flujo
par y cuánto tiempo
tardó en probar
esta función. Así que más o menos lo
que queríamos ver es
esta zona de aquí. Esto dice que se trata un log de ejecución de cuatro KV y
se ha ejecutado con éxito. Esta prueba ha sido exitosa. También hay otra
opción de probar esto. Esto es solo usando tu
pudiste probar esto usando esta consola GI. También puede probarlo usando la línea de comandos
también, el método CLI Entonces, cuando tengas instalada la
configuración de AWS. Entonces esta es tu sesión
de monitoreo. Entonces el único dato entraría en algún tiempo porque la función
AMTA es bastante nueva Entonces el monitoreo tomaría algún tiempo y
entraría por aquí. Y esta es tu
configuración de, ya
sabes, tu función Lambda. Así pone y versión
de su función. Esta es
muchísima introducción
a la función Lambda. No vamos a
ir con ningún detalle aquí hablando de las características. Así que recuerda eso.
Otra forma de ejecutar esto es
por tu método CLI En esta situación,
voy a usar CloudShell para probar ejecutar esta función
en particular Déjame copiar el nombre de la función, así que me va a
ser útil. Puedes dar un comando
aquí, invoca AWS Lambda. Esto va a invocar una función dando a la
función phon name, y luego el nombre
de la función Y luego voy a poner esto en un archivo de texto
llamado archivo de texto de salida. Ahora solo consigue este texto de salida. En realidad se puede ver el
mundo que hemos creado. Esto es prácticamente
en una prueba exitosa, que también puedes ejecutarla
desde el método CLI también Gracias de nuevo por
ver este video. Espero que te haya sido útil
comenzar con Lambda. Gracias de nuevo. Yo veo te voy
a ver en otro video.
72. Labs Otra política de escalamiento en ASG en primer plano: Ustedes, bienvenidos de nuevo
al siguiente video. En este video,
vamos
a ver lo que sucedió ayer
antes de continuar. Entonces unos 20 minutos después, 25 24, 23 minutos, supongo, 24 minutos después, se
puede ver que ha
aumentado la capacidad 1-3. Y después de eso, cuando
se dio cuenta de que la carga ha bajado
después de 23 minutos, ¿verdad? Por lo que ha decidido reducir la capacidad 3-2 y luego
dos a uno eventualmente Uh, en un transcurso de intervalo de
1 minuto, se redujo 3-21, dos a uno Supongo que esto 20 minutos, 23 minutos incluye el
tiempo en el que cancelamos la carga en el sistema de realizar para que
inclusive de eso. Entonces tal vez pienso
aproximadamente de diez a 15 minutos que habrían desencadenado
la reducción del escalado en términos de la palabra
técnica escalado en reducción
de reducir la capacidad al valor
deseado de uno porque esa es la capacidad
mínima que se requiere aquí Esa es la
capacidad mínima deseada, por lo que se remonta
al único estado. Ahora, veamos los
otros dos tipos diferentes. No vas a estar no
configurándolos. Es decir, al igual que es casi similar a la política de escalado
dinámico. Entonces, si entiendes
cómo hacer esto, es muy fácil hacer también
es muy fácil hacer
acciones
predictivas y programadas. Veamos la política de escalado
predictivo. Esto es tan similar como una política de escalado
dinámico, pero tiene una característica ordenada. Esto se llama um, escala basada en el pronóstico. Ahora, lo que
hará es
mirar el pronóstico de
tu aplicación, el aumento pasado en términos de tu auto escalado,
um, mecanismo. Y entonces básicamente
predeciblemente
las escalas pronosticarán capacidad Y la escala se disparará
en base a lo que haya experimentado
anteriormente. Entonces usa eso, um, en términos de entender eso. Entonces no será una
acción de escalado basada en la predicción
si está apagada, pero si la enciendes,
la escala se encenderá, ya
sabes, um,
en un momento dado. Entonces esto será usando una información
predictiva que se pronostica en tu pasado y la usará para hacer eso Puede deshabilitar esto y
aún puede optar por la utilización de
destino de la CPU. Entonces es lo mismo que
el anterior. Entonces verás la CPU, la red en
la red
fuera del balanceador de carga Entonces estos son cuatro ítems que ya
están en dinámica, así que simplemente es lo mismo. Pero hay una métrica extra
por aquí métrica personalizada. Ahora, la métrica personalizada
puede estar activando una métrica específica de Cloud watch o puede usar
las predeterminadas que están ahí fuera Y entonces esto se llama métricas de carga y
métricas de escalado. Entonces, ¿cómo quieres utilizar
el predictor de ráfaga de esto? Entonces CPU promedio o es
como una CPU total. De igual manera, se utilizan las métricas
personalizadas para ello. Entonces, cuando selecciona la utilización de
CP, esto es tan igual como lo que
hicimos en el escalado dinámico. Y luego aquí, una
de las ventajas o una cosa que
separa de la dinámica es básicamente como instancia previa al
lanzamiento. Ahora bien, esto puede dar una capacidad de
instancia previa al lanzamiento donde antes de esto
es una predicción, ¿verdad, o es un
pronóstico, verdad? Entonces básicamente mira
el pronóstico y luego tener estas máquinas listas 5 minutos antes de que se active cualquier tipo de
pronóstico. Eso te dará una ventaja desde la dinámica porque dynamic
tiene que
preparar tu servicio cuando mira una carga o una
brecha específica en tus métricas. Pero aquí, utilizará el
pronóstico para tener esto listo, la instancia lista 5
minutos antes o, ya
sabes, cuál era el
momento que darías. Pero el máximo de 60 es
lo que se especifica aquí. Para que puedas tener una instancia
lista antes de los 60 minutos. Y tener eso tamponado. Por lo que también puede habilitar la capacidad máxima del
búfer. Por lo que en realidad tendrá la capacidad
máxima de lo que haya mencionado en
su escaneo automático, por lo que almacenará en búfer hasta eso. Entonces esta es una opción por aquí. Otra es la acción programada. Entonces programar acción es
básicamente dices que necesito esta capacidad por
este particular, ya
sabes, cada 30 minutos, cada día o todos los días en una semana o cada semana en un mes. Entonces especificas lo que quieres. Términos de recurrencia,
dices todos los viernes estoy
recibiendo una venta enorme, y voy a decir, bien, quiero todos los días en los que
donde puedas especificar el día de inicio por
aquí o el viernes y luego puedes fijar la hora
por aquí en eso. Todos los días se recuperará en ese día específico de un
mes o una semana o un mes. Esto quiere decir que
todos los viernes aquí. Si pones aquí todos los
viernes en una semana, voy a conseguir que este empiece desde
las 00 con
00 desde la medianoche de mi viernes
hasta la mañana del sábado. Entonces es como cero, cero, cero, cero o 23 59. Entonces esto dirá que desde la noche
del viernes viernes a la medianoche hasta, ya
sabes, la medianoche del sábado. Entonces esto será básicamente un horario que corre
en una capacidad específica. Por ejemplo,
actualmente, es uno, cinco y uno, ¿verdad? Entonces se puede decir, para este
momento, quiero cinco. Los cinco deberían estar disponibles. Y para este momento, se reducirá y volverá al
mínimo, que es uno. Entonces eso es lo que estamos diciendo. Entonces aquí solo das prueba
y luego creas esto. Entonces este será en realidad un
horario en el que también
se puede tener la política de capacitación
dinámica así
como también el Horario uno Entonces, lo que va a pasar es si la política de capacitación dinámica un máximo de cinco y
lo has programado En ese marco de tiempo,
se convertirán en cinco. Entonces esto se vuelve inactivo, así se vuelve como, ya sabes, algo que no puede ser uh, satisfecho porque ya estás en el máximo en este
momento. Pero si has configurado un máximo de diez instancias y esta dice
cinco por aquí, y esta dice diez, por defecto, serán diez porque ese es el
máximo que es. Pero aquí dices sólo cinco. Voy a mirar la carga en estos cinco sistemas y luego
básicamente aumentarla a diez, sentido para tener una política dinámica
así como una
acción programada diciendo que, ya
sabes, en los días, quiero cinco como máximo. Y entonces básicamente
esta política dinámica seguirá rastreando
tu CPUtilización Si va más allá de ese punto, entonces va a hacer girar
nuevas instancias o aún diez. Entonces eso tiene sentido si tienes una instancia de diez y vas a configurar cinco por aquí. Entonces eso también tiene sentido. Entonces se trata de la relación o
cómo va a ser la carga, qué ves tus situaciones y cuánto dinero estás
dispuesto a gastar, tus clientes dispuestos a gastar. Todas esas cosas dependen de
tu grupo de auto skilling. Todo bien. Gracias de nuevo
por ver este video. Espero que esto te ayude
a entender el escalado automático. Por favor, deje su opinión. Tu reseña significa
todo para mí. Solo estoy tratando de
trabajar duro día y noche para conseguirte este
tipo de enfoque
orientado y
decirte el escenario en enfoque
orientado y
decirte tiempo real lo que realmente
usamos en nuestra empresa
también. Gracias de nuevo. Te voy a ver en otro video.
73. Tipos de laboratorio de instancias de EC2 al día siguiente: Oigan, chicos, bienvenidos de nuevo
al siguiente video de este video, vamos a hablar
de una de las manos por aquí. Se trata de los diferentes tipos de
instancias de EC de aquí. Vamos a entender y comparar algunos de los tipos de instancias
Easy two. Abrir o consola AWS y
abrir EC dos instancias. Ahora, deberías encontrar la instancia de
EC dos por aquí. Entonces aquí, simplemente haz clic en el tipo de
instancia y
deberías llegar a esta página. Ahora bien, si seleccionas
alguna de esta instancia, vas a obtener algunos
detalles sobre esta instancia. Por ejemplo,
te dirá el
apellido y la talla. No te dirá si
es un tipo general o un cómputo optimizado o
algo por el estilo. Solo necesitas averiguarlo tú mismo por el apellido. Lo que puedes encontrar hacia los
detalles de aquí es que puedes ver el tipo de tamaño de familia de
instancias, y luego qué hipervisor se usa para crear
esta instancia También puede ver el dispositivo
raíz compatible con SM como EBS, Elastic Block Storage
será el sistema de archivos raíz El sistema operativo principal se
instalará en EBS. Ya sea un host dedicado o soporte de
hibernación bajo demanda, igual manera, verá
algunos detalles por aquí Entonces aquí ves algunos detalles
hacia tu computadora. Se puede ver la arquitectura. También puede ver el tamaño de
memoria por aquí, cuántos CP virtuales se
asignarían para esta máquina virtual en particular. También puedes ver el
networking por aquí. Esto podría ser parte de cualquiera
de la zona T disponible, y se puede ver que el
rendimiento de la red es muy bajo. Esta máquina en particular
es D one micro, así que esa es la razón por la que todo
es de configuración baja. Aquí, en la
información de almacenamiento, puede ver que
Elastic Block Storage se da aquí
y es compatible,
y se admite el cifrado en Elastic
Block Storage. Y en cuanto a GPU, no
hay GPU habilitada
en este momento. Y también puedes ver los
precios. Entonces aquí, el
precio de Linux bajo demanda es de 0.02 USD por. Entonces digamos que los precios son los mismos, precios de
RSSal son un poco altos, y se puede ver que el precio de
Windows es casi el mismo que el precio de
Linux también Así que vamos
a ir a la última página. Quiero decir, vayamos
al último y luego comparemos el
último de aquí. Entonces ahora mismo estoy en la
última página. Entonces esta máquina en particular cuesta
13 dólares la hora. Entonces veamos. Oh, también hay 26 dólares la
hora. Bien, entonces veamos por qué
cuesta 26 dólares la hora por aquí Entonces primero, vamos a ir a
los detalles por aquí. Se trata de X dos metales IEDN. Ese es el
apellido de aquí. Hablemos del cómputo. Entonces tiene 64 núcleos, lo que significa 182
CPU virtuales y eso es 182 CPU, decir, dos hilos por núcleo Se puede ver que tiene
alrededor de 4,009, es decir, 4,096. GB de memoria. Se trata de 4 terabytes de
memoria que tienes por aquí, hablemos de networking Es de 100 gigabyte de red, lo que significa muy
rápido y tienes dirección
IP por interfaz es de
50 direcciones IP por interfaz, y IPAddress versión
seis también está habilitada Hablemos de
almacenamiento por aquí. Se admite EBS. Ya viene con 3,800
gigabytes de almacenamiento e incluye SSD
como parte del Se puede ver que
hay dos discos se divide para este almacenamiento 3,800 No hay acelerador. No hay GPU por aquí y el precio es de $26 por b dos, y luego tienes la opción cuatro así que vende NX y los sabores
normales de Linux Por lo que es caro en Windows, 32 dólares por hora para Windows
y RHEL es de unos De igual manera, esta es una de
las máquinas de versión de muy alto valor, ya
sabes. Pero supongo que también hay máquina de
versión de
mayor valor, que tiene esta GPU en ella. Entonces solo estoy comprobando
algo con una GPU. Hablemos de algunas misiones orientadas a
GPU. GPU es igual a un 16. Bien, entonces este g6e, 24 grandes. Ahora bien, esto definitivamente
tiene GPU por aquí. He hecho clic en él, así que tengo comunicaciones dentro de esta máquina
en particular Entonces ahora si solo
bajas al acelerador puedes ver que tiene NVDSGPU que es de unos 176 GB de memoria memoria GPU para procesamiento
gráfico Y se puede ver prácticamente
es casi lo
mismo que el anterior. Tiene alrededor de 768
memoria en el sistema. Y se puede ver que esto
es de 15 dólares la hora. Pero supongo que también tienes opciones
para GPU iguales a 16. GPU iguales a 16. Sí. Entonces ahora, esto va
a ser muy caro, creo, y esto es alrededor de 15. Sí, se trata de unos 17 dólares de precios de
Windows por aquí. Pero el caso es que
tiene 16 GP por aquí, unos 12 GB de ram de
tu memoria GPU. De igual manera. Entonces tienes varias
configuraciones diferentes en el tipo de instancia por aquí. Entonces, si quieres saber
sobre el tipo de instancia, el mejor lugar es venir aquí y entenderlo. También puedes ordenarlo por
cuál es tu requerimiento. Entonces, si mi almacenamiento es
el requisito, puedo escribir almacenamiento por aquí. Entonces puedo poner un igual a y qué tamaño estoy buscando en
cuanto a almacenamiento. Quiero 60 GB de almacenamiento. Ahora tienes Mon small también, que tiene 160 GB de
almacenamiento disponibles en HHD y está costando alrededor de 0.075 una R. O bien
tienes MT dos X grande, que tiene SSD en lugar HDD y cuesta
alrededor de $1 por hora Pero, de nuevo, los precios
del plan de ahorro y instancia
reservada serán
mucho menores porque en realidad
estarás pagando por el rango de precios
anual. Lo que significa que
vas a obtener algún descuento o Gracias de nuevo por
ver el SweDee. Te veo
74. Tipos de laboratorios de LB en AWS: Oigan, chicos, bienvenidos de nuevo
al siguiente video. En este video, vamos
a hablar de balanceador bajo. Ahora, para entender el
balanceador bajo y hacia las manos, puedes abrir EC dos, y cuando abras EC dos, tendrás los balanceadores
bajos
aquí en los EC dos así Entonces puedes hacer clic en
Crear Balanceador Bajo. Ahora tienes tres
opciones por aquí. En realidad, hay
cuatro opciones por aquí y hacia la creación de
un balanceador bajo Ahora, un balanceador bajo clásico que estaba en la generación
anterior está algo depreciado y
se irá pronto Y el balanceador clásico de carreteras se reemplaza por otros tres tipos de equilibradores de
carga por Entonces, el primero en comenzar es un balanceador de carga de aplicaciones,
y luego tienes Balanceador de carga de red y
balanceador de carga de puerta ¿Qué es un balanceador de
carga de aplicaciones? Hablemos más a detalle
de cada uno de estos y luego solo
compararlo entre sí. Entonces, en primer lugar, el balanceador de
carga de aplicaciones
se usa principalmente para sus aplicaciones
web Ese es el nombre del balanceador de
carga de la aplicación entró en imagen Por lo tanto, se utiliza para aplicaciones
web, microservicios o cualquier cosa que use
framework de aplicaciones En términos de balanceador de
grupos de red, se utiliza en aplicaciones de baja latencia y
alto rendimiento donde necesita una
muy buena respuesta de sus aplicaciones Entonces ahí estaríamos usando esto. El balanceador
de carga de puerta de enlace, por otro lado se utiliza para dispositivos de seguridad, inspectores de
tráfico y cualquier
tipo de aplicación que utilice una
aplicación de terceros y quiera equilibrar la
carga entre ellos. Entonces en caso de IO o
algo así. Eso es básicamente un balanceador de carga de
puerta de enlace. Entonces haremos una muestra o demostración de uno de los balanceadores de
carga solo
mostrarte cómo crear esta configuración de balanceador de carga y cómo configurarla Preferiblemente, haremos balanceo de carga de
la aplicación y configuraremos una aplicación
en ella en el siguiente video. Pero aquí en este video, trataremos de entender
las diferencias en ellos. Entonces, en primer lugar, el balanceador de carga de la aplicación es el equilibrador carga de
capa siete
para la aplicación,
y el equilibrador de carga de red es de la capa cuatro,
y el
equilibrador de carga
de puerta Entonces cada capa aporta un poco de
diferencias entre ellas. Un balanceador de carga de capa siete se utiliza
básicamente para el enrutamiento basado en rutas
y el enrutamiento basado en host. Entonces, por ejemplo, un balanceador de carga
tradicional
parece un balanceador de
carga de red,
que es un equilibrador de carreteras de capa Entonces, lo que haría una capa para balanceador de
carga es cuando una solicitud llega
al balanceador de carreteras,
por lo que el balanceador de carga
redireccionará la solicitud directamente a
algo que está Por lo que normalmente
dirás que estos son el servicio de servicios
más allá del balanceador de carga Y todo lo que hará la
equilibradora vial es que será un cuello de botella Crearé un cuello de botella para la
solicitud entrante y luego enrutaré la solicitud a diferentes
aplicaciones debajo Bien. Entonces básicamente lo que ves en esta arquitectura
es lo que va a pasar. Entonces la solicitud
entra y luego
pasa por el balanceador de
carga de red, y luego puede configurar
directamente los elementos debajo de él Hay una opción
de configurar directamente la
computadora EC dos debajo de ella, o puede
pasar por otro ALB, o balanceador de carga de la aplicación Y luego a partir de ahí, se puede
conectar a múltiples elementos. Entonces de cualquier manera puedes hacerlo. Pero recuerde
que el balanceador de carga es un balanceador de
carga muy sencillo donde básicamente Sensor cuando se recibe una
solicitud, equilibra la carga y envía a quien sea a quien
esté reportando No clasifica
la solicitud. Ahora, la clasificación de la solicitud viene a través del balanceo de
carga de la aplicación. equilibrio de carga de la aplicación
no solo equilibra la carga, sino que también clasifica la carga Entonces como les dije, en
términos de enrutamiento, aquí, el balanceador de carga de red
hará un enrutamiento basado en IP, muy simple y directo ¿Bien? El equilibrio de carga de la aplicación hará un enrutamiento basado en ruta
y basado en host. Ahora, ¿qué es path
basado en host baase? La URL que el cliente está enviando a ese balanceador de
carga, analizará la URL, y habrá
dos opciones para ello Base de ruta o basada en host. base de ruta significa que
mirará la ruta URL
y, en función de la ruta, en realidad
puede configurar
el
balanceador de carga de la aplicación para que apunte a
un directorio personalizado Entonces de esa manera, ese directorio
personalizado sería ese directorio o aplicación
personalizada se
llamaría mirando la URL. Por lo tanto, una gran cantidad de clasificación ocurre en el nivel de
equilibrio de carga de la aplicación en lugar del balanceador de carga de
red balanceador de carga de red
enviará directamente la solicitud sin tener que
mirar la URL Pero el
balanceador de carga de la aplicación mira la URL, mira qué ruta están solicitando
y luego toma una llamada Entonces hay una llamada de
juicio que ocurre aquí en el balanceador de carga de la
aplicación,
lo que no sucede en
el balanceador de carga de red Por lo tanto, esta es la diferencia
principal entre el balanceador de carga de
la aplicación
y el balanceador de carga de red Así que el balanceador de aplicaciones no
solo reenvía la solicitud, sino que también analiza la URL, y luego básicamente decide ruta
basada en el enrutamiento basado en
host, donde en términos de
red lo Banste básicamente hace un
enrutamiento IP, enrutamiento basado en IP En términos de la puerta de enlace
en este aspecto, el balanceador de puerta de enlace, um, ya
sabes,
enrutamiento transparente a través de dispositivos, hace un enrutamiento transparente
a través del dispositivo y
básicamente entiende los firewalls
y las aplicaciones de terceros más allá Y básicamente, hace
el, ya sabes, um, enrutamiento de
host de tu, uh, ya
sabes, el tráfico entrante de
aplicaciones URS. Ahora, por otro lado,
el ALB o
balanceador de aplicaciones
manejará sockets web HTTP, HTTPS balanceador de carga de red
maneja rutas TCP, UDP, TLS y el balanceador de carga de
puerta maneja todo Esta es la mayor diferencia
entre todos estos de ellos. Entonces como te dije, si estás usando micro servicios,
contenedores,
aplicaciones, servicios web, todo tipo de cosas
serán apoyadas por ALB Pero si quieres
algo que sea latencia
ultra baja y que pueda manejar
mucha carga de red, entonces puedes ir por Equilibrio de carga de
red, incluso para tus microservicios
y contenedores Pero recuerde que este balanceador de carga de
red utilizará un enrutamiento muy
sencillo Esa es la razón por la que es ultra baja latencia
porque no
lo hace, no
se ordena o no, tiene un factor decisivo o
el nivel del balanceador de carga También tienes la opción de configurar el
balanceador de carga de red bajo eso, puedes configurar un ALB también
puedes configurar un ALB para que
se ordene más detalladamente Eso hablaremos
más adelante punto de tiempo, pero estas son las
opciones que disponibles al crear
un balanceador de carga En el siguiente video,
veremos con
mucho detalle sobre
el balanceador de carga Gracias de nuevo.
Te veré en el siguiente video.