Transcrições
1. Contas da AWS: Olá alunos, bem-vindos
a outro vídeo. Antes de mudarmos para a AWS e
começarmos a explorar seus serviços, a primeira coisa que
precisamos é de uma conta da AWS. Mas antes de criar
sua conta da AWS, há algumas coisas que você precisa saber. Neste vídeo. Falaremos
sobre os elementos de uma conta da AWS e das coisas que
precisamos para criar uma
conta para nós mesmos. Vamos direto para isso. Esta é uma conta da AWS. Estou supondo que você ainda não
tenha uma conta. Então, vamos criar
um na próxima lição. E a conta da AWS é um
contêiner no qual você cria e gerencia todos os seus recursos e serviços
da AWS. A primeira coisa que você precisa
para criar e gerenciar uma conta da AWS é uma identidade. Vamos cobrir a
identidade no módulo do IAM. Mas, por enquanto, você pode
entendê-lo como um usuário. Esse usuário controlará e
gerenciará toda a conta. Então você criará
uma conta para si mesmo. Você atuará como uma identidade. Agora, como usuário, você criará
alguns recursos em sua conta que
eventualmente gerarão algumas contas. Você também pode gerenciar todos os tipos de faturamento na mesma
conta. Portanto, cada conta tem seus recursos,
identidade e construção da AWS. Uma conta da AWS é um ambiente naturalmente
seguro. Ninguém fora da sua conta pode acessar seus recursos e
você receberá as contas. Somente para os recursos que você
provisiona em sua conta. Você pode começar sua jornada da AWS
com uma única conta. Mas quando sua organização
cresce em tamanho e complexidade, pode ser difícil
gerenciar tudo em
uma única conta. É por isso que a AWS recomenda
o uso de várias contas. Por exemplo, você pode criar contas separadas
para equipes de desenvolvimento, teste e produção
em sua organização. Porque simplifica
o controle de segurança e o processo de faturamento
de cada equipe e fornece a diferentes equipes a flexibilidade necessária para que
elas possam se concentrar na inovação. Agora, vamos ver o que você precisa para criar
uma conta da AWS. Primeiro, você
precisa de um ID de e-mail, que deve ser exclusivo. Isso significa que ele não deve ser usado em nenhuma outra conta da AWS. Você também precisa de um
cartão de crédito ou cartão de débito, o que é necessário para fins de
faturamento. Com essas duas
informações, você poderá
criar uma conta da AWS. Ao criar uma
nova conta da AWS, você está basicamente criando
um usuário que tem controle sobre todos os serviços e
recursos em sua conta. Essa identidade ou usuário é conhecido como a conta da AWS,
o usuário raiz. O usuário raiz pode entrar
com o endereço de e-mail e a senha que você usou quando criou a conta
em primeiro lugar. Falaremos sobre o usuário root em detalhes no módulo de
segurança da AWS. Quando você faz login na
sua conta da AWS, o primeiro painel
que você vê é conhecido como console de gerenciamento da AWS. É um console baseado na Web que você pode acessar
por meio de um navegador da Web. Existem outras maneiras de
acessar contas da AWS também, que veremos
no próximo módulo. Você também será
solicitado a autenticar sua identidade quando fizer
login pela primeira vez. Esse é basicamente o gerenciamento de identidade
e acesso, comumente conhecido como serviço do IAM, garante acesso seguro à sua conta da AWS e
aos recursos neles. Também exploraremos em
detalhes em um módulo posterior. Então, agora estamos preparados para
criar uma conta da AWS.
2. Crie uma conta da AWS: Olá alunos, bem-vindos de volta. Neste vídeo, criaremos
uma conta de nível gratuito da AWS. O objetivo do AWS Free, vinculado a permitir que clientes e novos usuários explorem a
AWS e ganhem experiência prática
necessária antes realmente
começarem a criar
sua infraestrutura de nuvem. Então, como o nome sugere, o tempo livre consiste em
serviços e recursos gratuitos para uso
na AWS com alguns
termos e condições. Discutimos
no vídeo anterior. Você precisa de um ID de e-mail exclusivo e um cartão de crédito para criar
sua conta da AWS. Você também precisará de um formulário para receber um código de
verificação por SMS, que faz parte da
abertura da conta. Agora você pode estar
pensando que, se
você vai usar apenas serviços CAS
gratuitos, por que você precisa inserir os detalhes do
seu cartão? Bem, isso é porque o
pneu grátis é uma oferta limitada. E no caso de você
esgotar o limite ou serviço
do usuário que não está
sob o pneu livre. Temos uma
cor bonita da quantidade. Portanto, é
obrigatório configurar nosso método de faturamento, como
criar sua conta da AWS. Mas isso não é algo com
que se preocupar. Neste treinamento. Só
usaremos serviços terríveis. E se você seguir o que
fazemos neste treinamento, não será cobrado
para garantir isso. Também definiremos um orçamento
para nossa conta e configuraremos um alerta para que
recebamos uma notificação. Se cruzarmos o projeto CIP. Vamos abrir um navegador da Web e começar a criar
nossa conta gratuita. Eu abri um navegador
da Web aqui e fiz isso para o nível gratuito
da AWS. E o primeiro resultado aqui, tempo livre
da AWS é o que queremos. A primeira página ajuda
você a entender o que é
uma conta gratuita e quais são os serviços que
vêm sob a dieta gratuita? Estarei cobrindo um
aposentado idiota na próxima lição. Então, vamos ignorá-los e
criar uma conta gratuita. Você precisará preencher
os detalhes necessários. Seu endereço de e-mail exclusivo
para o usuário raiz
e, em seguida, escolha um nome
para sua conta. Você também pode alterar o nome
e a letra LES. Se você quiser. Em seguida, clique em Verificar, Endereço de
e-mail,
verifique seu e-mail. Digite o código de verificação
aqui e clique em Verificar. Você será recebido. É você, seu endereço de e-mail
foi totalmente verificado. Agora vamos digitar uma senha para o usuário root e
confirmar a senha. E clique em Continuar. Você terminou o primeiro passo. E então nos levará a
passar pela primeira pergunta. Como você planeja usar a AWS? Basta escolher Poznan. Em seguida, adicione seu nome, número de
telefone, seu país
ou região, endereço. E, em seguida, clique em aceitar os termos e condições e
continue para a próxima etapa. Em seguida, está a página de cobrança que você precisa preencher
suas informações de faturamento. Insira o
número do cartão de crédito, a data de validade, nome
dos titulares do cartão e a fórmula, risco
ascendente e
continue para a etapa quatro. Você pode ser solicitado a
confirmar sua identidade. Então, novamente, você precisará inserir seu número de telefone e
para a verificação de segurança. E você receberá uma cotação no seu telefone que você
precisa inserir aqui. Não tive meu código de
verificação aqui. E vamos clicar em Continuar. Aqui temos o plano de suporte. É uma maneira de obter ajuda em tempo
real da AWS relacionada aos seus
recursos e serviços. Para nosso propósito,
escolheremos o suporte básico. É totalmente
gratuito e só ajuda você com a conta
ou problemas relacionados ao faturamento. Por fim, clique em Concluir inscrição. E é isso. Agora podemos acessar o console de gerenciamento
da AWS. Clique no botão
no meio da tela. Aqui, ele nos solicitará um ID de
conta ou um alias de conta. Não especificamos
nenhum alias para conta. E não sei qual é
o ID da conta. Também não temos
um nome de usuário porque este é um nome de usuário do IAM. O que temos é
o e-mail do usuário raiz. Então, vamos escolher
entrar usando o roteamento, um e-mail e digitar o endereço de e-mail com o qual
acabamos de nos inscrever. Digite a senha
e clique em Entrar. Parabéns. Vietnã fez login em nossa conta. E este é o
Management Console. Então, agora é sua hora de criar uma conta para você
seguir em frente com esse treinamento. Isso é tudo para esta lição. Vamos entender as ofertas de giros gratuitos da AWS
na próxima sessão. Vejo você em breve.
3. Nível gratuito da AWS: Bem-vindo de volta aos alunos. No último vídeo, você criou
uma nova conta da AWS e adicionou os
detalhes do cartão para cobrança. Isso nos lembra
que precisamos usar os serviços
da AWS de forma
planejada. Caso contrário, você acabará
pagando por alguns serviços. Bem, não se preocupe. Nesta sessão, vou
orientá-lo sobre como usar sua conta da AWS para
que você não seja cobrado nas próximas
duas sessões. Também vou ajudá-lo a
proteger sua conta, definir um orçamento para sua
conta e um alarme. Então, você será notificado se você
ultrapassar o limite de orçamento. Então, vamos começar a usar
o pneu gratuito da AWS. O pneu gratuito permite que você
experimente determinados serviços da AWS por um período definido sem
ter que pagar nada. Isso significa que a AWS fornece uma lista
de serviços da AWS que você pode usar gratuitamente
na plataforma da AWS para obter
alguma experiência prática. Agora, deixe-me levá-lo para a página da web de nível gratuito da
AWS. Esta é a página do nível gratuito da AWS. Você pode ver todos os detalhes
sobre o pneu livre da AWS, que é classificado
em três categorias. O primeiro é testes gratuitos. Sob essa oferta, você pode usar alguns serviços da AWS
por um curto período. E então esses serviços, e no final desse período, o segundo é de
12 meses grátis. Isso significa que você tem 12 meses para experimentar esses serviços gratuitamente. E ele começa a
partir da data em que você criou sua conta da AWS. O último é sempre gratuito. Esses serviços estão
disponíveis para você para sempre, mas há um
limite para comer em que quantidade você pode
usar esses serviços. Então eles nunca expiram até que você
cruze o limite disponível. Em seguida, temos uma
opção aqui para filtrar produtos
da AWS com base em diferentes categorias
e avaliação gratuita. Simples o suficiente, certo? Vamos experimentá-lo para
entender melhor. Vamos selecionar Sempre gratuito. Aqui você pode ver apenas esses serviços que são sempre gratuitos dentro de
um determinado limite. Agora, pegue o AWS Lambda. É uma opção de
computação sem servidor, que veremos
em um módulo posterior. Mas aqui você
também pode filtrá-lo da
categoria de produto.
A partir de hoje. Permite 1 milhão de pacientes
invocados por mês. Isso significa que se você ficar com menos de
1 milhão de invocações, sempre será gratuito. Esse tempo livre nunca expira. Agora selecione 12 meses grátis. Nesta categoria,
vamos ver, armazenamento. S3, por exemplo. É um
serviço de armazenamento de objetos gratuito por 12 meses ou até cinco
gigabytes de armazenamento. Depois disso, você terá que
pagar uma certa quantia. O S3 é uma ótima opção para
experimentar um site estático. Veremos isso no
modelo de armazenamento deste treinamento. O último exemplo é o Amazon EC2, que você usa para implantar
seu aplicativo. A AWS oferece uma
avaliação de doze meses de até 750 horas de uso todos os meses para
o tipo de microinstância T2, que significa que você pode executar seu
aplicativo gratuitamente por 12 meses. Este é um
período significativo para dominar a AWS. Você pode experimentar e aprender
quase todos os principais serviços. E espero que você faça
o melhor uso disso. Isso é tudo para esta lição. Eu recomendaria verificar
esta página antes. E ao usar os serviços da AWS, há tantos serviços
que você pode experimentar gratuitamente, mas garante que você saiba sobre a disponibilidade gratuita do
serviço antes de usá-lo. Isso é tudo para este vídeo.
4. Como garantir uma conta da AWS: Olá alunos. Neste vídeo, vamos entender
como você pode proteger sua conta da AWS com política de
senha e autenticação
multifator, ou MFA em resumo. Também analisaremos o acesso
e a chave secreta mais adiante
neste vídeo. Então, vamos começar a usar a autenticação
multifator. Ou seja, MFA. Você tem um ID de e-mail e senha para fazer login em
sua conta da AWS. E depois de fazer login, você pode acessar o console
de gerenciamento da AWS e executar
operações diferentes nele. Vamos supor que alguém tenha
roubado sua senha. Agora essa pessoa pode fazer login e fazer qualquer coisa em
sua conta, certo? Especialmente se ele tiver acesso de
administrador, ele pode excluir recursos
de produção, transferir
dados confidenciais, alterar a
configuração do aplicativo e o que quer que seja. Então, como você protege sua conta
sobre a senha? Bem, você pode usar uma
autenticação multifator ou MFA. O que é
autenticação multifator? É um método de
autenticação que exige que qualquer usuário forneça pelo menos
dois tipos de verificação, que são conhecidos como fatores para obter acesso a uma
conta ou recurso como um site ou um
telefone celular aplicativo ou serviços. Além do nome de usuário
e senha, os usuários terão que inserir
uma senha única ou OTP, entregue via SMS, e-mail ou um aplicativo autenticador, como Google e Microsoft
Authenticator. Um bom exemplo de
autenticação de dois fatores
é um login
do Gmail de um novo dispositivo. Toda vez que alguém tenta
fazer login na sua conta do Gmail, ele pede a senha e uma
senha única gerada pelo sistema, ou seja, OTP. Ele é enviado no número de celular
registrado. autenticação multifator
é usada na combinação de uma senha e um dispositivo de segurança que você possui, como seu telefone. Depois de configurar a MFA
em sua conta da AWS, você terá que fornecer um
token de MFA toda vez que fizer login
na sua conta da AWS. Mfa basicamente adiciona outra camada de segurança sobre sua senha. Então, mesmo que alguém tenha a
senha para sua conta, ainda não conseguirá
fazer login nela, pois eles também
precisam de MFA para fazer o quê? Portanto, é uma boa prática
configurar a MFA em
sua conta da AWS. Mfa e segurança são tópicos
importantes
do ponto de vista da entrevista e do exame. Você poderia esperar perguntas como como adicionar uma
camada extra de segurança ao usuário do
AWS Route ou IAM? A resposta a essa pergunta será a
autenticação multifator. Além do console de
gerenciamento, também
podemos acessar a AWS
por meio da CLI e do SDK. Vamos entender isso
no próximo tópico,
interagindo com a AWS. Mas quando você acessa a AWS por meio de
qualquer um desses métodos, você usa uma chave de acesso
e uma chave secreta. Essas teclas se parecem com os
códigos presentes na tela, que pode não ser
fácil de usar como
nome de usuário e senha. Mas você terá que usá-los em seu código para fazer login
na sua conta da AWS, seja por meio de CLI ou SDK. Elas são conhecidas como chaves de acesso e são usadas para acesso
programático. Criaremos algumas chaves de
acesso mais tarde
no curso e veremos como
usá-las para fazer login. Então, agora vamos passar
para o próximo tópico, que é a política de senha. A política de senhas é
uma forma de impor uma senha forte para
o uso da sua conta da AWS, porque sua conta fica mais segura quando você tem
uma senha forte. Isso podemos conseguir
por meio da política de senhas. Tudo o que você precisa fazer é habilitar
todas as regras que você deseja que seus usuários sigam ao criar ou
redefinir a senha. E isso é tudo. Na política de senhas. Você pode definir uma regra de tamanho mínimo de
senha. Em seguida, você pode impor tipos de caracteres
específicos. Por exemplo, você
pode querer ter pelo
menos uma letra maiúscula, uma letra minúscula e um número também. Além disso, você também pode especificar
caracteres não alfanuméricos, como porcentagem, Rua, etc., devem ser incluídos. Em seguida, você pode ativar
a expiração da senha, o
que significa que o usuário precisa girar sua senha
após determinados dias. Por exemplo, após 90
dias, 120 dias, etc. Em seguida, você pode permitir que o usuário
altere sua senha ou também pode optar por apenas o administrador alterar
a senha. Finalmente, você também pode impedir a reutilização de senhas para que os usuários, quando alterarem
suas senhas, não a alterem para
a que
já haviam usado no passado. Então isso é ótimo. Uma política de senhas é realmente útil contra
todos os meus colegas. Tente entrar em sua conta. A política de senhas é um tópico
importante segurança da
AWS do ponto de vista do exame de
certificação ou da entrevista. Isso é tudo o que eu queria
cobrir neste vídeo.
5. Configure o MFA e a política de senha: Olá alunos. Espero que você tenha criado
sua conta da AWS. Portanto, neste vídeo, protegeremos nossas
contas adicionando autenticação
multifator e
configurando uma política de senhas. Antes de iniciar
a configuração, vamos
entender rapidamente o que é MFA. É um
método de autenticação que valida a identidade do usuário. Então, quando qualquer usuário tenta acessar algo que é
protegido com o MFA, precisa fornecer
duas ou mais evidências para obter acesso. Então, vamos entrar em nossa
conta da AWS e protegê-la com a MFA. Para isso, precisamos ir ao Serviço de
Gerenciamento
de Identidade e Acesso. Então, aqui estamos
no painel do IAM. E, como você pode ver, já
temos algumas recomendações de segurança
da AWS. A primeira coisa que está
dizendo é que você deve adicionar um MFA
para o usuário raiz. Então, vamos adicionar selecione minha conta e, em
seguida, clique em credenciais de
segurança. Aqui você pode ver os detalhes
da conta. Vamos rolar um pouco para baixo. Aqui. Você pode ver que não
temos nenhum atribuído aos dispositivos. Então, vamos clicar em
Gerenciar dispositivo MFA. Vamos usar um dispositivo de MFA
virtual aqui. Você terá que instalar um aplicativo autenticador em seu dispositivo móvel
ou no computador. Eu costumava usar o aplicativo Google
Authenticator no meu telefone porque isso é
totalmente gratuito para usar. Então, vou usar isso. Mas se você ainda não tiver um instalado no telefone, instale o aplicativo Google
Authenticator e clique em Continuar. A próxima coisa a fazer é
clicar em Mostrar código QR. Depois de ver o
QR na tela, basta digitalizá-lo usando seu telefone. E ele deve abrir o aplicativo
Google Authenticator. Se você fizer isso corretamente. Ele gerará um código e o
exibirá na tela. Então, o que você precisa fazer
é adicionar esse código aqui. Exatamente como eu adicionei o meu. E então você precisa
esperar que esse código expire. Porque ele
gerará um novo código. Você terá que inserir o novo código na caixa de ferramentas de código
MFA. Depois de fazer isso, clique em Atribuir MFA. Agora você tem o MFA
habilitado para sua conta. E você pode ver que
temos um nome de recurso ARN ou Amazon para
nosso dispositivo virtual aqui. Portanto, é muito fácil habilitar o
MFA em sua conta. Agora, vamos configurar
uma política de senha também. Vamos para o painel do IAM. Mais uma vez. Você encontrará a configuração de senha nas configurações
da conta. Do lado esquerdo,
clicaremos em Alterar política de senha e aplicaremos uma política em nossa conta. Você pode alterar muitas
coisas sobre a senha. Por exemplo, o tamanho mínimo da
senha. Vamos mudá-lo para 16. O usuário precisa de
maiúsculas, minúsculas ou número? Você pode selecionar todos
ou qualquer um deles. Vou selecionar tudo como. Esta é uma boa prática para usar letras
maiúsculas e minúsculas na senha. E eu recomendo que você faça o mesmo. Você pode personalizar sua
política de senhas como desejar e clicar em salvar alterações, que fará o trabalho. Então, agora, cada novo usuário em
sua conta deve seguir esta política de senha ao criar ou redefinir
sua senha, o que melhorará a segurança da
sua conta. Então, alunos, essas são
as poucas medidas de
segurança iniciais que todo
engenheiro de nuvem deve conhecer. segurança na nuvem em geral
é um tópico muito importante, tanto do exame de
certificação quanto do ponto de vista entrevistado. E espero que você entenda
isso completamente. Isso é tudo para este vídeo.
6. Configure o orçamento e o alerta: Olá alunos, bem-vindos de volta. Agora você tem nossa própria conta de
avaliação gratuita e protegeu com autenticação
multifator
e política de senha. Você também entende a AWS, o pneu
gratuito e as diferentes
ofertas abaixo do preço. Neste treinamento, usaremos gratuitamente
apenas para adicionar serviços para prática
prática na AWS. Então, se você se ater a
essas ofertas gratuitas, somente, você não será cobrado. Mas apenas no caso de você
usar acidentalmente um serviço pago ou esquecer de excluir um serviço que poderia ser pago
após um certo tempo. É essencial definir
um orçamento e um faturamento. Muito que você recebe notificação por e-mail ou SMS quando atinge
o limite determinado. Neste vídeo,
vamos configurar o orçamento e o alerta
para nossa conta da AWS. Então, vamos para o console de
gerenciamento da AWS. Como você pode ver, eu fiz login na minha
conta com o usuário root. E no canto superior
direito aqui, abaixo do nome da minha conta, selecionaremos o painel de
cobrança. Isso nos levará
ao painel. Vamos rolar para baixo até
a seção de gerenciamento de custos
e clicar nos orçamentos. Aqui temos algumas informações
adicionais sobre orçamento e alerta, como como funciona,
benefícios e recursos. Clique em Primeiros passos se
você quiser lê-lo ainda mais. Eu recomendo que você faça isso, pois isso
lhe dará mais insights. Agora, vamos rolar para trás e
clicar em criar um orçamento. Aqui. O orçamento de custo recomendado
é selecionado por padrão. Então, clicaremos em Avançar. Deixe tudo por padrão. E aqui, insira seu valor
orçado. Entraremos em nosso
orçamento. Para esta demonstração. Selecionarei US $3. Role para baixo e insira
o nome do seu orçamento. Nomear seu orçamento
é importante, pois você pode ter vários
orçamentos no futuro. Vamos chamá-lo de alerta de $3. Portanto, será fácil
identificá-lo
e clicar em Avançar. Agora, clique em Adicionar limite de alerta. Aqui você pode criar
vários limites. Portanto, se inserirmos 50
no limite, isso significa que você receberá
uma notificação quando seus gastos com a AWS atingirem
50% de US$3, o que é de US$1,5. Neste caso. Você também pode adicionar
vários limites. Vamos adicionar mais um
limite para que recebamos mais
uma notificação antes o valor atinja
o limite definido. Vamos adicionar 80% desta vez. Aqui. Na opção de notificação. Temos algumas opções sobre como queremos ser notificados. Vamos optar por
notificação por e-mail. Digite o endereço de e-mail no qual desejamos
receber o e-mail. E clique em Avançar. Deixe tudo como padrão
na página de ação anexar e clique em Avançar. Agora vamos analisar tudo e depois clicar em Criar orçamento. Levará alguns
segundos e veremos uma mensagem dizendo que o orçamento foi
criado com sucesso. Aqui, você pode ver que o status do
limite está bom. Você pode usar esse link de
orçamento para ver os detalhes e o gráfico
de nossos gastos. Atualmente, não temos
nenhum detalhe aqui, pois leva cerca de 24 horas
para preencher os dados. Então, quando você cria um orçamento, eu sugiro que
você volte aqui depois de um dia ou dois
e veja esses DJs. Vamos rolar de volta para cima. E no canto superior daqui, você pode editar e excluir
o orçamento também. Isso é muito importante
, pois você pode precisar ajustar o
orçamento no futuro. Vá em frente e
experimente. Para este vídeo. Isso é praticamente
sobre o orçamento. Receberemos o primeiro alerta quando nossa fatura da AWS atingir 50% de US$3. E o segundo alerta em 80%. acordo com o alerta, podemos voltar e verificar
quais serviços estão sendo executados. E se não precisarmos deles, podemos encerrá-los
para economizar o custo. No próximo vídeo, resumiremos o tópico para
entender a conta da AWS e o pneu gratuito. Vejo você no próximo.
7. Métodos de interação com a AWS: Olá alunos, bem-vindos de volta. Anteriormente, discutimos os diferentes modelos de
implantação em nuvem, o que IS Pass e diz: Mas você sabia
que também podemos usar serviços
da AWS como qualquer um
desses modelos, se você não fizer isso. Bem, não se preocupe. Vamos entender
isso neste vídeo. Aqui, vamos
entender quais são
os diferentes métodos
para interagir com sua conta e serviços da AWS. Até agora, temos interagido com a AWS por meio do console
de gerenciamento, que é uma interface da web. Além disso, temos mais duas maneiras de
interagir com a AWS. Primeiro é a AWS CLI ou a interface de linha de comando. É uma ferramenta que você instala e configura
em seu computador, que permite acessar os serviços da AWS e
automatizá-los por meio de scripts
terminais do computador. O segundo método é o SDK, que significa Software
Development Kit. Ele é usado por programadores
e desenvolvedores para interagir com os serviços da AWS diretamente
do código do aplicativo. Se isso não fizer todo
o sentido, não se preocupe. Vamos
entendê-los em detalhes. Vamos começar com
o console da AWS. Mais uma vez. É uma interface da web para
interagir com os serviços da AWS. E como ele pode ser acessado
por meio do navegador da Web, é a maneira mais fácil de
gerenciar recursos na AWS. Basta fazer login na sua conta da AWS
e fazer o que quiser. O que é mais ou a versão móvel
do console de gerenciamento da AWS também
está disponível. Você pode instalá-lo
em seu telefone e acessar quase todos os
serviços da AWS a partir do seu telefone. Isso não é ótimo? Agora vamos ver
algumas vantagens de usar o AWS Management Console. Se você for iniciante, AWS Management Console
é o começo certo. Como você pode
interagir facilmente com os serviços da AWS. É como navegar em
apenas outro site. Mas, como discutimos, é mais fácil por causa de sua interface de
usuário muito limpa e passo a passo. Por todos esses motivos, o console de gerenciamento
é a melhor opção para executar
tarefas administrativas como iniciante. Agora, branco apenas para iniciantes. Bem, isso ocorre porque
algumas operações
no console ou
manual da AWS levam tempo. Portanto, não é possível
automatizar tudo por meio
do console de gerenciamento. E é por isso que usamos uma interface de linha de
comando ou CLI. Agora, vamos entender isso. A AWS Command Line Interface, ou CLI, é uma ferramenta unificada para
gerenciar seus serviços da AWS. É uma
interface de linha de comando que permite gerenciar seu serviço da AWS
usando o terminal do computador. Esta é uma ferramenta que você pode
instalar facilmente no seu computador. Ele suporta sistemas operacionais Windows, Mac e Linux. Você pode fazer tudo o
que pode fazer com o exemplo do
console de gerenciamento da AWS. Se você quiser listar todos os
usuários em sua conta, abrirá um terminal no computador e
digitará usuários da lista da AWS. Ele lhe dará uma lista de todos os usuários disponíveis
em sua conta. E se você
quiser excluir um usuário, você pode usar o
comando AWS delete user, username, e ele excluirá
esse usuário da sua conta. Você também pode combinar esses dois comandos para executar
quais tarefas em uma única etapa. Essa é uma
vantagem significativa de usar AWS CLI no console
de gerenciamento. Você pode automatizar tarefas na CLI. Vamos supor que você tenha 50
usuários em sua conta. E você deseja excluir usuários
cujo nome começa com M. Se você tiver que fazer isso no console
de gerenciamento da AWS, você terá que encontrar cada usuário e excluir
um por um, certo? Mas esse não é o
caso da CLI. Aqui, você pode escrever
o script e usar os dois comandos acima para
executar a mesma tarefa. E isso será feito rapidamente. Da mesma forma, você pode gerenciar vários serviços da AWS
usando o mesmo script. Para acessar a AWS por meio da CLI, você precisa se
autenticar, assim como no console de
gerenciamento da AWS. Mas aqui, em vez de usar
nome de usuário e senha, você terá que
fornecer acesso e chave de acesso à chave
secreta atua como nome de usuário e
chave secreta é sua senha. Se alguma coisa soar confusa. Vamos
instalar e configurar a AWS CLI na próxima lição. Agora, vamos ver algumas
vantagens de usar a AWS CLI. É uma ótima maneira de
interagir com AWS por meio de um terminal de
computador e é uma excelente maneira de automatizar tarefas e alcançar a
infraestrutura como um código. Finalmente, temos o SDK, significa Software
Development Kit. Dave garoto. Em suma, como o nome sugere, é um conjunto de ferramentas de software e programas usados pelos desenvolvedores
para criar aplicativos. Agora, se você está pensando que
é semelhante à AWS CLI, isso não é verdade
porque você não pode usar o AWS SDK no terminal do
computador. Isso é usado apenas para ler ou dentro do código
do aplicativo, o que permite que seu aplicativo interaja com os serviços da AWS. Sdk suporta muitas linguagens de
programação diferentes, como C plus plus, Java, javascript.net, Node.js,
PHP, Python e Ruby. Também há SDKs móveis para Android e iOS têm nível. Vamos entender isso
com um exemplo. Suponha que você esteja desenvolvendo um aplicativo móvel que
permitirá que os usuários
compartilhem suas fotos. Para isso, você usará o
Amazon S3 como armazenamento. Falaremos sobre o S3 em
detalhes em outro módulo. Mas, nesse caso, seu aplicativo
precisa interagir com o AWS, serviço
Amazon S3, certo? Você não pode usar o AWS Management
Console ou a AWS CLI
nesse cenário porque deseja que o código do aplicativo
interaja com o serviço da AWS. Portanto, você usa o AWS SDK. Ele permitirá que você acesse e
gerencie seus serviços da AWS
por meio do código do aplicativo. Talvez você já conheça as
vantagens de usar o SDK. É uma ferramenta perfeita
para interagir com AWS por meio do código do aplicativo. É ótimo para interagir com AWS dentro do código do aplicativo. Então, alunos, espero que agora você entenda todos os três métodos
de interação com a AWS.
8. Usando o console de gerenciamento da AWS: Olá alunos, bem-vindos de volta. Na última lição, analisamos diferentes maneiras de
interagir com os serviços da AWS. Nesta lição,
vamos nos
aprofundar no console de
gerenciamento da AWS e entender quais são
as diferentes maneiras fazer login no console de
gerenciamento da AWS. Como criar uma conta, o LES, como selecionar uma
região da AWS em nossa conta e como chegamos a vários serviços da AWS
e seu painel. Então, vamos direto para isso. Primeiro, você precisa entrar em sua conta da AWS para acessar
o console de gerenciamento da AWS. E as credenciais
que você usa para entrar determinam que tipo
de usuário você é. partir de agora. Você conhece o usuário raiz que
é o proprietário da conta. Este usuário tem acesso a todos os recursos e
serviços dentro da conta. Em seguida, há outros
tipos de usuários em sua conta
chamados usuários do IAM. Esses usuários têm
acesso limitado a recursos
e serviços. Agora vamos entender
a diferença entre usuário
raiz e usuário do IAM. Usuário raiz é o usuário que foi criado quando criamos a conta pela primeira vez
. Portanto, se fizermos login usando credenciais
raiz, teremos acesso
a toda a conta. Por outro lado, os usuários do IAM são criados pelo usuário raiz. Falaremos mais sobre
eles nos módulos posteriores. Faça login na AWS. Como usuário raiz, você precisa do ID de e-mail e da
senha que usamos e autenticação
multifator que
ativamos quando criamos
a conta da AWS. No entanto, faça login como usuário do IAM, você precisa de um nome de usuário, senha e
um dígito de doze dígitos, AWS, ID de conta
ou ideias de conta. Como não temos um
usuário do IAM nem a conta. Então, vamos fazer login com o usuário
root que já
criamos e
criar uma conta LES. Aqui estamos na página de assinatura
da AWS. Vou inserir o
ID do e-mail e, em seguida, clique em Avançar. Vou dar minha senha. Em seguida, clique em fazer login. Como configurei a autenticação
multifator, terei que inserir
um código exclusivo
além da minha senha
para poder fazer login. Então, vou inserir o código. Agora, estou conectado
ao console da AWS. Agora que estamos no console, há algumas coisas que
devemos verificar rapidamente. Um deles é conta. Aqui você pode ver as configurações
da conta que contém detalhes da sua conta, como informações de
contato, contato
alternativo para cobrança,
operações e segurança. Lembra da configuração do orçamento? No último tópico, verificaremos rapidamente
nosso painel de cobrança. Clique no painel de cobrança. Você verá o resumo do
faturamento e outros detalhes, incluindo a
fatura do mês atual, compilações
anteriores
e controle de orçamento. Embora acredite que você tenha
configurado um orçamento e
habilitado um alerta, ainda assim, recomendo verificar
regularmente esta página para ver se você
tem contas indesejadas. Agora, vamos voltar e criar um alias de conta tipo IAM
nesta caixa de pesquisa aqui e clicar no painel do IAM Identity e Access Management
Service. E, como você pode ver no
lado direito aqui, temos um ID de conta e
abaixo está o alias da conta. Observe que
o alias da conta é o mesmo que o ID da conta. Então, aqui está o nosso ID da conta de 12
dígitos. Mas lembrar que isso
pode ser um desafio. Então, vamos criar um alias muito
mais fácil de lembrar. Para isso, clique em
Criar, adicione seu ID, o Cloud advisory 2050 e salve as alterações. Isso criará um ID para você. Usaremos esse ID ou alias toda vez que fizermos login
usando o usuário do IAM. Agora, vamos voltar ao link
da conta de usuário. Para fazer isso, basta clicar
no logotipo da AWS. Além disso, temos outro menu suspenso para
selecionar a região da AWS. Então, vamos selecionar uma
região para nossa conta. Atualmente, estamos
em North Virginia. Nós Leste, Um é
o motivo chamado. Cada região tem um código
específico e usamos esse código ao usar
AWS, CLI e SDK. Falaremos sobre isso
nas próximas sessões. Já discutimos a infraestrutura global
da AWS. E você pode ver que existem muitas regiões e regiões
com suporte na AWS. Faremos login no AWS
Management Console, selecionaremos uma região da AWS para criar esses serviços
em uma região específica. Essa é a primeira coisa que você faz quando cria qualquer novo serviço, exceto alguns que
não são sensíveis à região. Se mudarmos e selecionarmos
a região Ásia-Pacífico, que não passa
da região de Mumbai. Todos os serviços que criamos agora serão lançados apenas na região de
Mumbai. Portanto, é crucial
decidir e selecionar a região onde você deseja
criar seus serviços da AWS. E, mais importante, se você criar alguns recursos da AWS e não vir esses recursos
no console. Isso significa que você o criou em diferentes regiões e você
terá que mudar para a
região deles para vê-los. Agora vamos avançar e ver como navegar para os serviços da AWS. O
console de gerenciamento da AWS oferece várias maneiras de navegar para painéis
de serviço individuais. Na caixa de pesquisa
na barra de navegação, insira o nome do serviço. Você verá os resultados. Escolha o serviço desejado na lista
de resultados da pesquisa. Por exemplo, vamos
para o serviço S3. Podemos simplesmente digitar
dívidas e
obteremos uma lista de todos os
serviços que incluem o S3. Nesse caso, estaríamos
procurando aqui apenas o S3. E se clicarmos
nele, isso nos levará ao painel desse serviço específico. Em seguida, também podemos voltar para a página inicial clicando
no logotipo da AWS. Em seguida, escolha serviços para abrir
uma lista completa de serviços. Aqui no canto superior
direito da página. Escolha grupo para ver os
serviços listados por categoria ou escolha um jato para ver
uma listagem alfabética. Em seguida, selecione o
serviço que você deseja. Por exemplo, role para
baixo e selecione a categoria de armazenamento que
inclui AWS Backup, EFS, S3 e muito mais. Falarei mais sobre aqueles
em um dos módulos posteriores. Mas isso nos dá uma maneira de
analisar os serviços de
alto nível com base em sua categoria. Em seguida, está a guia
visitada recentemente. Aqui você pode ver os serviços recentes que
visitei no console, incluindo S3, RDS, ec2. Então, esses são os serviços com
os quais trabalhei recentemente. Caso você trabalhe apenas com
um punhado de serviços. Essa pode ser uma
maneira muito rápida de simplesmente clicar neles e ir para os painéis de
serviços específicos. Isso é tudo para esta sessão.
9. Instale o AWS CLI: Bem-vindo de volta aos alunos. Continuaremos
nossa discussão sobre como interagir
com os serviços da AWS. E neste vídeo de demonstração, instalaremos a AWS
CLI em nosso sistema. Como eu tenho um Mac, vou usar as instruções de
instalação do Mac. No entanto, o processo permanece o mesmo para outros sistemas
operacionais, incluindo Windows e Linux. Então, vamos ao navegador e encontrar a
documentação de instalação. Nesta barra de pesquisa. Instalei a AWS CLI no Mac. Você também pode pesquisar
seus sistemas operacionais como a AWS CLI instalada on-line. Em seguida, instale a AWS CLI
no Windows também. Abriremos a pista rápida, instalando e atualizando
seu teste foi uma AWS CLI. Esta página tem instruções do
instalador para todos os três sistemas operacionais, incluindo Linux,
Mac OS e Windows. Vou para o Mac OS
e seguirei o processo. Vamos rolar para baixo. E aqui estão as instruções
de instalação. Precisamos de um arquivo ECG escuro, que é um instalador gráfico. Então, vou baixar
o arquivo daqui. Depois de baixá-lo,
abra-o e clique em, continue, continue,
continue e concorde. Dê permissão para instalar para todos os usuários neste computador. Clique em Continuar e
clique em, instale-o. Instalamos a
CLI em seu sistema. Vamos esperar
que tudo seja feito. O sistema está gravando os arquivos. E, finalmente, a instalação agora
é bem-sucedida. Como não preciso mais
do instalador, vou movê-lo para o lixo. Verifique a instalação. Abrirei um terminal, vou para a opção Pesquisar e digitar um minuto. E, em seguida, adicionarei a AWS. Se você tiver uma
CLI em execução no sistema, ela deverá retornar uma versão
da tabela de execução da AWS. Vamos esperar um pouco. Aqui temos a
resposta para o nosso comando, que mostra que tudo
foi instalado corretamente. Faça o download da CLI em seu sistema, pois a
usaremos em lições futuras. Em caso de problemas, dê uma olhada nesse cara.
10. Usando a AWS CLI: Olá alunos, bem-vindos de volta. Continuaremos
nossa discussão sobre como interagir
com os serviços da AWS. E nesta demonstração, você
aprenderá como usar a AWS CNI para interagir
com os serviços da AWS. Então, vamos começar. Deixe-me abrir o
terminal no meu laptop. Primeiro de tudo, verifique se você já instalou a AWS CLI. Você pode verificar digitando. A AWS não estava no terminal e
devolvia facilmente a AWS CLI. Em segundo lugar, você precisa autenticar a AWS CLI para acessar os serviços da AWS. E, como discutimos, os usuários
da AWS CLI acessam
chaves para autenticação. Vamos abordar a autenticação
e a autorização em detalhes no tópico de gerenciamento de identidade e
acesso. Mas, para esta demonstração, vamos ao console de
gerenciamento da AWS e criar uma chave de acesso. Aqui. Clique em Conta e depois em credenciais de
segurança. Agora estamos na minha chave de acesso de
credenciais de segurança. E aqui podemos criar
novas chaves de acesso. As chaves de acesso são essenciais
porque são usadas para
controlar a autenticação e a autorização ao usar a CLI e o SDK para
acessar a conta da AWS. Agora, como nota, estaremos criando chaves de
acesso aqui. No entanto, vou excluir essas chaves imediatamente
após esta tabela. Você também não deve usar chaves de acesso de usuário
root
no dia-a-dia. Isso não é uma boa prática. Mais uma vez, aprenderemos isso em detalhes no tópico de gerenciamento de identidade e
acesso. Por enquanto, vamos clicar em Criar nova chave de acesso e, em
seguida, mostrar Chave de acesso. Aqui temos nosso eixo
e chave de acesso secreta. Isso é o que
usaremos para acessar nossos recursos da AWS
por meio da CLI. Vamos copiar as duas
chaves em um arquivo de texto. Você também pode baixá-lo clicando em Baixar e permitir. Agora vamos voltar para a AWS CLI
e digitar o terminal. Configuração da AWS. Agora, primeiro inseriu a
chave de acesso e a chave de acesso secreta. Agora insira o nome da região
padrão. E neste caso, vamos
escolher o sal da API. Por fim, escolheremos
o formato de saída padrão. Nesse caso, vamos escolher
o formato gestual. Assim que tivermos tudo isso
no lugar, pressione Enter. Configuramos com êxito a AWS CLI significa que
devemos ser capazes usar a AWS CLI para obter informações sobre
os recursos da AWS. Vamos verificá-lo rapidamente. Executaremos um comando que
listará o bucket do S3. Vamos digitar a AWS. E ele retornará
uma lista de todos
os diferentes bucket do S3 que criei
nessa conta. Se você não tiver nenhum balde, ele não retornará nada. Então, para revisar rapidamente o que
fizemos nesta lição, criamos chaves de acesso para
nossos usuários com um cuidado de que geralmente não
queremos
criar chaves de acesso
para o usuário root. Ainda
seja criado para esta demonstração. Mas, desde que você o exclua, isso deve ser bom. E, finalmente, acessamos o S3 para verificar se poderíamos
acessar os recursos da AWS. Isso é tudo para este vídeo.
11. Regiões da AWS e zonas de disponibilidade: Olá alunos, bem-vindos de volta. Neste vídeo, aprenderemos
sobre as regiões da AWS, diferentes
zonas de disponibilidade e a importância das regiões
e dos joules de disponibilidade. Então, vamos começar. Suponha que você queira hospedar
nosso aplicativo da web. Para isso, você precisaria do
seu próprio data-center certo? Agora que você conhece a AWS
e outros serviços de nuvem, não precisa
configurar nosso datacenter e pode hospedar facilmente seu
aplicativo na Nuvem AWS. Mas vamos supor que você ainda esteja usando um datacenter local. Agora, aqui está uma pergunta. E se um desastre
atingir seu datacenter? É uma almofada válida, certo? Tudo pode acontecer. E como você possui e
gerencia o data center, você terá que descobrir o que fará em
uma situação tão extrema. Uma maneira de evitar um desligamento
completo do aplicativo é executando um segundo datacenter em
outro local. Então, quando um cair, o outro estará
lá como um backup. Mas manter
outro datacenter dobrará os custos de hardware
e manutenção. Não se preocupe. Isso
foi apenas um exemplo. Uma AWS tem uma solução melhor
para essa possibilidade, que é a região da AWS. Uma região da AWS não
passa das
localizações geográficas em todo o mundo, somos
datacenters diferentes estão agrupados. Isso significa que a AWS mantém vários datacenters
em um só lugar. De acordo com os padrões da AWS, deve
haver pelo menos dois
datacenters em uma região. E cada datacenter deve
ter eletricidade,
resfriamento, aquecimento, rede
e conectividade redundantes . Mais uma vez, todas
essas regiões estão conectadas por meio da rede backbone
da AWS, que é basicamente uma rede de
alta velocidade. Cada uma dessas regiões tem nomes e códigos
diferentes. Esses nomes são baseados em sua localização
geográfica mundial. geográfica significa localização física
como Mumbai, Tóquio, Frankfurt,
América do Norte, América do Sul, China, África do Sul
e Oriente Médio. Esses são alguns exemplos. Bem, meu AP South. Moon Bay é um
local físico, certo? Então eles chamam de
região unidirecional e ele
chamou o episódio um. O mesmo vale para Cingapura
e outros locais. Cingapura, API
sudeste, um, Sydney, API sudeste para a Cidade do
Cabo, sul. Portanto, quando você tem uma conta da AWS, você pode escolher por
qual motivo deseja implantar
seus serviços da AWS, se você deseja
iniciá-la em Mumbai ou em Tóquio. Isso também depende de
diferentes fatores sobre os quais falarei no
futuro neste vídeo. Então, em palavras simples, você pode dizer que a AWS é um provedor de serviços em nuvem e tem data centers
em todo o mundo. partir de agora, existem 26 regiões geográficas com 84 zonas de disponibilidade
em todo o mundo. E a AWS continua
adicionando novas regiões. Então, quando você estiver
assistindo a esta sessão, esses números podem ter mudado. Assim, você pode ver
o link fornecido
na seção de recursos neste vídeo e verificar o número
mais recente da AWS. Vamos seguir em frente e falar
sobre disponibilidade Jones. Agora, qual é nossa
disponibilidade Jones, é um ou mais datacenters
separados individualmente e
distintos com energia,
rede e conectividade redundantes em uma região da AWS. Em outras palavras, não
passa de um datacenter isolado. Dentro da razão, a única
diferença é que ele tem energia,
rede e conectividade redundantes. Portanto, cada
zona de disponibilidade tem um conjunto de datacenters isolados de
outras zonas de disponibilidade. Então eu acredito que fizemos. Joan não passa de um
grupo de datacenters. E de acordo com o AWS Standard, uma região da AWS deve ter
duas zonas de disponibilidade. Então, tome um exemplo da região
da Moon Bay. Ele tem três zonas de disponibilidade. Como vimos anteriormente. Todas as regiões tinham
algum código específico. Da mesma forma, a disponibilidade
Jones também tem código
correspondente
que consiste em um código de região seguido
pelo alfabeto. Se você se lembra, o código da
região de Mumbai é ap salt um. Agora vamos ver. O código para a zona de
disponibilidade, disponibilidade John one tem
a API de código Sul um. E da mesma forma, a disponibilidade
John code dois é um pedaço out1 e a zona de disponibilidade terceiro
tem o episódio de código um. Veja, espero que fique claro
que o código da região seguido de alfabeto torna
a disponibilidade de junho fria. Então, de longe, sabemos que cada região da AWS tem duas ou
mais disponibilidade Jones, assim como Mumbai tem
três zonas de disponibilidade. North Virginia tem Avenue
de Jones e assim por diante. Agora vamos entender por que essas zonas de disponibilidade
são importantes para nós. Portanto, sabemos que uma região consiste em várias zonas de
disponibilidade. Aqui. Deixe-me dizer que toda disponibilidade em junho
não é um único datacenter, mas consiste em clusters
de data centers. Alguma disponibilidade Jones
pode ter dois datacenters, enquanto outros podem
ter três ou mais. Todas essas
zonas de disponibilidade estão localizadas em algum lugar entre 5200
quilômetros de distância. Voltando à importância
da disponibilidade Jones, suponha que se uma
zona de disponibilidade cair, todo
o cluster de
data centers iria para lá. Mas os datacenters em outras zonas de disponibilidade
continuarão funcionando. E, portanto, você não enfrentará um desligamento completo do seu
aplicativo ou site. A infraestrutura da AWS foi
projetada para garantir a alta disponibilidade
dos aplicativos. E se você pensa, como isso importa para
você, deixe-me dizer-lhe. Suponha que você queira implantar seu aplicativo
na região de Mumbai. E, como você sabe,
uma região de Moon Bay tem três zonas de
disponibilidade diferentes. Então, a primeira coisa que você
faria é lançar um servidor em qualquer um dos Jones
de acordo com sua exigência. Depois que o servidor for iniciado, agora
você pode acessá-lo pela
Internet. Você não
precisa se preocupar com
qual zona de disponibilidade
você iniciou seu servidor, desde que possa
acessá-lo pela Internet. Mas suponha que a zona de
disponibilidade na qual você iniciou seu servidor
fique completamente desativada. Isso significa que
a aplicação também será feita. Mas não é isso. Você não poderá acessar os dados do aplicativo também. Se você não tiver esses dados, não será possível
reviver seu aplicativo. Portanto, para evitar tais situações, AWS tem disponibilidade Jones. Vamos dar uma olhada nas vantagens
da
disponibilidade Jones. O primeiro benefício é a
maior disponibilidade. Ao projetar
seus aplicativos, você se certifica de que colocou todos os servidores e bancos de dados em várias zonas de
disponibilidade. Então, se um cair, você tem outra zona
para cobrir por um segundo. Se você se lembra, falamos
sobre a distância entre duas zonas estando em algum lugar
entre 5200 quilômetros. Agora suponha que você tenha um banco de dados
principal em um John. Nesse caso, você pode ter a réplica desse banco de dados
no Jones secundário. Também é possível ter replicação
síncrona
entre dois bancos de dados. Isso copiará todos os seus dados em ambos os bancos de dados
simultaneamente. Agora, se um John cair, temos outro
para operar normalmente, que é chamado de tolerância a falhas. Observe que este não é
um design padrão da AWS. Você terá que arquitetar
seu aplicativo em várias zonas de disponibilidade para obter alta disponibilidade
e tolerância a falhas. Estudantes, espero que a zona de
disponibilidade esteja clara. Agora, vamos agora dar uma
olhada em uma arquitetura de amostra
na qual
veremos como usamos disponibilidade Jones para tornar nosso aplicativo
altamente disponível. Suponha que, em uma região da AWS, tenhamos duas
zonas de disponibilidade que
chamaremos de zona de disponibilidade um
e zona de disponibilidade dois. A primeira coisa que
faríamos é iniciar um servidor EC2 e o banco de dados correspondente
na zona de disponibilidade um. Da mesma forma, lançaríamos outro servidor web e banco de dados
correspondente
na zona de disponibilidade. Agora, seu aplicativo e
banco de dados estão altamente disponíveis e eles podem
se sustentar se um John cair. Agora, os alunos, em poucas palavras, a região da AWS é a localização
geográfica em todo o mundo e a disponibilidade Joan é o cluster
de data centers. Região particular.
Tudo bem, então agora vamos avançar e entender por que há necessidade de
tantas regiões hoje. Obviamente, ele oferece
a flexibilidade de implantar seu aplicativo
em qualquer região da AWS que seja benéfica para você. Fora isso,
o principal motivo é o acesso de baixa latência
aos aplicativos. Se sua base de usuários estiver nos EUA, implantação do aplicativo
nos EUA só faz sentido. Da mesma forma, se você tiver
sua base de usuários na Índia, escolherá a região
Moon Bay. O segundo motivo é a conformidade
regulatória. Países diferentes
têm regras diferentes para regular os dados. Portanto, ter
várias regiões
lhe dá a liberdade de escolher
o que funciona melhor para você. O terceiro motivo é sustentar
qualquer tipo de desastre. Todas essas regiões da AWS
estão em todo o mundo e a distância mínima entre duas regiões deve
ser de 300 quilômetros, que chamamos de local de
recuperação de desastres. Isso é para garantir que seu aplicativo seja executado
em um dos sites. E o outro lado deve
estar a pelo menos 300 quilômetros distância para garantir que eles não façam parte
dos mesmos sistemas. Portanto, você também pode aproveitar o benefício
de várias regiões. Além dos requisitos de
latência, conformidade
normativa
e recuperação de desastres, há algumas
considerações adicionais que você também
pode observar ao
usar várias regiões. Por exemplo, para o aplicativo
global, as organizações querem oferecer
a melhor experiência de usuário para
seus usuários em todo o mundo. Uma maneira de conseguir
isso é implantando seu aplicativo na região
mais perto de seus públicos. Por exemplo, o
aplicativo baseado nos EUA usará a região de
Mumbai para fornecer ao usuário
indiano uma experiência melhor. O custo é outro benefício do
uso de várias regiões. Como cada país tem
uma economia diferente, a definição de preço do uso da AWS variaria de
país para país. Portanto, você receberá serviços
mais baratos
em alguns países. E como nossa organização, essa é uma ótima
maneira de economizar dinheiro. Em seguida, você tem um raio de explosão
reduzido. Muitas pessoas e
organizações querem que, caso uma
região completa caia, talvez
queiram alavancar outra região como recuperação de
desastres. Muitas vezes, eles também
distribuem suas cargas de trabalho pelas regiões,
caso algo aconteça
em uma região. Outra região está
ativa e é
assim que elas reduzem o
raio de explosão do desastre. Então, alunos, isso era tudo sobre
as regiões da AWS e
disponibilidade Jones garante que você
entenda tudo bem, pois eles são importantes
do ponto de vista da entrevista. Isso é tudo para este vídeo.
12. Locais de borda da AWS: Olá alunos, bem-vindos de volta. No último vídeo, entendemos as regiões da AWS
e as zonas de disponibilidade. Neste vídeo, discutiremos outro aspecto importante da infraestrutura global da
Amazon, que é o ponto de presença. Vamos começar com nossa
compreensão da região
da AWS e como você escolhe uma região
para seu aplicativo? Há muitos fatores por trás da
escolha de uma região da AWS. O principal critério é a proximidade com seus
clientes-alvo. Sempre escolhemos
uma região mais próxima de nossos clientes-alvo. Mas e se você tiver
clientes em todo o mundo? Basta supor que você tenha um aplicativo de
streaming de vídeo no qual os usuários podem publicar o lapso de tempo da paisagem
indiana. Você colsterou
sua aplicação e seus dados no motivo de Mumbai, já que seus clientes
são da Índia. Mas depois de alguns meses, quem viu uma boa quantidade de
tráfego vindo do Japão? partir de agora, você está atendendo todas as solicitações
de clientes japoneses somente da região da Moon Bay. Mas devido à grande distância
entre a Índia e o Japão, seus usuários japoneses podem não ter uma boa experiência de usuário
devido ao problema de baixa latência. Agora você pode implementar
corretamente seu aplicativo no Japão copiando seus dados
em uma região de nuvem no Japão,
Tóquio, no caso da AWS. E é assim que você pode
atender seus clientes lá. Este foi um exemplo de armazenamento em cache. Por definição, jorrar é
o processo de armazenar uma cópia de dados em
nosso local de armazenamento temporário ou em cache. Portanto, ele pode ser acessado
mais rapidamente. Portanto, neste caso, você pode armazenar em cache seus dados
no datacenter de Tóquio e nos
proporcionar uma experiência de usuário suave
para clientes japoneses. Outro conceito que você precisa
entender é a rede de
entrega de conteúdo, comumente conhecida como cdn. Não é nada além de um termo
técnico que usamos para cache a cópia de dados em um datacenter mais próximo
dos clientes. Observe que a CDN não é
um termo específico da AWS. Uma
Rede de Distribuição de Conteúdo ou CDN, conteúdo em
cache,
como imagens, vídeos ou páginas da Web em
servidores proxy que estão localizados mais próximos dos
usuários finais do que os servidores de origem. Novamente, esses servidores proxy
vivem no datacenter, e esses datacenters são
chamados de pontos de presença. Agora você deve estar pensando, qual é a diferença
entre região e ponto
de presença como nossos
datacenters, certo? A diferença de fomento é que os pontos de
presença são datacenters
menores e estão disponíveis em todas as grandes
cidades do mundo. Se você comparar o número
total de pontos de presença é mais de
12 vezes o número de regiões. Portanto, você tem mais
opções para armazenar em cache seus dados e
resolvê-los rapidamente para seus clientes. A segunda diferença é que os
pontos
de presença são separados das regiões e estão
localizados em outros locais. Isso permite que você
envie seu conteúdo de regiões para uma coleção de pontos de presença
em todo o mundo. A diferença é que o
serviço espacial
do host I do ponto de presença da AWS para entregar esse conteúdo mais rapidamente é chamado de
Amazon CloudFront. Enquanto a região da AWS hospeda
quase todos os serviços da AWS. Além do CloudFront. pontos de presença da AWS também executam
nosso serviço de nome de domínio, ou DNS, conhecido como
Amazon Route 53. Cobriremos o Cloudfront e o
Route 53 em módulos posteriores. Tudo bem, há
muito mais do que isso sobre a infraestrutura global da AWS. Mas vamos
simplificar e dar uma olhada rápida nos pontos-chave
sobre a infraestrutura global da AWS. Número um, as regiões são locais isolados
geograficamente onde você pode acessar os serviços da AWS necessários
para executar seu aplicativo. Número dois, as regiões contêm zonas de
disponibilidade
separadas fisicamente. Edifícios com
aquecimento, resfriamento e rede de energia. Availability Jones
ajuda você a resolver alta disponibilidade e
recuperação cenários de
alta disponibilidade e
recuperação de desastres sem nenhum esforço
adicional. Número três, os pontos de
presença da AWS executam o
Amazon CloudFront para ajudar a aproximar o conteúdo seus clientes, não importa
onde eles estejam em estado selvagem. Isso é tudo para este vídeo.
13. O que é identificação e gerenciamento de acesso?: Olá, estudantes. Bem vindo de volta. Você sabe por que seus institutos
educacionais lhe dão a carteira de identidade Porque os cartões de
identificação de um instituto permitem eles controlem quem pode
acessar suas instalações. Sua carteira de identidade serve como prova de que você está estudando
naquela faculdade
e, portanto, você pode usar
suas instalações. Da mesma forma, a AWS tem
um serviço que ajuda as empresas a gerenciar suas
identidades na nuvem. Neste vídeo, aprenderemos conceitos
do serviço
de gerenciamento de identidade e acesso relacionados ao IAM, identificação, autenticação
e autorização. Vamos começar com o que é gerenciamento de
identidade e acesso? gerenciamento de identidade e acesso O gerenciamento de identidade e acesso é uma estrutura que garante que as pessoas certas em
sua organização possam acessar o único serviço de
que precisam para realizar seu trabalho. Lembre-se de que não é uma
boa prática usar sua conta root para tudo o
que você e sua equipe fazem, pois isso pode causar
sérios problemas de segurança. Vamos fazer uma analogia aqui. Suponha que você esteja trabalhando
em uma organização
e, todos os dias,
ao
entrar na entrada principal , precise mostrar sua carteira de identidade
ao segurança ou passe seu cartão de login Dessa forma, sua organização
garante que você seja a pessoa certa para
acessar as instalações da
organização. E é exatamente
assim que o IAM funciona. Ao mostrar sua carteira de identidade, você prova que
é a pessoa certa. Você, como pessoa, é uma identidade. Agora, quando você mostra sua
carteira de identidade para o segurança, ele olha a foto da sua carteira de
identidade e seu rosto e verifica
se ambas coincidem Depois de verificado
com sucesso, você obtém acesso por
todo esse processo. Você, como pessoa, tem acesso
às instalações certas.
Não é isso. Esse cartão de identificação serve
como prova
de acesso a muitos outros serviços e instalações em
sua organização. Por exemplo, algumas pessoas só
podem usar a seção de
contas, enquanto outras só podem usar recursos
humanos e assim por diante. Existe um
sistema bem definido de quem pode usar o quê da mesma forma. Identity and Access Management, ou IAM, em resumo, é um serviço na AWS que garante que a pessoa certa tenha acesso à coisa certa. AWS IAM fornece controle de acesso em todos os
serviços e recursos da AWS. Você pode especificar quem
pode acessar quais serviços e recursos e
sob quais condições. Há também o
conceito de política do IAM, que você pode usar para
gerenciar permissões para sua força de trabalho e sistema para garantir permissões com
privilégios mínimos Se não estiver fazendo
sentido, não se preocupe. Vou abordar tudo isso nos
próximos tópicos. Por enquanto, vamos entender três conceitos importantes de gerenciamento de identidade e acesso, identificação, autorização
e autenticação. Esses três termos
estão intimamente relacionados, mas não são a mesma coisa. Agora vamos entendê-los. Identificação é a capacidade de identificar um usuário de forma exclusiva Significa como uma pessoa ou
sistema pode ser identificado. No último exemplo, você se identifica
com uma carteira de identidade. Certo? E isso
varia de sistema para sistema. Ao entrar em
sua conta bancária, você usa nome de usuário e senha. Você se identifica portal
do banco com seu
nome de usuário e senha. Sua identificação é seu nome de usuário e
senha. A identificação basicamente serve para identificar cada usuário único que está acessando seus serviços
ou instalações. O segundo conceito fala
sobre autenticidade. autenticação é o processo de reconhecer a identidade de um usuário Quando você mostra sua carteira de identidade
ao segurança, ele verifica a
foto da carteira de identidade com o seu rosto Isso é autenticação. Ao acessar
sua conta bancária, você fornece seu
nome de usuário e senha. O sistema de back-end bancário
combina seu nome de usuário e senha com o
nome de usuário e as senhas armazenados em seu sistema O sistema garante que você receba o nome de
usuário e a senha corretos. Se você souber o
nome de usuário e a senha corretos, você é o proprietário
da conta. Se você recebeu
uma identidade única, deve
haver um
sistema para
reconhecê-la toda vez que você usar
sua identidade exclusiva. Esse processo de reconhecimento
da autenticidade
de sua identidade é conhecido como Por fim, a autorização
é o processo de dar permissão
a alguém para ter acesso a algo. Depois de autorizado, você pode entrar nas instalações do
escritório e ir para a área do seu escritório. Mas você não pode ir à cozinha
da cantina porque não
tem permissão ou podemos
dizer que você não está autorizado a acessar a área da cozinha
da cantina de acordo com sua função de
trabalho Agora, vamos entender o gerenciamento de identidade
e acesso em relação à AWS. O gerenciamento de identidade e
acesso da AWS
é um serviço da AWS que ajuda uma organização a
gerenciar o acesso à conta e
aos
serviços da AWS para as pessoas
da organização. Ele fornece controle de acesso
refinado em todos os serviços da AWS granulação fina significa que você
pode especificar quem pode acessar quais serviços e recursos e sob
quais condições Se você quiser que a pessoa acesse
apenas o
serviço AWS EC two e a pessoa Y acesse somente o serviço
S three, isso é completamente possível. Isso será feito
com a política do IAM.
14. Usuários, grupos e funções: Olá, estudantes. Bem vindo de volta. No último vídeo,
entendemos o AWS IAM. Nesta lição,
falaremos sobre
os elementos do IAM, que incluem
grupos de usuários e funções. Vamos começar com os usuários. Um usuário é uma pessoa que utiliza um serviço da AWS em
uma conta da AWS Conforme discutimos
na lição anterior, AWS tem dois tipos de usuários usuário
root e usuário do IAM. O próprio nome do usuário raiz dá uma pista de que esse é
o usuário espacial Ela é criada quando a conta
da AWS foi criada. Quando você cria uma conta da
AWS, a AWS cria uma
identidade ou usuário para você. Esse usuário de identidade é
chamado de usuário raiz da AWS. Esse usuário tem acesso a todos os serviços e
recursos da AWS na conta. Alguns pontos importantes
sobre os usuários root da AWS. Você pode entrar como
usuário root usando o endereço de e-mail e a senha que você usou
para criar a conta. O usuário root tem acesso completo a todos os serviços e
recursos da AWS na conta. Portanto, não é uma boa prática usar o usuário root
para tarefas diárias. Você nunca deve compartilhar as credenciais do usuário
root
com todos Somente poucas pessoas confiáveis devem ter as credenciais
raiz Agora sabemos que não podemos usar o usuário root para
nosso trabalho diário. É aí que o usuário do IAM
entra em cena. O usuário Iam é uma entidade
que você, usuário root, cria em uma
conta da AWS para representar o usuário que interage com os recursos
da AWS em sua conta Agora vamos entender
isso com um exemplo. Digamos que você seja
o líder da equipe em uma organização e
tenha uma conta da AWS. Você tem dois desenvolvedores, Ram Sham e dois
administradores, Ta e Geta Em sua equipe, sua equipe precisa
acessar uma conta da AWS para hospedar um aplicativo porque você não quer dar a eles
acesso à sua conta raiz. Você pode criar usuários do IAM
para os membros da sua equipe e fornecer a eles
o acesso aos serviços
necessários para o trabalho. Aqui, cada membro da equipe
representa um usuário do IAM, pois cada membro da equipe precisa interagir com uma
conta da AWS para realizar seu trabalho. Você criará quatro usuários do IAM
para Ram Shamtha e Geta. Ok, agora entendemos
o usuário de mensagens instantâneas. Vamos ver como o usuário
do IAM funciona e como atribuímos permissões
a diferentes usuários do IAM. Quando você cria um usuário, o usuário tem um
nome de usuário, senha e chaves de acesso
que você compartilha com as respectivas pessoas para
acessar a conta da AWS. nome de usuário e a senha
serão usados para acessar console de gerenciamento
da AWS e chave de
acesso para
acesso programático com o AWS CLI Cada usuário foi adicionado
a uma única conta da AWS Cada usuário tem suas
próprias credenciais para acessar a conta da AWS Agora, a questão importante é: que tipo de
recursos da AWS eles podem usar? Bem, nenhum novo usuário do IAM tem nenhuma
permissão padrão para acessar seus recursos da AWS para fornecer aos usuários do IAM a permissão
necessária para conceder a eles as permissões
necessárias. Você pode fazer isso adicionando
políticas do IAM a cada usuário do IAM. A política do Iam define as
permissões que são concedidas a qualquer usuário que interaja
com uma conta da AWS Vamos abordar a
política de IAM no próximo tópico. Resumindo, você
cria usuários do IAM, anexa políticas para
conceder permissões e o usuário pode usar essas credenciais para
acessar esses Um ponto importante a ser observado
aqui é que o usuário do
IAM não precisa
representar uma pessoa real. Pode ser um aplicativo. Além disso, digamos que você tenha um aplicativo no frame que precisa acessar um serviço da AWS. Você pode configurar a chave de
acesso dentro do aplicativo para
acessar os serviços da AWS. Esse é outro caso de
uso importante da chave de acesso. Ok, vamos agora
entender o grupo IAM. Um grupo do IAM é uma coleção de usuários e permissões
atribuídos a esses usuários. Vamos voltar ao
mesmo exemplo. Em sua equipe, você tem dois desenvolvedores Sham e dois
administradores, Ta e Gier Certo? Ambos os desenvolvedores farão e acessarão
os mesmos serviços da AWS. E o mesmo vale para os dois
administradores. Em vez de atribuir permissões
a usuários individuais, você
também pode agrupá-los e atribuir permissões
a esse grupo de uma só vez No nosso caso, você pode
criar dois grupos. Um grupo para desenvolvedores e
um grupo para administradores. O Iam Group fornece
uma maneira fácil gerenciar permissões para usuários acordo com suas funções de
trabalho. Ao criar um usuário, você atribui uma política
ao usuário individual. Mas, no caso de um grupo, você adiciona uma política
ao grupo e a permissão será aplicada a
todos os usuários desse grupo. Vamos usar outro bom caso de
uso para o grupo IAM. Como você sabe, qualquer usuário em
um grupo de usuários específico tem
automaticamente
as permissões atribuídas
ao grupo de usuários. Se um novo usuário ingressar sua organização e precisar de privilégios de
administrador, você poderá atribuir as permissões
apropriadas
simplesmente adicionando o novo usuário a esse grupo de
usuários administradores Da mesma forma, se um funcionário
existente estiver migrando para um novo projeto, em uma nova função na
mesma organização, vez de editar a permissão desse
usuário, você poderá removê-lo
do grupo de usuários antigo e adicioná-lo aos
novos grupos de usuários apropriados. O grupo de mensagens instantâneas é uma forma de anexar políticas a vários
usuários ao mesmo tempo. Quando você anexa uma política
baseada em identidade a um grupo de usuários, todos os usuários
do grupo recebem a permissão,
o grupo de usuários. Agora, vamos entender o papel do IAM. Uma função do IAM é uma
identidade do IAM que você pode criar em sua conta
com permissões específicas. Uma função do IAM é semelhante a
um usuário do IAM vinculado à política
do IAM
que determina o que uma função pode ou
não fazer na AWS. Agora você deve estar pensando: qual é a diferença
entre a função do IAM e o usuário? Certo, deixe-me explicar para você. Um usuário do IAM é uma
pessoa única que tem nome de usuário, senha e chave de acesso com as permissões
anexadas a ele. No entanto, a função do IAM não tem um nome de usuário,
senha ou chave de acesso. A função do IAM não pode ser vinculada
diretamente a uma
pessoa ou a um serviço. Em vez disso, ele pode ser assumido por uma pessoa ou recurso
para uma sessão definida O que isso significa? Deixe-me explicar com este exemplo de imagem. Digamos que você tenha
um aplicativo em
execução em uma instância EC two. E uma instância EC two precisa acessar uma
imagem do S three. Nesse caso, o EC two assume a função e,
com base na política, acessará a
imagem do S three. Como mencionei, as funções não têm chaves de
acesso ou credenciais
associadas a elas. As credenciais são temporárias e atribuídas de forma anímica Aws fornece
as credenciais temporárias para que
a função conclua a
tarefa quando necessário Isso é tudo para este vídeo.
15. Criando um usuário e grupo no IAM: Ajude os estudantes. Bem-vindo de volta. Nesta lição,
criaremos usuários e grupos do IAM. Ao final deste laboratório, você poderá
criar essas entidades do IAM e navegar confortavelmente
pelo console do AWS IAM Vamos começar. Aqui estamos na página inicial do
console da AWS. Vamos navegar até o IAM usando a opção de pesquisa na
parte superior do console da AWS. Como você pode ver, você pode usar a
barra de navegação esquerda para navegar em grupos de usuários, políticas ,
funções e identidades fornecidas
para o escopo deste laboratório Trabalharemos somente com
grupos de usuários e suas políticas. Vamos começar criando
dois usuários, Ram e Sham. Em nosso exemplo, Ram é desenvolvedor e Sham é
administrador da AWS. Você pode navegar até
a página do usuário
clicando nas opções do usuário no painel do IAM. Esta é a
página do usuário onde você
verá todos os usuários criados
para sua conta. Agora, vamos criar
nosso primeiro usuário da AWS clicando no botão
Ad users. Começamos fornecendo um
nome de usuário ao seu usuário. Vamos chamar esse usuário de Ram. Ao criar mais de um
usuário nas mesmas propriedades, você pode simplesmente adicionar
outro nome de usuário
clicando no botão Adicionar
outro usuário. No entanto, neste exemplo, faremos isso um por um. A próxima opção que vemos é
o tipo de credencial da AWS. Você deve selecionar Cess, Key Programmatic access para permitir que esse usuário
possa acessar os comandos
da AWS CLI ou usar o
AWS SDK e Não precisamos disso
para nosso exemplo. Somente selecionaremos senha de acesso ao AWS Management
Console, o que permitirá que o
usuário Ram acesse
a AWS por meio da seleção
do console de gerenciamento. Isso nos dá mais algumas opções. Você pode fazer com que a AWS crie uma
senha gerada automaticamente ou você pode adicionar manualmente uma
senha simples para esse usuário. No nosso exemplo, permitiremos que AWS nos forneça uma senha
gerada automaticamente. A próxima opção é
exigir redefinição de senha. Você deve marcar
essa caixa se quiser que o usuário redefina
a senha ao acessar o console
pela primeira vez. Vamos desmarcar esta demonstração, clique em Próximas permissões Aqui temos três opções. Você pode adicionar usuários
a um grupo de usuários. Você pode copiar as permissões de um usuário existente que você
já tem em sua conta ou pode anexar
políticas diretamente. Não temos usuários ou
grupos de usuários em nossa conta, não
temos opções. Mas se você clicar
na terceira opção, anexar
políticas existentes diretamente, verá uma
lista completa de políticas mesmo que nunca tenha criado
uma política em sua conta. Essas são as políticas
gerenciadas pela AWS. Isso significa que essas
políticas são gerenciadas pela AWS e que, se alguma
alteração for necessária, ela será feita pela AWS. Eles são muito úteis para aplicativos
simples em que
você não deseja criar e manter suas próprias políticas
e deixar que a A's cuide de
tudo isso para você. Podemos selecionar uma política
aqui, como Amazon S Three, Read Only Access, e dar
essa permissão ao nosso usuário. Vamos primeiro criar um
usuário sem permissões. Clique em Próximas tags. Aqui podemos adicionar
tags aos nossos usuários. Vamos adicionar uma
tag de exemplo, Department Finance. Em seguida, clique em Avançar, que abrirá
a página de revisão, onde você verá os
detalhes finais sobre seu usuário. Clique em Criar usuário. Isso nos leva à
etapa final da criação de um usuário da AWS. Aqui podemos ver que o
usuário Ram foi criado. Você pode até mesmo ver a
senha desse usuário. Clique em Baixar CSV,
que baixará um arquivo CSV com as
credenciais do usuário para É importante saber
que você deve salvar essas credenciais em algum lugar
depois de criar o usuário Se você sair
desta página, não
poderá mais
obter as credenciais novamente. Clique em fechar, podemos ver que nosso usuário Ram foi adicionado
à página do usuário. Vamos criar outro usuário, Sam. Seguimos o mesmo processo. Adicione o nome de usuário Sham. Permita o acesso à AWS por meio do console. Deixe todos os valores como padrão, exceto exigir redefinição de
senha. E clique em Avançar, não
adicionaremos nenhuma permissão. Clique em Avançar,
adicionaremos a tag de amostra, mesma forma que fizemos com as finanças do
departamento de usuários. Clique em Avançar e clique em Criar um usuário Baixe o CSB
para salvar as credenciais Observe novamente que
você não poderá
obter credenciais depois de
fechar Agora que
criamos nossos dois usuários, Ram e Sham, vamos
criar nosso grupo de usuários. Clique em Grupos de usuários
e, em seguida, clique em Criar grupo para criar
nosso primeiro grupo de usuários, adicione o nome desenvolvedores. Podemos adicionar usuários a esse
grupo na tabela abaixo. Vamos adicionar Ram, que é
desenvolvedor, a esse grupo. A próxima etapa é adicionar
políticas a esse grupo. Queremos que nossos desenvolvedores possam
acessar totalmente C dois e S três. Portanto, verificaremos o acesso total ao Amazon C
dois e o acesso total ao Amazon S três
na tabela de políticas aqui
e clicaremos em Criar grupo. Agora temos um
grupo de desenvolvedores que tem apenas um. Vamos criar também um grupo de
administradores. Clique em Criar grupo, insira o
grupo e nomeie Administradores. Desta vez, não adicionaremos farsa a esse grupo no momento. Vamos criar um grupo
sem usuários. Vamos agora anexar
políticas a esse grupo. Anexaremos a política de acesso
do administrador. Clique em Criar grupo e podemos ver que nosso
grupo foi criado. Mas o
grupo de administradores
não tem nenhum usuário no momento Agora vamos adicionar Sham a isso. Acesse a página do usuário. Tem os
usuários Ram e Sham. Clique em Sham, você pode ver que esse usuário não
tem nenhuma permissão. Passe das permissões para
os grupos de esfaqueamento de grupos. Isso fornecerá uma
lista de grupos de usuários. Vamos adicionar Sham ao seu grupo de
administradores aqui. Agora, se você voltar para
a guia de permissões, verá que a
permissão foi
adicionada a essa simulação de usuário e agora tem a política de
acesso do administrador anexada do grupo de
administradores Criamos dois grupos com
acesso à AWS. Esses usuários atribuíram políticas gerenciadas pela
AWS. Isso é tudo que eu queria
cobrir nesta estação.
16. Entre com usuário do IAM e crie função: Olá estudantes. Bem vindo de volta. Nesta lição,
faremos login com usuário
do IAM no
console da AWS e criaremos uma função. Suponho que você tenha
concluído a última demonstração e tenha um usuário chamado
Sham e sua senha. Vamos começar. Vamos primeiro fazer login como administrador Sham e
usá-lo para criar uma função. Agora vamos abrir o arquivo CSV que você baixou ao
criar o user sham Aqui você vê que
contém nome de usuário,
senha, ID da chave de acesso, ID da chave
secreta e
link de login do console , pois não selecionamos o acesso
programático É por isso que o acesso
e a chave secreta estão vazios. Vamos copiar o
link de login do console e abri-lo no navegador. Aqui você vê que o
alias da conta já está preenchido, e isso é algo que
criamos em outra demonstração Você também pode usar o ID da conta. Caso você se lembre, adicione seu nome de usuário e
senha conforme mostrado no CSV Isso nos levará
ao console da AWS. Agora podemos ver o
console da AWS como antes, mas se você ver o
canto superior direito da tela, verá que estamos
logados como uma farsa de usuário Navegue até o console do IAM. Novamente, clique na opção
Funções no painel esquerdo e clique no botão Criar função. A primeira opção que temos é selecionar
a entidade confiável. Isso significa que devemos selecionar para
que serve essa função. Quem ou qual serviço
vai usar essa função. A primeira opção é
o serviço da AWS. Você deve escolher quando
deseja atribuir essa função aos serviços
da AWS, como EC
Two Lambda ou ECS Que é o que faremos aqui. A próxima é a conta da AWS. Isso é usado para
criar uma função que pode ser acessada de
outras contas da AWS. Se você quiser que alguém possa
fazer login de outra conta na
sua, escolha essa opção. A próxima opção é a entidade B. É quando você deseja que
os usuários possam assumir essa função e acessar o console da AWS por meio de uma entidade B, como
o login do Google no Facebook. A próxima opção é
SAML 2.0 Federation. Saml é um
serviço de manutenção de usuários usado por grandes organizações para permitir que seus funcionários acessem diferentes serviços
nas organizações Isso pode ser integrado à AWS para dar acesso
ao console da AWS. A opção final que temos
é uma política de confiança personalizada. Você pode usar isso para definir
uma política de confiança do Jason. Não se preocupe se as três
últimas opções não
fizerem sentido para você. As duas primeiras opções são
importantes para este curso. Escolha o serviço da AWS
e selecione EC Two. A partir das opções abaixo, criaremos uma função que pode ser anexada a uma instância
EC two. Clique em Avançar, aqui podemos ver a lista de políticas que
podemos anexar a essa função. Anexe a política de acesso
total do Amazon S Three. E clique em Avançar,
insira o nome da função. Você vê uma descrição já preenchida com uma mensagem
significativa. Permita que duas instâncias da EC chamem os serviços da AWS em seu nome. Revise a função e
clique em Criar função. Isso levará alguns segundos. Agora você pode ver a função que você
criou na página de funções. Usaremos essa
função nas próximas demonstrações. Estudantes e usuários do IAM são os melhores para dar acesso
à sua conta da AWS, mesmo que você deva usá-la. Eu recomendarei
criar um usuário do IAM para você mesmo com permissão de
administrador e uso a partir de agora. E também certifique-se de habilitar a
MFA para usuários do IAM. Acredito que você já excluiu seu acesso de usuário root
e sua chave secreta, que criamos
na última demonstração. Nesse estágio, você
sabe que também pode criar uma
chave secreta e de acesso para seu IAM. Você pode encontrar o link
na seção de recursos. Isso é tudo para esta sessão.
17. Políticas do IAM: Bem-vindos de volta, estudantes. A última sessão foi sobre usuários, grupos e funções do
IAM. Também discutimos brevemente as políticas
do IAM para
conceder permissões, mas isso não é suficiente. Compreender
as políticas é fundamental para trabalhar com eficácia com o IAM. Nesta lição, falaremos sobre as políticas do IAM em detalhes, incluindo suas
definições e tipos. Vamos começar.
Deixe-me te fazer uma pergunta. O que vem à sua mente quando
você ouve a palavra política? Se você pensou em regras
ou diretrizes. Entendi bem. A política do Iam é mais ou
menos a mesma coisa. Na sessão anterior, você deve ter
notado que concedemos certas permissões
aos grupos de usuários e funções que criamos. Somente então eles poderiam realizar as ações de acordo com as
permissões concedidas. Essas permissões nada mais
são do que políticas sobre as quais
falaremos nesta sessão. Por definição, a
política do IAM é uma entidade que, quando anexada a qualquer identidade ou recurso, define
suas permissões. Como eu disse anteriormente, as políticas contêm
permissões que
determinam se uma solicitação
é permitida ou negada. Isso significa que qualquer ação
executada por uma identidade, a permissão é
dada por sua política. Você pode usar a
política do IAM quando precisar definir as permissões para
uma identidade no IAM. Agora vamos entender isso
com o mesmo exemplo. Você tem uma equipe de
dois desenvolvedores, Ram e Sham, e dois
administradores, Ta e Geta Você criou dois grupos, desenvolvedores e grupo de
administradores. De acordo com a função
e a permissão
do trabalho, os desenvolvedores em
sua organização podem iniciar e interromper a instância EC two e
os administradores podem criar e excluir
a instância EC two C two nada mais é do que um serviço
de computação na AWS. Falaremos sobre isso
nos próximos módulos. Você criará duas políticas. Uma política para os
desenvolvedores que
permitirá listar, iniciar e
interromper duas instâncias C. Outra política para
administradores que lhes
permitiria criar e
excluir duas instâncias EC Você anexará essas políticas
aos respectivos grupos. O que aconteceria aqui
é que a política
seria aplicada adequadamente a
todos nesses grupos. Isso significa que tanto Ram
quanto Sham terão permissões como desenvolvedores e Ta e Geta como administradores Portanto, neste exemplo, ao anexar
a política do desenvolvedor ao grupo de desenvolvedores, estamos permitindo que os
membros do grupo
realizem ações específicas
e nada mais do que isso Agora sabemos como as políticas funcionam. Vamos entender os diferentes
tipos de políticas do IAM. Se voltarmos à definição da
política novamente, política
do IAM é uma entidade que, quando anexada a qualquer identidade ou recurso, define
suas permissões. De acordo com a definição, uma política pode ser anexada a identidades
ou recursos Como você já sabe,
identidade
nada mais é do que grupos e funções de usuários do IAM. O recurso significa serviços da AWS como C two instance S
three bucket lambda, que
abordaremos em módulos posteriores Com base nas duas maneiras pelas quais uma
política pode ser anexada. É de dois tipos: política baseada em
identidade e política baseada em
recursos. Agora vamos entender
os dois um por um. As
políticas baseadas em identidade são anexadas a uma identidade que é IAM, grupo de
usuários e função. Essas políticas controlam quais
ações e identidades podem ser executadas em quais recursos
e sob quais condições. Observe que essas
políticas são específicas do usuário, o que permite que o usuário acesse os recursos da AWS em
suas próprias contas. Um grupo
ou função de usuário do IAM pode ter várias políticas que, juntas representam as permissões
desse usuário específico. Por exemplo, você pode anexar a política ao usuário do IAM chamado Ram, declarando que
ele tem permissão para
realizar a ação de duas instâncias de
execução do Amazon C. Você também pode afirmar
que Ram tem permissão para obter itens de um bucket
Amazon S three. Meu bucket, combinando
as duas permissões, Ram só pode iniciar
duas instâncias C e acessar. Meu balde. O outro tipo
é a política baseada em recursos. Essas políticas são anexadas
a um recurso da AWS, como um Amazon C, duas instâncias S, três bucket, etc Essas políticas
controlam qual ação um serviço ou
identidade específica da AWS pode realizar em outros recursos e
sob quais condições. Vamos entender
com um exemplo. Às vezes,
haverá cenários em que a instância de
duas instâncias do EC gostaria de
acessar o bucket S three. Você também precisa
anexar a política à instância C dois e dar a permissão necessária
para acessar o S três. Além disso,
as políticas baseadas em identidade são de dois tipos políticas
gerenciadas e políticas
em linha A política gerenciada é
ainda classificada em AWS, política
gerenciada e política gerenciada pelo
cliente. Agora vamos
examiná-los um por um. As políticas gerenciadas da AWS são
políticas criadas
e gerenciadas pela AWS. Como o nome sugere, você deixaria claro que
essa política foi criada e gerenciada pela AWS e você
não pode fazer nenhuma alteração. Por exemplo, Amazon S Three Read Only Access ou
S Three Full Access. Essencialmente, eles são projetados
para se alinharem estreitamente às funções de trabalho
comumente usadas no
setor de TI como administrador,
desenvolvedor ou leitor Você pode conceder a S três permissão de
acesso total
ao administrador e S três acesso somente de leitura
ao auditor O objetivo é facilitar
a concessão permissões para essas funções de trabalho
padrão As políticas gerenciadas da AWS
não podem ser alteradas e AWS gerenciará e atualizará
as políticas conforme necessário. As políticas gerenciadas pelo cliente são criadas e
gerenciadas pelo cliente. Basicamente, como cliente, você pode criar e
gerenciar essas políticas. Se você quiser uma política totalmente
controlada que possa ser mantida, você pode usar uma política
gerenciada pelo cliente, que você cria e gerencia
em sua conta da AWS. Ela fornece um controle mais preciso sobre suas políticas do que a política gerenciada pela
AWS. Outra vantagem da política gerenciada pelo
cliente é que você pode se conectar a várias entidades
em sua conta, facilitando muito a escalabilidade. Por exemplo, você tem quatro usuários leitores
em sua conta para uma equipe diferente, todos precisando do mesmo tipo de Amazon
C para acesso somente de leitura. Você pode criar uma política gerenciada pelo
cliente e anexá-la aos quatro usuários. Se precisar
alterar essa política, você pode alterá-la em uma
política que se aplica a tudo o que ela fornece: gerenciamento de
mudanças integrado e centralizado Para essas políticas gerenciadas, você tem controle total
e pode gerenciar as permissões em qualquer nível
que achar necessário. A próxima e última é a política em linha. A política embutida é diretamente
vinculada ao usuário ou grupo. Ele mantém um relacionamento estreito de um para um com a
política e a identidade. Isso significa que uma política em linha é anexada a uma única entidade Geralmente, ele é criado
quando você cria uma identidade e excluído quando
você exclui a identidade. É benéfico
quando você precisa
dar permissão a um usuário ou grupo
temporário. Você cria uma política em linha ao criar um usuário ou grupo E quando você excluir o usuário, a política também será excluída. Tudo bem, isso é
basicamente sobre as políticas. Vamos resumir rapidamente o que
aprendemos nesta sessão. Uma política é basicamente uma
permissão que decide qual ação deve ser
tomada nas contas da AWS. E aprendemos sobre os diferentes
tipos de políticas do IAM, que são políticas
baseadas em identidade
e políticas baseadas em recursos. As políticas baseadas em identidade são ainda divididas em dois tipos políticas
gerenciadas e políticas
em linha As políticas gerenciadas podem ser gerenciadas pela
AWS ou gerenciadas pelo cliente.
18. Práticas recomendadas pelo IAM: Olá, estudantes. Bem-vindo de volta. Neste vídeo, aprenderemos algumas das melhores práticas do IAM para garantir a segurança
de nossas contas da AWS. Vamos começar. A primeira prática recomendada do IAM é evitar o compartilhamento de credenciais de
login Em vez de compartilhar as credenciais do usuário
root com diferentes usuários
em sua organização Você deve criar usuários do IAM para indivíduos que usarão
seus recursos da AWS. Vamos entender isso
com um exemplo. Suponha que você tenha dois desenvolvedores e dois administradores
em sua equipe O que as pessoas às vezes
fazem é criar um usuário de IM e compartilhar as credenciais
do usuário com
todas essas quatro pessoas Mas não é uma boa prática. Em vez disso, devemos criar quatro
usuários diferentes de acordo com as funções desses membros da equipe e compartilhar as
credenciais do usuário com eles. O objetivo aqui é que
cada usuário tenha suas próprias credenciais do IAM
para acessar sua conta Não importa se eles estão acessando
a conta por meio do console
de gerenciamento ou
usando o AWS CLI ou qualquer SDK A próxima melhor prática
é criar grupos. É sempre recomendável
criar grupos e atribuir somente as
permissões necessárias a esses grupos. Isso significa que, se houver vários usuários em
sua organização com a mesma função de trabalho, em vez de
atribuir permissões a usuários individuais, você poderá criar um grupo, atribuir uma permissão
a esse grupo e adicionar todos os usuários que tenham a mesma
função de trabalho no grupo Cada usuário assumirá
essas permissões. Vamos entender isso
com o mesmo exemplo. Suponha que você tenha dois desenvolvedores e dois administradores
na equipe Em vez de dar permissões a esses quatro usuários individuais, você deve criar dois grupos. Um para os administradores e outro para os desenvolvedores, e adicione as
permissões necessárias a esses grupos Agora você pode adicionar usuários aos
seus respectivos grupos. Os usuários assumirão
automaticamente as permissões atribuídas aos
seus respectivos grupos. Essa prática
ajudará você a gerenciar as permissões no nível
do grupo em vez do rótulo do usuário. Vamos passar para a próxima melhor prática, que
é a permissão. Aws recomenda que sempre criemos permissões para o que o usuário precisa, de acordo com sua função. Essas permissões são conhecidas como permissões de privilégio mínimo Por exemplo, se o trabalho de um usuário é iniciar e interromper as duas instâncias do
EC
, em vez de dar acesso
total ao EC dois, devemos
dar permissão apenas para iniciar e interromper a instância do
EC dois. Devemos sempre criar permissões e
políticas de privilégios
mínimos ao
criar a permissão Agora, a partir de agora, mais
uma
prática recomendada é a auditoria. Aws diz que
devemos sempre habilitar o rastreamento da
nuvem em cada
conta da AWS. Se você não conhece o Cloud Trail, é um serviço
da AWS gratuito,
exceto para armazenamento. Sempre que um usuário interage
com sua conta da AWS, Cloud Trail registrará
todas as atividades que eventualmente ajudarão você durante a auditoria Aprenderemos o Cloud Trail em detalhes no módulo de gerenciamento
e segurança da AWS. Vamos entender
com um exemplo. Digamos que um usuário tenha feito login na
sua conta da AWS, criado uma instância EC two
e depois a encerrou O AWS Cloudtrail registrará
todas as três atividades. Dessa forma, você
terá um registro de todas as atividades que os usuários estão realizando
em sua conta. A próxima prática recomendada
na lista é adicionar políticas de
senha. Aws diz que você deve sempre configurar políticas de
senha, que fizemos
no vídeo anterior. As políticas de senha garantem que cada usuário tenha uma senha
forte. A próxima melhor prática é a MFA, a autenticação multifator Você deve sempre habilitar autenticação
multifator
para usuários privilegiados. Eu recomendaria que você
aplicasse a MFA para cada usuário. Você pode criar uma política e anexá-la
a todos os grupos. Agora, sempre que qualquer usuário
fizer login em uma conta da AWS, precisará autenticar
sua identidade duas vezes Só então eles poderão
fazer qualquer coisa em sua conta. Essa é uma
prática muito boa para garantir que sua conta e seus
recursos da AWS estejam seguros. A próxima prática recomendada é alternar as credenciais de login Todos que acessam
sua conta da AWS precisam alterar suas
credenciais de usuário de vez em quando Você pode até mesmo aplicar
essa política aos usuários de que eles terão que
alternar suas credenciais a
cada dois meses, três meses
ou seis meses Essa é uma parte da sua política de
senhas dentro da
sua conta da AWS que
vimos na demonstração anterior. De acordo com essa política, o usuário
não precisará apenas alternar
suas senhas, mas também as chaves
secretas e de acesso Por último, mas não menos importante, é o usuário root. Você não deve usar o
usuário root para suas
atividades diárias , pois isso pode expor
suas credenciais de usuário root Além disso, você
também deve limitar o acesso
do usuário raiz assim que
tiver uma conta da AWS, armazenar as
credenciais do usuário raiz em algum lugar privado e criar um usuário do IAM,
mesmo para você Estudantes, espero
que agora entendam que a segurança da conta
é um problema real e que devem empregar
essas práticas para proteger sua conta
de qualquer possível ameaça Isso é tudo para este vídeo.
19. Visão geral do Amazon S3: Bem vindo de volta. Neste vídeo, aprenderemos sobre um
dos principais serviços da AWS, o Simple Storage Service, conhecido como S three. Começaremos com
a visão geral do S three. Entenda o
balde S three e também a pasta. Vamos começar com o que S3s3 significa Simple
Storage Service Como você pode ver os
primeiros caracteres do Simple Storage Service RS, por isso
que ele é chamado de S three. Ele permite que você armazene, recupere o acesso e faça
backup de qualquer quantidade de dados a qualquer momento, de
qualquer lugar na Internet S Three é uma solução
de armazenamento perfeita para armazenar grandes
quantidades de dados. Por exemplo,
arquivos de áudio, filmes, armazenamento de fotos em
grande escala, grandes conjuntos de dados, etc. Podemos acessar o S Three a
partir do console de gerenciamento, AWS CLI ou do AWS SDK Agora vamos falar sobre como
armazenamos dados no S três. Para armazenar quaisquer dados
dentro do S three, precisamos criar um bucket
dentro de uma conta da AWS. Um bucket S three é
um contêiner lógico no qual os dados
são armazenados dentro do S three. Para armazenar quaisquer dados no S três, precisamos criar um bucket. Também podemos criar vários
compartimentos para organizar nossos dados. O bucket é identificado
por seu nome e deve ser globalmente exclusivo em
todas as regiões e contas. Por exemplo, se eu criar um
bucket e chamá-lo de meu bucket, ninguém mais poderá
usá-lo em nenhuma conta da AWS. Em outras palavras, depois que um bucket S
three é criado, nenhuma outra conta da AWS pode criar o bucket S three
com um nome semelhante. S three bucket simplesmente funciona como um armazenamento no qual podemos armazenar dados
ilimitados
diretamente dentro do bucket ou criar uma pasta e depois colocar os dados
nessa pasta. Agora vamos entender
o que é uma pasta. As pastas são usadas para agrupar
e organizar arquivos. Diferentemente de um sistema de
arquivos tradicional, Amazon S three não usa hierarquia para
organizar seus arquivos Por uma questão de simplicidade
organizacional, o
console Amazon S three suporta o conceito de pasta como
meio de agrupar dados Você pode ter várias pastas ou arquivos em um único bucket. Basicamente, a pasta é um
namespace dentro do bucket. Vamos entender
com um exemplo. Dentro da conta da AWS, temos o serviço S three. Nesse serviço, podemos criar buckets conforme
aprendemos até agora Dentro desse bucket,
podemos armazenar nossos arquivos, imagens, vídeos ou dados. Além disso, se
quisermos organizar nossos dados, podemos criar pastas dentro do bucket e também
pastas dentro de pastas. Então, também podemos armazenar nossos dados
dentro dessas pastas. Fará mais sentido quando fizermos a demonstração
na próxima lição. Outro conceito importante
em S três é objeto. Quando armazenamos quaisquer dados que
possam ser arquivos, documentos, imagens, vídeos etc., eles são conhecidos como
objetos na AWS Portanto, o objeto
nada mais é do que seu documento de arquivo, imagem, vídeo etc Qualquer coisa armazenada no seu
disco rígido é conhecida como arquivo. Mas quando você carrega
esse arquivo no S three, ele será conhecido como um objeto. E o bucket no S três é semelhante ao diretório de arquivos
no seu disco rígido. Agora falaremos sobre as características dos objetos
que você precisa conhecer. O tamanho máximo de um
único objeto que você pode carregar para S três
é de 5 terabytes Observe que
cinco terabytes
não é o tamanho total dos
dados que você pode carregar Em vez disso, é o tamanho
máximo de um único arquivo que o S three
permite que você envie. Mas isso não
significa que você não possa fazer upload de objetos maiores
que 5 terabytes Se você tiver um objeto
maior que 5 terabytes, precisará dividi-lo
em várias partes e usar algo chamado upload
de várias partes
para carregá-las O tamanho máximo do objeto
é de 5 terabytes, mas você deve usar um upload de
várias partes assim que
fizer o upload de um objeto com mais de 5
terabytes Outra característica
é a piora do objeto. Nada mais é do que manter
várias variantes
do mesmo objeto quando estamos
fazendo algumas alterações nele. No S três, você pode criar objetos
para protegê-los de qualquer ação não intencional ou até mesmo da exclusão
acidental de Isso significa que você sempre mantém as
versões anteriores de um objeto. A próxima característica
é a classe de armazenamento. Você pode criar vários
buckets e
armazená-los em diferentes
classes ou níveis de dados As classes são
níveis diferentes de armazenamento com custos
diferentes com base na frequência com que você
usa seus dados. Você pode escolher uma classe se
não usar muito seus dados, você pode escolher uma classe mais barata e deixar seus dados
lá e assim por diante. Falaremos sobre isso em
detalhes no futuro. Por último, mas não menos importante, você pode criar
permissões para limitar quem pode acessar
ou ver seus objetos. Uma das políticas mais comuns
na política de bucket é
uma política baseada em recursos
que você pode usar para conceder permissões para seu
bucket e seus objetos. Nesta sessão, analisamos três objetos
da
pasta de bucket S e suas características.
20. Disponibilidade, durabilidade e replicação de dados do S3: Olá estudantes. Bem-vindo de volta. Neste vídeo, entenderemos três conceitos importantes,
que são disponibilidade, durabilidade e replicação de dados que serão muito usados
na próxima sessão Ao entender as
diferentes classes de armazenamento, vamos começar
com a disponibilidade. Refere-se ao tempo de atividade do sistema. Isso significa simplesmente que por quanto tempo o sistema
está disponível. Em outras palavras, é o
momento em que o sistema está operacional e é capaz de
fornecer dados mediante solicitação. Medimos essa
disponibilidade em porcentagem. Isso também é conhecido como SLA, que significa Acordo de
Nível de Serviço É basicamente uma promessa
que os provedores de serviços têm com seus clientes quanto à disponibilidade de seus
serviços ou sistemas. Se eles cumprirem sua promessa e os clientes
receberem tudo dentro do prazo prometido, isso significa que o SLA está concluído Vamos dar um exemplo. Os supermercados dizem que
estão abertos 24 horas por dia, 7 dias por semana. Isso significa que está disponível
24 horas por dia para você. Se eles cumprirem sua promessa e estiverem abertos durante todo
o dia, semana, mês e ano,
podemos dizer que sua disponibilidade é de 100%
e eles cumprem o SLA O próximo conceito é durabilidade. Refere-se à proteção de dados a longo
prazo. Isso significa simplesmente o quão
bem seus dados estão protegidos contra qualquer possível
perda ou corrupção. Além da disponibilidade, seus dados não devem
ser perdidos ou corrompidos se você os armazenar em um
dispositivo de armazenamento por muito tempo. A durabilidade também é
medida em porcentagem. Vamos entender isso
com um exemplo. Suponha que você tenha armazenado 1.000 kg de batata em câmaras
frigoríficas por seis meses. Quando você os recuperou
, eram apenas 800 kg Isso significa que 200 kg de batatas estavam podres ou
comidas por ratos Isso significa que o
serviço de armazenamento a frio não era durável. Da próxima vez que você se certificar armazenar as batatas em um depósito refrigerado bem
equipado, não
haverá perdas. Isso é chamado de durabilidade. Agora entendemos o que são durabilidade
e disponibilidade de dados. Também é importante saber como os dados são armazenados no S três. É baseado em um conceito
chamado replicação de dados. Vamos entender isso. Se você se lembra
do último laboratório, criamos
um bucket S three na região
de Mumbai
e enviamos uma imagem Quando você carrega qualquer
dado em seu bucket, esses dados vão para uma
das zonas de disponibilidade na região. No nosso caso, criamos um
bucket na região de Mumbai. Nossa imagem foi carregada em uma
das zonas de disponibilidade. Mas, para proteger nossos dados, AWS faz cópias adicionais de nossos dados e os replica
em outras zonas de disponibilidade Os dados são armazenados
e replicados em todos os Jones de disponibilidade
na mesma região Agora surge a pergunta: Por que a AWS faz isso? Aqui, precisamos
lembrar que a AWS prometeu 11 nove
de durabilidade de dados. Significa simplesmente que a AWS promete
99 pontos adicionais, nove, número de 9% de garantia de
durabilidade de dados. Aws não garante
100% de durabilidade dos dados, mas eles dizem que há
99 pontos adicionais de nove, 9% de chance de que seus
dados não sejam perdidos. Como a AWS garante que, ao fazer upload de
dados no S three, ela não sofra
nenhuma perda por isso Aws mantém cópias de nossos dados em toda a disponibilidade Jones na mesma região. Em caso de perda de dados, eles recuperam os dados de outras
zonas de disponibilidade para a perdida. É assim que os dados
estão sempre presentes em todas as
zonas de disponibilidade de uma região. E esse é o motivo pelo qual promete 119% de durabilidade
em casos extremos Se alguma
zona de disponibilidade cair, nossos dados ainda
estarão disponíveis em outras zonas
de disponibilidade dessa região específica. OK. Esse é um dos benefícios significativos
de usar o Amazon S three. Esse é um exemplo simples de
quando carregamos novos dados. Agora vamos entender o que acontece quando fazemos
alterações em nossos dados. Suponha que tenhamos essa imagem
em três disponibilidades
ativadas, alteramos a cor
dessa imagem e a enviamos. Em seguida, a AWS
atualiza automaticamente as duas
cópias restantes dos seus dados. Em outros Jones, o mesmo
vale para excluir. Quando você exclui seus
dados do One Joe, eles serão excluídos de todas as
zonas de disponibilidade na região. Estudantes, entendemos durabilidade da disponibilidade de
dados e como AWS promete 11 nono
de durabilidade de dados
com a replicação de dados Isso é tudo para esta sessão.
21. Classes de armazenamento: Olá, estudantes. Bem vindo de volta. Neste vídeo,
entenderemos as diferentes classes
de armazenamento. Esta sessão
será cheia de fatos. Eu recomendo que todos façam anotações. Adicionamos alguns recursos de
aprendizagem complementares na seção de recursos Certifique-se de fazer o melhor uso deles.
Vamos começar. Em um dos vídeos anteriores, armazenamos a imagem em um bucket
Amazon S three. Ao fazer o upload do objeto, notamos que as classes
de armazenamento estavam sendo exibidas abaixo
das propriedades Aws oferece várias opções para armazenar nossos dados na nuvem. Essas opções são conhecidas como classes
de armazenamento e podemos escolher qualquer classe com
base na frequência com
que acessamos nossos dados. Essas três
classes de armazenamento S foram criadas especificamente para fornecer o menor custo de armazenamento para diferentes padrões de acesso. Isso significa que diferentes tipos
de classes de armazenamento são projetados para atender a diferentes
propósitos de armazenamento de dados. Estudantes engenheiros de nuvem,
é muito importante
entender essas aulas, pois elas podem economizar seu
tempo e dinheiro. Vamos
entendê-los um por um. O primeiro é o padrão
S three. É uma classe de armazenamento de
uso geral usada para dados
acessados com frequência. Ele oferece alta durabilidade,
disponibilidade e desempenho. padrão S three foi projetado para oferecer disponibilidade de
99,999%
e durabilidade de 11,9% Em outras palavras, eles são apenas 0,001%, pois seus dados
podem ser perdidos e assim por diante Ele oferece baixa latência
e alto rendimento e pode
suportar até duas falhas
simultâneas Isso significa que, se dois
meses de disponibilidade tiverem problemas, seus dados ainda estarão seguros, pois oferecem baixa
latência e alta O padrão S three é apropriado
para uma ampla variedade de casos de uso, como aplicativos
em nuvem, sites
dinâmicos, distribuição de
conteúdo, aplicativos
móveis e de jogos e análise de big data. A próxima é a classe de armazenamento de
acesso infrequente. Como o nome sugere, essa classe de armazenamento é usada para dados
acessados com menos frequência. Dados que você só acessa de
vez em quando. Mas você também deseja que esses dados estejam imediatamente disponíveis
sempre que você precisar ; eles devem estar disponíveis
assim que você os solicitar. Se for esse o caso, você pode usar a classe de armazenamento de
acesso infrequente Ele foi projetado para oferecer 99,9% disponibilidade e
11 9% A disponibilidade de
classes pouco frequentes é menor do que o padrão S três porque
não acessamos nossos arquivos com
muita frequência É mais barato que o padrão
Amazon S three. Mas quando acessamos os arquivos, pagamos uma taxa de
recuperação por GB Essa é a vantagem
desta classe. Pagamos menos pelo armazenamento
, mas precisamos pagar uma taxa de recuperação toda
vez que acessamos nossos dados Essa combinação de baixo custo e alto
desempenho torna o acesso
infrequente padrão
S Three ideal para armazenamento de longo prazo, backup e recuperação de desastres Nossos dados nessa classe também
são resilientes aos eventos de uma falha em toda a
zona de disponibilidade Em seguida, temos uma zona de acesso
pouco frequente. Isso é muito semelhante à classe de acesso
infrequente, mas a única
diferença é que em uma classe de
acesso pouco frequente de uma zona, os dados são armazenados em um
único Joe de disponibilidade, enquanto na classe de
acesso infrequente eles são
armazenados em pelo menos
três Basicamente, seus dados
estão menos disponíveis
porque estão presentes em
apenas uma disponibilidade, junho. A melhor parte é
que você ainda tem baixa latência e alto
desempenho de taxa de transferência Além disso, como os dados são armazenados
em uma disponibilidade em junho, eles são 20% mais baratos do que o acesso
pouco frequente acesso infrequente da zona S31 é ideal para clientes que precisam de
uma opção de menor custo para dados acessados com frequência, mas não precisam da
disponibilidade e resiliência do acesso infrequente do padrão S três ou do padrão S três Essa é uma boa opção para armazenar cópias secundárias de
backup de dados locais ou de dados
que podem ser facilmente criados. Novamente, você também pode usar replicação
S three entre regiões para armazenar dados replicados de
outra região da AWS de forma
econômica da AWS de O próximo é o S three
Intelligent Tiring. Como o nome sugere, essa classe de armazenamento vem com uma inteligência embutida
que
move automaticamente os dados para o pneu de acesso mais
econômico com base em seu padrão de acesso Aqui, o
padrão de acesso indica com que frequência um
dado é acessado Aqui, os objetos serão movidos automaticamente
de uma classe de armazenamento
para outra com base
nas mudanças nos
padrões de acesso desses objetos. Como resultado, os dados de acesso
frequente serão movidos para o armazenamento acessado
com frequência e os dados
acessados com pouca frequência serão
movidos pela classificação inteligente S three
para a categoria correta Ele tem a mesma baixa
latência e alto desempenho
de rendimento do padrão S three Mas isso é altamente otimizado em termos de
custos. Por exemplo, se os dados forem movidos para a classe de
acesso pouco frequente, isso economizará até
40% nos custos de armazenamento Se for transferido para
a classe glaciar, economizará até
68% nos custos de armazenamento Ele também foi projetado
para oferecer 119% de durabilidade e 99,9% de disponibilidade em um determinado ano em várias Contudo, como usuário deste serviço, você só precisa pagar uma pequena taxa mensal de monitoramento
e cansaço automático Isso proporcionará a
maior otimização de custos sem pensar
muito nisso. Também é resistente a
eventos que podem afetar toda
a disponibilidade Joe. Agora, a próxima classe
de armazenamento é o Glacier Amazon S three. Glacier é a classe de armazenamento de menor
custo no S três e oferece suporte retenção de
longo prazo e à preservação
digital dados acessados uma
ou duas vezes por ano É útil para clientes, especialmente aqueles em setores
altamente regulamentados como serviços financeiros, assistência médica e setores públicos. Esses setores
retêm conjuntos de dados por sete a dez anos ou mais para
atender aos requisitos de
conformidade regulatória. Ele foi projetado para proporcionar
119% de durabilidade de objetos em várias zonas de
disponibilidade Como o nome sugere, você espera que seus
dados sejam congelados, o que significa que serão mantidos por um
longo período de tempo. Isso significa que a
validade da recuperação de objetos é muito longa. Agora, a AWS oferece suporte a três tipos de glaciar para um
padrão de acesso diferente no futuro Vamos agora comparar rapidamente os
diferentes tipos de geleiras. Amazon S three, recuperação
instantânea da geleira. Três, a recuperação instantânea glacier oferece um tempo de recuperação
em milissegundos com o mesmo desempenho do S standard Amazon three, Na recuperação flexível do glacier, o tempo de recuperação pode ser configurado de
minutos a Com a recuperação gratuita em massa, ela é mais adequada para cenários de
backup e
recuperação de desastres em que grandes quantidades de dados precisam ser recuperadas de forma rápida
e econômica Amazon Es three
Glacier Deep Archive. No Tri Glacier Deep Archive, o tempo de recuperação dos
dados é de 12 horas É a classe de
armazenamento de menor custo projetada para retenção de dados a
longo prazo que serão retidos
por sete a dez anos É uma alternativa ideal
às bibliotecas de fitas magnéticas. Alunos, espero que agora vocês
entendam a classe de armazenamento. Caso tenha alguma dúvida, recomendo que você passe por
esta sessão mais uma vez.
22. Demo no Bucket do S3: Bem-vindo de volta.
Nesta sessão de demonstração, aprenderemos como criar um suporte S three
e carregar dados nele. Vamos até o console de
gerenciamento da AWS. Lembre-se de que primeiro precisamos selecionar
a região da AWS. Vou selecionar a região de Mumbai. Depois disso, iremos
para o console S three. Há três maneiras de
encontrar o
serviço S three no console. O primeiro método é
pesquisar por S três
na caixa de pesquisa e ele nos
dará S três no resultado. O segundo método é encontrar o S três no menu de
todos os serviços. Basta expandir o menu, localizar o serviço S three e clicar para abri-lo. Por fim, se você
já usou o S
three em sua conta, ele será listado nos serviços visitados
recentemente. Vamos digitar S três aqui
e clicar para confirmar. Quando chegarmos pela primeira vez
ao console S three, veremos uma lista de buckets
na conta da AWS Como o S three usa um namespace
global, você não precisa selecionar uma região ao
usar o console. Agora, se você está pensando, por que selecionamos a região? O S three é um serviço global. Bem, selecionar a região
certa
sempre que estiver trabalhando em sua conta
é uma boa prática. Não importa se o serviço é sensível à região. Agora vamos seguir em frente e
criar um balde S three. Para fazer isso, clique em Create
Bucket e escolha um nome. Agora, uma coisa a observar aqui é que o nome do bucket
deve ser exclusivo. Para tornar esse nome único, vamos adicionar alguns
números aleatórios no final. Agora, há algumas regras que precisamos seguir
ao nomear buckets A primeira regra é
que o nome do bucket tenha de 3 a 63 caracteres Em segundo lugar, o nome deve
ter ruídos mais baixos,
números, pontos e canetas números, pontos e Ele deve começar e terminar com
uma letra ou um número. Por último, o nome do seu bucket
deve ser exclusivo em toda a AWS. Selecione a região em que você deseja que seu bucket
seja criado, deixe o resto
das configurações padrão e vá
em frente e crie o bucket. Agora, o bucket foi criado e não demorou
mais do que um segundo. Nessa página, você pode
ver o nome do bucket, a região em que você criou o bucket e o acesso
ao objeto do bucket. Agora vamos para o balde. Agora, aqui você pode ver as diferentes guias,
incluindo propriedades, permissões, métricas,
gerenciamento e pontos de acesso Aqui está o objeto
dentro desse balde. Este é o lugar onde
enviamos nossos arquivos. Como aprendemos
na última sessão, podemos fazer upload de objetos
no bucket S three ou também
podemos criar pastas dentro do bucket para
organizar nossos dados. Vamos criar uma
pasta e chamá-la de demo. Agora podemos carregar nosso objeto no
bucket ou nessa pasta. Vamos clicar em Carregar. Aqui temos duas opções. Ou podemos fazer upload de
arquivos ou fazer upload de pastas. Faremos o upload de um arquivo aqui. Clique em Adicionar arquivos. Aqui podemos fazer algumas
configurações adicionais em nosso objeto. Basta clicar em Propriedades e
você verá a classe de armazenamento. É padrão por padrão. Abordaremos isso em
detalhes em breve neste módulo. Vamos guardar isso por enquanto
e clicar em Carregar. Agora nosso arquivo foi
carregado com sucesso. Vou sair
clicando em Fechar. Agora eu tenho um objeto, meu balde S three com
o nome demo dot jpg. Se clicarmos em nosso jpg de demonstração do
objeto, ele nos levará ao painel
do objeto, onde veremos a permissão
e a versão das
propriedades do objeto . Vamos até a guia
Propriedades. Aqui podemos encontrar todos os
detalhes sobre nosso objeto. exemplo, quem é o
proprietário do objeto, em qual região o
objeto foi carregado e quando o
objeto foi modificado pela última vez, o tamanho do objeto, a chave
do objeto de tipo, a URL, a tag de nome do
recurso da Amazon e aqui está a URL do objeto. É o link para o arquivo. Podemos abri-lo
clicando aqui, mas vamos abri-lo em uma nova guia. Como você pode ver, meu acesso negado porque esse
bucket não é público. E eu não tenho o direito
de acessar esse objeto. Se o bucket não for
público e você tentar abrir o arquivo usando sua
URL pública, ele não abrirá. Agora vamos voltar ao painel
de objetos. Temos outra maneira de abrir esse objeto apenas
clicando em Abrir. Ele abrirá uma nova guia e nos
mostrará nossa imagem de demonstração. Agora você deve estar pensando por que isso funciona, mesmo que o bucket não
seja público? Bem, quando abrimos um
objeto pela abertura, ele se abre porque esse
é um URL exclusivo. Como você pode ver, o URL é muito,
muito mais longo e não é
semelhante a um URL público. Este é um URL especial para mim,
como proprietário deste objeto Estou autorizado a acessar
esse objeto por meio desse URL. Agora, a última coisa
que eu queria mostrar é como excluir um
objeto do S três. Para isso, vou
voltar ao bucket, selecionar o objeto e
clicar em excluir. Aqui você terá que
digitar delete para confirmar que
deseja excluir o objeto e, em
seguida, excluir o objeto Isso
excluirá permanentemente esse objeto. Estudantes, espero que agora tenham confiança no S
three e em seu escopo. Nesta sessão,
vimos uma demonstração em
que criamos um bucket holder
S three, carregamos o objeto com sucesso
e o excluímos. Agora vá em frente e faça você mesmo.
23. Visão geral do EBS (armazenamento em bloco elástico): Olá estudantes. Bem-vindo de volta. Neste vídeo,
aprenderemos sobre uma das opções
de armazenamento
para duas instâncias EC, o armazenamento em bloco elástico, também conhecido como EBS Começaremos com a
definição e os fundamentos do EBS seguidos por seus tipos e
casos de uso. Vamos começar. O Amazon EBS é como um disco
rígido na nuvem que fornece armazenamento em
bloco persistente para o Amazon EC Twin Stances armazenamento do Ebs é chamado de volumes do EBS na terminologia
da AWS Portanto, vamos chamá-lo de volume
EBS a partir de agora. Você pode anexar volumes do EBS às suas duas posições EC e criar um sistema
de arquivos sobre esses Execute um banco de dados ou
servidor em cima deles, ou use-os de qualquer outra forma,
um armazenamento em bloco seria usado. Mas o que é armazenamento em bloco? É uma tecnologia
que divide dados em
blocos e os armazena
como partes separadas Cada bloco de dados recebe
um identificador exclusivo, que permite que um
sistema de armazenamento coloque os
dados menores onde for
mais conveniente. Um volume de armazenamento em bloco funciona de
forma semelhante a um disco rígido. Você pode armazenar qualquer arquivo
nele ou até mesmo instalar um sistema operacional
inteiro. O volume Ebs é uma unidade
conectada à rede. O que isso significa?
Bem, isso significa que o volume do EBS não está realmente conectado à
sua instância C TO;
fisicamente, ele está conectado
por meio de uma rede dentro da AWS Como ele é conectado
por meio de um link de rede, volume do
EBS pode ser facilmente
conectado ou desconectado Para duas instâncias C, isso significa que você pode
mover seu volume do EBS de uma instância em execução
para outra e a alteração ocorrerá em questão de
segundos. Você pode pensar no EBS como
um disco rígido de computador
que pode ser conectado a qualquer um desconectado de
uma instância e imediatamente reconectado a uma instância
diferente via rede Agora, surge uma pergunta aqui sobre por que isso é chamado de armazenamento em bloco
elástico. Ao provisionar
um volume do EBS, você precisa definir
seu tamanho e IOPS Iops significa simplesmente operações de entrada e
saída por segundo. Você precisa dizer à AWS que
deseja um volume de EBS
de, digamos, 100 B, que possa fazer 1.000 IOPs, ou
seja, 1.000
operações de entrada e saída por segundo Mas só porque você
define que o EBS tem 100 GB, não
significa que você está
preso a uma unidade de 100 GB Você pode alterar o tamanho
ou a capacidade
de IOPS dos volumes do EBS conforme sua
necessidade a qualquer momento Essa é a elasticidade
que o EBS fornece, e é por isso que o EBS é um armazenamento em bloco elástico e
não apenas um armazenamento Agora vamos dar uma olhada em
alguns recursos do EBS. Um ponto importante a ser
observado sobre o EBS é que ele só
pode ser conectado a uma instância
C de duas instâncias por vez Você não pode ter duas instâncias
C conectadas a um
único volume do EBS No entanto, a AWS
lançou recentemente um recurso em que volume
IOPS SSD EBS pode ser anexado a Não precisamos entrar em
detalhes neste curso. Essencialmente, o EBS
é uma unidade de rede que pode ser movida de
uma instância para outra Mas esse processo
tem uma limitação. Os volumes do Ebs são restritos
em uma zona de disponibilidade. Isso significa que, embora
os volumes do EBS possam ser movidos rapidamente de
uma instância para outra, eles não podem ser
movidos pela zona de disponibilidade Por exemplo, um volume do EBS
na zona de disponibilidade P, zona
sul A , não pode
ser anexado a uma instância EC duas
na zona sul do AP B. Ele só pode ser movido entre
instâncias na zona sul do AP A. No entanto, se você quiser mover volumes do
EBS de uma zona de
disponibilidade para outra, você precisará tirar
um instantâneo Aprenderemos sobre
instantâneos em um tópico bônus. Tipos de volumes do EBS. Vamos seguir em frente
e entender os diferentes tipos
de volumes do EBS Vamos dar um exemplo aqui. Um dos
critérios importantes ao comprar um novo laptop
é o armazenamento, certo? Quando você fala sobre armazenamento de
computador, isso significa discos rígidos. discos rígidos do seu computador
podem ser de diferentes tipos, como SSD, HDD, etc. Da mesma forma, o volume do EBS também é
classificado em seis tipos. SSD de uso geral,
GP dois e GP três. Vicent IOPSSDI, I 01 e I 02 por meio de SD otimizado, um HDD, HDDs
antigos, um HDD antigos Uma coisa a observar aqui é que somente os SSDs podem ser usados como volume de inicialização do sistema
de todos esses tipos volume de inicialização é o volume que contém o sistema
operacional. O Aws só permite
SSDs rápidos como volume de inicialização. Isso é tudo o que precisamos saber
sobre o EBS e o tipo de volume do EBS.
24. Visão geral do EFS (sistema de arquivos elástico): Olá estudantes. Bem vindo de volta. Neste vídeo,
aprenderemos sobre uma das opções de armazenamento
das duas instâncias
do EC, o sistema de arquivos elástico, também conhecido como EFS. Começaremos com
o básico e uma pequena descrição do EFS,
seguida por seus casos de uso Então, vamos começar. O que é o sistema de arquivos? Antes de entender
o que é EFS, você deve saber o que é
um sistema de arquivos. Um sistema de arquivos define
como os arquivos são nomeados, armazenados, lidos e usados
em qualquer dispositivo de armazenamento. Ele é instalado em
todos os dispositivos de armazenamento, seja uma unidade de
disco ou um CD. Toda vez que você executa qualquer operação em um
arquivo no seu computador, como editar, excluir ou
ler seus sistemas operacionais, ler seus sistemas operacionais sistema de
arquivos a manipula O armazenamento é simplesmente uma
grande quantidade de dados. Sem um sistema de arquivos, porque sem um sistema de arquivos, o sistema operacional nunca
saberá onde
procurar seus dados. Imagine uma sala de armazenamento cheia de documentos e páginas
espalhados Você não pode dizer quais
páginas estão relacionadas a quais páginas pertencem
à mesma pasta, certo? São apenas dados
dispersos aleatoriamente. É assim que um dispositivo de armazenamento ficará sem um sistema de arquivos. Em comparação, uma biblioteca
é um exemplo real de um sistema de arquivos em que cada
documento é organizado. Como se uma biblioteca tivesse um sistema. Seu sistema operacional
tem um sistema de arquivos que é o computador onde
encontrar seus arquivos. Os sistemas operacionais têm um sistema de arquivos padrão do
setor que é gerenciado
como parte do seu sistema operacional. No entanto,
sempre é
possível criar seu próprio
sistema de arquivos para aplicativos. Agora que você sabe o que é
um sistema de arquivos, vamos falar sobre o EFS, Amazon EFS é um serviço de armazenamento de
arquivos baseado em nuvem. Como o nome sugere, é uma solução de
armazenamento escalável que
cresce automaticamente e as cadeias de caracteres, medida que você adiciona e remove arquivos, não precisa
pedir à AWS que crie um sistema de arquivos de
100 GB ou 200 GB. Basta criar um EFS e ele
cresce e diminui à medida que
você cresce e diminui à medida Isso garante que seu EFS sempre tenha o armazenamento
de acordo com suas necessidades. Ele pode crescer automaticamente de
um pequeno megabyte para um sistema de arquivos em escala de petabytes Não há
taxa mínima para usar o EFS. Você simplesmente precisa pagar
pelo armazenamento que usa. Se você usar somente 500 MBS de EFS, pagará somente pelos 500 MBS Semelhante ao EBS, o EFS também é
um serviço conectado à rede. Isso significa que o armazenamento
do sistema de arquivos está conectado a duas instâncias
EC por meio de uma
rede e não fisicamente,
mas, diferentemente do EBS, que
só podia ser conectado a uma instância
EC de duas instâncias por vez, podemos conectar o EFS a qualquer
número de duas instâncias EC Um dos
recursos mais importantes do EFS é
que ele armazena seus dados
em zonas de disponibilidade. Você pode conectar o EFS a várias instâncias EC
em duas zonas de disponibilidade. Digamos que você tenha um
EFS na região de Mumbai. Esse EFS pode ser usado
por qualquer número de instâncias
EC two de qualquer
zona de disponibilidade nessa região, não apenas EC duas. Você também pode usar o EFS
com serviços como funções ECS, EKS e Lambda, ou até mesmo com seu computador local Você pode conectar simultaneamente centenas de duas instâncias EC, funções
lambda e seus computadores
pessoais ao EFS No momento, o EFS só é compatível com instâncias
baseadas em Linux. É importante observar aqui que
as instâncias
do Windows
não podem usar o EFS. Aws tem um sistema de
arquivos diferente para instâncias
do Windows chamado SX Agora você deve estar
se perguntando por que usar o EFS e não criar
seu próprio sistema de arquivos. Sim, é possível criar um sistema
de arquivos em qualquer
dispositivo de armazenamento. Mas, além de ser um serviço
altamente escalável, EFS também é um serviço gerenciado Isso significa que ele gerencia a
infraestrutura de armazenamento para você. E, como usuário, tudo o que você precisa fazer é
usar o sistema de arquivos. Você não precisa se preocupar com o armazenamento subjacente ou qualquer manutenção ou correção
do seu sistema de arquivos Efs gerenciará todo esse trabalho extra para
você sempre que houver necessidade de
um armazenamento de sistema de
arquivos que possa ser usado em vários serviços
e computadores locais Pense em EFS, isso é tudo
para esta sessão.
25. Introdução ao networking: Olá e bem-vindo de volta
ao quinto módulo
deste treinamento. Neste módulo,
abordaremos a VPC, que é a
seção de rede da computação em nuvem Aqui, vamos nos aprofundar em tópicos como virtual private,
nuvem ou sub-rede VPC, nuvem ou sub-rede VPC tabela de rotas do
Internet Gateway e
grupos de segurança do gateway
Nat e NSL Também fazemos uma demonstração na AWS para criar uma VPC e sub-redes públicas
e privadas Após a conclusão bem-sucedida
deste módulo, você terá uma
compreensão completa da criação de VPCs e da criação de sub-redes públicas
e privadas Você saberá como as sub-redes pública
e privada funcionam na VPC e como o Internet Gateway conecta uma VPC
à Você também aprenderá a
usar grupos de segurança e NACL para controlar o tráfego de
e para recursos em uma Estudantes. Para tirar o máximo
proveito desse treinamento, recomendamos que você faça anotações durante todo
o treinamento. Espero que você
já esteja fazendo anotações. Isso é tudo para
esta introdução.
26. O que é um VPC?: Olá estudantes. Bem-vindo de volta. Neste vídeo,
aprenderemos sobre
nuvem privada virtual ou VPC Resumindo, é o
aspecto de rede da computação em nuvem. E pode ser um pouco difícil relacionar isso
com nosso dia a dia. Vamos tentar fazer com que seja
o mais simples possível. Uma vez que essa é uma seção e um
alicerce muito
importantes para o restante
dos tópicos deste módulo. Eu recomendo que você preste
atenção especial a esse tópico. Vamos dar um exemplo. Suponha que haja um prédio
residencial e tenha muitos apartamentos Há centenas de pessoas
morando nesses apartamentos. Digamos que eu possua o apartamento número 810 e você tenha o apartamento número
B 20 neste prédio Também podemos dizer que apartamento B 20 é
a seção privada
do prédio onde você guarda suas coisas e tem controle
total sobre elas. Você também pode adicionar
recursos de segurança, como câmera de bloqueio, vigilância etc., da mesma forma que outras pessoas têm áreas
privadas próprias Agora vamos conectar esse
exemplo à AWS e à VPC e substituir o prédio
por apartamentos da AWS por VPCs Em nossa conta da AWS, criamos e
gerenciamos todos os tipos de recursos, como EC,
dois RDS e assim por diante Veremos quais são
esses recursos específicos nos módulos posteriores. Esses recursos em seu VPC são como suas
coisas em seu apartamento, o AWS VPC é como
sua área privada na
AWS na qual você pode colocar
seus recursos e serviços Assim como um apartamento tem um nível
diferente de segurança, você também pode colocar um nível de segurança sobre
esses recursos. Em outras palavras, podemos dizer
que existem maneiras de você conceder às pessoas acesso ao
seu banco de dados ou aos seus recursos
na nuvem, ou você também pode impedir que
elas o façam. Agora vamos entender a
definição de AWS VPC, uma nuvem privada virtual Uma nuvem privada virtual é uma rede virtual dedicada
à sua conta da AWS. Ele é logicamente isolado de outras redes virtuais
na nuvem da AWS nas quais você pode iniciar seus recursos da AWS, como duas instâncias do
Amazon EC Vpc significa Virtual
Private Cloud. Não é nada além de um data center virtual
nos serviços Amazon Wab Isso é privado porque é só para você e você tem controle
total sobre ele. Essa é uma rede
lógica completamente isolada que você pode usar da maneira que quiser
ao criar a VPC Basicamente, você cria uma rede
logicamente isolada. Se eu estiver criando uma VPC na minha conta e você estiver criando
uma VPC na sua conta, essas são duas redes isoladas Até mesmo duas ou mais VPCs com endereços IP
diferentes
na mesma conta
também serão isoladas Você pode entender
o endereço IP como o endereço do seu apartamento. Esse endereço IP é chamado CIDR, que significa Classless
Inter É um conjunto de padrões de
protocolo da Internet usados para criar
identificadores exclusivos para redes Ao criar uma VPC, você especifica um intervalo
de endereços IP para a VPC na forma
de um bloco CIDR Por exemplo, 10,0 0,0 por 16. partir de agora, você entende que VPC é uma rede dentro da
sua conta da AWS Você também pode criar sub-redes dentro de uma rede que
também são conhecidas como sub-redes Abordaremos sub-redes
no próximo laboratório.
27. Subnet, gateway de Internet, tabela de rotas e gateway NAT: Olá estudantes. Bem vindo de volta. Neste vídeo, vamos entender
a sub-rede, gateway
da Internet e a
tabela de rotas. Vamos começar. Conforme discutimos
no vídeo anterior, VPC é uma rede em
nossa conta da AWS Também podemos criar
sub-redes dentro da nossa VPC. Essas sub-redes
também são conhecidas como sub-redes. Vamos dar uma olhada no nosso exemplo
anterior. Nós possuímos um apartamento no apartamento, e este apartamento é nossa seção
privada. Temos um quarto,
uma sala de estar e uma cozinha neste apartamento. Essencialmente, essas são
diferentes subseções do nosso apartamento usadas para
diversos fins. Da mesma forma, na AWS, na VPC, criamos uma sub-rede como envio público
e envio privado Quando criamos um envio, especificamos o
bloco CIDR para o envio, que é um subconjunto do bloco CIDR
da VPC Se o CID do nosso VPC
for 10,0 0,0 0,0 por 16, podemos usar 10,0 0,0 0,0 por
24,10 0,0 0,0 por 24 Como CIDR do nosso Envio, podemos lançar recursos da AWS em um envio específico,
como fácil para instâncias Um ponto importante
a ser lembrado é que cada sub-rede deve residir inteiramente
dentro de uma disponibilidade, Joe, e não pode
abranger Jones Veremos isso ao
fazer o mapa prático existem dois tipos de sub-rede Envio público e envio
privado. Poderíamos relacioná-lo ao nosso apartamento. Temos um quarto de hóspedes com acesso
direto do exterior. É como uma apresentação pública, enquanto nosso quarto é
totalmente privado para nós. Agora vamos entender
o que é sub-rede pública. É uma sub-rede que
interage com a Internet e pode ser
acessada pela Isso significa que todos os
recursos criados em sua sub-rede pública, por exemplo, servidores Wab, seriam acessíveis
pela Como as sub-redes públicas
interagem com a Internet, implantaremos nosso balanceador de carga ou aplicativos voltados para a Internet
no Eu abordarei isso
em detalhes no módulo EC two. A próxima é a sub-rede privada. É uma sub-rede que não pode ser
acessada pela Internet. Isso significa que podemos criar recursos
da AWS que são usados apenas dentro da
VPC para fins internos. Agora vamos juntar tudo. Temos uma região em
nossa conta da AWS e haverá uma
VPC nessa região A VPC terá o que é
chamado de intervalo CIDR, que é um intervalo de endereços IP
permitidos em nosso A VPC também pode passar por
duas zonas de disponibilidade, Availability Joe uma e
Availability Joe duas Disponibilidade Joe one contém um envio público e
um envio privado. Da mesma forma, Availability Joe Z two também contém um
envio público e um envio privado. Portanto, temos dois Jones de
disponibilidade, um VPC e quatro sub-redes Neste exemplo, agora
você deve estar pensando qual é a diferença entre um envio público e
um envio privado? Bem, não há diferença
nessas arquiteturas. O processo de
criá-los é exatamente o mesmo. Mas o que você
configura dentro deles determina se uma sub-rede
é pública ou privada Você precisa fazer duas alterações uma sub-rede para torná-la pública Primeiro, você precisa adicionar
um gateway de Internet. É um componente gerenciado pela AWS que está conectado à sua VPC Ele atua como um gateway entre
sua VPC e a Internet, basicamente o mundo exterior Vamos adicionar um
gateway de Internet aqui. Agora temos um
gateway de Internet conectado à nossa VPC, que estabelecerá
uma conexão com a Internet Agora, se você está pensando que um envio público agora tem
acesso à internet,
bem, isso não é verdade. Há outro componente
chamado roteador dentro da VPC. que determina para onde o tráfego de entrada
será direcionado Esse processo é
conhecido como roteamento. O roteador usa algo chamado tabelas de
rotas para controlar o tráfego
da rede. Portanto, cada sub-rede dentro da VPC deve estar
associada a uma tabela de rotas Sempre que criamos uma sub-rede, ela vem com
uma rota padrão, que é uma rota local Como podemos ver, essa tabela de rotas tem um campo de destino
e um campo de destino. O campo de destino contém o endereço de destino que
você está tentando alcançar. O destino especifica a
rota, esse destino, que significa que qualquer solicitação dentro do endereço IP da VPC é Para fazer um envio público, precisamos adicionar o
endereço de destino como Internet, que é 0,0 0,0 0,0 por zero, e o destino como gateway
da Internet. Essa nova rota aqui na tabela de
rotas tem um destino de 0,0 0,0 0,0 por zero. Isso significa que qualquer endereço IP
desconhecido na tabela de rotas o
envia para esse destino. Nesse caso, esse destino
é o Internet Gateway. Esta parte aqui é simplesmente o
ID do Internet Gateway. Isso significa que qualquer tráfego que não seja a rede VPC será direcionado
para o gateway da Internet E, portanto, esse envio agora
é público. Agora, essas duas sub-redes são sub-redes públicas e as
duas restantes são sub-redes Espero que esteja claro para você. Se você tiver uma instância
em uma sub-rede privada, ela não poderá ser acessada
pela Internet No entanto, talvez você
queira dar acesso
à Internet para baixar arquivos ou obter as atualizações do sistema
operacional. Nesse caso, podemos usar o que
é conhecido como At Gateway, que é gerenciado pela
AWS ou instância. Ele também pode ser autogerenciado, dessa forma você pode acessar a Internet em
sua sub-rede privada At Gateway é um serviço gerenciado da AWS altamente
disponível que permite que suas instâncias em uma sub-rede privada
se conectem à Internet Criamos um At Gateway
em nosso envio público. Criamos uma rota
das sub-redes privadas para o gateway At e do gateway At para
o gateway da
Internet Isso permitirá que suas sub-redes
privadas tenham conectividade com a Internet Isso é tudo para esta sessão. Espero que agora você entenda o
BPC e seus elementos. Caso tenha alguma dúvida, recomendo que você
passe por esta sessão mais
uma vez, pois isso é muito importante para sua entrevista de
certificação e, em geral, também.
28. Grupos de segurança e NACL: Olá estudantes. Bem-vindo de volta. Neste vídeo, aprenderemos por que precisamos de um
grupo de segurança e da NCL O que são essas e as
diferenças entre elas? Grupos de segurança e NSLs
atuam como firewalls virtuais. Eles controlam o tráfego de
e para os recursos em um BPC seguindo algumas regras de
entrada e saída Entrada ou saída representa a direção do
tráfego entre as redes A direção é definida em
relação a uma rede de referência. tráfego de entrada se refere
às informações que chegam
a uma rede Aqui, a rede de referência
é sua rede interna. Pode ser o seu computador. Além disso, como você pode ver, os dados estão fluindo da
Internet para o seu computador É chamado de tráfego de entrada. tráfego de saída se refere
às informações que
saem da rede Novamente, aqui você vê que os dados estão fluindo para fora
da rede de referência que é o seu computador Novamente, o fluxo de tráfego de dados é da sua rede
para a Internet. É chamado de tráfego de saída. Agora vamos voltar ao grupo de
segurança e à NSA. Começaremos primeiro com o grupo de
segurança. Um grupo de segurança é uma solução de firewall
da AWS para filtrar o tráfego de entrada
e saída de um EC para uma instância Ele atua como um firewall virtual
para duas instâncias C para controlar o tráfego de entrada
e saída com base em algumas regras definidas garante a segurança no
nível da instância As
regras de entrada e saída funcionam de forma independente. Por exemplo, a
regra de entrada pode permitir que o tráfego de um endereço IP específico acesse
somente a instância Enquanto uma regra de saída pode permitir que todo o
tráfego saia
da instância à medida grupos de
segurança funcionam
no nível da instância, em uma VPC, também podemos aplicar um grupo de segurança a uma ou
mais instâncias Da mesma forma, uma
instância também pode ser associada a um ou
mais grupos de segurança. Vamos dar uma olhada no NSR agora. Significa Controle de
Acesso à Rede, que controla o
tráfego de ou para um envio de acordo com
algumas regras definidas. Isso significa que ele adiciona uma camada adicional de
segurança na camada de envio. Por exemplo, uma regra de
entrada pode negar o tráfego de entrada de
um intervalo de endereços IP, enquanto uma regra de saída pode permitir que todo o tráfego saia do
envio Como os NSLs funcionam no nível de
envio de uma VPC, podemos aplicar uma NCL a
um ou mais No entanto, cada envio deve ser associado somente a um
único NCL Agora vamos ver qual é a diferença entre o grupo de
segurança e o NSL. Security Group opera
no nível da instância, mas o NSL opera
no nível de envio suporte a grupos de segurança
permite somente regras, mas a NSL permite regras
e nega regras O grupo de segurança tem estado, que significa que o tráfego de retorno é permitido
automaticamente
, independentemente de quaisquer regras Como já discutimos, não
há como
adicionar uma regra de saída Todo o tráfego permitido retorna por padrão, ele mantém o
estado do tráfego permitido. É por isso que é chamado de
estado completo. NSL é apátrida. Isso significa que o tráfego de retorno
não é permitido por padrão Deve
haver regras explicitamente
permitidas para permiti-lo. grupo de segurança se aplica a uma instância somente se alguém
especificar o grupo de segurança Bem, ao iniciar a instância ou associar o grupo
de segurança à instância posteriormente, a NSL se aplica automaticamente a todas as instâncias na sub-rede à
qual está associada,
portanto, fornece uma camada
adicional de
defesa se
as regras do grupo de segurança forem No entanto, grupos de segurança e NSLs operam em
camadas diferentes na VPC, que é a melhor maneira de
proteger sua rede, grupos de
segurança ou NSLs defesa
profunda envolve camadas de grupos de segurança, e os NSLs são apenas
duas Portanto, uma
solução melhor é
implementar ambas para
bloquear sua rede. Isso é tudo para esta sessão.
29. Crie sub-redes públicas e privadas de VPC.: Olá estudantes. Bem-vindo de volta. Nesta demonstração, criaremos
uma VPC em nossa conta da AWS. Também analisaremos os parâmetros e
as opções que a AWS oferece
para criar uma VPC Também criaremos um gateway de Internet e configuraremos envios públicos e
privados Ao final deste laboratório, você terá uma
compreensão completa de como criar VPCs e fazer envios públicos e
privados Vamos começar acessando
o console da AWS. Primeiro, precisamos
selecionar a região. Escolherei
Mumbai porque quero
criar uma VPC na
região Ásia-Pacífico de Mumbai Agora, para acessar o painel da VPC, procuraremos a VPC na pesquisa e clicaremos em VPC
para abrir o Como você pode ver aqui
no painel, já
temos uma VPC
criada em nossa conta Essa é a
VPC padrão que a AWS cria. Essa VPC tem um cabo de roteamento e um gateway de Internet
em todas as regiões Podemos usar a
VPC padrão para fins de demonstração, mas é sempre recomendável criar sua própria VPC
para desenvolvimento, teste e ambiente de produção para obter a configuração mais adequada Se você for para qualquer região, encontrará uma VPC e algumas tabelas de rotas e um gateway de Internet
associado a ela Vamos agora criar nossa própria VPC. Clique em VPCs e,
em seguida, clique em Criar VPC. Vamos dar a
ele o nome de Pa up. A próxima opção para nós
é selecionar se queremos endereços
IPV quatro ou IPV seis em nossa Optaremos pelo IPV
quatro e forneceremos 10,0
0,0 0,0 por 16 como o intervalo de
IP privado para essa Depois, temos a locação, que especifica onde sua
infraestrutura é Se selecionarmos a locação padrão, nossas duas instâncias C estarão em hardware
compartilhado com
outros usuários da AWS Se você quiser uma VPC em que todas as duas instâncias C estejam
em hardware dedicado, você pode optar por
criar uma VPC dedicada A próxima opção são as tags. Como você pode ver, a AWS já criou
um crachá para nós. Não precisaremos de mais etiquetas. Vamos clicar em Criar VPC. Agora temos nossa própria VPC
criada nessa região. Vamos voltar para a página da VPC. Você pode ver que agora temos
duas VPCs nessa região. Agora, criaremos
um gateway de Internet e o anexaremos à nossa VPC Para isso, clique em
Internet Gateway. E como você pode ver, já
temos o
Internet Gateway. Para a VPC padrão, vamos clicar em Create
Internet Gateway e dar a ela seu pacote de
nomes, IGW Agora clique em Criar
um gateway de Internet. Em seguida, precisamos conectar esse gateway
da Internet à nossa VPC. Podemos fazer isso
diretamente clicando em
anexar à VPC na barra verde
superior aqui Ou clicando no botão de
ações aqui. Clique em Anexar à VPC
e selecione sua VPC. Se você estiver usando o AWC LI, poderá clicar nessa barra de rolagem e anexá-la à sua VPC Como não estamos usando o AWS C, L, I, podemos clicar aqui e conectar esse
gateway de Internet diretamente. Agora temos uma VPC com
um gateway de Internet. Mas ainda não podemos criar
infraestrutura na VPC. Para isso, precisamos
ter sub-redes. Vamos criar sub-redes. Clique nas sub-redes aqui com base
na região em que você está. Você verá 34 sub-redes aqui. Essas são as sub-redes
públicas padrão anexadas à VPC padrão Em seguida, criaremos
sub-redes para isso, clique em Criar sub-redes Primeiro, precisamos
escolher a VPC. Estamos escolhendo o Pat
Cup VPC que criamos. Agora, adicione um nome ao nosso Enviar. Público Envie um. Selecionaremos o AP sul,
uma zona de disponibilidade, e forneceremos um intervalo de IP de 10,0
0,0 0,0 por 24 ao Enviar Vamos pular as tags por
enquanto e clicar em. Crie uma sub-rede. Agora podemos
ver nosso envio na lista, criaremos mais
três sub-redes Selecione a VPC empacotada, dê o nome de
sub-rede pública para selecionar P uma zona de disponibilidade e forneça
um intervalo de IP de 10,0
0,1 0,0 Clique em Criar sub-rede novamente
e repita o processo. Desta vez,
daremos o nome de
sub-rede privada , uma disponibilidade, uma P,
uma e o intervalo de IP de
10,0, 0,2, 0,0 por 24 Estou repetindo isso
uma última vez. Dê o nome de sub-rede privada
à zona de disponibilidade P. Portanto, um intervalo de IP de
10,0 0,3 0,0 por 24 Observe que você não pode ter intervalos de IP
sobrepostos em Agora temos quatro sub-redes em duas
zonas de disponibilidade na região de Mumbai Mas qual é a
diferença entre nossas sub-redes privadas e públicas Nós os criamos usando
o mesmo método, apenas seus nomes são diferentes. momento, todas as quatro No momento, todas as quatro sub-redes que
criamos são privadas A diferença entre sub-redes privadas
e públicas é que tabelas de rotas
das sub-redes públicas têm uma Se virmos os detalhes das tabelas de
rotas em nossas sub-redes,
teremos apenas uma entrada, teremos apenas uma entrada, 10,0 0,0 0,0 por Isso significa simplesmente que
todas as solicitações enviadas para rotas dentro desse intervalo devem
ser roteadas dentro da VPC Vamos continuar e criar uma tabela de rotas pública
para nossas sub-redes Para isso, clique
na tabela de rotas
e, como você pode ver, já
temos duas
tabelas de rotas em nossa conta. Uma está anexada à VPC
padrão da região e a outra à nova VPC
que criamos Se você ver a tabela de
rotas padrão da VPC padrão
na seção de rotas, verá que há uma entrada no gateway da
Internet Isso significa que todas
as sub-redes padrão
da VPC padrão têm essa rota que
as torna públicas. Se você ver a
tabela de rotas da nossa VPC, temos apenas a rota local que torna nossas sub-redes privadas Agora clique em Criar tabela de
rotas e dê a ela o nome de Pat
Cup, Arch Public Em seguida, selecionamos nossa VPC e
clicamos em Criar tabela de rotas. Agora temos outra tabela de rotas
privadas. Agora, precisamos adicionar o
caminho do Internet Gateway à tabela. Para isso, clique em Editar rotas
e clique em Adicionar rota. Selecione 0,0 0,0 0,0 por
zero como destino. Escolha o Internet
Gateway como destino. E selecione o pacote,
criado pelo IGW. Em seguida, clique em Alterações seguras. Temos uma nova tabela de
rotas públicas em nossa VPC. Agora vamos associar nossa
tabela de rotas às sub-redes públicas. Podemos fazer isso clicando em Ações, Editar
associações de sublocação, selecionar a opção pública Enviar 1.2 e, em seguida, clicar em
Salvar associações Vamos até a página da sub-rede e dar uma olhada em nossas sub-redes Você verá que as sub-redes
públicas estão associadas à
nova tabela de rotas,
que tem a entrada do Internet
Gateway Você também pode fazer
isso clicando no botão Editar
associação da tabela de rotas para alterar
as tabelas de rotas de uma sub-rede Agora, criamos uma
VPC com duas sub-redes públicas e duas privadas que usaremos
durante toda Como eu disse, criar e manter VPC Internet Gateway e
as tabelas de rotas é totalmente gratuito Vocês não precisam
excluí-los, estudantes. Espero que você tenha entendido tudo isso. O que fizemos nesta demonstração é tudo para esta sessão.
30. DNS e Amazon Route 53: Olá, estudantes. Bem vindo de volta. Neste vídeo,
aprenderemos sobre DNS e o serviço de DNS da AWS, o Amazon Route 53 Começaremos entendendo DNS e o Route 53 e depois examinaremos seus recursos e casos de uso.
Vamos começar. DNS significa sistema de nomes de
domínio. É a lista telefônica
da Internet. É um sistema que
permite que você se conecte a sites combinando um nome de domínio
legível por humanos, como Google.com ou
Facebook.com Basicamente, ele traduz o Agora vamos entender
isso com um exemplo. Quando você faz uma
ligação para seu amigo, você procura o número de telefone dele
no aplicativo de contato, certo? Mas como é difícil
lembrar um número de telefone, salvamos números de telefone
no aplicativo de contatos. Assim como os números de telefone, sites e aplicativos
têm endereços IP. Você já usou
o endereço IP do
Google.com ou do YouTube.com Não, porque, novamente,
é difícil lembrar. Isso é simplificado com o DNS. Como eu disse, o DNS é semelhante
à nossa lista telefônica, que armazena o IP
dos sites Os servidores DNS simplesmente traduzem nomes de domínio
em endereços IP Quando você acessa o YouTube.com a solicitação vai primeiro
para um servidor DNS e depois para o endereço IP do Youtube.com. Agora entendemos A Aws também oferece um
serviço de DNS chamado Route 53. O Route 53 faz uma tarefa semelhante. Agora vamos entender o
Route 53 em detalhes. Route 53, serviço de DNS altamente disponível e escalável da AWS Também é o único serviço na AWS que afirma
100% de disponibilidade. Isso significa que o
serviço Route 53 nunca cai. Digamos que você tenha
um aplicativo web em sua conta da AWS em execução
na instância EC Two Se quiser hospedar este site no domínio
yourname.com, você pode criar um registro DNS no Route 53 para apontar o domínio
para o endereço IP do Agora, também existem
mais alguns recursos. O primeiro é o
registro de domínio. O Route 53 também é um registrador de
domínios. Isso significa que ele também permite que você compre novos nomes de
domínio no
próprio console
do Route 53 se você comprou seu nome de domínio em outro site
como o Go Daddy Route 53 também tem um
recurso para transferir nomes de
domínio de outros
registradores de domínio para o Route 53 O próximo é hospedado, um que
podemos criar. O Hosted
Jones Hosted Joe é um contêiner para
registros que incluem informações sobre como
rotear o tráfego para um domínio. O próximo recurso
é a verificação de saúde. Route 53 também tem a capacidade de realizar
verificações de integridade de seus recursos. Ele usa essas verificações de saúde
para determinar o estado dos seus recursos e enviar tráfego somente para recursos
saudáveis. O último é o fluxo de tráfego. Também é chamado de fluxo de
tráfego, que oferece outro
nível de automação
de como você envia seu
tráfego para seus recursos. Isso é tudo que você precisa saber
sobre o Amazon Route 53.
31. AWS VPN e AWS Direct Connect: Olá, estudantes. Bem vindo de volta. Nesta sessão,
analisaremos diferentes
opções de conectividade, da AWS aos
datacenters locais. Vamos começar. Vamos
entender com um exemplo. Suponha que sua organização
esteja planejando migrar um
aplicativo comercial essencial para a nuvem
da AWS que
tenha dados de conformidade Sua equipe de segurança
insiste que você pode mover o aplicativo
para a nuvem, mas os dados devem permanecer no local e atender a todos os requisitos de
conformidade Agora você escolheu
a região de Mumbai e criou uma VPC dentro da
sua conta da AWS Para implantar
seu aplicativo, você criou uma instância EC two. Seu aplicativo também usa outros serviços da AWS, como Amazon, S Three, Cloudwatch etc. Este é o seu data center
local onde você tem um banco de dados Por fim, você configurou
seu aplicativo que estava sendo executado em um EC para
instanciar um banco de dados local Sua equipe de segurança percebeu que esse banco de dados se conecta ao aplicativo por meio da Internet
pública. Eles reclamam que isso é
contra as diretrizes de segurança. Essa conexão deve
ser privada e segura. Há algumas
opções que você pode usar na AWS para tornar essa
conexão privada. Uma delas é a VPN site a site. Isso é chamado de VPN
site a site porque
conectamos um site da AWS a
outro datacenter local. Uma VPN significa Rede
Privada Virtual. O VPN cria um túnel
que você usa para acessar a Internet e ignorar seu
provedor de serviços de Internet, que é Esse processo criptografa todos os
dados que você envia e usa diferentes medidas de segurança para garantir que todos os dados estejam seguros O que fazemos é criar uma VPN
entre sua conta da AWS, VPC e sua rede local Há alguns componentes que precisamos configurar. No lado da VPC, temos um
gateway privado virtual implantado na AWS Depois, temos o
Customer Gateway, que é implantado no data center
corporativo Agora, esse é um dispositivo
no data center corporativo que você configurou de
uma determinada maneira. Mas o
gateway real do cliente é criado dentro da AWS. É essencialmente um elemento de
configuração que você cria que direciona seu
gateway privado virtual para qualquer dispositivo VPN que esteja em seu data center
corporativo. Depois de obtê-los, você pode estabelecer uma conexão de rede
privada virtual. Essa é uma conexão criptografada que está sendo transmitida pela Internet. Você obtém a proteção
da criptografia, mas ainda está
usando a Internet. Agora, novamente, você tem uma auditoria de segurança e eles reclamam que essa conexão
é criptografada, mas ainda está
passando pela Internet De acordo com as diretrizes de segurança, essa conexão deve ser privada. Agora, há outro serviço. Temos o AWS Direct Connect. Na verdade, essa é uma
conexão privada entre a AWS e seu datacenter ou escritório. O AWS
Direct Connect é uma conexão de alta velocidade e
baixa latência
que permite acessar serviços de nuvem
públicos e privados da AWS a partir de sua
infraestrutura local, ou
seja, local A conexão é ativada
por meio de linhas dedicadas, ignora a
Internet pública para ajudar a
reduzir a imprevisibilidade e o congestionamento
da rede Você conecta uma extremidade do
cabo ao seu roteador e a outra extremidade a um roteador de conexão
direta da AWS. Usando essa conexão,
você pode criar interfaces
virtuais que estão
diretamente conectadas à Amazon. localização de conexão direta da AWS da Vpc fornece acesso à AWS na região
à qual ela está associada Isso é usar uma
conexão privada entre seu datacenter e o local de conexão
direta da AWS
e, a partir daí, uma
conexão privada com a AWS. Agora, é mais caro
do que ter uma VPN. A principal conclusão é que a conexão direta é
uma conexão privada, o que significa que você obtém essa experiência de
rede consistente, enquanto uma VPN é pública
e, embora seja
criptografada, é pública. Isso é tudo para esta sessão.
32. Serviços de Compute no AWS: Olá e bem-vindo de volta. A computação é outra das principais ofertas
da computação
em nuvem E há vários serviços
computacionais
econômicos e flexíveis disponíveis na AWS para
diferentes requisitos Nesta lição,
entenderemos o que exatamente é computação e quais são
os diferentes
serviços de computação disponíveis na AWS Vamos dar um exemplo. Imagine que você
tenha o emprego dos seus sonhos como arquiteto em uma empresa de tecnologia
espacial, onde seu trabalho é trabalhar com a equipe de ciência de dados
e processar os dados. Para entender isso,
a equipe de pesquisa
de sua empresa coletou grandes quantidades de dados de imagens que podem levar à descoberta
de água em Marte. Agora, o trabalho
da sua equipe é
processar os dados da imagem e
apresentar as descobertas. Mas quando você começou a
processar os dados, percebeu que não tinha nenhum servidor livre para fazer o trabalho. O que significa
não ter servidores gratuitos? Bem, precisamos de computadores poderosos para processar dados enormes
e, nesse caso,
o poder
de processamento necessário para processar
os dados não está disponível. Esse poder de processamento
é conhecido como computação ou qualquer programa ou aplicativo
que você queira executar Você precisa de memória para
abrir o programa e CPU para processar os comandos que você
fornece dentro do programa. Portanto, a combinação
de memória e CPU é o que chamamos
de computação aqui. Também pode incluir
outros recursos como
armazenamento em rede, etc Dependendo do tipo de
aplicativo que você está executando, computação em
nuvem tornou muito
fácil obter o
poder de computação sempre que você quiser, configurá-lo de acordo com
suas necessidades e pagar somente pelo que você usa A AWS tem vários serviços de computação para diferentes requisitos, mas é importante
entender quais recursos
computacionais são mais
adequados à entender quais recursos
computacionais são mais
adequados sua carga de trabalho e quais são as diferentes opções de computação disponíveis Antes de tudo, vamos entender o
que é a computação da AWS. Aws oferece um serviço de
computação sob demanda para executar aplicativos
baseados em nuvem. Esses são aplicativos
que podem ser implantados em um servidor remoto e
acessados pela Internet A AWS fornece recursos de computação como instâncias e contêineres. As instâncias
nada mais são do que máquinas virtuais. Aw também fornece
computação sem servidor para executar aplicativos em que você não
precisa de
instalação ou configuração de infraestrutura Quando você opta por uma opção de
computação sem servidor da AWS, os recursos
computacionais
estão disponíveis sob demanda e podem ser criados
com apenas um Você pagará apenas
pelos recursos que usar e somente pelo tempo em
que os estiver usando. Os recursos computacionais da AWS são amplamente classificados
em três categorias Instâncias, que são
máquinas virtuais, contêineres e computação sem servidor Neste módulo,
discutiremos todos eles. Isso ajudará você a decidir qual é o melhor serviço de computação
para suas necessidades Se você quiser saber
mais sobre a computação da AWS, consulte o link fornecido
na seção de recursos O documento tem
diferentes exemplos e cenários de onde você pode usar diferentes serviços de
computação. Agora estamos cientes
do que é computação e serviços que estão
disponíveis na AWS Com isso, vamos encerrar esse vídeo.
33. Máquina virtual: Olá e bem-vindo de volta. Algumas vezes,
até agora, neste treinamento, usamos o termo máquinas
virtuais. Espero que você já
tenha uma ideia sobre isso. Mas antes de nos
aprofundarmos nas coisas, vamos entender as
máquinas virtuais em detalhes. O que é uma máquina virtual? Uma máquina virtual é
um ambiente virtual que funciona como um computador
dentro de um computador. Parece complexo, certo?
Vamos detalhar isso. Basicamente. Uma máquina virtual
é comumente conhecida como VM. Não é diferente qualquer outro sistema físico,
como um laptop ou smartphone. Ele tem uma CPU, discos de memória para armazenar seus arquivos e uma rede para se conectar
à Internet Seu laptop e smartphone parecem reais porque
são físicos VMs podem ser consideradas computadores
virtuais dentro de um computador físico Agora você deve estar
pensando em como é possível ter um computador
virtual dentro de um computador físico. Digamos que você tenha um laptop. Ele tem o sistema
operacional Windows nele. Agora você está com vontade
de aprender Linux. Para isso, você precisa de um sistema operacional
Linux. O que você faria? Você compraria um novo laptop e instalaria o sistema operacional
Linux? Não. Uma
maneira mais simples e eficiente de fazer isso é usar a
técnica de virtualização para virtualizar seu notebook existente e instalar o sistema
operacional Linux nele Basicamente, você pode usar os dois sistemas operacionais
no mesmo laptop. Agora, como usamos técnicas de
virtualização para
criar uma máquina virtual E essa animação aqui é
seu computador físico. Esse computador físico pode
ser seu computador pessoal, um servidor remoto ou um servidor. Em um
data center de provedores de nuvem, usamos um software
chamado Hypervisor
, também conhecido como
Virtual Machine Manager No seu caso, você pode usar o
Oracle VM Virtual Box. O hipervisor criará
uma versão
virtual ou baseada em software de
um computador com quantidade
desejada de
memória e armazenamento de CPU A máquina virtual
sempre empresta memória
da CPU e do computador host
físico Isso significa que uma parte da CPU,
RAM e armazenamento do
seu computador agora funcionará
como um computador independente Para entender melhor, suponha que você tenha um
computador físico com oito GB de RAM, duas CPUs e um disco rígido de 40 GB Você pode usar uma
ferramenta de virtualização para criar duas ou mais
máquinas virtuais e distribuir memória
da CPU e o disco rígido entre essas duas máquinas
virtuais Aqui temos duas máquinas
virtuais, VM um e VM Eles têm quatro GB de RAM, uma CPU e 20 GB de disco rígido. Cada um deles, e mais importante, dois sistemas operacionais diferentes. Como você pode ver, uma
máquina virtual funciona como um computador real e tem um sistema
operacional diferente. Apesar de usar o mesmo hardware, a máquina virtual está completamente isolada
do resto do sistema. A VM interna do software não pode interagir com
o computador host ou outra máquina virtual
no mesmo computador físico As máquinas virtuais funcionam como computadores
individuais com sistemas operacionais
separados. Eles permanecem completamente
independentes de outra máquina virtual e
da máquina hospedeira física. Como as VMs são independentes umas
das outras, elas também são altamente portáteis Isso significa que você pode mover
instantaneamente uma VM em um hipervisor para
outro hipervisor em uma máquina completamente diferente As máquinas virtuais são
flexíveis e portáteis. Eles oferecem muitos benefícios
, como redução de custos. Você pode executar várias máquinas
virtuais em um único host físico. Isso pode reduzir drasticamente o custo da
infraestrutura física, pois você precisará comprar
menos computadores físicos Agilidade e velocidade. Ativar uma máquina virtual é uma tarefa relativamente fácil
e rápida É muito
mais simples do que provisionar uma
máquina física totalmente nova para É assim que a virtualização
torna o processo de
execução dos cenários de teste do Dave muito Em seguida, é reduzido o tempo de inatividade. As máquinas virtuais são muito portáteis e fáceis de mover de
uma máquina para outra. Isso significa que eles são
uma ótima solução para backup se as máquinas
host caírem inesperadamente As máquinas virtuais de escalabilidade
permitem que você escale facilmente seus aplicativos, pois criar uma máquina virtual é mais fácil do que configurar
uma máquina física Você pode simplesmente adicionar servidores
virtuais e distribuir a carga de trabalho
em várias VMs É assim que você pode aumentar a disponibilidade e o
desempenho dos seus aplicativos. Esses são todos os benefícios
das máquinas virtuais.
34. EC2 Elastic Compute Cloud: Olá e bem-vindo de volta. Nesta lição, começaremos com o
serviço de computação mais comum que a AWS tem a oferecer É a Elastic Compute Cloud, comumente conhecida como EC
two. Vamos começar. Ec two significa
Elastic Compute Cloud. Ele fornece uma opção de
computação escalável na nuvem da Amazon Mas o que é capacidade computacional? Bem, já aprendemos que
nada mais é do que máquinas virtuais, e o EC two é um
serviço de computação na AWS C dois é escalável. Isso significa que você pode
aumentar ou diminuir o tamanho de uma máquina virtual
com base em seus requisitos. Se isso não funcionar, você também pode criar máquinas
virtuais adicionais. Usando o Amazon EC Two. Você pode evitar completamente a
configuração do hardware para executar seu aplicativo e
desenvolver e implantar
aplicativos com mais rapidez. Outro benefício de usar um EC Two é que você não
precisa investir em hardware. Você pode ter máquinas virtuais com a capacidade
desejada que podem ser acessadas usando seus computadores
normais. Ec Two é uma
infraestrutura de IAAS como serviço porque você aluga
uma máquina virtual da AWS, e a AWS cuidará da compra e
manutenção do hardware Você pode obter a capacidade desejada sem precisar se
preocupar com o hardware. Ele foi projetado para
facilitar a computação em nuvem em escala
web compreensão da computação em nuvem em escala
web
para os desenvolvedores. Vamos voltar aos tempos em que a computação em nuvem não existia
para hospedar um aplicativo, era
preciso configurar um data center ou alugar um servidor físico. Isso é totalmente possível
para grandes organizações. Mas pense em empresas
de médio porte, startups ou até mesmo
desenvolvedores individuais como você e eu Eles não podem se dar ao luxo de adquirir data
centers e hardware. Mas depois da computação em nuvem, ficou muito
mais fácil para os desenvolvedores
adquirirem todas as máquinas virtuais. Graças à computação em nuvem, você pode usar o Amazon
C two para lançar quantas ou poucas
máquinas virtuais forem necessárias. Não há limitação. Se você quiser uma
máquina virtual, você pode obter uma. Se você precisar de 1.000 máquinas
virtuais, poderá obter 1.000 máquinas
virtuais. O Amazon C. Two
facilita a
escalabilidade das máquinas virtuais para lidar com cargas inesperadas. Você não precisa
prever o tráfego, você pode aumentar e
reduzir as máquinas virtuais com base no tráfego e na
popularidade de seus aplicativos. O Amazon C two tem um recurso de escalonamento automático que
entenderemos mais tarde Podemos configurar o escalonamento automático
para aumentar ou diminuir o número de máquinas virtuais com base na carga do
seu aplicativo Ele fornece controle
total de
seus
recursos de computação e permite que você execute no ambiente
computacional comprovado da Amazon. Como já sabemos, duas máquinas virtuais da
EC estão localizadas no
Amazon Data Center. Como a segurança é muito importante
para seus aplicativos, AWS oferece controle
total
desses servidores para que você possa proteger seu aplicativo
conforme desejar. Também existem outras maneiras
de proteger esses servidores que
abordaremos em vídeos posteriores. Ele é compatível com macOS. Recentemente, a Amazon Web
Services também começou a oferecer suporte a máquinas virtuais
baseadas no sistema operacional
Mac . Se você precisar de máquinas virtuais
baseadas em Mac OS, você também pode obtê-las
com estudantes da AWS. Esses são alguns dos principais
benefícios do Amazon EC two.
35. Componente do Amazon EC2: Bem-vindos de volta, estudantes.
No último vídeo, entendemos a nuvem de
computação elástica C two e seus benefícios Continuaremos com
a mesma discussão e entenderemos os
elementos do Amazon C two. Mas antes de começarmos, vamos recapitular a
definição de EC dois É uma máquina virtual
na Amazon Web Services, mas a AWS não
as chama de máquinas virtuais. Em vez disso, ele usa
alguns termos específicos para o EC 21. Esses termos são a instância que
nada mais é do que uma máquina virtual Amazon
C two. Quando lançamos uma
máquina virtual na Amazon, dizemos que lançamos uma instância C
two daqui para frente. Em vez de chamá-la de máquina virtual
E two, vamos chamá-la de instância
EC two. Outro elemento importante
no Amazon C two é AM I. Significa Amazon
Machine Image, que é basicamente um
modelo que contém um sistema operacional e software
adicional necessários
para iniciar duas instâncias EC. Vamos simplificar as coisas.
A instância C two é uma máquina virtual, certo? E uma máquina virtual, é semelhante ao seu laptop. Vamos supor que você
comprou um novo laptop. Você precisa instalar
o sistema operacional e alguns
softwares gerais, como drivers, navegadores, reprodutores de mídia,
etc., certo? Porque sem esses
sistemas operacionais e softwares, seu laptop é apenas uma caixa. O mesmo acontece com o
EC de duas instâncias. Também é como seu computador
e é por isso que requer um sistema operacional e software
adicional
para ser usado na AWS. Você pode fazer isso usando a AMI. Depois de iniciar uma instância
EC two, você gostaria de
acessá-la para poder instalar seu aplicativo
ou fazer alguma configuração. Para acessar sua instância EC two, você precisa de algumas credenciais
e essas credenciais nada mais
são do que um pagamento fundamental que estamos
discutindo agora Um pagador de chaves consiste em uma chave
pública e uma chave privada. É um conjunto de
credenciais de segurança que você usa para provar sua identidade ao
se conectar a um Amazon EC Duas instâncias, quando você
executa uma instância, AWS solicita um pagador de chaves Você pode escolher um
par de chaves existente ou criar um novo. Quando criamos um par de chaves, AWS permite que você baixe a chave
privada e ela
manterá a chave pública. Quando você
executa uma instância EC two, por padrão, a Amazon armazena a chave pública na sua instância Basicamente, você usará sua chave privada para fazer
login na sua instância. Veremos isso quando
fizermos a demonstração do EC. Duas coisas importantes
a serem observadas aqui é que como você usa uma chave privada para fazer login em suas duas instâncias EC, qualquer pessoa que tenha essa chave privada também pode
se conectar às suas instâncias. Certifique-se de armazenar sua chave privada
em um local seguro. Outro elemento essencial do EC two é o Grupo de Segurança. Esse é outro
serviço que você pode usar para proteger ainda mais
suas instâncias. grupo de segurança permite que você controle quem pode acessar
suas duas instâncias EC. Ele atua como um
firewall virtual para suas duas instâncias EC, que controla o tráfego de entrada
e saída Entrada significa que você
pode configurar quem pode se conectar à sua
instância EC two de fora, e saída significa com o que suas duas instâncias
podem se conectar Outro elemento do
EC two são as etiquetas. Uma tag é um rótulo dos
seus recursos da AWS. Ele pode ser atribuído
por você ou pela AWS. E cada tag
consiste em uma chave e um valor. Ao criar uma instância
EC two, você pode marcar suas
máquinas virtuais com nomes diferentes. Pode ser o ambiente, os proprietários do centro de
custos
ou o nome do aplicativo. Essas tags
ajudarão você a identificar seus servidores quando você tiver milhares de servidores em
execução em sua conta. Cada chave de tag deve ser
exclusiva para cada recurso. E cada chave de tag só pode
ter um valor. Você pode usar tags para
organizar seus recursos em sua conta e monitorar seus custos da AWS usando tags de alocação de
custos Vamos entender as tags de
alocação de custos. Algumas organizações costumavam
ter um centro de custos quando você executava
vários aplicativos em uma conta da AWS. Você pode marcar
duas instâncias EC com
centro de custo, chave e valor, que o ajudará a
rastrear o custo por centro de
custo. Até agora, esses são os diferentes termos e
recursos que você precisa conhecer e entender
em relação ao Amazon EC two. Vamos concluir esta lição aqui.
36. Convenção de nomenclatura de instância EC2: Olá estudantes. Bem-vindo de volta. Na última sessão,
entendemos os diferentes
elementos de uma instância EC two, como
Amazon Machine Image ou AMI Security Group, pagador de
chaves e imposto Ainda há mais uma
característica importante das
duas instâncias do EC que
precisamos entender. É o tipo de instância
EC de duas instâncias. Mas antes disso,
entenderemos a convenção de nomenclatura de duas
instâncias C. Ele ensinará como
ler os nomes das duas instâncias do
EC. Neste vídeo, você
aprenderá primeiro a convenção de
nomenclatura de duas instâncias da EC Você não encontrará uma explicação
clara sobre isso na Internet, nem mesmo na documentação da AWS. Solicito que você preste atenção
especial
a este vídeo, pois ele também o ajudará
muito durante sua jornada
com a nuvem da AWS. Vamos começar.
O nome da instância Aws aparece como mostrado na
tela M 6.2 de tamanho grande Como você pode ver, o nome
contém caracteres e números. O nome completo
realmente não tem um significado. Vamos detalhá-lo e
tentar entendê-lo. Uma coisa é clara: se
juntarmos tudo, esse é um tipo de instância. Se você observar um tipo de instância, será algo parecido com isso. Agora vamos detalhar. O nome desse tipo de
instância é
composto por quatro componentes: instância,
família, geração de instância, capacidade
adicional
e lado da instância. Você pode pausar o
vídeo aqui ou tirar uma foto ou fazer uma captura
de tela para referência futura. Vamos examiná-los um por um. A primeira letra
do tipo de instância representa a família EC de
duas instâncias. Aqui, o M representa
a família de instâncias. Essas duas instâncias do AWC pertencem
à família de instâncias de
computação de uso geral O tipo AWS tem quatro
categorias principais de tipos de instância. Eles são otimizados para
computação de uso geral, otimizados para memória e otimizados para
armazenamento Vamos abordá-los em
detalhes na próxima lição. Também há
subclassificações dentro dessa família de quatro
instâncias, mas isso não é
essencial nesse nível Vamos ignorá-las O número seis em M seis representa a geração
da instância C two da AWS. A última ou a geração
atual das instâncias C two da AWS
é sempre melhor. Também é mais barato do que
a geração anterior. É por isso que a AW sempre recomenda usar o tipo de instância da
geração mais recente. Você pode relacionar isso a um carro. A empresa sempre lança novos modelos de carros com alguns
novos recursos adicionais. Ela recomenda os modelos
mais recentes para seus clientes, pois inclui novos recursos
por um preço melhor. Em seguida, temos o mesmo que representa a capacidade
adicional da instância EC de duas instâncias. Essa tabela tem todos
esses recursos. Amd e Graviton two são
os dois processos dentro
dessas duas instâncias do EC Se o processador também
atender aos seus requisitos, você também poderá selecionar uma instância C two
baseada em processador. Aws também oferece armazenamento SSD
NVME local, que é conectado diretamente ao EC two para obter melhor desempenho Portanto, alta rede e capacidade
extra são
os dois recursos desse tipo de instância. O componente final e mais
importante
desse tipo de instância
é o tamanho da instância. Os dois x grandes de M 6,2 x large representam
o tamanho da instância Vamos entender
o que significa dois x grande. Os dois x grandes denotam a representação do tamanho da camisa
da instância C two da AWS Ela representa a
quantidade de memória de CPU, armazenamento e desempenho
de rede de uma instância C two. Essa instância de duas vezes maior terá o
dobro do número de recursos
de CPU, memória e armazenamento em comparação com o
tamanho base, que é X grande. Como isso funciona?
Vamos entender isso. Com o dimensionamento de cada
instância em duas vezes o tamanho, teremos o dobro de CPU e memória do que
o tamanho anterior Isso é grande, 26x maior é igual a 162x grande. Da mesma forma, 262 xlarge é
igual a 154x grande. Agora vamos analisar isso do ponto de vista
da capacidade. Se você acessar a
documentação da AWS e navegar até o tipo de
seis instâncias, verá essa imagem. X large tem o dobro do número de CPU e memória
em comparação com o grande. O
custo R sob demanda também é o dobro. Agora você deve estar pensando devo optar por uma instância
12x grande ou duas instâncias grandes Para isso, vamos analisar
o preço e a capacidade
de cada instância. Como você pode ver, não há
diferença entre eles. Se você selecionar dois
x grandes ou 12x grandes, acabará obtendo a mesma capacidade
por um custo igual Mas é sempre melhor usar uma instância
menor em vez de uma maior, a menos que você
tenha necessidades específicas. Existem muitas classificações de
postura da AWS,
da EC two Abordaremos
os essenciais no próximo vídeo Embora isso não esteja bem
documentado em nenhum lugar, AWS C two tem uma excelente convenção de
nomenclatura Espero que este vídeo tenha ajudado
você a entender isso Caso tenha alguma confusão, recomendo
assisti-lo novamente. Isso é tudo para esta lição.
37. Tipos de instância: Olá, estudantes. Bem-vindo de volta. Na última lição,
aprendemos a convenção de nomenclatura do
tipo de instância Você aprendeu sobre EC
para tamanho de instância, geração de
famílias e recursos
adicionais. Tudo isso ajudará
você a decidir o tipo de instância EC
para seu aplicativo Neste vídeo,
vamos nos aprofundar um pouco mais e entender os diferentes tipos de duas instâncias do
EC. Depois de
concluir esta lição com êxito, você poderá decidir qual tipo de instância é
mais adequado às suas necessidades. Vamos começar com uma rápida recapitulação do que é o tipo de duas
instâncias EC É uma combinação de CPU, memória, armazenamento e capacidade
de rede. Ter
combinações diferentes ajuda na escolha da
combinação apropriada para suas aplicações. Quando você executa, o tipo de
instância C de duas instâncias é um
dos elementos obrigatórios que você precisa decidir, mas por que
é tão importante. Vamos entender
com um exemplo. Ao comprar um laptop, primeiro
você define
seus requisitos. E com base nesses requisitos, você seleciona uma configuração
para seu notebook, como memória, armazenamento,
gráficos etc O mesmo vale para a instância EC
two. Ao iniciar uma instância C
2 na Amazon, você precisa fornecer configurações de
CPU, memória, armazenamento e rede
para facilitar para você Aws tem tipos de instância com diferentes int em termos de CPU, memória, armazenamento
e rede. Cada tipo de instância tem várias opções de tamanho
para cargas de trabalho diferentes Já
abordamos o tamanho da instância. Na última lição,
você deve iniciar os tipos de
instância mais adequados para
seus aplicativos. Agora entenda o que queremos
dizer com melhor ajuste aqui. Cada aplicativo é
projetado de forma diferente e exige uma configuração
de hardware específica. Alguns precisam de mais memória, outros precisam de mais CPU e assim por diante. Portanto, você deve usar a
capacidade computacional apropriada para seu aplicativo É fácil selecionar
a melhor configuração para
seus aplicativos na AWS. Como a Amazon,
os tipos de instância são
agrupados em famílias para atender a
diferentes casos de uso Analisaremos quatro tipos básicos e essenciais de
EC para instância Eles incluem instância de
uso geral, instância otimizada para
computação, instância
otimizada para memória e instância otimizada para
armazenamento Vamos começar com o tipo de instância de
uso geral. Ele fornece um equilíbrio entre recursos
de computação, memória e rede e pode ser usado para uma variedade
de cargas de trabalho Como o próprio nome sugere, esse é o tipo de instância mais básico
e completo da AWS, EC Usamos instâncias de uso geral quais não temos certeza
se o aplicativo precisa de mais CPU ou memória, pois isso vem com um equilíbrio entre memória, computação e rede Se descobrirmos posteriormente
que esse aplicativo é mais otimizado para memória
ou computação
, podemos optar por
tipos específicos de instâncias Agora, vamos dar uma olhada
nos melhores casos de uso de instâncias de uso
geral. Eles são adequados para
servidores web, armazenamento em cache, frotas e aplicativos de
armazenamento de dados distribuídos Como esses aplicativos exigem um bom equilíbrio entre memória, CPU
e rede, eles também
são adequados para aplicativos de
ambiente de
desenvolvimento e demonstração. O próximo tipo de instância é instância otimizada para
computação. Eles são ideais para aplicativos
vinculados à computação que se beneficiam de processos de alto
desempenho Esse tipo de instância é
otimizado para CPU em comparação com outros poderes
computacionais como memória, armazenamento
e rede Portanto, o
tipo de instância que tem CPUs
mais poderosas está
dentro dessa categoria Vamos falar sobre
seus casos de uso. Isso é ideal para aplicativos que precisam de alta potência computacional. As
instâncias otimizadas para computação são adequadas para mídia de
processamento em lote,
transcodificação, servidores wave de alto
desempenho, computação de
alto desempenho, modelagem
científica, servidores computação de
alto desempenho, modelagem
científica, de jogos
dedicados, mecanismos de
adição de servidores, inferência de
aprendizado de máquina e outros Em seguida, estão as instâncias
otimizadas para memória. Eles foram projetados para oferecer desempenho
rápido para cargas de
trabalho que exigem memória para processar
grandes conjuntos de dados. essas instâncias são otimizadas na Aqui, essas instâncias são otimizadas na
memória quando
analisamos os tipos de instância
na categoria otimizada para memória e na família otimizada para memória. Mais memória do que armazenamento,
CPU e rede. Em outras palavras, os tipos de instância
otimizados para memória são otimizados para memória
em vez de outros recursos. Vamos dar uma olhada em seus casos de uso. Instâncias otimizadas para memória são usadas em aplicativos como bancos de dados de código
aberto, em caches de memória e análises de big data em
tempo real A próxima são as instâncias
otimizadas para armazenamento. As instâncias otimizadas para armazenamento são projetadas para
cargas de trabalho que exigem alto
acesso sequencial de leitura e gravação a grandes conjuntos de dados
e armazenamento local Eles são otimizados para
fornecer dezenas de milhares de operações de entrada e saída aleatória de
baixa latência por segundo aos aplicativos Esse tipo de instância é otimizado no lado da rede
da instância EC two. Ele suporta mais ações de leitura e
gravação no disco. Quando nosso aplicativo
faz muitas
leituras e gravações no banco de dados em
disco ou na rede, devemos usar um tipo de instância
otimizada para armazenamento. Esse tipo de instância maximiza o número de
transações processadas
por segundo ou cargas de trabalho com
uso intensivo de saída e cargas de trabalho
críticas para os negócios Transações por segundo significa o número de transações que a rede pode
processar em um segundo. Se a instância EC two
for capaz de concluir dez transações de e para o
armazenamento sem demora, você pode dizer que
a instância pode processar no máximo dez
transações por segundo. Vamos dar uma olhada em seus casos de uso. O aplicativo tem conjuntos
de dados de tamanho médio que precisam de alto desempenho computacional e transferência de rede Isso inclui bancos de dados
relacionais,
incluindo bancos de dados Mysql, Mariadb, Post Gray
Sql e NOSQL,
incluindo Ke, DB, incluindo Ke, DB, Esse tipo de instância também
é ideal para cargas de trabalho que exigem acesso
muito rápido a conjuntos de dados de
médio porte
no armazenamento local,
como mecanismos de pesquisa e cargas de trabalho de análise de
dados É muita informação. Deixe-me resumir,
isso ajudará você a tomar
a melhor decisão
sobre o tipo de instância O mais importante é
entender essas quatro classificações
principais Depois de entender isso, ele atenderá aos seus casos de uso
mais comuns. Além disso, ao selecionar qualquer tipo de instância para
seu aplicativo, pergunte a si mesmo se
seu aplicativo faz trabalho pesado de
memória ou se
é um trabalho pesado de computação Precisa de muito trabalho? Ou é apenas o
trabalho genérico que ele fará? Depois
de entender a classificação principal, a subclassificação
pode surgir naturalmente Como em uma instância
otimizada para memória, você pode precisar de mais RAM ou
maior memória otimizada. fim, depois de conhecer
o tipo de instância, você deve sempre escolher a instância de
menor tamanho para
executar a experimentação com
base na experiência e no teste, decidindo o
tamanho real da instância como regra geral Sempre escolha um
tamanho de instância menor, o que economiza dinheiro. Isso é tudo para esta lição.
38. Inicie sua primeira instância no EC2: Olá estudantes. Bem vindo de volta. Neste vídeo, lançaremos nossa primeira instância EC two por
meio do console da AWS. Também analisaremos as
diferentes etapas e recursos AWS oferece ao lançar
as duas instâncias EC. Ao final deste vídeo, você poderá iniciar
duas instâncias EC por meio
do console de gerenciamento. Assista ao vídeo até o final
e depois experimente você mesmo. Vamos até o console de
gerenciamento da AWS, digite EC two na
barra de pesquisa e clique no resultado da pesquisa EC two. Vá diretamente para o painel do
EC Two. Como você pode ver, não tenho
instâncias na minha conta. Se clicarmos nas instâncias aqui, você
será direcionado para
a página da instância. Essa página contém a lista de todas as instâncias dessa região. Como não temos
nenhuma instância, a lista está vazia. Vamos lançar nossa primeira instância
EC two. Em primeiro lugar,
certifique-se de escolher uma região próxima
a você ou ao seu cliente. Como estou na Índia, selecionarei a região de Mumbai. Vamos clicar em Launch Instances. Primeiro, temos que escolher uma AMI chamada Amazon
Machine Image. Aqui temos uma lista de
AMIs para você escolher. Tem Amazon, Linux, dois, Max OS, Red Hat e muito mais. Se você olhar o
painel à sua esquerda, verá outras opções. Vamos até minhas AMIs aqui, você verá a lista de
suas próprias AMIs personalizadas. No momento, não temos nenhuma AMI criada
em nossa conta. Não podemos ver nenhuma
AMI listada aqui. A próxima opção é o
AWS Marketplace, onde temos milhares de AMIs criadas por fornecedores
terceirizados Depois, temos as AMIs comunitárias, que são desenvolvidas
pela AWS e seus usuários. Eles são gratuitos para
todos usarem. Observe que você deve sempre ter cuidado
ao usar AMIs criadas por pessoas que não sejam
da AWS ou de fornecedores confiáveis da AWS Pode haver
falhas de segurança neles. Há também um filtro
para mostrar apenas o pneu livre. Isso nos mostrará apenas
as
AMIs elegíveis para pneus gratuitos . Se verificarmos isso para
o propósito desta demonstração, criaremos uma
instância Linux to com o Amazon Linux two. Ami. Essa AMI é elegível para uso
gratuito, que significa que
poderemos
iniciar a instância sem
gastar dinheiro com isso. Selecione Amazon, Linux dois, isso nos levará à etapa dois. Escolha um tipo de instância. Agora, como você pode ver, temos muitos
tipos de instância disponíveis. Basta rolar para baixo e você verá uma longa
lista de instâncias. Temos a opção de filtrar essas instâncias com base na
família e na geração. Temos instâncias com base em
diferentes requisitos. A lista inclui instâncias
com RAM otimizada, CPU otimizada, GPU
otimizada e assim por diante Nesta demonstração,
usaremos o Two Point Micro
porque não
temos requisitos especiais e também queremos
ficar com o pneu livre. Como você pode ver, o
Micro de dois pontos é a única instância
disponível gratuitamente. Em algumas regiões, você também verá Micro de
três pontos. Se você está apenas praticando, certifique-se de sempre escolher
o tipo de instância elegível para pneus gratuitos para evitar qualquer código Agora podemos analisar e iniciar nossa instância imediatamente,
basta clicar aqui. Mas antes de fazer isso,
vamos configurar os detalhes da
instância. Isso abrirá
muitas opções. Vamos explorar alguns
dos parâmetros importantes, um por um. A primeira opção é o
número de instâncias. Se você precisar de
mais de uma instância, poderá alterar isso e criar várias duas instâncias C
com a mesma configuração. Também podemos iniciar uma
instância C two ao iniciar no escalonamento automático clicando no link Iniciar
no grupo de escalonamento
automático Por enquanto, vamos nos limitar
a uma instância. Isso é algo que
abordaremos no próximo módulo. Em seguida, temos a
opção de rede para escolher nossas VPCs. Vamos escolher o Pat Cup VPC que criamos
no laboratório anterior Selecione a sub-rede em que
queremos executar a instância. Como queremos que nossa instância seja acessível
pela Internet, devemos escolher
uma sub-rede pública A próxima opção nos
pergunta se queremos que a
AWS atribua um
IP público a essa instância. Vamos deixar isso
ativado por enquanto. O próximo
parâmetro importante é a função. A função é usada para dar permissões quem pode acessar
essa instância EC two. Vamos selecionar a função que
criamos em nosso primeiro laboratório. Caso queira
criar uma nova função, você pode navegar até o IAM
clicando no link
Criar nova função do IAM
e, em seguida, criar uma função. Clique em Avançar para ir para a
próxima página, Adicionar armazenamento. Como você pode ver, já temos um volume do EBS selecionado para nós Esse é o
volume raiz que contém o sistema operacional
e outros softwares. Para essa instância, vamos adicionar um novo armazenamento
à nossa instância. Clique em Adicionar um novo volume, especifique os parâmetros
do nosso volume. Na coluna do dispositivo, podemos ver o caminho do SDB É o caminho em que nosso
volume será anexado. Vamos deixá-lo como padrão
por enquanto e seguir em frente. Na opção de instantâneo, podemos escolher
criar um novo EBS a partir de um instantâneo que
criamos anteriormente Como não temos
esses requisitos, vamos deixá-lo vazio por enquanto. Em seguida, está o lado do volume. Vamos mudar nosso
volume para dez GBS. A próxima coluna é o volume. Temos todos os SSDs, HDDs e
armazenamento magnético para escolher Se observarmos o
tipo de volume do volume raiz, você verá que temos
menos opções aqui Isso ocorre porque somente SSDs
podem ser um volume raiz. Para uma instância EC two, não
temos a
opção de HDD para o volume raiz Voltando ao nosso novo volume, vamos deixar isso como GP two, que é o SSD de
uso geral A próxima opção é IOPS. Como você pode ver,
não temos opção de mudar isso. Vamos voltar e
mudar nosso tipo de volume. Se escolhermos IO 102 ou GP três, temos a opção de
fornecer IOPS Isso ocorre porque os IOPs
são fixos para o GP dois, volume é de três IOPS por GB.
Vamos entender isso. Se selecionarmos GP dois, novamente, você poderá ver o IOPS 100, que é mais de
três IOPS Como o tamanho do nosso volume é de dez GB, três vezes dez significa que
devemos ter apenas 30 IOPs Isso ocorre porque temos um
mínimo de 100 IOPs para o GP dois. Se mudarmos o lado do
volume para, digamos, 100 GBS, você pode ver
que temos 300 IOPS Agora vamos mudar o lado de volta para dez e escolher o tipo de volume
GP two A próxima opção é a taxa de transferência, que nos dirá a
taxa de transferência do nosso Eu abordarei a taxa de transferência
na tela do EBS. Podemos alterar isso para
apenas um tipo de volume,
o tipo GP de três volumes A próxima opção é a caixa de seleção excluir
na rescisão. Essa é a opção em que
especificamos o que fazer com o volume do EBS após o encerramento da instância EC
two Se tivermos a opção de exclusão no
encerramento marcada, o volume também será excluído quando nossa instância
for encerrada Lembre-se de que, se
você quiser que seus dados permaneçam mesmo após o
encerramento da instância, não se esqueça de desmarcar
essa opção para esta demonstração Vamos deixá-lo como padrão, o que significa que quando o
EC two for encerrado, o volume raiz
também será excluído A próxima página é adicionar tags. Vamos pular isso por enquanto e
passar para a próxima página. Configure o grupo de segurança. A primeira opção é
criar um novo grupo de segurança ou
usar um existente. Como não criamos nenhum grupo de segurança
em nossa conta, vamos criar um aqui. Você pode alterar o nome
e a descrição do grupo de
segurança conforme desejar. A próxima opção e a mais
importante é configurar as regras do grupo
de segurança. Como você pode ver, a AWS
já adicionou um S padrão que é um grupo de segurança de
shell seguro. Esse grupo nos permite usar SSH
em nossa instância EC two. Mas por que ainda
temos um aviso? Isso porque, se você
ver a coluna de origem, essa regra SH está aberta a todos os endereços IP,
isso é um problema. Vamos alterar esse valor
para algo como
123,123 0,123 0,123 E Como não temos sistemas de missão
crítica aqui, vamos alterá-lo de volta
para 0,0 0,0 0,0 por zero. Não é a melhor
prática permitir SSH de qualquer IP no mundo Se você tiver duas instâncias
EC de produção, certifique-se de alterar esse valor para seu
próprio intervalo de endereços IP. Vamos adicionar uma nova regra para permitir conexões
HTTP
à nossa instância. Como você pode ver, a escolha do HTTP fixou nossos
protocolos no TCP e na porta 28, que é o protocolo e a porta
HTTP padrão Queremos que todos possam
fazer conexões HTTP com
essa instância. Vamos deixar a fonte
como padrão aqui. A última coluna é para adicionar
uma descrição à regra. Não vamos adicionar nenhuma regra aqui. Agora que configuramos o grupo de segurança
da instância C two, vamos prosseguir com a
análise e a execução. Você pode ver todos os parâmetros
da nossa instância C two. Aqui, clique em Iniciar. Agora precisamos
especificar um par de chaves, já que não temos nenhum
par de chaves existente para nossa conta Vamos criar uma
opção para criar um novo par de chaves e adicionar
um nome de par de
chaves para nosso exemplo Vamos nomear o
Keypair empacotado. Clique no gerenciador de downloads e você verá que um
arquivo Pm foi baixado. É importante
manter esse arquivo seguro pois isso será necessário para
acessar nossa instância EC two. Além disso, lembre-se de que ele não pode
ser baixado novamente. Clique em Launch Instance e isso nos levará
à página final. Se você clicar em
Exibir instância, verá que a AWS está criando
uma instância EC two para você. Toda a vantagem da
nuvem é que eu poderia lançar 100 instâncias como essa
em apenas alguns cliques. A computação em nuvem é muito
flexível e
fornece acesso rápido ao
poder de computação sempre que você precisar. Como você pode ver, a
instância está em execução. Agora, se você clicar
na caixa de seleção, encontrará todos os detalhes da
instância, os grupos de segurança IP públicos, verificações de
integridade e assim por diante. Sempre que você precisar de detalhes
sobre as duas instâncias do EC, é
aqui que você as
procurará. Se você clicar nas Opções
de
volumes no painel esquerdo, também
poderá ver que os dois
volumes do EBS que criamos, um volume raiz de oito GB e um volume extra de
dez GB que
criamos separadamente,
chegaram ao final deste laboratório No próximo laboratório,
instalaremos o HTTPD em nossa instância EC two e veremos um
pequeno site HTTPD. Estudantes, é assim que
lançamos duas instâncias da EC. Na próxima lição,
continuaremos essa
discussão e veremos como podemos avaliar H em nossa
instância e assim por diante. Obrigada.
39. Instância de SSH EC2, instale Httpd: No vídeo anterior, criamos nossa primeira instância EC
two e
analisamos vários parâmetros e opções ao criar
a instância. Neste vídeo, entraremos em SSH na instância C two usando
o sistema operacional Linux
ou Mac, instalaremos o serviço STTPD e iniciaremos um
aplicativo de teste em Também veremos
como encerrar
a instância para
evitar custos inesperados Se você está se perguntando
o que é SSH
, o SSH é uma forma de
controlar uma máquina remota
usando a linha de comando Usando o SSH, podemos fazer
login na instância EC two e realizar qualquer tipo de operação, como
fazemos em nossos laptops Vamos começar acessando
o console da AWS. Agora, vamos digitar EC two
na barra de pesquisa e clicar em EC two para ir
diretamente para o painel EC two. Como você pode ver, temos nossa instância em
execução. Se você se lembra
do laboratório anterior, eu lhe disse para preservar o arquivo Pm que foi baixado durante a
criação da instância. Não que, sem o arquivo Pm não
possamos entrar por SSH na instância Caso tenha perdido
ou excluído o arquivo, você precisará recriar
a instância com
um novo pagador de chaves A próxima
coisa importante que você deve garantir é que seu grupo
de segurança tenha regras para permitir SSH na porta
22 e STTP na porta 80 Vamos encontrar o
IP público dessa instância. Clique na caixa de seleção aqui, agora você pode ver todos os detalhes sobre a instância
EC two selecionada Aqui está meu IP público. Vamos copiar esse valor. Agora, vamos prosseguir com o
SSH em nossa instância. Para isso, você precisa abrir um terminal e digitar
o comando S C two como usuário
no endereço IP da data. C two user é o
nome de usuário padrão para todas as AMIs do
Amazon Linux. Vamos executar esse comando. Como você pode ver, o comando falhou com a permissão negada. Isso é esperado, pois
não queremos que ninguém
possa acessar nossa
instância EC two apenas de um IP público. É aqui que usaremos
o arquivo Pm que baixamos. Iremos para a pasta onde
eu armazenei o arquivo. Como você pode ver, eu tenho meu arquivo
pm nesta pasta. Agora vamos executar
o mesmo comando, mas também
adicionaremos o arquivo chave. Agora, o comando é C two
user no endereço IP. Agora estamos fazendo a
mesma coisa de antes, mas aqui também estamos
dizendo à AWS que temos um arquivo de chave para
entrar na instância. Clique em Enter. Agora, recebemos outro erro de
permissão negada. Essa é uma etapa importante e uma pergunta popular nos exames da AWS Por que esse
acesso é negado? Diz um aviso: arquivo de chave
privada desprotegido. Quando baixamos
o arquivo pela primeira vez da AWS para
uma instância Linux, ele tem as permissões 0644 Como você pode ver aqui, essas permissões
são muito abertas para um arquivo de chave, pois as permissões
são inadequadas O Aws não permite que você
faça SSH na máquina. A correção que você pode executar é o mod
0400 incluído. Pague. Isso alterará as
permissões do arquivo
0644-0400, que é Vamos executar o mesmo comando. Novamente, como você pode ver, o comando agora foi executado com sucesso e estamos
na instância EC two. A primeira coisa a fazer quando
entramos na instância EC two é executar o comando
pseudo, um, update Esse comando atualizará todos os pacotes desatualizados
na instância Se houver algum
para instalar o STTPD,
execute o comando pseudo
install STTPDasy execute o comando pseudo Agora temos o STTPD instalado
em nossa máquina EC, mas também precisamos iniciar
o serviço STTTPD Para iniciar o serviço STTPD, precisamos executar outro comando, pseudo Inicie o STTPD. Esse comando não tem saídas. Vamos verificar o
status do STT PD
executando o pseudo sistema
CTL Como você pode ver, temos
um processo em execução. Vamos agora acessar o painel
EC two e selecionar a instância EC two. Precisamos copiar o endereço IP
público e colá-lo em nosso navegador. Agora você pode ver o aplicativo STTPD
padrão implantado em sua instância
EC two Vamos agora encerrar
a instância EC two. Você pode fazer isso
clicando na instância. Acesse Accents, clique em
Manage Instance State e encerre a Isso encerrará
sua instância EC two. Se você se lembra, anexamos um volume do EBS à nossa instância no laboratório anterior, que tinha
o sinalizador de exclusão
na terminação desformatado Isso significa que, mesmo que nossa instância esteja
sendo encerrada, uma das
instâncias do EBS permanecerá Vamos dar uma olhada
no painel Volumes. Você pode ver a raiz
e o volume adicional. Se você atualizar em algum
momento, o volume raiz, que era de oito GB,
desaparecerá da lista, mas ainda temos o volume de dez
GB no painel Vamos prosseguir e excluir também
o volume do EBS. Vamos agora verificar
o grupo de segurança. Como você pode ver, até mesmo
o grupo de segurança que
criamos também
não foi excluído. Não vamos excluí-lo. Os grupos de segurança são
gratuitos. Não há mal nenhum em ter um grupo de segurança disponível
para nossos próximos laboratórios Da mesma forma, o Keypair
empacotado não foi excluído e você pode mantê-lo em sua conta
sem cobranças Nesta sessão,
pudemos avaliar com sucesso o H em uma EC de duas
instâncias, instalar o STTPD e acessá-lo a partir de um navegador Isso é tudo para esta sessão.
40. Criando uma instância no Windows EC2: Nos dois últimos vídeos, lançamos o Linux C em
duas instâncias, instalamos STTPD e o acessamos em nosso navegador
da web Neste vídeo, mostraremos as
etapas para iniciar uma
instância do Windows C two e como acessá-la. Isso
será bastante semelhante à instância Linux C two, demonstração prática, apenas algumas configurações serão
diferentes. Vamos começar. Vamos para o
console de gerenciamento da AWS, digite C dois
na barra de pesquisa e
clique no resultado da
pesquisa EC dois para ir
diretamente para o painel EC dois. Como sempre, é
importante escolher uma região próxima
a você ou ao seu cliente. Vou selecionar a região de Mumbai. Vamos clicar em Launch Instances. Primeiro, precisamos escolher uma AMI chamada Amazon
Machine Image. Desta vez, vamos selecionar
a AMI do Windows. Vamos digitar Windows na opção
Pesquisar e pressionar Enter. Podemos ver a AMI do Windows aqui, e essa AMI é elegível para uso
gratuito, o
que significa que
poderemos lançá-la sem
gastar nenhum dinheiro com isso. Vamos selecionar isso e será
necessário o segundo passo. Escolha um tipo de instância. A AMI é apenas a
diferença entre lançar duas instâncias EC
baseadas em Linux e Windows. O resto da
configuração será o mesmo ou você poderá alterar
outras coisas, se quiser. Agora, como você pode ver, temos
muitos tipos de instância disponíveis. Novamente, usaremos o
micro de dois pontos porque não
temos requisitos especiais e também queremos
ficar com o pneu livre. Vamos clicar em Configurar detalhes da
instância. Como você sabe aqui, forneceremos todas as configurações
relacionadas à instância Vamos usar a
configuração padrão e verificar
se o IP público
atribuído automaticamente está habilitado. Como precisamos de um IP público para
acessar a instância EC two, clique em Avançar para ir para a
próxima página, Adicionar armazenamento. Como você pode ver, já temos um volume do EBS selecionado para nós Esse é o volume raiz que contém o
sistema operacional dessa instância. A próxima página é Adicionar tags. Vamos pular isso por enquanto e
passar para a próxima página. Configurar o grupo de segurança. Vamos alterar o nome
e a descrição do grupo de
segurança conforme desejar. Veja, temos o
tipo RDS em vez do intervalo de portas
SSH
3398 no Isso ocorre porque o Linux
e o Windows usam tecnologias
diferentes para
estabelecer uma conexão remota. Não precisaremos fazer mais
nada aqui, vamos prosseguir com a
revisão e o lançamento. Você pode ver todos os parâmetros
da nossa instância EC two. Aqui, clique em Iniciar. Agora precisamos
especificar um par de chaves. Vou usar a mesma chave
que criei da última vez. Eu vou aceitar isso,
eu tenho a chave. Clique em Launch Instance e isso nos levará
à página final. Se você clicar na instância, verá que a AWS está criando
uma instância EC to para você. O estado da instância está pendente, o que significa que a
instância está sendo criada. Levará alguns minutos para mudar o estado para em execução. Como você pode ver, a instância está execução agora e, se você
clicar na caixa de seleção, encontrará todos os detalhes da
instância, grupos de segurança de IP públicos,
as verificações de
saúde e assim por diante Sempre que você precisar de detalhes
sobre as duas instâncias do EC, é
aqui que você as
procurará. Vamos selecionar as duas instâncias
EC. Aqui na parte superior, você clica em Conectar. Agora, aqui temos três opções para nos conectarmos a essa instância
EC two. Vou selecionar a
segunda guia, cliente RDP. Aqui você pode baixar
o cliente RDS que usaremos para fazer o
RDS na instância Agora clique em Obter senha. Você pode copiar e colar conteúdo
principal aqui ou
carregá-lo clicando no navegador. Vou fazer o upload e clicar em
Descrever senha. Agora, essa é a senha que
vou usar para me conectar
à instância C two. Copie a senha daqui. Agora vamos abrir o cliente que você baixou com base no sistema
operacional do
seu laptop ou computador. Ele terá uma interface
diferente. Estou usando um Mac. Vou postar a senha aqui. Ele já selecionou um usuário
para mim e continuará. Vou clicar novamente em Continuar. Agora, aqui estou eu na minha máquina EC
two Windows. Isso é basicamente o que você faz para iniciar uma instância do Windows. Com isso, chegamos
ao fim deste laboratório. Isso é tudo para esta sessão.
41. Serviço de contêiner elástico ECS: Olá, estudantes. Bem vindo de volta. Neste vídeo, aprenderemos sobre um dos
serviços de computação da AWS, que é o Elastic
Container Service, também conhecido como ECS Entenderemos o que é o ECS, seus tipos e, o mais importante, seus casos de uso.
Vamos começar. Antes de entendermos o serviço de contêiner
elástico, vamos entender rapidamente
o que é um contêiner. Porque o ECS é desenvolvido com
base na tecnologia de contêineres. Quando desenvolvemos aplicativos, eles funcionam em nosso computador. Mas eles quebram assim que
movemos esses aplicativos
para outra máquina. Isso pode ser devido a
vários motivos. Pode ser o sistema
operacional diferente, uma versão diferente da
dependência, etc Como resolvemos esse problema? Bem, os contêineres são a
solução para esse problema. Os contêineres de aplicativos são
unidades de suporte que contêm o
código e as dependências do aplicativo, configuração, a rede
e, às vezes, até mesmo uma parte
do sistema operacional Essencialmente, todo o
software necessário para executar seu aplicativo é
colocado dentro de um contêiner. Os contêineres
possibilitam
que você execute seus aplicativos
em qualquer máquina. Você pode ter certeza de que,
se funcionar em um sistema, funcionará em todos os sistemas. Docker é a plataforma de software mais
usada que
permite que seus usuários criem
aplicativos e contêineres Você pode instalar o Docker em sua máquina e criar um
contêiner para qualquer aplicativo Não precisamos discutir o Docker
em detalhes neste momento. Vamos seguir em frente e
entender o que é o ECS. O Amazon ECS é um serviço de
orquestração de contêineres totalmente gerenciado que facilita
a implantação, o
gerenciamento e a escalabilidade
de aplicativos em contêineres gerenciamento e a escalabilidade Isso significa que o ECS
facilita o uso e o gerenciamento de contêineres do
Docker Ao usar o ECS, você não precisa instalar, operar ou escalar
seus contêineres A Ecs cuida de todas
essas tarefas para você. Integra-se profundamente
com o resto
da plataforma AW para
fornecer uma solução segura e
fácil de usar para executar
cargas de trabalho de contêineres na nuvem Para entender o ECS,
você deve conhecer alguns termos usados com frequência
na definição de tarefas do ECS. A definição de tarefa é
um script Jason que contém vários parâmetros
para executar seu aplicativo Em palavras simples, a definição da tarefa diz ao ECS como
executar um contêiner Por exemplo, você pode definir
exatamente a quantidade de RAM e CPU um contêiner precisará ou em qual porta EC
seu aplicativo deve ser iniciado. O Ecs garantirá então que
todos os seus requisitos sejam atendidos quando o ECS executa um contêiner Com base na definição da tarefa, ela é conhecida como função da tarefa. Seus contêineres podem executar várias operações na AWS. Por exemplo, um contêiner pode
precisar ler mensagens de um SQSQ ou interagir com o S three ou qualquer
outro serviço da AWS Portanto, você precisa dar
permissão para realizar suas tarefas. Isso é feito
usando a função de tarefa. Uma função de tarefa é uma função do AWS IAM definida na definição
da tarefa. Essa função é usada para fornecer à
AWS acesso às tarefas do ECS. Agora vamos ver como
tudo isso se parece no ECS. Você precisa de um cluster ECS para executar seu
aplicativo de contêiner Esse cluster ECS é composto por duas ou mais instâncias EC two
chamadas instâncias de contêiner Então, temos serviços que abrangem essas duas instâncias
disponíveis. É aí que o ECS cria uma
tarefa ou um contêiner docker. Uma das primeiras coisas
a fazer ao usar o ECS é fornecer e
manter a infraestrutura A Ecs então se encarrega de iniciar e parar os
contêineres para você Você pode fazer isso de
duas maneiras: usando tipos de lançamento do
ECS que estão longe do tipo de lançamento
e do tipo EC de dois lançamentos No tipo de inicialização C two, configuramos e implantamos duas instâncias
EC em seu
cluster para executar seus contêineres. O Ecs gerencia os contêineres
nessas duas instâncias do EC. Para usar o tipo EC two
launch no ECS, você precisa criar duas instâncias
EC manualmente ou usar grupos de
escalonamento automático Tipo de lançamento de destino, essa é uma opção de pagamento
conforme o uso sem servidor Você pode executar contêineres sem precisar gerenciar
sua infraestrutura Podemos usar o tipo de lançamento
Farget e esquecer tudo sobre a
criação do EC two Informamos ao ECS o número
de contêineres a serem executados e a quantidade de RAM e CPU que um contêiner
deve ter O Ecs Farget garante que
sempre tenhamos recursos suficientes
para lançar Isso é tudo para esta sessão.
42. AWS Elastic Beanstalk: Olá, estudantes. Bem vindo de volta. Neste vídeo,
aprenderemos sobre um dos serviços de computação
da
AWS, o Elastic Beanstock Abordarei o que é o
Elastic Beanstock, seus recursos e, o
mais importante,
suas aplicações .
Vamos começar. Aws é líder em computação em nuvem com cerca de 200 serviços. É por isso que se deve
conhecer a maioria dos serviços. Para implantar aplicativos na AWS e gerenciá-los com eficiência. Primeiro, você precisa conhecer vários serviços da AWS e como usá-los de maneira
econômica. Isso é bom quando você tem vários aplicativos
ou um aplicativo grande. Mas e se você
tiver apenas um aplicativo web? Passar dias
aprendendo a AWS apenas para implantar uma aplicação web não
é uma abordagem muito
eficiente. Mesmo depois de aprender a AWS, você precisa se esforçar manter sua
infraestrutura na AWS. Como desenvolvedor,
você não quer
se preocupar com a escalabilidade da infraestrutura, com a
configuração de conexões, bancos de dados e Você deseja implantar
e repousar aplicativos rapidamente. Esse é o problema que o
Elastic Beanstock resolve na AWS. Elastic Beanstock
é um
serviço fácil de usar para implantar e
escalar Também é conhecido como B. Essa é uma plataforma como
serviço oferecida pela AWS. Para usar o elastic beanstock, você cria um aplicativo, carrega uma versão do aplicativo na forma de um pacote de
origem
do aplicativo,
por exemplo, um arquivo
Java para o elastic beanstock
e, em seguida, fornece algumas informações Elastic Beanstock
lança automaticamente uma invenção e
cria e configura os recursos
da AWS necessários para Depois que seu envolvimento
for iniciado, você poderá gerenciar seu ambiente e implantar
novas versões do aplicativo. Depois de criar e
implantar seu aplicativo, as informações sobre
o aplicativo,
incluindo métricas, eventos
e status do ambiente, ficam disponíveis por meio
das APIs do
console do Elastic Beanstock ou das interfaces de
linha de comando, incluindo a AWS CLI unificada Como desenvolvedor, se você usa o EB, pode implantar aplicativos sem provisionar a infraestrutura
subjacente A AWS garantirá que sua infraestrutura esteja
pronta e altamente disponível. Internamente, o EB Re usa todos os componentes que vimos antes, como RDS, balanceadores de carga e
EC two, para executar aplicativos, mas você pode usar o EB sem nenhum outro conhecimento
desses É um serviço gratuito por si só, mas você paga pela infraestrutura
subjacente
provisionada usando o beanstock Agora, vamos dar uma olhada em como Elastic Beanstock funciona na AWS Temos uma conta da AWS
e uma VPC dentro dela. Aqui, criaremos um ambiente elástico de
Beanstock. Como sabemos, a Beanstock
criará toda a
infraestrutura subjacente, como EC,
duas instâncias, balanceamentos de carga, bancos de dados,
grupo de segurança Como desenvolvedor, você só se
preocupa com seu código. Eles querem ter certeza de que
passarão seu tempo
escrevendo um ótimo código, testando-o e tendo toda a
infraestrutura subjacente gerenciada para eles. Nesse caso, temos um desenvolvedor que tem um
arquivo de guerra com seu código. Realmente não
precisa ser um arquivo de guerra. Também pode ser código Zip ou
Github. Ele pode implantar esse arquivo
war usando o
console de gerenciamento do EB ou o EVCLI Em seguida, o Beanstock implantará o aplicativo e fará o
resto da configuração,
como o balanceamento elástico de carga, o grupo de escalonamento automático, as instâncias e até mesmo
um banco de dados, só Agora, a escalabilidade de aplicativos, a atualização do
sistema operacional, a aplicação de patches, as métricas de
registro e tudo é feito pela
Elastic Beanstock Como desenvolvedor, você pode se
concentrar nos recursos do seu aplicativo
e da empresa. Agora vamos dar uma olhada nos recursos do
Elastic Beanstock. Ele suporta diferentes linguagens de
programação como Java.net PHP, Node JS, Python,
Ruby, Go Ele se integra ao
Amazon VPC e lança recursos
da AWS, como EC,
duas instâncias na Ele se integra ao gerenciamento de
identidade e acesso da AWS e ajuda você a
controlar com segurança o acesso aos
seus Você também pode
integrar o cloudfront. Cloudfront pode ser usado para
distribuir o conteúdo em S três depois que um beanstock elástico
é Ele suporta a execução de instâncias do
RDS no ambiente elástico de
beanstock, que é ideal para
desenvolvimento Elastic Beanstock é uma
excelente opção para você
implantar seu aplicativo na nuvem
da AWS em minutos Você não precisa de nenhuma
experiência e conhecimento de computação
em nuvem para começar
a usar o Elastic Beanstock Você cria ambientes de
aplicativos EV e especifica alguns parâmetros
e pronto. Isso é tudo para este vídeo.
43. Computing sem servidor: Olá estudantes. Bem-vindo de volta. Neste vídeo,
entenderemos o conceito de servidor
sem servidor e por que ele é mais popular na computação em
nuvem. Vamos começar. Na maioria dos serviços que
vimos até agora, o
processo de desenvolvimento e implantação tem sido o mesmo. Desenvolva seu aplicativo,
aloque a infraestrutura
e, em seguida, implante e execute o aplicativo nessa infraestrutura
alocada É assim que deveria ser. Você sempre precisa de um servidor
subjacente para executar o código do aplicativo. Sempre houve a necessidade de
provisionar e manter
nossa infraestrutura. É aqui que a tecnologia sem servidor
entra em cena. Sem servidor tem sido
a palavra de ordem. No mundo da computação em nuvem, muitos aplicativos estão seguindo a arquitetura
sem servidor O termo vem da ideia que a infraestrutura
usada para executar seus aplicativos não precisa
mais ser provisionada ou mantida
por você ou sua equipe Menos servidores também pode
ser confuso,
porque em
arquiteturas sem servidor Isso não significa que seu aplicativo não
tenha nenhum servidor subjacente. Só que não há necessidade se preocupar com o
gerenciamento do servidor. Se você é um usuário final, é melhor que ele não exista porque você nunca
precisa se preocupar com servidores, daí o termo sem servidor Mas há um servidor e
seu provisionamento e manutenção são totalmente gerenciados
pelo Se colocarmos isso na terminologia da AWS, você não precisará mais criar
uma instância fácil de instalar,
configurar e manter um sistema operacional
para seu aplicativo Isso significa que delegamos toda a
responsabilidade
de gerenciar o servidor
subjacente e tudo está resolvido O servidor pode ser escalado automaticamente e cobrar de
acordo com seu uso. serviços sem servidor se tornaram extremamente populares em muitos aplicativos
modernos em nuvem Agora, vamos ver os
benefícios da tecnologia sem servidor. Com a tecnologia sem servidor,
não há instâncias para gerenciar. Você não precisa
provisionar nenhum hardware. Não há gerenciamento de sistemas
operacionais ou software. O provisionamento de capacidade
e a aplicação de patches são todos gerenciados Também pode ser muito barato executar serviços sem
servidor. Você só é cobrado
pelo que usa. O código só é executado quando as funções de
back-end são necessárias para o servidor, menos o
servidor de aplicativos é escalado automática e elástica Ele também possui
alta disponibilidade integrada. Basta implantar o
código como desenvolvedor e ele se
expande automaticamente conforme necessário. Suponha que uma função precise
ser executada em várias instâncias. Nesse caso, os
servidores começarão a ser executados e encerrados conforme necessário,
geralmente usando contêineres Como resultado, um
aplicativo sem servidor
processará um
número anormalmente alto de solicitações Mas em um aplicativo
estruturado tradicional com uma quantidade limitada
de espaço no servidor, ele fica sobrecarregado quando há um
aumento repentino no uso Isso é tudo para este vídeo.
44. AWS Lambda: Olá, estudantes. Bem-vindo de volta. Neste vídeo,
entenderemos o AWS Lambda.
Vamos começar. Lambda é um
serviço sem servidor que permite executar código sem provisionar
ou Diferentemente das duas instâncias em nosso aplicativo precisa
ser executado continuamente, AWS Lambda nos permite escrever funções que podem
ser executadas sob demanda As funções do AWS Lambda
podem ser acionadas por eventos dentro ou fora
da conta da AWS e não precisam
continuar em execução Por exemplo, você pode escrever uma função para realizar uma tarefa de processamento de
arquivos. E será acionado quando os dados forem enviados para
o serviço S three. Toda vez que um arquivo é
carregado no S three, agora
você tem uma
função que executará e
processará automaticamente esse arquivo. Ou você pode ter uma
função lambda que busca valores de um banco de dados para
seu aplicativo de front-end Há várias maneiras de
usar as funções lambda. Ele pode ser usado para
qualquer coisa, desde executar pequenas tarefas individuais até substituir aplicativos de
back-end inteiros. Você também deve observar que as funções lambda da AWS se
destinam apenas a execuções curtas Você só pode executar código no Lambda por no máximo
15 minutos, o que é um tempo razoável para a maioria dos casos
de uso Observe aqui que isso
muda o tempo todo. Eu recomendaria verificar documentação
da AWS
para obter atualizações recentes. Mas se você tiver um único processo que leve mais de
15 minutos para ser executado, precisará implantá-lo em
um servidor como o EC de duas
instâncias ou contêiner. Vamos dar uma olhada em alguns
outros recursos do AWS Lambda. O primeiro recurso vem
aqui, o escalonamento automático. Quando usamos duas instâncias EC, embora tenhamos um
grupo de escalonamento automático para escalar nossa
infraestrutura, ainda
precisamos criar políticas de
escalabilidade manualmente Precisamos dizer à AWS que adicione ou remova instâncias com
base nos alarmes do Cloud Watch Em comparação, o AWS Lambda
pode escalar automaticamente. Vamos dar o mesmo exemplo
do Lambda de processamento de arquivos que é executado toda vez que um arquivo
é carregado no S three. O que acontece quando você carrega, digamos, 500 arquivos? Você terá 500 funções
lambda executando suas tarefas de
processamento de arquivos Esse é o poder da tecnologia sem servidor. Você não precisa se preocupar em
escalar sua infraestrutura. A AWS garante que você sempre tenha recursos suficientes
para executar seu código. Observe aqui que a AWS tem um limite de cota de serviço de 1.000 Lambdas executando
simultaneamente Em nosso exemplo, você pode ver algumas falhas de lambda ao fazer upload de mais de 1.000
arquivos para o S three. Esse limite foi
estabelecido para evitar o uso indevido de sua conta e evitar
cobranças indesejadas Se seus casos de uso
exigirem mais de 1.000 funções do Lambda
em execução simultânea, você pode
aumentar esse limite com o suporte da AWS O próximo recurso é o preço
pago por usuário. O próximo e mais
lucrativo recurso do Lambda é que ele paga por uso Isso significa que você paga
pelo tempo em que seu código é executado. Não há cobranças quando
seu código não está sendo executado. Suponha que seu
lambda de processamento de arquivos seja executado por 1 minuto. Você paga apenas o
custo computacional de 1 minuto. Se você tiver dez Lambdas
em execução por 1 minuto, pagará por 10 minutos de tempo de
computação e assim por diante O próximo recurso é o Ram. As funções do Lambda podem obter
recursos de até GB de RAM. Também é importante
observar que, quando você aumenta a RAM da sua função Lambda,
sua CPU e a capacidade
de
rede do Lambda também melhoram Este é um tópico de exame moderno. Como você aumentará a
CPU e a rede do Lambda? A resposta é
a necessidade de aumentar a RAM. O próximo recurso é a integração. Como eu disse antes, AWS Lambda tem muitos casos
de uso e foi integrado
a muitos serviços da AWS Vamos dar uma olhada em algumas
das principais integrações
e seus casos de uso No primeiro caso de uso no S três, como no exemplo que
tomamos até agora, você pode executar um lambda em diferentes tipos de
eventos no S três. O próximo é o Dynamodb. Você pode criar um gatilho
para que o Lambda seja acionado sempre que um evento
acontecer em nosso Dynamodb, que é um O próximo é o gateway de API. integração entre o Lambda e o API gateway é um dos casos de uso mais
usados do Lambda Api Gateway é um serviço
da AWS usado para
criar APIs restantes Na AWS, você pode
colocar lambda atrás um gateway de API e criar um endpoint de API Rest para
chamar sua função lambda O próximo é o SNS, você pode ter uma
função lambda que reage às notificações
em um O Sns está ainda mais integrado com possivelmente todos os tipos de
eventos no console da AWS Com essa integração, todos esses eventos podem ser usados
para acionar funções do Lambda O próximo é o SQS. O Lambda pode ser usado para
processar mensagens em SQS Qs. O último são os eventos do
Cloud Watch. Você também pode executar funções
lambda com eventos do
Cloud Watch Vamos finalmente dar uma olhada em alguns pequenos exemplos
de funções Lambda Como você pode ver, temos nosso aplicativo de front-end em
execução em duas instâncias EC. Então, temos um gateway de API que chama nossas
funções lambda para o back-end Essa função lambda
também foi integrada ao RDS e busca e armazena
dados no banco de dados do Por outro lado, temos
o aplicativo de front-end, enviando tarefas para as dicas do SQS, que foi integrado Para processamento de mensagens, você pode criar um evento do cloudwatch que é acionado Como você pode acionar o Lambda
a partir de um evento do Cloudwatch, você pode ter uma
função do Lambda Esse é um caso de uso popular e pergunta de
exame sobre como executar um lambda para executar um trabalho baseado em
comandos A resposta são os acionadores de
eventos do Cloudwatch. Isso é tudo para esta sessão.
45. Tipos de dados: Olá, estudantes. Bem-vindo de volta. Como você sabe, este módulo
é sobre bancos de dados. Mas antes de
entrarmos nos bancos de dados, entenderemos rapidamente
os dados e seus tipos. Decidimos por um banco de dados
apropriado com base na natureza de nossos dados. Portanto, é muito importante entender os dados e seu tipo. Vamos começar com
os tipos de fonte de dados. Existem três tipos
de fontes de dados:
estruturadas, não estruturadas
e semiestruturadas Primeiro, vamos entender os dados
estruturados. São dados que têm tipos de
dados predefinidos e são armazenados
em um formato especificado Vamos entender o tipo de dados
predefinido e o formato específico com
um exemplo de lista telefônica Nesta tabela, você pode
ver que a linha superior tem nomes
diferentes que definem que tipo de dados estão presentes
em diferentes colunas. Por exemplo, o número de série representa o número
de conjuntos de dados que temos. A coluna do primeiro nome terá o primeiro nome de cada
entrada em nossos dados. Esse é um formato. Se quisermos adicionar qualquer outro
detalhe pessoal a esses dados
, teremos que criar
uma nova coluna para eles. Digamos que você também queira
adicionar um endereço. Nesse caso, você precisa adicionar um cabeçalho adicional,
chamado endereço. Só então você pode adicionar
endereços a esses dados. Basicamente, esse é
um formato específico. Agora vamos entender
os tipos de dados. Como você pode ver,
temos números nas colunas de número de série e número de
telefone,
e as colunas de nome e
sobrenome têm corretores De acordo com as colunas definidas, espera-se que
você
insira números
nas colunas de número de série
e número de
telefone e caracteres na coluna nome e sobrenome. Isso significa que está
definido que tipo de dados podemos
inserir em diferentes colunas. Os dados da estrutura são armazenados como
uma série de valores de dados em tabelas
definidas gerenciadas por um mecanismo de banco de dados
, como o my Esque Esses dados são altamente estruturados. É por isso que é
muito fácil de analisar e pode ser usado em consultas
altamente complexas O próximo tipo de dados são dados
não estruturados. Os dados não estruturados têm
uma estrutura interna, mas não contêm um modelo de dados
predefinido Considere um vídeo, por exemplo. Também são dados,
mas a forma como
são armazenados é diferente dos dados estruturados. Esse tipo de dado
geralmente está na forma de arquivos armazenados em um
armazenamento como o Dropbox Dropbox é como uma unidade de armazenamento onde você pode armazenar arquivos de texto, fotos, vídeos etc Os dados não estruturados como um todo são informações irrelevantes Exemplos de
dados não estruturados são mensagens de texto, documentos, vídeos,
fotos e outras imagens Esses arquivos não são organizados, eles só podem ser colocados em um sistema de arquivos ou armazenamento de objetos. Se você quiser obter informações
significativas desses dados, precisará processá-los. Você precisa de ferramentas especiais para consultar e processar os dados
não estruturados O último tipo de dados são dados
semiestruturados. Dados semiestruturados são uma
forma de dados estruturados. A única diferença é que os dados
semiestruturados
são flexíveis e podem ser atualizados sem alterar o esquema de
cada registro em uma tabela Esse é um exemplo de dados
semiestruturados. Como você pode ver aqui, há dois conjuntos de dados e
eles têm a mesma aparência, certo? Se você notar que o
segundo dado tem um endereço de
informação adicional. Os dados semiestruturados permitem que
o usuário capture dados
em qualquer estrutura à medida que os dados
evoluem e mudam com o tempo Semis, os dados da estrutura são
armazenados em arquivos Jason que são carregados em um
mecanismo de banco de dados, como o Mongo Esses dados são altamente flexíveis
porque a estrutura
não é rígida e pode ser alterada
conforme necessário na tabela. Você também pode analisar dados
semiestruturados. Isso é tudo que eu queria
abordar nesta sessão.
46. Bancos de dados relacionais: Olá estudantes. Bem-vindo de volta. No último vídeo, você entendeu três
tipos de dados:
estruturados, não estruturados
e semiestruturados Como a natureza desses
dados é diferente, eles serão armazenados de forma diferente. Neste vídeo, vamos
entender onde e como
esses dados serão armazenados. Ao final deste vídeo, você saberá por que armazenamos dados
estruturados em um banco de dados
relacional Vamos começar com um exemplo. Costumamos usar uma
planilha ex Cel para armazenar dados, certo? Isso porque é
mais fácil organizar e gerenciar os dados no Excel
do que em qualquer outra ferramenta. Esse tipo de dado é
conhecido como dados de estrutura. Discutimos isso
na última sessão. As planilhas do Excel são boas
para dados pessoais, mas se você
pensar em grandes empresas, esse é um
mundo completamente diferente Eles lidam com grandes
quantidades de dados, o que é muito
difícil de armazenar e gerenciar. Quando os dados crescem,
isso geralmente também leva à inconsistência e
redundância dos
dados Suponha que tenhamos uma planilha armazena os dados de
registro do curso dos alunos Agora, dê uma olhada no estudante de Sham
Singh com número 101 de identificação
estudantil
armazenado mais de uma vez Isso é chamado de redundância de dados. Outro problema pode ser, digamos que a Samsung
mude seu sobrenome. Nesse caso, seu sobrenome deve ser alterado
em todos os nossos dados. Caso contrário, isso pode levar
à inconsistência dos dados. Para sistemas de dados pequenos, poderia ser mais fácil de resolver. Mas quando o
sistema de dados é enorme, é difícil
gerenciar os dados. Para evitar
esses problemas, usamos tecnologia baseada em dados. É uma
coleção organizada de dados para que possam ser facilmente
acessados e gerenciados. Agora, digamos que você queira
enviar um e-mail para Kishor. Assim, há outra folha que contém
detalhes dos alunos, como e-mail, identificação, número de telefone, etc Desde a primeira planilha, sabemos que o Kiss está no RH, mas não conseguimos encontrar o Kiss
na folha de detalhes do aluno. Isso significa que nossos dados
são inconsistentes. Podemos resolver esse
problema com algumas regras, por
exemplo, um aluno não pode se inscrever no curso
sem se inscrever. Dessa forma, teremos todas as planilhas preenchidas
para cada aluno O ponto aqui é que
as duas planilhas do Excel têm uma relação e seguem uma determinada
regra em relação aos dados organizados. Isso é conhecido como dados de relação, que traz o conceito
de banco de dados relacional Um banco de dados é uma
coleção organizada de dados relacionados. É uma coleção organizada
porque em um banco de dados, todos os conjuntos de dados são descritos
e relacionados entre si Os dados são organizados em relações como em um banco de dados relacional Cada tabela tem um conjunto que
define a estrutura de dados, esquema de
dados armazenado na tabela Um registro é um conjunto
de campos em uma tabela. Você pode pensar
nos registros como linhas ou tuplas da tabela
e nos campos como colunas Neste exemplo,
você tem uma tabela de dados do aluno, cada um
representando um registro do aluno e cada coluna representando um campo do registro do aluno. Um campo especial ou uma
combinação de campos que determina o registro exclusivo
é chamado de chave primária. Por exemplo, carteira de estudante. É exclusivo para cada aluno. Essa chave geralmente é o
número de identificação exclusivo dos registros. Ele usa uma estrutura que
permite identificar e acessar dados em relação a outro dado
no banco de dados. Como você pode ver, cada aluno
tem um ID exclusivo que pode ser usado para encontrar o registro
do mesmo aluno no registro do
aluno. Como você pode ver, esses dados
têm uma certa estrutura
, conhecida como esquema bancos de dados relacionais
armazenam dados estruturais e permitem que você colete
rapidamente e consulte dados usando
um modelo de dados estruturado O uso de tabelas para
armazenar dados em colunas e linhas facilita o
acesso e o gerenciamento dos dados. Aws oferece uma solução de banco de dados para bancos de dados
relacionais que
abordaremos na
introdução ao módulo RDS. Isso é tudo para esta sessão.
47. Bancos de dados NoSQL: Olá, estudantes. Bem-vindo de volta. Neste vídeo,
entenderemos o banco de dados Nosql. Vamos começar com uma rápida
revisão do vídeo anterior. Entendemos que
os dados em um banco de dados relacional
são organizados de forma que os valores em uma tabela possam definir ou alterar os
valores em outra tabela Em outras palavras,
existe uma relação entre as
diferentes tabelas de dados. Vamos dar o mesmo exemplo de
um banco de dados relacional que armazena detalhes de
matrícula de cursos de
estudantes Uma tabela contém detalhes dos alunos e outra define o curso para o qual
os alunos se
inscreveram em um banco de dados relacional Você pode executar uma única consulta
SQL que retorna um resultado mostrando todos
os alunos que se inscreveram
na contabilidade, mesmo que os dados
estejam em duas tabelas. Esse é o superpoder
dos bancos de dados relacionais. Agora vamos falar sobre bancos de dados não
relacionais. Esse tipo de banco de dados
armazena dados de forma diferente. Devido à natureza dos dados, armazenamos dados semiestruturados
em um banco de dados não relacional Agora vamos pegar o mesmo exemplo de
banco de dados de registro de
cursos de estudantes . Se você precisar armazenar os dados de registro do curso do
aluno em um banco de dados não relacional, todas as informações de um aluno, incluindo o curso associado, serão armazenadas em um único item na tabela
do banco de dados Agora vamos nos aprofundar
e entender como os dados são armazenados em um banco de dados
não relacional Digamos que depois de um ano, a faculdade decidiu adicionar
a nota padrão 12
à tabela de registro de estudantes no banco de dados. Como cada
tipo de banco de dados precisaria mudar? Bem, no caso de bancos de dados
relacionais, você precisa atualizar o esquema para adicionar as
notas dos alunos Isso significa adicionar uma nova
coluna para a nota. Depois de adicionar a nova coluna, ela ficará vazia para os dados
existentes, certo? O que pode causar problemas. Porque, via de regra, bancos de dados
relacionais
exigem que você insira valores em cada coluna se ela estiver configurada
para provar para o banco de dados Você precisa criar um processo para adicionar a nota de cada
registro na tabela. Depois que esse processo for concluído, você começará a adicionar novos
registros para a nota. Tudo bem. Alguma suposição sobre o que você precisa
fazer em um banco de dados não relacional Bem, não precisa adivinhar. Tudo o que você precisa fazer
é criar novos itens. Com os novos atributos, você pode voltar e
examinar os registros existentes. Você não precisa
fazer nada com eles. Essa é uma das
vantagens que os não relacionais têm
sobre os bancos de dados relacionais Os esquemas não relacionais
não exigem que você
defina novos atributos de
dados antes de usá-los Enquanto estiver em um banco de dados relacional, você precisa atualizar o esquema antes de adicionar
novos campos de Quando se trata de armazenar
e lidar com semiestruturados ou
não estruturados,
a escolha geralmente é um banco de dados não relacional Isso é tudo para esta lição
sobre bancos de dados não relacionais.
48. Hospedagem de banco de dados no local versus hospedagem em nuvem: Olá, estudantes. Bem-vindo de volta. Neste vídeo, você
aprenderá como usamos para gerenciar bancos de dados
no cenário local e quais são as diferentes opções de
banco de dados na nuvem da AWS. Vamos começar com bancos de dados
locais. Eles operam em hardware que sua organização
possui e mantém. Esses sistemas são gerenciados por uma equipe de
administradores de banco de dados, DBAs, responsáveis por toda
a configuração e pelo
trabalho com o No caso do local, a empresa implanta
vários servidores e dispositivos de
rede para lidar com
o pico de carga do sistema Depois de obter o servidor
da equipe de infraestrutura, eles instalam o sistema
operacional e preparam um cronograma de
patches do sistema operacional A próxima é a instalação de um
software de banco de dados. Novamente, eles precisam planejar
e executar patches no banco de dados. Quando o banco de dados estiver pronto, ele poderá ser usado
pelo aplicativo. Agora, esses bancos de dados
precisam ser gerenciados, atualizados, atualizados e
otimizados ao longo do tempo O próximo esforço considerável é dedicado ao backup do banco de dados e à configuração de
alta disponibilidade para os
aplicativos essenciais aos negócios no caso de configuração de alta
disponibilidade. Novamente, o DBS da sua equipe precisa seguir
as mesmas etapas para outro servidor de banco de dados que atuará como reserva para cenários de
failover Além disso, você também responsável por escalar
seu servidor de banco de dados agora E então isso dá muito trabalho. Agora, quando se trata da nuvem, temos duas opções. O primeiro é
como um
banco de dados local em que você
aluga uma máquina virtual que vem com rede e um servidor gerenciado
e administrado pela AW. No entanto, o resto
das coisas será
gerenciado por você mesmo. Novamente, isso exige esforço e uma equipe de DBS para
cuidar dos patches do sistema operacional, da instalação
e correção do software de
banco de dados, do backup do
banco de dados, do
escalonamento de alta disponibilidade, etc O segundo é o Amazon RDS. O Amazon RDS é um
banco de dados gerenciado pela AWS em que você obtém o banco de dados pronto para uso em alguns cliques, o que
abordaremos na próxima lição Isso é tudo para esta sessão.
49. Serviço de banco de dados relacional do Amazon: Olá estudantes. Bem-vindo de volta. Neste vídeo, você aprenderá sobre o Amazon Relational
Database Service, comumente conhecido como Amazon Ardis Vamos começar. Vamos dar uma olhada na visão geral do Amazon Ardis É um serviço de
banco de dados relacional que liderou, configurou, operou e escalou um banco de dados relacional
na nuvem Como você sabe, gerenciar
um banco de dados em uma instância local ou
fácil de usar não é uma tarefa fácil Amazon Ardis foi projetado para
minimizar os esforços envolvidos no gerenciamento de tarefas de
banco de dados relacional como provisionamento de hardware, configuração
de banco de dados, patches de
backups Você só precisa selecionar o
banco de dados que deseja iniciar e teremos um banco de dados pronto em
apenas alguns cliques. Vamos entender
com um exemplo. Suponha que você tenha uma equipe
de quatro pessoas e queira iniciar um
aplicativo que será apoiado por
um banco de dados my SQL. Você instalou meu SQL
na instância EC two. Como sabemos que é
preciso muito trabalho configurar o
backup e
a correção do banco de dados do sistema operacional, é
provável que
o trabalho
de desenvolvimento fique para trás, o que poderia
atrasar ainda mais o lançamento do aplicativo pois apenas duas pessoas podem
se concentrar no desenvolvimento Imagine o mesmo exemplo novamente, mas desta vez com o Amazon RDS. Como o RDS é um serviço gerenciado, AWS cuidará de todo o trabalho relacionado ao
banco de dados para você Seus desenvolvedores podem se concentrar
no desenvolvimento de aplicativos. O Rds foi projetado para ajudar
você a reduzir o custo de
gerenciamento do banco de dados É um serviço gerenciado que automatiza o provisionamento A Aws fará a correção
do sistema operacional. Você terá backups
contínuos e opções de
restauração com uma restauração
pontual. Você também terá
painéis de monitoramento para ver se nosso
banco de dados está indo bem Você pode escalar as
leituras criando uma réplica do Rid e melhorando
o desempenho do Rid Você terá uma maneira de configurar várias
zonas de disponibilidade para garantir que seu aplicativo tenha um plano para recuperação de
desastres no caso uma
zona de disponibilidade inteira cair Por fim, você também pode
configurar janelas de manutenção para atualizações e escalar
vertical ou A única coisa que não podemos
fazer com um banco de dados do RDS é que não podemos usar SSH na
sua instância de banco de dados do RDS. Agora vamos dar uma olhada em alguns recursos e elementos do Amazon RDS. Vamos dar uma olhada na
primeira disponibilidade do RDS. O Amazon Adis fornece
maior disponibilidade e durabilidade por meio do uso de implantações
Jones de disponibilidade
múltipla Isso significa que o
Amazon Dias cria várias instâncias
do banco de dados em diferentes zonas de capacidade. Em caso de falha na
infraestrutura, Amazon Adis muda
automaticamente para o modo de espera em outras zonas de
disponibilidade As operações do banco de dados serão retomadas assim que o
failover for concluído Como o Amazon Dias usa um serviço de DNS para identificar
a nova instância mestre, você não precisa atualizar seu endpoint de
conexão de banco de dados Esse é um recurso muito bom. O segundo é o tipo de instância
Dias. Ao criar seu primeiro banco de dados
Amazon Dias, você precisa tomar
algumas decisões importantes. Primeiro, você precisa decidir
o tipo de instância do banco de dados, que determina os recursos do
banco de dados como CPU e memória. É um pouco semelhante ao tipo de duas instâncias AW, EC. O próximo é Dias
Database Engine. O próximo é o tipo de
mecanismo de banco de dados que você deseja executar. Você pode escolher entre
Postgresql, SQL,
Maria DB, Oracle Database, servidor
Quel e O Amazon Aurora é um banco de dados relacional
compatível com MyEsqul e Post GrayQUL criado um banco de dados relacional
compatível com MyEsqul e Post GrayQUL criado para a nuvem. O banco de dados foi projetado
e desenvolvido pela AWS para fornecer desempenho de banco de dados de
nível corporativo. Cada mecanismo de banco de dados tem suas próprias
características e
recursos exclusivos que você pode selecionar com base em seus requisitos de aplicativos
e negócios. Agora, dê uma olhada nos preços. Agora, um dos
maiores benefícios do Amazon Ardis é que
você paga conforme o uso O processo de cobrança do Amazon Ardis consiste em duas
partes: custo de instância A primeira coisa pela qual você paga é a instância que
hospeda os bancos de dados. Há dois modelos de preços sob demanda e reservados sob demanda. O preço da instância
permite que você pague
pela capacidade
computacional por hora. É quando seu banco de dados é executado de intermitente ou é um
pouco imprevisível O preço da instância reservada é ótimo quando você tem uma boa compreensão
do consumo de recursos
do seu banco de dados. Com esse tipo de instância, você pode garantir um prazo de um
ou três anos e receber um desconto significativo
sobre os preços sob demanda. Agora vamos dar uma olhada
no custo de armazenamento. Segundo, o fato de você pagar
pelo armazenamento e pelo consumo do
banco de dados, o armazenamento é cobrado por
gigabyte, Por é cobrado por
milhão de solicitações. Espero que você tenha uma boa
compreensão do Amazon Dis. Assista ao vídeo novamente. Se você tiver alguma dúvida,
isso é tudo para este vídeo.
50. Amazon DynamoDB: Olá, estudantes. Bem-vindo de volta. Nesta sessão,
vamos entender banco de dados AWS NOSQL que
oferece
o Dynamo DV Vamos começar. Vamos dar uma olhada na visão geral do Dynamo DV É um serviço de
banco de dados Nosql totalmente gerenciado que fornece desempenho rápido e
previsível com escalabilidade perfeita O Dynamo DB é uma
das melhores opções para armazenar dados de
semiestrutura do NOSQL Como esse é um banco de dados totalmente
gerenciado, você não precisa lidar com provisionamento de
hardware,
configurar
replicação de configuração, patches de software ou escalabilidade de cluster ao
usar o Dynamo DB.
Outra grande vantagem
do Dynamo DB é que ele oferece que elimina a carga
operacional e complexidade envolvidas no
gerenciamento de criptografias. Crees para proteger dados confidenciais. Se isso não fizer
sentido, não se preocupe, lembre-se de que ele suporta
criptografia por padrão. Eu abordarei a criptografia em detalhes no módulo
de gerenciamento da AWS. Criamos uma tabela de banco de dados no Dynamo DB para armazenar e
recuperar nossos É importante
entender aqui, deixe-me simplificar isso. Ao criar uma instância do
Amazon RDS, você cria um banco de dados dentro dela
e, dentro do banco de dados
, cria uma tabela Mas no caso do Dynamodb, você cria a tabela
diretamente dentro do Ao acessar o painel do
Dynamodb, você criará uma tabela Uma tabela do Dynamodb pode ser
dimensionada horizontalmente. Ele distribui os dados em diferentes servidores de
back-end para
garantir que você possa escalar sempre necessário e obter
um desempenho excelente Agora vamos entender como
armazenamos dados dentro do Dynamodb. Uma tabela do Dynamo DB é composta por três componentes
diferentes Tabelas, itens e atributos. Primeiro, você tem
a tabela em si, e é aí que todos os seus dados são
armazenados na tabela. Uma tabela é uma
coleção de itens. Cada item é uma coleção
de atributos. Os itens são como linhas em
um banco de dados relacional. Por exemplo, o aluno com carteira de
estudante 101 é um item. Cada item tem uma série de atributos associados a cada um. São os dados que
vemos nesses campos aqui, como
sobrenome, nome e e-mail. O Dynamo DB usa chaves primárias para identificar
itens de
forma exclusiva em uma tabela e índices secundários para
fornecer Você pode usar
streams do Dynamo DB para capturar eventos de modificação de
dados
nas tabelas do Dynamodb desempenho da tabela do Dynamodb é baseado na capacidade de transferência Você pode aumentar ou reduzir
a capacidade de processamento de
suas tabelas sem
qualquer tempo de suas tabelas sem inatividade ou degradação do
desempenho Você pode usar o console
de gerenciamento da AWS para
monitorar a utilização de recursos
e as métricas de desempenho O Dynamo DB fornece o recurso de backup
sob demanda que permite criar backups
completos de suas tabelas para retenção e
arquivamento de
longo prazo para retenção e
arquivamento de
longo prazo atender às necessidades de
conformidade regulatória Você também pode criar backups sob
demanda e habilitar recuperação
pontual para
sua tabela do Amazon Dynamodb. Point in Time Recovery
ajuda a proteger suas tabelas contra
direitos acidentais ou operações de exclusão Com o Point In Time Recovery, você pode restaurar uma tabela em
qualquer momento durante
os últimos 35 dias. Ele também permite que você
exclua automaticamente itens expirados
das tabelas para ajudar a reduzir o uso do
armazenamento e o custo de armazenar dados que não
são mais relevantes Agora vamos ver alguns casos de
uso do Dynamodb. Devido ao seu modelo de dados flexível
e desempenho confiável, é ideal para aplicativos
móveis, aplicativos baseados
na web, aplicativos de
jogos, aplicativos tecnologia e IOT Você também pode usar o Dynamodb para
outros aplicativos. Estudantes, espero que agora
vocês entendam os recursos
e aplicativos do
Amazon Dynamodb
51. Crie instância de RDS: Olá, estudantes. Bem vindo de volta. Nesta sessão,
criaremos uma instância do RDS. Veremos quais outros recursos
e configurações são necessários para ativar uma instância SQL do
RDS Vamos para o console da AWS agora. Digite RDS na barra de pesquisa. Clique na opção RDS e ela o levará ao painel
do RDS. A primeira coisa que você precisa
fazer ao criar instâncias do
RDS é
criar um grupo de envio Um grupo de sub-redes é simplesmente
um agrupamento lógico de sub-redes em que você
provisiona Vamos para a página de
grupos de sub-redes clicando aqui. Como você pode ver, não tenho nenhum grupo de
sub-rede na minha conta. Clique em Criar grupo de sub-rede de banco atribua um nome
ao grupo de sub-redes Você precisará adicionar uma descrição aqui,
pois é um campo obrigatório. Vou adicionar Submit
Group para meu banco de dados SQL. Em seguida, selecione BPC. Eu tenho apenas um e
vou escolher este. Aqui, você precisa selecionar
a zona de disponibilidade. Selecione as
zonas de disponibilidade nas quais você deseja que as instâncias do Ardis
sejam implantadas Para mim, eu só tenho envios
em P um e P Sul um B. Se você tiver envios na
outra zona de disponibilidade, você também pode selecionar AP
sul Em seguida, selecionamos as sub-redes
nessas zonas de disponibilidade. Como você pode ver,
tenho um envio público e um envio privado em cada uma
das zonas de disponibilidade. Normalmente, você
gostaria de criar instâncias do
RDS em envios
privados,
selecionar as sub-redes selecionar as Aqui, as instâncias do RDS geralmente são criadas em sub-redes privadas e acessadas de dentro das Em aplicativos de produção,
você não quer que seus bancos de dados sejam acessíveis pela
Internet.
Agora clique em Criar. Como você pode ver, agora criamos com sucesso um
grupo de sub-redes para nosso banco de dados Vamos agora criar
o banco de dados do RDS. Clique nos bancos de dados. No momento, não
tenho bancos de dados do RDS em minha conta Antes de passarmos para o botão
Criar banco de dados aqui, se você ver ao lado desse botão, temos uma restauração a
partir do botão S três. Quando fazemos backups
de nossos bancos de dados do RDS, eles são restaurados
no AWS S three. Ao clicar neste botão Aqui, podemos criar uma nova instância partir de um de nossos
backups no S three. Voltando à
criação do banco de dados, clique em Criar banco de dados. A primeira opção que você pode ver é Standard Create ou As Create. Se você escolher a opção
As Create, AWS usará alguns valores padrão para criar seu banco de dados.
Vamos dar uma olhada. Eu selecionei As Create. Agora, as únicas opções que tenho são
os tipos de banco de dados e
algumas outras opções. Aqui, se rolarmos para baixo e
abrirmos a exibição suspensa, configurações
padrão para As Create, podemos ver que a AWS
codificou alguns valores para nós Não quero criar
nosso B assim. Vamos voltar à Criação
Padrão e escolher nós mesmos os
parâmetros. Clique em
Criar padrão. Na parte superior, escolha o tipo My SQL Engine. Em seguida, temos a opção de
escolher a versão do My SQL. Vou escolher a versão mais recente disponível para mim no momento, que é minha 8.0 0.28. A próxima opção temos é escolher o
modelo de acordo com nosso caso de uso Se você escolher a produção aqui, AWS escolherá algumas opções
padrão para nós. Para simplificar, como quando tenho um modelo de produção
selecionado e desço até
disponibilidade e durabilidade, você pode ver que a
opção padrão selecionada para mim é criar uma instância em
espera Agora, quando eu mudar o modelo para Dave
e rolar para baixo novamente, você notará que o valor
padrão escolhido para mim agora não é
criar um banco de dados em espera Selecionar um modelo simplesmente
definirá alguns valores padrão para nós. Vamos nos limitar ao pneu grátis e selecionar o modelo de
pneu grátis. A próxima opção que temos
é o identificador do banco de dados. Esse é o nome da
nossa instância de banco de dados. Você deve observar aqui que
esse não é o nome do banco de dados, mas o nome
da instância do RDS Deixe-me mudar para a consultoria
em nuvem, meu banco de dados SQL. Em seguida, precisamos criar o nome de usuário e a
senha principais para a instância do RDS Alterando o nome de usuário para RDS master,
digitarei minha senha aqui Podemos fazer com que a AWS gere automaticamente a senha
para esse nome de usuário aqui. Por enquanto, deixe-me adicionar
minha própria senha. A próxima opção que temos é
selecionar a classe de instância para nosso banco de dados. Como selecionamos o modelo de pneu
gratuito, não
podemos alterar os tipos de
instância aqui. Como você pode ver, só temos
uma opção, micro de dois pontos. Se selecionarmos os modelos Dave
ou Prod, obteremos todas as opções de
instância aqui Em seguida, temos que selecionar o tipo de armazenamento para
nossa instância RDS A opção atual que temos é o SSD GP two de uso geral Podemos alterar esse valor para I 01 para cargas de trabalho mais complexas. Agora vamos nos limitar ao tipo
de SSD GP two. Também podemos habilitar o
escalonamento automático para nosso armazenamento RDS. Se essa caixa de seleção estiver marcada, podemos adicionar o armazenamento máximo Queremos que nossa
instância do RDS aumente para que o valor padrão
desse campo seja 1.000 ZB Se o armazenamento do meu banco de dados
ficar cheio, AWS escalará automaticamente o armazenamento para até 1.000 GBs A próxima opção é
disponibilidade e durabilidade. Vimos anteriormente que
tínhamos essa opção quando selecionamos o Dave
e os modelos de produção No entanto, esta opção não é
suportada no pneu livre. Em seguida, temos a
opção de selecionar
a conectividade para
nossa instância do RDS Podemos selecionar a VPC na qual criamos
nosso grupo de sub-redes
e, em seguida, selecionar
o grupo de envio Na próxima opção,
temos a próxima opção. Se quisermos que nossa instância do RDS seja acessível
fora da VPC Aws nos dá outra opção aqui para não permitir o
acesso público ao nosso banco de dados. Em seguida, precisamos especificar o grupo
de segurança para nosso RDS. Vamos escolher
criar um novo SG. Dê a ele o nome RDS, meu SQL SG. Podemos ver a porta
padrão do meu banco de dados SQL aqui. Vamos deixar isso como está. A próxima opção é a autenticação do
banco de dados. Temos três
opções aqui para nós. Escolheremos a autenticação
por senha. Se quiser mais segurança
e controle sobre o acesso ao RDS, você pode escolher as
outras opções aqui Vamos também ver as opções
adicionais para RDS clicando neste
menu suspenso aqui A primeira opção
é o nome do banco de dados. Se você se lembra anteriormente, tivemos a opção de adicionar o identificador
do banco de dados, que era o nome da instância do banco de dados do
RDS Aqui, podemos pedir à AWS que crie
um banco de dados como usuários, funcionários, etc.,
dentro da nuvem, consultando meu banco de dados SQL Se deixarmos esse valor vazio, AWS não criará um banco de dados para nós. E teremos que fazer isso usando meus comandos SQL quando
nos conectarmos a essa instância. Vamos criar um banco de dados do usuário. Para nosso exemplo,
estou deixando os outros
valores como padrão. Em seguida, temos a opção de backup
automático. Podemos escolher aqui com que
frequência queremos fazer backups do nosso banco de dados e até mesmo especificar a
janela de tempo para o backup. A próxima opção é o monitoramento
aprimorado. Essa é uma
pergunta popular nos exames de AW. A diferença entre o monitoramento normal do
cloudwatch e monitoramento
aprimorado é que no caso do monitoramento
normal, RDS reúne as métricas
do hipervisor Para uma instância de banco de dados, monitoramento
aprimorado
reúne suas métricas de um agente na instância Se você quiser métricas de nível de sistema operacional, precisará ativar o monitoramento
aprimorado
para nosso caso de uso Não
selecionaremos a opção de
monitoramento aprimorado. Agora podemos escolher
as exportações de registros. Você pode fazer com que a AWS envie registros
para os registros do Cloud Watch
selecionando as opções. Aqui temos a próxima
opção para permitir que o WS faça pequenas atualizações de versão em nosso banco de dados e selecione as janelas de tempo
para essas atualizações Vamos deixar esses
valores como padrão. A opção final que temos é ativar
a proteção contra exclusão. A opção simples não
nos permitirá excluir nossa instância do RDS Clique em Criar banco de dados. Agora, na página do banco de dados,
podemos ver nosso
banco de dados my SQL sendo criado. Deixe-me pular o vídeo até que essa instância
seja criada Como você pode ver, agora minha instância
do RDS foi criada. Agora, vamos clicar na instância e ver os detalhes da conexão. Na guia Conectividade
e segurança, você pode ver o endpoint e a porta dessa instância do RDS. Esses valores serão necessários
para acessar a instância do RDS. Com isso, chegamos
ao final da sessão. Examinamos todos os
parâmetros que temos ao criar os
grupos de sub-rede e bancos de dados do RDS Criamos nosso próprio banco de dados do RDS. Isso é tudo para esta sessão. Nos vemos na
próxima lição.
52. Amazon Elasticache: Olá estudantes. Bem-vindo de volta. Neste vídeo,
aprenderemos sobre um dos principais serviços
da AWS, o
Amazon Elastic Cache. Vamos começar com os
MS básicos envolvidos no cache elástico. cache de serviços é a técnica de armazenar dados em um cache Ele permite que você reutilize dados que foram recuperados
anteriormente A solicitação futura de dados de
dados é atendida mais rapidamente, em vez de ser recuperada
do local principal Agora você deve estar se
perguntando o que é um cache. Um cache é um local
de armazenamento reservado que coleta dados temporários Pode ser a memória do computador
ou o próprio aplicativo. Um exemplo simples será armazenar documentos na área de trabalho
de um computador. Com mais frequência, mantemos uma cópia
do documento acessado com frequência no desktop. Não precisamos ir sempre ao local do
documento. Outro bom exemplo
será um marcador. Marque os links que
usamos com mais frequência. Não há necessidade de
pesquisar todas as vezes. Agora vamos entender
o que é cache elástico. Elastic Cache é uma
solução de cache de banco de dados em
memória
totalmente gerenciada da AWS Ele suporta uma variedade de casos de uso
personalizáveis e em tempo
real O cache elástico é
adequado para armazenamento em cache, que melhora o desempenho de aplicativos e bancos Colocamos isso na frente
de outros bancos de dados, talvez na frente do RDS ou
na frente do Dynamo DB Ele também pode ser usado como o principal armazenamento de dados para casos de
uso como lojas CSN, jogos, tabelas de classificação, streaming e análises que
não exigem durabilidade cache elástico é a
implementação
dos mecanismos de banco de dados de código aberto conhecidos como Dies e Memcached Agora vamos ver alguns
casos de uso do cache elástico. Ele acelera o desempenho
do aplicativo. Como mencionei, cache
elástico funciona como armazenamento
de dados e cache na memória para
dar suporte aos aplicativos mais
exigentes que exigem tempos de
resposta abaixo de um milissegundo O próximo caso de uso é que é uma carga de banco de dados de
back-end
separada do aplicativo. Também ajuda a reduzir
a carga no banco de dados. Depois de armazenar dados de
acesso frequente no cache elástico,
isso diminuirá drasticamente as chamadas ao isso diminuirá drasticamente banco de dados e reduzirá a pressão sobre seu banco de dados de
back-end A próxima é criar armazenamentos de dados de baixa
latência. Essa é uma excelente
solução para um banco de dados de baixa latência
quando você deseja armazenar conjuntos de dados
não duráveis
na memória e
oferecer suporte a aplicativos em tempo real
com latência de microssegundos Agora vamos ver como o cache
elástico funciona. Você tem um aplicativo
configurado e instalado no EC para instanciar
em sua conta da AWS. Este aplicativo usa o
banco de dados RDS para armazenar dados de back-end. Agora, o aplicativo gravará
alguns dados no RDS. O aplicativo também pode ler banco de dados no
banco de dados do RDS Agora, o que você pode fazer? Coloque o cache elástico entre aplicativo e o RDS
e armazene a sessão ou acesse
dados com frequência no cache elástico Esses dados são então carregados
no cache elástico. que significa que na próxima
vez que o aplicativo precisar ler os dados
do banco de dados, ele obterá o que é
chamado de cache aqui. Isso significa que ele é encontrado no
banco de dados e
será recuperado muito mais rápido
do que vindo do RDS Isso é tudo para esta sessão.
53. Amazon Redshift: Olá, estudantes. Bem-vindo de volta. Neste vídeo,
entenderemos o que
é um data warehouse e por que precisamos dele. Serviço de armazém de dados da Aws, Red Shift. Vamos começar. Você provavelmente já ouviu falar sobre data warehouses, mas não
sabe exatamente o que é Deixe-me explicar para você. Como o nome sugere, é um depósito de dados. Ele permite que você armazene grandes quantidades de dados
de várias fontes. Que podem ser de arquivos de log de
aplicativos, sistemas
transacionais, bancos de dados relacionais,
marketing, vendas, finanças, aplicativos voltados para o
cliente, sistemas de parceiros
externos
e Basicamente, um data warehouse
é uma grande coleção de dados
comerciais usada para ajudar
as organizações a tomar decisões. Agora você deve estar pensando como esses dados ajudarão a
tomar uma decisão comercial? O objetivo de toda
empresa é tomar
melhores decisões de negócios do que
seus concorrentes, certo? Como você toma uma decisão
melhor? Ou vem da experiência ou você pode
fazer matemática. Concorde em fazer matemática,
você precisa de dados. Quando se trata de grandes
empresas e organizações, elas usam ferramentas de business
intelligence. As ferramentas B I analisam os dados
e geram o relatório. Atualmente, a maioria dos
usuários corporativos depende de relatórios, painéis e ferramentas de análise para extrair insights
de seus dados Os data warehouses
alimentam esses painéis de relatórios e ferramentas analíticas
armazenando dados data warehouse não é um conceito novo e
existe desde os anos 90, 80, mas não está em uso devido ao enorme custo de
armazenamento de dados no local. computação em nuvem
revoluciona isso , pois armazenar dados na
nuvem é fácil e barato É aí que a AWS tem um serviço
chamado Amazon Redshift. O que é o Amazon Redshift? O Amazon Redshift é uma
oferta de armazém de
dados rápida totalmente gerenciada em escala de petabytes oferta de armazém de
dados Petabytes significam que ele pode satisfazer
as necessidades de escalabilidade da maioria
das empresas Não se
limita apenas a terabytes, mas a 1.000 múltiplos Esse nível de
escalabilidade é difícil alcançar com a implementação
local. É um serviço simples e
econômico para analisar dados forma eficiente usando ferramentas de
inteligência de negócios. É um data warehouse baseado em SQL e seu principal caso de uso
são as cargas de trabalho do Analytics O Redshift usa duas instâncias C. Você deve escolher um tipo de
instância e uma família. É pago conforme o uso, com base nas instâncias
que você provisionou O Redshift sempre manterá cópias
gratuitas de seus dados e fornecerá backups contínuos
e incrementais Sempre que você perceber que o
banco de dados precisa ser um depósito e
fazer análises nele, Redshift
será a solução Isso é tudo para esta lição.
54. Autoscaling: Olá, estudantes. Bem vindo de volta. Neste vídeo, você
aprenderá o que é escalonamento automático? O que é escalabilidade automática na AWS? E quais são os benefícios de
usar os serviços de escalabilidade. Mas antes de começarmos, vamos ver como a escalabilidade funciona
em um data center tradicional Bem, o dimensionamento é
reativo e manual. Em data centers tradicionais, escalabilidade
reativa significa
que os servidores são ativados e
desativados manualmente de acordo com as
mudanças na carga Isso significa que, à medida que a
carga de trabalho aumenta, adicionamos mais servidores
e, quando a carga de trabalho diminui, removemos os Vamos entender isso
com um exemplo. Suponha
que existam servidores de
aplicativos acessados pelos
usuários do aplicativo. Como os usuários desse aplicativo
aumentarão com o tempo, a
carga no servidor também
aumentará se o número
de usuários continuar aumentando. Chegará um momento em que
seu servidor atingirá sua capacidade total
e não
haverá memória e CPU suficientes
para atender aos novos usuários. O administrador
do aplicativo precisa monitorar a capacidade
do servidor. Ele pode monitorá-lo manualmente ou
com a ajuda de qualquer ferramenta. Quando ele perceber que o servidor de aplicativos
atingiu sua capacidade total, ele adicionará um novo servidor e configurará o aplicativo
no novo servidor. Novamente, esse processo
pode levar algum tempo com base na disponibilidade dos servidores ou na
disponibilidade do servidor. Os engenheiros adicionam o servidor. Às vezes, escalar significa
comprar novos servidores. Para fazer isso, você precisará
obter a aprovação
da gerência. Pode levar vários meses
para que os servidores cheguem. Como você pode ver, esse é um processo demorado
e não sustentável. Outro problema com
esse processo é que, quando
a carga no servidor diminuir, você precisará remover
o servidor extra,
caso contrário, ele
ficará inativo computação em nuvem resolve
todos esses problemas ,
pois é muito mais fácil
adicionar e remover recursos de computação dependendo da carga
no aplicativo Agora, a questão principal é: como isso acontecerá
automaticamente? Bem, isso é feito
por meio do escalonamento automático. É um recurso da computação
em nuvem que adiciona e
remove automaticamente recursos de computação,
dependendo dos usos e da demanda reais Esse recurso está disponível
somente em um ambiente de nuvem. O escalonamento automático fornece
flexibilidade e elasticidade às suas Por isso, às vezes também é chamada
de elasticidade. Elasticidade significa
adicionar ou remover recursos
computacionais com base nos usos e
na demanda Se a demanda aumentar
, aumentará o
número de recursos
e, se diminuir, removerá recursos. escalonamento automático garante um
aumento contínuo dos recursos quando a demanda aumenta e uma diminuição
contínua Portanto, ele garante um
desempenho consistente do aplicativo a um custo menor. escalonamento automático é tão
eficiente
que só adiciona os recursos
quando a demanda aumenta e
os remove imediatamente quando ela diminui Novamente, dessa forma, você
não precisa continuar executando os recursos adicionais o
tempo todo para atender à demanda do horário de
pico. Escalonamento automático é um
termo geral em computação em nuvem. Agora, vamos entender o que é
escalabilidade automática na AWS. AWS. O escalonamento automático é um
serviço que monitora seu aplicativo
e
ajusta automaticamente a capacidade de
manter um
desempenho estável e
previsível do aplicativo com o menor custo Os pontos principais são
que ele monitora seu aplicativo e,
com base na necessidade, adiciona ou remove capacidade
adicional para manter o
desempenho do aplicativo com o menor custo possível. Como exatamente ele
monitora seu aplicativo? O AWS Auto Scaling usa um serviço da AWS chamado Cloudwatch para monitorar a demanda
do aplicativo E emite alarmes
para aumentar ou diminuir os recursos,
dependendo das necessidades do seu aplicativo Abordaremos o Cloudwatch em detalhes no
próximo módulo Por enquanto, o Cloudwatch é
um serviço de monitoramento. E monitora
métricas de aplicativos, como uso da CPU, rede de
memória e muito mais. Você pode definir um
valor limite e o serviço
acionará um alarme quando
atingir esse limite Por exemplo, se a
utilização da CPU ultrapassar 80%, ele adicionará um
servidor e o removerá Se ficar abaixo de
30%, o Auto Scaling usa o Cloud Watch para monitorar o aplicativo e, com
base nos requisitos, ele remove ou remove
servidores para atender à demanda Agora, vamos ver alguns
benefícios do escalonamento automático da AWS. Com a ajuda do grupo
AWS Auto Scaling, podemos automatizar a
adição e a remoção duas instâncias
EC para
atender à demanda real Essa é uma das conquistas mais importantes
da nuvem. Como mencionei anteriormente, ele traz agilidade
à adição e remoção de recursos para
atender à demanda do cliente Portanto, ele remove todo
o trabalho reativo dos data centers tradicionais Outro benefício significativo
é a otimização de custos. Novamente, essa é uma grande
vitória na nuvem. Você não precisa usar recursos
extras para
atender ao pico de demanda. Isso garantirá que você pague
apenas pelo necessário
para atender seu cliente. Você não precisa mais pagar
por recursos não utilizados. O último e mais importante é o desempenho do
aplicativo. Como ajuda você a adicionar e remover recursos
para atender à demanda, o aplicativo sempre
tem um desempenho melhor. Seu cliente não enfrentará nenhuma latência e lentidão
no aplicativo Isso é tudo para esta sessão.
55. Grupo de Auto Scaling EC2: Olá estudantes. Bem vindo de volta. Continuaremos com o
escalonamento automático neste vídeo e entenderemos os elementos do grupo
de escalonamento automático EC two Vamos começar.
Até agora, você entendeu que o escalonamento automático adiciona
e remove duas instâncias do EC Agora vamos entender
como isso funciona. Você precisa criar um grupo de escalabilidade
automática que escalará duas instâncias do Amazon
C. É aqui que o escalonamento automático adiciona e remove duas
instâncias EC Isso significa que o grupo de escalonamento automático EC
two garante que você tenha instâncias
suficientes do Amazon C two disponíveis para lidar com a
carga em seu aplicativo Isso é feito com a configuração do grupo de
escalonamento automático C two. Há três configurações: tamanho
mínimo, capacidade desejada e tamanho máximo Com base nessas configurações, escalonamento automático
ajustará o número de instâncias dentro do número mínimo e máximo
de duas instâncias EC A
configuração de capacidade desejada
determinará o tamanho de
um grupo de auto scaling Por definição, um
grupo de auto scaling é uma coleção de duas instâncias do Amazon C agrupadas logicamente para
escalabilidade e gerenciamento automáticos Isso está bem claro, é
isso que temos
discutido até agora. Um grupo de escalabilidade automática
também permite que você use dois recursos de
escalabilidade automática do
Amazon EC, como substituições de verificações de
saúde
e Ele mantém o
número de instâncias
realizando verificações periódicas de saúde nas instâncias Se alguma instância
ficar com problemas de integridade, o
grupo de escalonamento automático encerrará a instância não
íntegra e
iniciará outra instância iniciará outra Outra política de escalabilidade de recursos que abordarei
na próxima sessão Agora, vamos entender a configuração do
tamanho do grupo de escalonamento automático Pois é fundamental
entender do ponto de vista
da certificação
e da entrevista de profissionais de nuvem certificação
e da entrevista tamanho mínimo define
o número mínimo de instâncias que devem ser
executadas em um grupo de auto
scaling Nesse caso, temos um. O tamanho mínimo
garante que você sempre tenha um número fixo
de instâncias em execução. O grupo de autoescala nunca
encerrará instâncias
abaixo desse número A capacidade desejada determina quantas instâncias EC duas
você deseja executar. Idealmente, nesse
caso, temos dois. escalonamento automático tentará manter duas instâncias C duas vezes o
tempo todo A capacidade desejada
é redimensionável entre os limites de tamanho mínimo e
máximo Ele deve ser maior ou
igual ao tamanho mínimo
do grupo e menor ou igual ao
tamanho máximo do grupo. tamanho máximo é o número de duas instâncias
EC autorizadas a serem executadas. Esse é o número máximo de instâncias em execução
no grupo de escalonamento automático Grupos de autoescala
nunca criarão mais do que o número máximo de
instâncias especificado Resumindo, o grupo Amazon C
two auto scaling mantém o número de instâncias e escala Isso é tudo que eu queria
abordar neste vídeo.
56. Políticas de auto-escalonamento EC2: Estudantes, bem-vindos de volta. Até agora, entendemos
que o escalonamento automático precisa de um grupo de
escalonamento automático para manter e escalar duas
instâncias C Isso
depende muito da configuração do grupo
de escalonamento automático Como tamanho mínimo,
tamanho máximo e capacidade desejada. Também entendemos
no último vídeo que a capacidade desejada
deve mudar com base na carga e no
tráfego do seu aplicativo. Agora surge a pergunta: como esse número mudará? Como o número de
instâncias aumenta e diminui? Bem, a escalabilidade começa com
um evento ou ação de escalabilidade instrui o grupo de
escalonamento automático a iniciar
ou
encerrar iniciar
ou Duas instâncias, é aí que as políticas de
escalonamento automático
surgem Existem diferentes tipos de políticas de escalonamento automático
projetadas para várias Vamos entender
isso. Como nota, este é um tópico muito importante por exemplo, e do ponto de vista da
entrevista. Eu recomendo prestar atenção
especial
e fazer anotações. Também adicionarei um link de aprendizado adicional
na seção de recursos. A primeira
política de escalonamento automático é o escalonamento manual, e essa é a
maneira mais básica de escalar seus recursos Aqui você altera seus grupos de
escalonamento automático, capacidade
máxima, mínima ou desejada, Amazon C two Auto Scaling
gerencia o processo de criação ou
encerramento de instâncias acordo com essas atualizações Se você souber quando
é provável que mais tráfego flua para
seu aplicativo, você pode alterar manualmente o tamanho
de um grupo de
escalonamento automático existente Você pode atualizar
a capacidade desejada do grupo de escalonamento automático ou atualizar
as instâncias anexadas
ao grupo de escalonamento automático A escala manual pode
ser útil quando você precisa manter um
número fixo de instâncias. O próximo é o escalonamento dinâmico. No escalonamento dinâmico,
definimos como escalar a capacidade
do grupo de escalonamento
automático em resposta às mudanças Isso significa que você pode
aumentar o número de instâncias durante
o pico de demanda, também conhecido como escalabilidade horizontal, e diminuir as instâncias
durante a demanda de carga, também conhecida como escalabilidade Agora vamos entender
com um exemplo. Digamos que você tenha um aplicativo
web que atualmente é executado em
duas instâncias C two. Sua meta é manter a utilização
da CPU
dessas instâncias em cerca de 50% independentemente das cargas do aplicativo Isso significa que você precisa adicionar uma instância EC two adicional
sempre que a utilização da CPU ultrapassar 50%, mas você não sabe quando
chegará a 50%, não se preocupe Você pode configurar seu grupo de
escalonamento automático para escalar dinamicamente para atender a essa necessidade criando uma etapa de rastreamento de metas ou uma política de escalabilidade
simples Agora vamos entender essas políticas de escalabilidade
dinâmica. escalonamento gradual e simples
permite que você escolha as métricas
e os limites de escalabilidade para o alarme
do cloudwatch que iniciam o Aprenderemos o Cloud watch
no módulo de gerenciamento da AWS. Você define como seu grupo de
escalonamento automático deve ser escalado quando um limite atinge um determinado
número Vamos dar o mesmo exemplo. Sempre que a utilização média da
CPU de todas as instâncias C two
ultrapassar 50% por 5 minutos, adicione 12 instâncias ao grupo de
auto scaling. Como alternativa, sempre que
a utilização da CPU for inferior a 30% por 10 minutos, remova uma instância C two do grupo
de escalonamento automático Esse é um
escalonamento simples ou em etapas, pois definimos o ponto de gatilho para agir e quantas instâncias
adicionar ou remover Você seleciona uma métrica de escala e define um
valor alvo na meta Rastreando
políticas de escalabilidade, só isso. É uma maneira muito fácil de definir uma política de
escalabilidade dinâmica Agora, o Amazon C two auto
scaling criará e
gerenciará os alarmes do cloudwatch que acionam E calcule o
ajuste de escala com base na métrica
e no valor alvo A política de escalabilidade adiciona ou
remove duas instâncias para manter a métrica no valor
alvo especificado ou próximo a Por exemplo, você pode configurar uma política de
escalabilidade de rastreamento de metas para manter a do
seu grupo de escalabilidade utilização
média agregada da
CPU do
seu grupo de escalabilidade externa
em 50%. Em seguida, o ASG
escalará automaticamente para
garantir que permaneça em torno da meta de 50%. O próximo
passo é o
escalonamento em 50%. Em seguida, o ASG
escalará automaticamente para
garantir que permaneça em torno da meta de 50%. O próximo
passo é o escalonamento programado
ajuda a configurar seu cronograma de escalabilidade de
acordo com as mudanças de carga previsíveis Por exemplo,
digamos que toda semana o tráfego para seu aplicativo
Wave comece a aumentar na quarta-feira, permaneça alto na quinta-feira e comece a
diminuir na sexta-feira. Você pode configurar uma
programação para o Amazon EC two, auto scaling para aumentar a
capacidade na quarta-feira diminuir a capacidade na sexta-feira Isso é muito útil quando sabemos que as mudanças
acontecerão com antecedência. Prevemos o escalonamento com base
no padrão conhecido dos usuários. O próximo é o escalonamento preditivo. Isso ajuda a escalar
mais rapidamente ao lançar capacidade antes
da carga prevista A diferença é que o escalonamento
dinâmico é reativo e se expande
quando a demanda surge Por outro lado, o
escalonamento preditivo escala a capacidade com base em
métricas em tempo real e dados históricos Por exemplo, considere
um aplicativo que tenha alto uso durante o
horário comercial e baixo uso. escalonamento preditivo noturno pode aumentar a capacidade antes do primeiro fluxo de tráfego no início
de cada Ele ajuda seu aplicativo manter alta disponibilidade
e desempenho ao passar de um período de
utilização menor
para um período de utilização mais alto Você não precisa esperar pelo escalonamento
dinâmico para reagir
às mudanças no tráfego Você também não precisa perder tempo revisando os
padrões de carregamento de seus
aplicativos e tentando programar a quantidade certa de capacidade
usando
o escalonamento programado Portanto, o
escalonamento preditivo usa
aprendizado de máquina para prever o
tráfego futuro com antecedência Ele analisará os padrões de tráfego
anteriores e preverá o que acontecerá
com o tráfego no futuro. Ele fornecerá automaticamente
o número correto de EC com duas instâncias de
antecedência para corresponder ao período
previsto. É benéfico quando
você tem padrões de carga de trabalho recorrentes ativados e desativados ou aplicativos que
demoram muito para inicializados e que causam Agora, vamos voltar e entender como a política de
escalonamento automático é concluída O processo de escalonamento automático. Como sabemos, o
escalonamento automático depende vários fatores, como eventos,
métricas e limites E com base em nossos requisitos, configuramos uma política de escalonamento
automático Essa política instrui o
auto scaling a adicionar e remover duas
instâncias C. É isso para esta sessão.
57. Configuração de lançamento e modelo de lançamento: Olá, estudantes. Bem vindo de volta. Até agora, entendemos
que o escalonamento automático aumenta e diminui o número de instâncias do EC Two para
atender à demanda Como você sabe, quando você
executa a instância EC two, precisamos fornecer
algumas configurações. Também precisamos predefinir essa configuração para escalonamento
automático Isso é o que fazemos com a configuração
e o modelo de lançamento. Vamos seguir em frente e entender
isso com mais detalhes. Tanto a configuração de lançamento
quanto o modelo de lançamento definem as características
do EC. Duas instâncias que
queremos lançar quando
a demanda surgir. Aws introduziu a
configuração de lançamento em 2014 e
, desde então, temos usado configuração de
lançamento com dois grupos de auto scaling da
EC Por outro lado, o
modelo de lançamento foi introduzido recentemente e executa uma tarefa semelhante à configuração de
lançamento. Como o modelo de lançamento
é o serviço mais recente, ele tem alguns recursos e
capacidades extras para tornar o
trabalho um pouco mais fácil para nós. Vamos começar com
uma configuração de lançamento e,
em seguida, avançaremos
para o modelo de lançamento. Uma configuração de inicialização é um
modelo de configuração de duas instâncias E em que definimos as configurações de nossa instância EC de
duas instâncias que queremos que auto scaling seja iniciado quando
a demanda chegar Configuração é o modelo de
configuração de duas instâncias
EC
que o escalonamento automático usará para iniciar
novas instâncias EC two Quando criamos uma instância
EC de duas instâncias, seja a partir do
console de gerenciamento da AWS ou usando o AWS CLI, forneça
configurações diferentes de
duas instâncias de EC , como ID AM, o tamanho do tipo de instância a configuração
do armazenamento Qual instância usa o Keypair que é usado para se conectar
a essa instância Também definimos a
configuração de rede e os grupos
de segurança. Isso decide o endereço IP e porta a partir dos quais a instância
será acessível. Podemos definir dados do usuário, que são um conjunto de
comandos ou scripts que são executados enquanto uma
instância é executada. Também podemos definir
as funções do IAM, que serão anexadas
à instância e darão permissão para
acessar os serviços. Basicamente, isso
inclui tudo o que geralmente definimos ao
iniciar uma instância. Podemos definir e salvar todas as configurações na configuração de
execução, que funcionará como um modelo para escalonamento
automático ao
iniciar novas instâncias A configuração de inicialização não
é editável. Você a define uma vez e essa
configuração é registrada. Se quisermos ajustar a configuração de uma configuração de
lançamento, você precisará criar uma nova e usar essa nova configuração de
lançamento. Há alguns desafios na configuração de lançamento que foram
aprimorados no modelo de lançamento. Como vimos anteriormente, o modelo de lançamento é semelhante à
configuração de lançamento. Ele fornece a
configuração EC two, que é usada
pelo grupo EC two auto scaling ao iniciar duas instâncias C. Além disso, o
modelo de lançamento também pode ser usado para iniciar duas instâncias
EC ou frota de
instâncias EC two diretamente
do console de gerenciamento da AWS ou da AWS CLI Como o modelo de lançamento
é o serviço mais recente, ele inclui vários recursos
adicionais. Além dos recursos
de configuração, vamos dar uma
olhada neles um por um. Isso nos permite criar
várias versões
do modelo de lançamento por meio de configurações
diferentes Podemos especificar vários tipos de
instância, até mesmo tipos de instância com base em atributos de tipo de
instância, como memória , armazenamento de
CPU etc Ele tem a capacidade de usar instâncias sob demanda e
spot, o que gera
ainda mais economias. Ele também abrange dois por
três recursos ilimitados. Grupos de posicionamento, capacidade ,
reservas, gráficos elásticos e recursos de host dedicado estão disponíveis no modelo de
lançamento, mas esses recursos estavam ausentes na
configuração de lançamento. Além disso, permite EBS, marcação
de volume e interface
elástica Aws recomenda usar
o modelo de
lançamento em vez da configuração de lançamento, pois oferece mais benefícios
arquitetônicos. Agora vamos entender onde
a configuração de lançamento, um modelo de lançamento, se encaixa
no processo de escalonamento automático Se você se lembra da sessão
anterior, escalonamento automático
depende de vários fatores como eventos, métricas
e limites Com base em nossos requisitos, configuramos uma política de
escalonamento automático Essa política instrui o
auto scaling a adicionar e remover duas instâncias
EC Agora, o escalonamento automático
precisa da configuração de
inicialização da instância para
iniciar a instância EC two Certo? Para iniciar duas instâncias
C, usamos a configuração de execução
e o modelo de execução para fornecer duas configurações de EC ao grupo de escalonamento automático Toda vez que o escalonamento automático
inicia uma instância EC two, ele se refere à configuração de
execução
que configuramos
com o que configuramos
com Isso é tudo nesta lição sobre configuração de
lançamento
e modelo de lançamento.
58. Balanceador de carga: Olá, estudantes. Bem vindo de volta. No último vídeo, entendemos como o escalonamento automático EC
two aumentaria e diminuiria automaticamente suas instâncias EC two
com base na demanda Nesta lição, aprenderemos o conceito geral de balanceamento
de carga, pois essa será
a base do nosso próximo vídeo,
Elastic Load Balancer Vamos começar. Vamos supor que você entre em um hotel cinco
estrelas para fazer o check-in. Há dez recepcionistas
verificando reservas, fazendo check-in e A maioria dos
clientes está em poucas filas, o que resulta em uma distribuição
desigual de clientes por linha, enquanto outras recepcionistas não fazem nada além de
esperar Os clientes estão entrando e não têm
ideia para onde ir. Mas se você
pensar na situação, seria útil se
tivéssemos um anfitrião na entrada. Qualquer cliente que
entra precisa
saber qual tem menos pessoas
e quem é eficiente. Neste momento, os clientes serão recebidos por
um anfitrião na porta Ele os encaminhará para a fila apropriada
no hotel para
verificação e check-out. O anfitrião fica de olho nas
recepcionistas e conta o número de pessoas na fila que cada recepcionista Agora, qualquer novo cliente
será direcionado para a recepcionista
com a fila mais curta, que é a menos Consequentemente, haverá até mesmo filas de
espera
entre os recepcionistas, permitindo que os clientes sejam atendidos da forma mais eficiente
possível Agora pense na AWS,
Auto Scaling Group. Você tem várias duas instâncias
EC executando o mesmo aplicativo. Quando uma solicitação chega, como a solicitação sabe qual instância do EC two a
tratará? Como você pode garantir uma distribuição uniforme da
carga de trabalho entre duas instâncias C? Você precisa de uma forma de encaminhar as solicitações igualmente para instâncias diferentes
para processar essas solicitações. É aí que o balanceador de carga
entra em cena. É uma solução de rede
que distribui o tráfego em vários servidores para
melhorar o desempenho do aplicativo Novamente, esse é um
software que você pode instalar, gerenciar, atualizar e escalar. Um balanceador de carga pode ser instalado para duas ou mais instâncias C two, mas o problema é
a escalabilidade Vamos entender isso. Você tem um
balanceador de carga na frente de duas instâncias C
e seu número de duas instâncias
EC
aumentará com base na carga Especialmente se você
tiver escalabilidade externa , não há limitação
nas duas instâncias C. Ele pode escalar de zero a 100 ou até mais
instâncias C, certo? Agora, como um
balanceador de carga lidará com todas as solicitações? Ele também precisa
ser escalado, certo? É aí que a AWS fornece outro serviço chamado balanceador de carga
elástico
59. O que é um balanceador de carga elástico (ELB)?: Olá, estudantes. Bem vindo de volta. Neste vídeo,
entenderemos outro serviço da AWS que
é o Elastic Load Balancer Esse serviço trabalha em estreita colaboração com o escalonamento automático para distribuir tráfego igualmente em duas
instâncias. Vamos começar. O que é o balanceador de carga elástico? Esse é um serviço
da AWS usado para
distribuir a carga. Ele foi projetado para lidar com o
levantamento pesado indiferenciado do balanceamento de carga Na lição anterior, você aprendeu sobre um
balanceador de carga responsável pela distribuição
do tráfego de
entrada entre as duas instâncias
EC disponíveis O Elb é escalado automaticamente à
medida
que o tráfego para seus servidores muda,
se o tráfego aumentar Elb permite que o balanceador
de carga manipule a
carga adicional
distribuindo-a sempre que seu grupo de escalonamento automático EC
two aumenta a escala e adiciona uma
nova instância EC two O serviço de escalonamento automático
envia uma notificação ao balanceador de carga elástico de que
uma nova instância está pronta para lidar com
o uma nova Da mesma forma, quando o EC agrupa
dois escalonamentos automáticos isso significa que, se ele inicia o processo para
encerrar uma instância,
ele envia uma notificação
ao Agora, o trabalho do ELB é
parar de enviar o tráfego
para a instância selecionada Depois disso, ele espera que
as solicitações existentes sejam
concluídas Depois que todas as
solicitações existentes forem atendidas, auto scaling encerra as instâncias sem perturbar
os clientes O balanceador de carga elástico roteia
automaticamente o tráfego de entrada do aplicativo em diferentes instâncias Ele atua como o ponto de contato
para o tráfego de entrada. Qualquer tráfego que chegue ao seu
aplicativo primeiro se reúne com o balanceador de carga e, em
seguida, é enviado para uma instância
disponível Ele também monitora a
integridade das
duas instâncias EC em execução , pois envia as solicitações de tráfego somente para as instâncias
íntegras. Tudo bem, a partir de agora, você aprendeu como Elastic Load Balancer direciona tráfego
externo para
suas duas instâncias EC Não só isso, mas também é usado para redirecionamento de
tráfego interno. Vamos entender com
um exemplo de ML. Suponha que muitos usuários
estejam usando o Gmail. Eles abrem o Invox e,
em seguida, a página funciona
como um servidor web Um usuário compila a mensagem e clica no botão enviar Se falarmos sobre o que está
acontecendo no servidor de e-mail, um servidor de aplicativos está
processando seus e-mails eletrônicos, incluindo
armazená-los em um banco de dados, enviá-los aos
respectivos usuários, etc Se mais e mais usuários
começarem a usar o Gmail, o número de servidores web também
aumentará Portanto, C para escalar automaticamente também precisará aumentar o número
de servidores de aplicativos. deve reconhecer Cada servidor Ab deve reconhecer que
um novo servidor de aplicativos está disponível
para aceitar o tráfego Agora imagine que você tem potencialmente centenas de
instâncias de servidor nos dois pneus. Também podemos resolver o caos
do tráfego do Appserver com um ELB interno Elb direcionará o tráfego para o servidor do aplicativo que tiver
menos solicitações pendentes O servidor Wave
não sabe e não se importa com quantas
instâncias do Appserver estão em execução Somente o ELB gerencia
o direcionamento do tráfego para os Apservers
disponíveis Isso é conhecido como arquitetura
desacoplada. Nessa arquitetura, todos os componentes de computação permanecem
completamente autônomos e inconscientes uns dos outros realizando a
tarefa instruída Elastic Load Balancer é
o serviço que podemos usar na frente de um Waveserver para distribuir Também é chamado de balanceador de carga
público. Também podemos usar o balanceador de
carga elástico por trás do Waveserver para
distribuir igualmente o tráfego para o servidor distribuir Como isso funciona internamente, é chamado de balanceador de carga
privado interno Estudantes, isso é
tudo para este vídeo.
60. AWS Elastic Load Balancer (ELB): Olá, estudantes. Bem vindo de volta. Neste vídeo, vamos
entender os diferentes
tipos de ELB. Vamos começar. Aws, balanceamento elástico de carga, oferece suporte a quatro balanceadores de carga, balanceadores carga de
aplicativos, balanceadores de carga de
rede, balanceadores carga
clássicos e balanceadores de carga Vamos
entendê-los um por um. Esses balanceadores de carga funcionam
com diferentes modelos OSI. Referência Osi significa Modelo Referência
de Interconexão de Sistema Aberto Ele descreve como as informações
são transformadas de um software em um computador para outro usando uma rede. Isso é conseguido dividindo a comunicação de dados
em várias camadas, dando controle sobre o envio de
dados de uma camada para outra Como o próprio nome sugere, balanceadores de carga do
aplicativo funcionam
na sétima camada
do modelo OSI, a camada do
aplicativo O balanceador de carga de rede
funciona na camada quatro, que é a camada de rede O balanceador de carga clássico é o primeiro e mais antigo serviço de balanceador de
carga elástico Ele foi projetado para funcionar
nas camadas de aplicativo
e de rede. O balanceador de carga do gateway é o serviço mais novo da família de balanceadores de carga
elásticos, que funciona na camada 3.4. O
próximo é o listador de protocolos, o
que significa os
diferentes protocolos
em que esses balanceadores de carga
podem ouvir balanceador de carga do aplicativo oferece suporte somente aos protocolos HTTP e STTPS O balanceador de carga de rede
manipula os protocolos TCP e UDP. O balanceador de carga do gateway
só escuta em IP. Como mencionamos anteriormente, um
balanceador de carga clássico pode funcionar
tanto em players de aplicativos quanto em reprodutores
de rede Portanto, ele suporta protocolos de aplicativos
e
reprodutores de rede, como TCP, SSL por TLS, TTP, TTPs Agora, vamos analisar diferentes casos de uso
desses balanceadores de carga O caso de uso mais comum balanceador de carga de
aplicativos
é para aplicativos da web Um aplicativo web criado na estrutura de
microsserviços pode usar o ALB como balanceador de carga
antes que o tráfego de entrada
chegue ao seu EC, duas instâncias ou aos contêineres hospedados em uma rede de balanceador de carga abrange os
demais cenários em que o ALB, por exemplo, os aplicativos que dependem de um protocolo
além do STTP, os aplicativos sensíveis ao tempo, o fluxo de dados em tempo real e os aplicativos dependentes de
streaming de áudio, vídeo, códigos
monetários, etc., se
beneficiarão O balanceador de carga do gateway
funciona na camada três. Isso torna fácil e
econômico implantar, escalar e gerenciar
a disponibilidade de dispositivos
virtuais de terceiros. O balanceador Lode clássico
pode ser usado com quase todos os casos de uso do balanceador Lode de aplicativos e
redes Mas como o aplicativo e
o balanceador de rede Lode são os mais novos e foram projetados
para uma finalidade específica, você os usa para tirar
o máximo proveito dele A Aws desativará o balanceador de carga
clássico em 15 de agosto de 2022 Não é recomendado usar. O próximo é o tipo de destino, que significa para onde
o balanceador de carga pode direcionar o tráfego Podem ser endereços IP
fixos de duas instâncias C, AWS, funções Lambda,
entre outros. Você pode simplesmente relacionar isso
com os casos de uso acima. O balanceador de carga do aplicativo
oferece suporte a duas instâncias IP C e o balanceador de carga de rede Lambda oferece suporte a duas instâncias IP C. Além disso, o balanceador de
carga do aplicativo também pode enviar tráfego para o ALB O balanceador de carga Gateways oferece suporte a duas instâncias IP e
EC O balanceador de carga clássico também oferece suporte a duas instâncias IP e
EC Podemos entrar em detalhes
em cada balanceador de carga, mas isso não é necessário
para este curso Você só precisa se lembrar desses quatro tipos
de balanceamentos de carga, tipos, protocolos e casos de uso Isso é tudo para esta lição.
61. Usando ELB e Auto Scaling juntos: Olá, estudantes. Bem-vindo de volta. No laboratório anterior,
no módulo EC two, implantamos o serviço STTDP
na instância EC two,
que criamos
a partir do Neste laboratório, criaremos duas instâncias
EC usando o grupo
AWS Autoscaling. Veremos como configurar
os grupos de escalonamento automático da AWS. Ele implantará automaticamente o serviço
STTDP em todas as instâncias grupo de escalonamento automático e verá
o acesso resultante ao aplicativo STTDP
por meio do o serviço
STTDP em todas as instâncias do grupo de escalonamento automático e verá
o acesso resultante ao aplicativo STTDP
por meio
do balanceador de carga do aplicativo. Vamos até o console da AWS e digite C dois
na barra de pesquisa. Clique em C dois para ir
diretamente para o painel EC dois. No painel esquerdo, clique em
Launch Templates. Eles especificam a configuração
das duas instâncias do EC. Vamos dar uma olhada.
Clique em Criar. Modelo de lançamento. Adicione um
nome de modelo do Launch empacotado, Elting. Vamos adicionar o Launch Template
para escalonamento automático. Como demonstração, conforme a descrição, podemos adicionar impostos clicando
neste botão suspenso aqui. Se quiser copiar, modificar ou criar um novo modelo a partir de
um modelo de lançamento existente, você pode fazer isso clicando
no próximo menu suspenso aqui. A próxima opção que temos
é escolher a AMI. Vamos digitar Amazon, Linux, dois na barra de pesquisa e
selecionar a primeira AMI. Como você pode ver, esta AMI
é elegível para pneus gratuitos, o que significa que não
precisaremos pagar nada por isso. A próxima opção é
escolher o tipo de instância. Podemos ver vários tipos de
instância se você rabiscar aqui. Como não
temos requisitos especiais de instância e também queremos
ficar com o pneu livre, vamos escolher a microinstância de dois
pontos. Em seguida, temos que
escolher o par de chaves. Precisaremos dela quando
avaliarmos H na instância. Além disso, você deve
especificar um par de chaves, pois não avaliaremos H
para a instância neste laboratório Vamos deixar isso como padrão. Se você quiser experimentar o SSH e
executar comandos sozinho, você pode escolher um par de chaves
existente como esse ou criar um novo par de chaves
clicando Precisamos especificar
as configurações de rede para
nossas duas instâncias EC. Não precisamos
selecionar sub-redes aqui. Vamos deixar esse
padrão por enquanto. Em seguida, temos que configurar
o grupo de segurança. Observe que, em
última análise, esse grupo de
segurança será vinculado
às duas instâncias da EC
que criamos. A partir desse modelo de lançamento, podemos criar um
novo grupo de segurança ou selecionar um grupo
de segurança existente. Eu tenho o grupo
de segurança do laboratório anterior. Eu posso escolher isso. Mas deixe-me demonstrar o processo de
criação de um grupo de segurança. Mais uma vez, clique em
Criar grupo de segurança e adicione o
nome e a descrição do grupo de segurança. Escolha a VPC correta. Em seguida, adicionaremos regras. Clique em Adicionar regra
de grupo de segurança
e, em seguida, em Adicionar regras de
grupo de segurança. Selecione STTP na
coluna de tipo nessa fonte. Selecione em qualquer lugar.
Eu não adicionei a regra SSH, pois não
faremos isso neste laboratório Se você planeja experimentar o SSH, precisa
selecionar um
pagador de chave e adicionar a regra SSH Agora configuramos o grupo de segurança para
nosso modelo de lançamento. Em seguida, podemos adicionar a configuração dos
volumes do EBS aqui. Vamos pular isso. Para este laboratório, podemos acessar o
modelo de lançamento clicando aqui, mas não temos
esses requisitos. Vamos pular isso também. Clique em Opções avançadas. Não precisamos alterar
nenhuma opção aqui. Vá em frente e rabisque até
o final da página. Você verá a opção de
dados do usuário aqui. Aqui, podemos inserir
os comandos que queremos executar quando
nossa instância for iniciada. No laboratório anterior,
instalamos o STTPD manualmente. Neste laboratório, adicionaremos nossos comandos
nesta caixa de texto aqui Aws
os executará automaticamente quando nossa
instância for inicializada. Nos
comandos a seguir, atualize. Isso serve para atualizar os pacotes
padrão em nossa instância, instale o SttpDoy Esse comando
instalará o STTPD em nosso sistema de instância, Inicie o STTPD. Esse comando iniciará o serviço stTPd nas duas
instâncias do EC Esse comando na tela nos
mostrará uma página STML personalizada Clique em Criar modelo de
lançamento. Criamos com sucesso um modelo de lançamento. Clique para ver os modelos de lançamento. Você pode ver seu
modelo de lançamento na lista agora. Vamos agora passar para o painel do Grupo de
escalonamento automático. Clique em Grupos de escalonamento automático no painel esquerdo e clique
em Criar grupo de escalonamento automático Insira o nome do pacote ASG e escolha o
modelo de lançamento que acabamos de criar Observe que você também pode acessar a página Criar modelo
de lançamento neste link aqui. Clique em Avançar, escolha a
VPC empacotada e selecione envio público
um e envio público dois Selecione quaisquer duas
sub-redes padrão da lista. Se você não tiver sua própria VPC em sua conta,
clique em Avançar Podemos adicionar um balanceador de carga
ao nosso grupo de escalonamento automático diretamente desta página aqui, mas faremos isso
posteriormente no painel do balanceador de carga Vamos pular isso por enquanto. Clique em Avançar, vemos três opções
importantes e úteis. Capacidade desejada. Esse valor especifica
o número desejado de instâncias que
você deseja ter Vamos mudar isso para três. Em seguida, temos a capacidade
mínima. Esse valor especifica
o número mínimo de instâncias que você deseja que o grupo de auto
scaling Se você tiver uma
capacidade mínima de duas, AWS
garantirá que você sempre tenha
no mínimo duas instâncias. Vamos mudar esse valor para dois. Em seguida, temos a capacidade máxima. Esse valor especifica o número
máximo de instâncias que você deseja que o grupo
de escalonamento automático tenha quando for Se você tiver uma
capacidade máxima de quatro, vamos alterar esse valor
para quatro instâncias. Podemos adicionar a política de escalabilidade
de rastreamento de metas
selecionando a opção
aqui para nosso exemplo. Posteriormente, adicionaremos políticas de
escalabilidade simples
ao nosso grupo de escalonamento automático Clique em Avançar, podemos adicionar
uma notificação nesta página. Por exemplo, podemos criar
um tópico de SNS que nos envia um e-mail toda vez que o grupo de
escalonamento automático
aumenta ou diminui Não
temos esses requisitos Clique em Avançar, podemos adicionar uma tag
aqui, vamos pular isso. Clique em Avançar, revise seu grupo de
escalonamento automático
e, em seguida, clique em Criar grupo de escalonamento
automático Podemos ver nosso grupo de escalonamento automático listado com a
capacidade desejada de três, capacidade
mínima de dois e capacidade máxima de O status, portanto, atualizando a
capacidade, já que temos a capacidade desejada
de três e atualmente esse
grupo de escalonamento automático não tem instâncias, ele tentará criar três instâncias
C e duas para Você pode ver isso selecionando seu grupo de escalonamento automático e
clicando na atividade Você verá três lançamentos de
instâncias bem-sucedidos. Na coluna de causa,
você pode ver que o serviço de grupo de
escalonamento automático está tentando aumentar a capacidade 0 a 3. Antes de acessarmos o painel EC two
e vermos nossas instâncias, vamos adicionar políticas de escalabilidade
ao grupo de escalonamento Clique na guia de
escalonamento automático. Ao lado da guia de atividades, você verá que
não temos políticas adicionadas ao
nosso grupo de escalonamento automático Vamos criar uma política de
escalabilidade dinâmica. Escolha escalabilidade simples a partir
do tipo de política
e adicione o nome Adicione uma instância. Quando a utilização da CPU
é menor do que escalonamento automático, o grupo
precisa do alarme
do Cloudwatch o
escalonamento automático, o grupo
precisa do alarme
do Cloudwatch para rastrear a utilização da CPU. Vamos criar o
alarme clicando aqui na página de alarme do CW Clique em Selecionar
métrica, clique em dois. Para as duas métricas C, precisamos da métrica geral do grupo de
escalonamento automático
e não da
métrica por instância para esse alarme Selecione por
grupo de escalonamento automático e encontre utilização
da CPU sob
o Selecione a
linha de utilização da CPU e clique em Selecionar métrica. Você pode ver o
gráfico de utilização da CPU à sua esquerda. Queremos que nosso
grupo de escalonamento automático cresça. A utilização da CPU é superior a 80%. Role para baixo e,
na caixa de condição, selecione maior e
insira o valor 80 Isso significa que nosso
alarme será acionado quando o
valor de utilização da CPU for superior a 80 Não precisamos alterar os outros parâmetros
do alarme. Clique em Avançar, podemos adicionar notificações e
ações nesta página, mas vamos pular isso por enquanto Adicionaremos uma ação de alarme na página do grupo de escalonamento automático Clique em Avançar, insira o
nome e a descrição e crie o alarme novamente na página
do Grupo de escalonamento automático Atualize a opção de alarme. Encontre seu
alarme de aumento de escala na lista. Selecione o alarme na ação. Escolha adicionar uma unidade de capacidade. Isso adicionará uma instância ao nosso ASG toda vez que
esse alarme for acionado Criamos nossa política de escalabilidade
simples para ampliar a sala de escalonamento
automático Vamos criar outra
política para reduzir a escala. Clique em Criar política de
escalabilidade dinâmica. Selecione Dimensionamento simples. Adicione o nome. Remova
uma instância, quando a utilização da CPU
for menor que 30 Também teremos que
criar um novo alarme. Clique no link Criar alarme. Clique em selecionar Métrica. na métrica por grupo de
escalonamento automático e selecione
a métrica de utilização da CPU Desta vez, queremos que nosso
alarme seja acionado quando a utilização
da CPU estiver abaixo de 30%
na caixa de condição do alarme Selecione menor e
adicione o valor 30. Clique em Avançar, pule
as notificações, adicione um nome e uma descrição
e crie o alarme na página do Grupo de
escalonamento automático Atualize, selecione o alarme. Escolha remover uma
unidade de capacidade e criar a política. Vamos ver essas
políticas em ação. Acabamos de adicionar uma política para reduzir quando a utilização
da CPU estiver abaixo de 30%. Como
não temos nenhuma
carga de trabalho em nosso EC two, a
utilização média da CPU estará abaixo de 30%, acionando Se você ver a guia
de atividades do seu grupo de auto scaling, logo
notará
que a AWS reduziu a capacidade desejada de 3 a 2 e agora está encerrando Na seção de casos,
você verá que isso ocorre porque acabamos de criar a política mesmo após a redução do
nosso ASG Se você vê-lo na
guia Cloudwatch, o alarme de redução de escala ainda está
no estado acionado Isso ocorre porque ainda não
temos processos
em execução em nossas duas instâncias EC e
a utilização da CPU é baixa Idealmente, a AWS diminuirá
outra instância do nosso ASG. Porém, como especificamos a capacidade mínima
como duas, a AWS não
reduzirá sua instância AWS altera a capacidade
desejada quanto às políticas de escalabilidade, mas nunca altera os valores de
capacidade mínima e máxima Se você editar o grupo
de auto scaling e alterar o valor mínimo da
capacidade para um, em
breve você verá
outra instância encerrada Não façamos isso e
mantenhamos nossas duas instâncias em execução. Acesse a página
da instância no painel esquerdo. Podemos ver que temos
duas instâncias
no estado em execução e uma instância no estado
encerrado Selecione qualquer uma das
instâncias em execução e copie a página
de endereços IP públicos dos endereços IP
do navegador da instância. Você descobrirá que,
embora não tenhamos executado
manualmente nenhum comando
na instância,
ela tem o HTTPD instalado
e em execução Agora, vamos criar um balanceador de carga do
aplicativo e ver essa página da Web a partir da URL
do balanceador de carga Clique em Load Balancers. No painel esquerdo, você pode ver que
não temos balanceadores de carga em
nossa conta no momento Clique em Criar balanceador de carga, selecione Application
Load Balancer, insira o nome do
Cloud Advisory A próxima opção é escolher
se
queremos um balanceador de carga
interno ou voltado para a Internet balanceamentos de carga internos
só podem ser acessados localmente
na VPC Como queremos
ver nosso site via ALV de qualquer lugar
do mundo, precisamos selecionar a opção voltada para a
Internet na caixa de rede Escolha a VPC e as sub-redes públicas na seção de grupos de
segurança Vamos criar um novo grupo
de segurança. Adicione o nome e a descrição. Selecione a mesma VPC
das duas instâncias EC. E adicione uma regra STTP para permitir conexões STTP
de Crie o grupo de segurança novamente
na página do balanceador de carga. Atualize a opção de
grupo de segurança. Escolha o que você acabou de criar. Alb precisa de algo
chamado grupo-alvo. Um grupo-alvo é um grupo
de duas instâncias C ou outros recursos em que o ALB
encaminha suas solicitações Vamos criar um novo grupo-alvo clicando neste link aqui. Insira o nome
do grupo-alvo e deixe os outros
valores como padrão. Clique em Avançar, escolha
suas Instâncias e adicione-as conforme pendentes abaixo. Clique em Target Group, de volta
à página de criação do ALB. Reformule a opção Grupo de destino e escolha aquela
que você criou agora Clique em Criar
o balanceador de carga. Criamos nosso ALB com sucesso. Clique em Exibir balanceadores de carga. Agora podemos ver nosso
balanceador de carga no console. Clique no
balanceador de carga, poppy, no valor DNS e
cole-o no Você pode ver a página do caminho e o endereço IP
da instância que está
atendendo à nossa solicitação. Como o balanceador de carga
encaminha aleatoriamente nossas solicitações para
as duas instâncias do EC, você verá que o endereço IP muda toda
vez que recarregamos É assim que você implanta aplicativos
da web
no mundo real. Implantamos com sucesso uma arquitetura altamente disponível e
escalável
usando o grupo de escalonamento automático e o ALB Vamos agora
excluir nossa infraestrutura. Para isso, acesse o console do grupo de
escalonamento automático
e exclua o grupo de escalonamento automático clicando em
Ações Exclua o balanceador de carga
na página do balanceador de carga. Exclua o grupo-alvo
na página do grupo-alvo
na página do grupo de segurança. Exclua todos os grupos
de segurança, exceto o
grupo de segurança padrão para suas VPCs Isso é tudo para esta sessão. Nos vemos na próxima. Ouça.