Como começar com o AWS | Pravin Mishra | Skillshare

Velocidade de reprodução


1.0x


  • 0.5x
  • 0.75x
  • 1x (Normal)
  • 1.25x
  • 1.5x
  • 1.75x
  • 2x

Como começar com o AWS

teacher avatar Pravin Mishra, Cloud For Everyone

Assista a este curso e milhares de outros

Tenha acesso ilimitado a todos os cursos
Oferecidos por líderes do setor e profissionais do mercado
Os temas incluem ilustração, design, fotografia e muito mais

Assista a este curso e milhares de outros

Tenha acesso ilimitado a todos os cursos
Oferecidos por líderes do setor e profissionais do mercado
Os temas incluem ilustração, design, fotografia e muito mais

Aulas neste curso

    • 1.

      Contas da AWS

      4:27

    • 2.

      Crie uma conta no AWS

      5:25

    • 3.

      Nível gratuito da AWS

      4:16

    • 4.

      Protegendo uma conta da AWS

      6:05

    • 5.

      Configurar a política de MFA e password

      4:52

    • 6.

      Configure o orçamento e o alerta

      5:08

    • 7.

      Métodos de interação com a AWS

      8:03

    • 8.

      Usando o console de gerenciamento da AWS

      8:44

    • 9.

      Instale o AWS CLI

      2:51

    • 10.

      Usando a AWS CLI

      4:15

    • 11.

      Regiões e zonas de disponibilidade da AWS

      14:18

    • 12.

      Localizações de borda no AWS

      5:23

    • 13.

      O que é identificação e gerenciamento de acesso?

      7:24

    • 14.

      Usuários, grupos e funções

      9:23

    • 15.

      Criando um usuário e grupo do IAM

      7:49

    • 16.

      Faça login com usuário do IAM e crie função

      4:46

    • 17.

      Políticas do IAM

      10:14

    • 18.

      Práticas recomendadas do IAM

      6:45

    • 19.

      Visão geral do Amazon S3

      6:31

    • 20.

      Disponibilidade, durabilidade e replicação de dados do S3

      5:53

    • 21.

      Classes de armazenamento

      9:58

    • 22.

      Demo no Bucket do S3

      6:40

    • 23.

      Visão geral do EBS (armazenamento em bloco elástico)

      6:24

    • 24.

      Visão geral do EFS (sistema de arquivos elástico)

      5:40

    • 25.

      Introdução ao networking

      1:24

    • 26.

      O que é um VPC?

      4:28

    • 27.

      Subnet, gateway de Internet, tabela de rotas e gateway NAT

      8:19

    • 28.

      Grupos de segurança e NACL

      5:34

    • 29.

      Crie sub-redes públicas e privadas de VPC.

      9:45

    • 30.

      DNS e Amazon Route 53

      4:12

    • 31.

      AWS VPN e AWS Direct Connect

      5:00

    • 32.

      Serviços de Compute no AWS

      4:16

    • 33.

      Máquina virtual

      6:00

    • 34.

      EC2 Elastic Compute Cloud

      4:17

    • 35.

      Componente do Amazon EC2

      5:43

    • 36.

      Convenção de nomenclatura de instância EC2

      7:10

    • 37.

      Tipos de instância

      9:15

    • 38.

      Inicie sua primeira instância no EC2

      14:18

    • 39.

      Instância de SSH EC2, instale Httpd

      7:35

    • 40.

      Criando uma instância no Windows EC2

      5:27

    • 41.

      Serviço de contêiner elástico ECS

      5:57

    • 42.

      AWS Elastic Beanstalk

      6:15

    • 43.

      Computing sem servidor

      3:52

    • 44.

      AWS Lambda

      7:35

    • 45.

      Tipos de dados

      5:01

    • 46.

      Bancos de dados relacionais

      5:12

    • 47.

      Bancos de dados NoSQL

      3:49

    • 48.

      Hospedagem de banco de dados no local versus hospedagem em nuvem

      2:43

    • 49.

      Serviço de banco de dados relacional do Amazon

      6:30

    • 50.

      Amazon DynamoDB

      5:01

    • 51.

      Crie instância de RDS

      11:47

    • 52.

      Amazon Elasticache

      4:27

    • 53.

      Amazon Redshift

      3:47

    • 54.

      Autoscaling

      6:51

    • 55.

      Grupo de Auto Scaling EC2

      3:34

    • 56.

      Políticas de auto-escalonamento EC2

      8:22

    • 57.

      Configuração de lançamento e modelo de lançamento

      6:05

    • 58.

      Balanceador de carga

      3:21

    • 59.

      O que é um balanceador de carga elástico (ELB)?

      4:48

    • 60.

      AWS Elastic Load Balancer (ELB)

      4:56

    • 61.

      Usando ELB e Auto Scaling juntos

      17:29

  • --
  • Nível iniciante
  • Nível intermediário
  • Nível avançado
  • Todos os níveis

Gerado pela comunidade

O nível é determinado pela opinião da maioria dos estudantes que avaliaram este curso. Mostramos a recomendação do professor até que sejam coletadas as respostas de pelo menos 5 estudantes.

100

Estudantes

--

Projetos

Sobre este curso

Este tutorial de primeiros passos com a AWS levará você de iniciante a profissional de nuvem da AWS. O programa de aulas tem tudo, desde os fundamentos até demonstrações práticas dos serviços da Amazon Web Services (AWS). Este programa é ideal para iniciantes, mas nenhuma experiência com AWS é necessária!

Após a conclusão bem sucedida deste curso:

  • Você terá uma compreensão completa da conta da AWS, seus conceitos de criação e a segurança associada a ela.

  • Você poderá criar uma conta da AWS, usar seus repositórios gratuitos e como tornar sua conta da AWS mais segura.

Se você está buscando um curso menor e mais abrangente para começar sua jornada com a AWS, este é o curso para você! Espero ver você no curso.

Conheça seu professor

Teacher Profile Image

Pravin Mishra

Cloud For Everyone

Professor

AWS Community Builder | AWS Solutions Architect - Professional | Google Cloud Certified Trainer

12+ years of experience in IT and 8 years of teaching experience. Enterprise Architect, specialized in Architecting, Designing, Developing and Implementing Multi-Cloud base solutions.

Visualizar o perfil completo

Habilidades relacionadas

Desenvolvimento Desenvolvimento web
Level: Beginner

Nota do curso

As expectativas foram atingidas?
    Superou!
  • 0%
  • Sim
  • 0%
  • Um pouco
  • 0%
  • Não
  • 0%

Por que fazer parte da Skillshare?

Faça cursos premiados Skillshare Original

Cada curso possui aulas curtas e projetos práticos

Sua assinatura apoia os professores da Skillshare

Aprenda em qualquer lugar

Faça cursos em qualquer lugar com o aplicativo da Skillshare. Assista no avião, no metrô ou em qualquer lugar que funcione melhor para você, por streaming ou download.

Transcrições

1. Contas da AWS: Olá alunos, bem-vindos a outro vídeo. Antes de mudarmos para a AWS e começarmos a explorar seus serviços, a primeira coisa que precisamos é de uma conta da AWS. Mas antes de criar sua conta da AWS, há algumas coisas que você precisa saber. Neste vídeo. Falaremos sobre os elementos de uma conta da AWS e das coisas que precisamos para criar uma conta para nós mesmos. Vamos direto para isso. Esta é uma conta da AWS. Estou supondo que você ainda não tenha uma conta. Então, vamos criar um na próxima lição. E a conta da AWS é um contêiner no qual você cria e gerencia todos os seus recursos e serviços da AWS. A primeira coisa que você precisa para criar e gerenciar uma conta da AWS é uma identidade. Vamos cobrir a identidade no módulo do IAM. Mas, por enquanto, você pode entendê-lo como um usuário. Esse usuário controlará e gerenciará toda a conta. Então você criará uma conta para si mesmo. Você atuará como uma identidade. Agora, como usuário, você criará alguns recursos em sua conta que eventualmente gerarão algumas contas. Você também pode gerenciar todos os tipos de faturamento na mesma conta. Portanto, cada conta tem seus recursos, identidade e construção da AWS. Uma conta da AWS é um ambiente naturalmente seguro. Ninguém fora da sua conta pode acessar seus recursos e você receberá as contas. Somente para os recursos que você provisiona em sua conta. Você pode começar sua jornada da AWS com uma única conta. Mas quando sua organização cresce em tamanho e complexidade, pode ser difícil gerenciar tudo em uma única conta. É por isso que a AWS recomenda o uso de várias contas. Por exemplo, você pode criar contas separadas para equipes de desenvolvimento, teste e produção em sua organização. Porque simplifica o controle de segurança e o processo de faturamento de cada equipe e fornece a diferentes equipes a flexibilidade necessária para que elas possam se concentrar na inovação. Agora, vamos ver o que você precisa para criar uma conta da AWS. Primeiro, você precisa de um ID de e-mail, que deve ser exclusivo. Isso significa que ele não deve ser usado em nenhuma outra conta da AWS. Você também precisa de um cartão de crédito ou cartão de débito, o que é necessário para fins de faturamento. Com essas duas informações, você poderá criar uma conta da AWS. Ao criar uma nova conta da AWS, você está basicamente criando um usuário que tem controle sobre todos os serviços e recursos em sua conta. Essa identidade ou usuário é conhecido como a conta da AWS, o usuário raiz. O usuário raiz pode entrar com o endereço de e-mail e a senha que você usou quando criou a conta em primeiro lugar. Falaremos sobre o usuário root em detalhes no módulo de segurança da AWS. Quando você faz login na sua conta da AWS, o primeiro painel que você vê é conhecido como console de gerenciamento da AWS. É um console baseado na Web que você pode acessar por meio de um navegador da Web. Existem outras maneiras de acessar contas da AWS também, que veremos no próximo módulo. Você também será solicitado a autenticar sua identidade quando fizer login pela primeira vez. Esse é basicamente o gerenciamento de identidade e acesso, comumente conhecido como serviço do IAM, garante acesso seguro à sua conta da AWS e aos recursos neles. Também exploraremos em detalhes em um módulo posterior. Então, agora estamos preparados para criar uma conta da AWS. 2. Crie uma conta da AWS: Olá alunos, bem-vindos de volta. Neste vídeo, criaremos uma conta de nível gratuito da AWS. O objetivo do AWS Free, vinculado a permitir que clientes e novos usuários explorem a AWS e ganhem experiência prática necessária antes realmente começarem a criar sua infraestrutura de nuvem. Então, como o nome sugere, o tempo livre consiste em serviços e recursos gratuitos para uso na AWS com alguns termos e condições. Discutimos no vídeo anterior. Você precisa de um ID de e-mail exclusivo e um cartão de crédito para criar sua conta da AWS. Você também precisará de um formulário para receber um código de verificação por SMS, que faz parte da abertura da conta. Agora você pode estar pensando que, se você vai usar apenas serviços CAS gratuitos, por que você precisa inserir os detalhes do seu cartão? Bem, isso é porque o pneu grátis é uma oferta limitada. E no caso de você esgotar o limite ou serviço do usuário que não está sob o pneu livre. Temos uma cor bonita da quantidade. Portanto, é obrigatório configurar nosso método de faturamento, como criar sua conta da AWS. Mas isso não é algo com que se preocupar. Neste treinamento. Só usaremos serviços terríveis. E se você seguir o que fazemos neste treinamento, não será cobrado para garantir isso. Também definiremos um orçamento para nossa conta e configuraremos um alerta para que recebamos uma notificação. Se cruzarmos o projeto CIP. Vamos abrir um navegador da Web e começar a criar nossa conta gratuita. Eu abri um navegador da Web aqui e fiz isso para o nível gratuito da AWS. E o primeiro resultado aqui, tempo livre da AWS é o que queremos. A primeira página ajuda você a entender o que é uma conta gratuita e quais são os serviços que vêm sob a dieta gratuita? Estarei cobrindo um aposentado idiota na próxima lição. Então, vamos ignorá-los e criar uma conta gratuita. Você precisará preencher os detalhes necessários. Seu endereço de e-mail exclusivo para o usuário raiz e, em seguida, escolha um nome para sua conta. Você também pode alterar o nome e a letra LES. Se você quiser. Em seguida, clique em Verificar, Endereço de e-mail, verifique seu e-mail. Digite o código de verificação aqui e clique em Verificar. Você será recebido. É você, seu endereço de e-mail foi totalmente verificado. Agora vamos digitar uma senha para o usuário root e confirmar a senha. E clique em Continuar. Você terminou o primeiro passo. E então nos levará a passar pela primeira pergunta. Como você planeja usar a AWS? Basta escolher Poznan. Em seguida, adicione seu nome, número de telefone, seu país ou região, endereço. E, em seguida, clique em aceitar os termos e condições e continue para a próxima etapa. Em seguida, está a página de cobrança que você precisa preencher suas informações de faturamento. Insira o número do cartão de crédito, a data de validade, nome dos titulares do cartão e a fórmula, risco ascendente e continue para a etapa quatro. Você pode ser solicitado a confirmar sua identidade. Então, novamente, você precisará inserir seu número de telefone e para a verificação de segurança. E você receberá uma cotação no seu telefone que você precisa inserir aqui. Não tive meu código de verificação aqui. E vamos clicar em Continuar. Aqui temos o plano de suporte. É uma maneira de obter ajuda em tempo real da AWS relacionada aos seus recursos e serviços. Para nosso propósito, escolheremos o suporte básico. É totalmente gratuito e só ajuda você com a conta ou problemas relacionados ao faturamento. Por fim, clique em Concluir inscrição. E é isso. Agora podemos acessar o console de gerenciamento da AWS. Clique no botão no meio da tela. Aqui, ele nos solicitará um ID de conta ou um alias de conta. Não especificamos nenhum alias para conta. E não sei qual é o ID da conta. Também não temos um nome de usuário porque este é um nome de usuário do IAM. O que temos é o e-mail do usuário raiz. Então, vamos escolher entrar usando o roteamento, um e-mail e digitar o endereço de e-mail com o qual acabamos de nos inscrever. Digite a senha e clique em Entrar. Parabéns. Vietnã fez login em nossa conta. E este é o Management Console. Então, agora é sua hora de criar uma conta para você seguir em frente com esse treinamento. Isso é tudo para esta lição. Vamos entender as ofertas de giros gratuitos da AWS na próxima sessão. Vejo você em breve. 3. Nível gratuito da AWS: Bem-vindo de volta aos alunos. No último vídeo, você criou uma nova conta da AWS e adicionou os detalhes do cartão para cobrança. Isso nos lembra que precisamos usar os serviços da AWS de forma planejada. Caso contrário, você acabará pagando por alguns serviços. Bem, não se preocupe. Nesta sessão, vou orientá-lo sobre como usar sua conta da AWS para que você não seja cobrado nas próximas duas sessões. Também vou ajudá-lo a proteger sua conta, definir um orçamento para sua conta e um alarme. Então, você será notificado se você ultrapassar o limite de orçamento. Então, vamos começar a usar o pneu gratuito da AWS. O pneu gratuito permite que você experimente determinados serviços da AWS por um período definido sem ter que pagar nada. Isso significa que a AWS fornece uma lista de serviços da AWS que você pode usar gratuitamente na plataforma da AWS para obter alguma experiência prática. Agora, deixe-me levá-lo para a página da web de nível gratuito da AWS. Esta é a página do nível gratuito da AWS. Você pode ver todos os detalhes sobre o pneu livre da AWS, que é classificado em três categorias. O primeiro é testes gratuitos. Sob essa oferta, você pode usar alguns serviços da AWS por um curto período. E então esses serviços, e no final desse período, o segundo é de 12 meses grátis. Isso significa que você tem 12 meses para experimentar esses serviços gratuitamente. E ele começa a partir da data em que você criou sua conta da AWS. O último é sempre gratuito. Esses serviços estão disponíveis para você para sempre, mas há um limite para comer em que quantidade você pode usar esses serviços. Então eles nunca expiram até que você cruze o limite disponível. Em seguida, temos uma opção aqui para filtrar produtos da AWS com base em diferentes categorias e avaliação gratuita. Simples o suficiente, certo? Vamos experimentá-lo para entender melhor. Vamos selecionar Sempre gratuito. Aqui você pode ver apenas esses serviços que são sempre gratuitos dentro de um determinado limite. Agora, pegue o AWS Lambda. É uma opção de computação sem servidor, que veremos em um módulo posterior. Mas aqui você também pode filtrá-lo da categoria de produto. A partir de hoje. Permite 1 milhão de pacientes invocados por mês. Isso significa que se você ficar com menos de 1 milhão de invocações, sempre será gratuito. Esse tempo livre nunca expira. Agora selecione 12 meses grátis. Nesta categoria, vamos ver, armazenamento. S3, por exemplo. É um serviço de armazenamento de objetos gratuito por 12 meses ou até cinco gigabytes de armazenamento. Depois disso, você terá que pagar uma certa quantia. O S3 é uma ótima opção para experimentar um site estático. Veremos isso no modelo de armazenamento deste treinamento. O último exemplo é o Amazon EC2, que você usa para implantar seu aplicativo. A AWS oferece uma avaliação de doze meses de até 750 horas de uso todos os meses para o tipo de microinstância T2, que significa que você pode executar seu aplicativo gratuitamente por 12 meses. Este é um período significativo para dominar a AWS. Você pode experimentar e aprender quase todos os principais serviços. E espero que você faça o melhor uso disso. Isso é tudo para esta lição. Eu recomendaria verificar esta página antes. E ao usar os serviços da AWS, há tantos serviços que você pode experimentar gratuitamente, mas garante que você saiba sobre a disponibilidade gratuita do serviço antes de usá-lo. Isso é tudo para este vídeo. 4. Como garantir uma conta da AWS: Olá alunos. Neste vídeo, vamos entender como você pode proteger sua conta da AWS com política de senha e autenticação multifator, ou MFA em resumo. Também analisaremos o acesso e a chave secreta mais adiante neste vídeo. Então, vamos começar a usar a autenticação multifator. Ou seja, MFA. Você tem um ID de e-mail e senha para fazer login em sua conta da AWS. E depois de fazer login, você pode acessar o console de gerenciamento da AWS e executar operações diferentes nele. Vamos supor que alguém tenha roubado sua senha. Agora essa pessoa pode fazer login e fazer qualquer coisa em sua conta, certo? Especialmente se ele tiver acesso de administrador, ele pode excluir recursos de produção, transferir dados confidenciais, alterar a configuração do aplicativo e o que quer que seja. Então, como você protege sua conta sobre a senha? Bem, você pode usar uma autenticação multifator ou MFA. O que é autenticação multifator? É um método de autenticação que exige que qualquer usuário forneça pelo menos dois tipos de verificação, que são conhecidos como fatores para obter acesso a uma conta ou recurso como um site ou um telefone celular aplicativo ou serviços. Além do nome de usuário e senha, os usuários terão que inserir uma senha única ou OTP, entregue via SMS, e-mail ou um aplicativo autenticador, como Google e Microsoft Authenticator. Um bom exemplo de autenticação de dois fatores é um login do Gmail de um novo dispositivo. Toda vez que alguém tenta fazer login na sua conta do Gmail, ele pede a senha e uma senha única gerada pelo sistema, ou seja, OTP. Ele é enviado no número de celular registrado. autenticação multifator é usada na combinação de uma senha e um dispositivo de segurança que você possui, como seu telefone. Depois de configurar a MFA em sua conta da AWS, você terá que fornecer um token de MFA toda vez que fizer login na sua conta da AWS. Mfa basicamente adiciona outra camada de segurança sobre sua senha. Então, mesmo que alguém tenha a senha para sua conta, ainda não conseguirá fazer login nela, pois eles também precisam de MFA para fazer o quê? Portanto, é uma boa prática configurar a MFA em sua conta da AWS. Mfa e segurança são tópicos importantes do ponto de vista da entrevista e do exame. Você poderia esperar perguntas como como adicionar uma camada extra de segurança ao usuário do AWS Route ou IAM? A resposta a essa pergunta será a autenticação multifator. Além do console de gerenciamento, também podemos acessar a AWS por meio da CLI e do SDK. Vamos entender isso no próximo tópico, interagindo com a AWS. Mas quando você acessa a AWS por meio de qualquer um desses métodos, você usa uma chave de acesso e uma chave secreta. Essas teclas se parecem com os códigos presentes na tela, que pode não ser fácil de usar como nome de usuário e senha. Mas você terá que usá-los em seu código para fazer login na sua conta da AWS, seja por meio de CLI ou SDK. Elas são conhecidas como chaves de acesso e são usadas para acesso programático. Criaremos algumas chaves de acesso mais tarde no curso e veremos como usá-las para fazer login. Então, agora vamos passar para o próximo tópico, que é a política de senha. A política de senhas é uma forma de impor uma senha forte para o uso da sua conta da AWS, porque sua conta fica mais segura quando você tem uma senha forte. Isso podemos conseguir por meio da política de senhas. Tudo o que você precisa fazer é habilitar todas as regras que você deseja que seus usuários sigam ao criar ou redefinir a senha. E isso é tudo. Na política de senhas. Você pode definir uma regra de tamanho mínimo de senha. Em seguida, você pode impor tipos de caracteres específicos. Por exemplo, você pode querer ter pelo menos uma letra maiúscula, uma letra minúscula e um número também. Além disso, você também pode especificar caracteres não alfanuméricos, como porcentagem, Rua, etc., devem ser incluídos. Em seguida, você pode ativar a expiração da senha, o que significa que o usuário precisa girar sua senha após determinados dias. Por exemplo, após 90 dias, 120 dias, etc. Em seguida, você pode permitir que o usuário altere sua senha ou também pode optar por apenas o administrador alterar a senha. Finalmente, você também pode impedir a reutilização de senhas para que os usuários, quando alterarem suas senhas, não a alterem para a que já haviam usado no passado. Então isso é ótimo. Uma política de senhas é realmente útil contra todos os meus colegas. Tente entrar em sua conta. A política de senhas é um tópico importante segurança da AWS do ponto de vista do exame de certificação ou da entrevista. Isso é tudo o que eu queria cobrir neste vídeo. 5. Configure o MFA e a política de senha: Olá alunos. Espero que você tenha criado sua conta da AWS. Portanto, neste vídeo, protegeremos nossas contas adicionando autenticação multifator e configurando uma política de senhas. Antes de iniciar a configuração, vamos entender rapidamente o que é MFA. É um método de autenticação que valida a identidade do usuário. Então, quando qualquer usuário tenta acessar algo que é protegido com o MFA, precisa fornecer duas ou mais evidências para obter acesso. Então, vamos entrar em nossa conta da AWS e protegê-la com a MFA. Para isso, precisamos ir ao Serviço de Gerenciamento de Identidade e Acesso. Então, aqui estamos no painel do IAM. E, como você pode ver, já temos algumas recomendações de segurança da AWS. A primeira coisa que está dizendo é que você deve adicionar um MFA para o usuário raiz. Então, vamos adicionar selecione minha conta e, em seguida, clique em credenciais de segurança. Aqui você pode ver os detalhes da conta. Vamos rolar um pouco para baixo. Aqui. Você pode ver que não temos nenhum atribuído aos dispositivos. Então, vamos clicar em Gerenciar dispositivo MFA. Vamos usar um dispositivo de MFA virtual aqui. Você terá que instalar um aplicativo autenticador em seu dispositivo móvel ou no computador. Eu costumava usar o aplicativo Google Authenticator no meu telefone porque isso é totalmente gratuito para usar. Então, vou usar isso. Mas se você ainda não tiver um instalado no telefone, instale o aplicativo Google Authenticator e clique em Continuar. A próxima coisa a fazer é clicar em Mostrar código QR. Depois de ver o QR na tela, basta digitalizá-lo usando seu telefone. E ele deve abrir o aplicativo Google Authenticator. Se você fizer isso corretamente. Ele gerará um código e o exibirá na tela. Então, o que você precisa fazer é adicionar esse código aqui. Exatamente como eu adicionei o meu. E então você precisa esperar que esse código expire. Porque ele gerará um novo código. Você terá que inserir o novo código na caixa de ferramentas de código MFA. Depois de fazer isso, clique em Atribuir MFA. Agora você tem o MFA habilitado para sua conta. E você pode ver que temos um nome de recurso ARN ou Amazon para nosso dispositivo virtual aqui. Portanto, é muito fácil habilitar o MFA em sua conta. Agora, vamos configurar uma política de senha também. Vamos para o painel do IAM. Mais uma vez. Você encontrará a configuração de senha nas configurações da conta. Do lado esquerdo, clicaremos em Alterar política de senha e aplicaremos uma política em nossa conta. Você pode alterar muitas coisas sobre a senha. Por exemplo, o tamanho mínimo da senha. Vamos mudá-lo para 16. O usuário precisa de maiúsculas, minúsculas ou número? Você pode selecionar todos ou qualquer um deles. Vou selecionar tudo como. Esta é uma boa prática para usar letras maiúsculas e minúsculas na senha. E eu recomendo que você faça o mesmo. Você pode personalizar sua política de senhas como desejar e clicar em salvar alterações, que fará o trabalho. Então, agora, cada novo usuário em sua conta deve seguir esta política de senha ao criar ou redefinir sua senha, o que melhorará a segurança da sua conta. Então, alunos, essas são as poucas medidas de segurança iniciais que todo engenheiro de nuvem deve conhecer. segurança na nuvem em geral é um tópico muito importante, tanto do exame de certificação quanto do ponto de vista entrevistado. E espero que você entenda isso completamente. Isso é tudo para este vídeo. 6. Configure o orçamento e o alerta: Olá alunos, bem-vindos de volta. Agora você tem nossa própria conta de avaliação gratuita e protegeu com autenticação multifator e política de senha. Você também entende a AWS, o pneu gratuito e as diferentes ofertas abaixo do preço. Neste treinamento, usaremos gratuitamente apenas para adicionar serviços para prática prática na AWS. Então, se você se ater a essas ofertas gratuitas, somente, você não será cobrado. Mas apenas no caso de você usar acidentalmente um serviço pago ou esquecer de excluir um serviço que poderia ser pago após um certo tempo. É essencial definir um orçamento e um faturamento. Muito que você recebe notificação por e-mail ou SMS quando atinge o limite determinado. Neste vídeo, vamos configurar o orçamento e o alerta para nossa conta da AWS. Então, vamos para o console de gerenciamento da AWS. Como você pode ver, eu fiz login na minha conta com o usuário root. E no canto superior direito aqui, abaixo do nome da minha conta, selecionaremos o painel de cobrança. Isso nos levará ao painel. Vamos rolar para baixo até a seção de gerenciamento de custos e clicar nos orçamentos. Aqui temos algumas informações adicionais sobre orçamento e alerta, como como funciona, benefícios e recursos. Clique em Primeiros passos se você quiser lê-lo ainda mais. Eu recomendo que você faça isso, pois isso lhe dará mais insights. Agora, vamos rolar para trás e clicar em criar um orçamento. Aqui. O orçamento de custo recomendado é selecionado por padrão. Então, clicaremos em Avançar. Deixe tudo por padrão. E aqui, insira seu valor orçado. Entraremos em nosso orçamento. Para esta demonstração. Selecionarei US $3. Role para baixo e insira o nome do seu orçamento. Nomear seu orçamento é importante, pois você pode ter vários orçamentos no futuro. Vamos chamá-lo de alerta de $3. Portanto, será fácil identificá-lo e clicar em Avançar. Agora, clique em Adicionar limite de alerta. Aqui você pode criar vários limites. Portanto, se inserirmos 50 no limite, isso significa que você receberá uma notificação quando seus gastos com a AWS atingirem 50% de US$3, o que é de US$1,5. Neste caso. Você também pode adicionar vários limites. Vamos adicionar mais um limite para que recebamos mais uma notificação antes o valor atinja o limite definido. Vamos adicionar 80% desta vez. Aqui. Na opção de notificação. Temos algumas opções sobre como queremos ser notificados. Vamos optar por notificação por e-mail. Digite o endereço de e-mail no qual desejamos receber o e-mail. E clique em Avançar. Deixe tudo como padrão na página de ação anexar e clique em Avançar. Agora vamos analisar tudo e depois clicar em Criar orçamento. Levará alguns segundos e veremos uma mensagem dizendo que o orçamento foi criado com sucesso. Aqui, você pode ver que o status do limite está bom. Você pode usar esse link de orçamento para ver os detalhes e o gráfico de nossos gastos. Atualmente, não temos nenhum detalhe aqui, pois leva cerca de 24 horas para preencher os dados. Então, quando você cria um orçamento, eu sugiro que você volte aqui depois de um dia ou dois e veja esses DJs. Vamos rolar de volta para cima. E no canto superior daqui, você pode editar e excluir o orçamento também. Isso é muito importante , pois você pode precisar ajustar o orçamento no futuro. Vá em frente e experimente. Para este vídeo. Isso é praticamente sobre o orçamento. Receberemos o primeiro alerta quando nossa fatura da AWS atingir 50% de US$3. E o segundo alerta em 80%. acordo com o alerta, podemos voltar e verificar quais serviços estão sendo executados. E se não precisarmos deles, podemos encerrá-los para economizar o custo. No próximo vídeo, resumiremos o tópico para entender a conta da AWS e o pneu gratuito. Vejo você no próximo. 7. Métodos de interação com a AWS: Olá alunos, bem-vindos de volta. Anteriormente, discutimos os diferentes modelos de implantação em nuvem, o que IS Pass e diz: Mas você sabia que também podemos usar serviços da AWS como qualquer um desses modelos, se você não fizer isso. Bem, não se preocupe. Vamos entender isso neste vídeo. Aqui, vamos entender quais são os diferentes métodos para interagir com sua conta e serviços da AWS. Até agora, temos interagido com a AWS por meio do console de gerenciamento, que é uma interface da web. Além disso, temos mais duas maneiras de interagir com a AWS. Primeiro é a AWS CLI ou a interface de linha de comando. É uma ferramenta que você instala e configura em seu computador, que permite acessar os serviços da AWS e automatizá-los por meio de scripts terminais do computador. O segundo método é o SDK, que significa Software Development Kit. Ele é usado por programadores e desenvolvedores para interagir com os serviços da AWS diretamente do código do aplicativo. Se isso não fizer todo o sentido, não se preocupe. Vamos entendê-los em detalhes. Vamos começar com o console da AWS. Mais uma vez. É uma interface da web para interagir com os serviços da AWS. E como ele pode ser acessado por meio do navegador da Web, é a maneira mais fácil de gerenciar recursos na AWS. Basta fazer login na sua conta da AWS e fazer o que quiser. O que é mais ou a versão móvel do console de gerenciamento da AWS também está disponível. Você pode instalá-lo em seu telefone e acessar quase todos os serviços da AWS a partir do seu telefone. Isso não é ótimo? Agora vamos ver algumas vantagens de usar o AWS Management Console. Se você for iniciante, AWS Management Console é o começo certo. Como você pode interagir facilmente com os serviços da AWS. É como navegar em apenas outro site. Mas, como discutimos, é mais fácil por causa de sua interface de usuário muito limpa e passo a passo. Por todos esses motivos, o console de gerenciamento é a melhor opção para executar tarefas administrativas como iniciante. Agora, branco apenas para iniciantes. Bem, isso ocorre porque algumas operações no console ou manual da AWS levam tempo. Portanto, não é possível automatizar tudo por meio do console de gerenciamento. E é por isso que usamos uma interface de linha de comando ou CLI. Agora, vamos entender isso. A AWS Command Line Interface, ou CLI, é uma ferramenta unificada para gerenciar seus serviços da AWS. É uma interface de linha de comando que permite gerenciar seu serviço da AWS usando o terminal do computador. Esta é uma ferramenta que você pode instalar facilmente no seu computador. Ele suporta sistemas operacionais Windows, Mac e Linux. Você pode fazer tudo o que pode fazer com o exemplo do console de gerenciamento da AWS. Se você quiser listar todos os usuários em sua conta, abrirá um terminal no computador e digitará usuários da lista da AWS. Ele lhe dará uma lista de todos os usuários disponíveis em sua conta. E se você quiser excluir um usuário, você pode usar o comando AWS delete user, username, e ele excluirá esse usuário da sua conta. Você também pode combinar esses dois comandos para executar quais tarefas em uma única etapa. Essa é uma vantagem significativa de usar AWS CLI no console de gerenciamento. Você pode automatizar tarefas na CLI. Vamos supor que você tenha 50 usuários em sua conta. E você deseja excluir usuários cujo nome começa com M. Se você tiver que fazer isso no console de gerenciamento da AWS, você terá que encontrar cada usuário e excluir um por um, certo? Mas esse não é o caso da CLI. Aqui, você pode escrever o script e usar os dois comandos acima para executar a mesma tarefa. E isso será feito rapidamente. Da mesma forma, você pode gerenciar vários serviços da AWS usando o mesmo script. Para acessar a AWS por meio da CLI, você precisa se autenticar, assim como no console de gerenciamento da AWS. Mas aqui, em vez de usar nome de usuário e senha, você terá que fornecer acesso e chave de acesso à chave secreta atua como nome de usuário e chave secreta é sua senha. Se alguma coisa soar confusa. Vamos instalar e configurar a AWS CLI na próxima lição. Agora, vamos ver algumas vantagens de usar a AWS CLI. É uma ótima maneira de interagir com AWS por meio de um terminal de computador e é uma excelente maneira de automatizar tarefas e alcançar a infraestrutura como um código. Finalmente, temos o SDK, significa Software Development Kit. Dave garoto. Em suma, como o nome sugere, é um conjunto de ferramentas de software e programas usados pelos desenvolvedores para criar aplicativos. Agora, se você está pensando que é semelhante à AWS CLI, isso não é verdade porque você não pode usar o AWS SDK no terminal do computador. Isso é usado apenas para ler ou dentro do código do aplicativo, o que permite que seu aplicativo interaja com os serviços da AWS. Sdk suporta muitas linguagens de programação diferentes, como C plus plus, Java, javascript.net, Node.js, PHP, Python e Ruby. Também há SDKs móveis para Android e iOS têm nível. Vamos entender isso com um exemplo. Suponha que você esteja desenvolvendo um aplicativo móvel que permitirá que os usuários compartilhem suas fotos. Para isso, você usará o Amazon S3 como armazenamento. Falaremos sobre o S3 em detalhes em outro módulo. Mas, nesse caso, seu aplicativo precisa interagir com o AWS, serviço Amazon S3, certo? Você não pode usar o AWS Management Console ou a AWS CLI nesse cenário porque deseja que o código do aplicativo interaja com o serviço da AWS. Portanto, você usa o AWS SDK. Ele permitirá que você acesse e gerencie seus serviços da AWS por meio do código do aplicativo. Talvez você já conheça as vantagens de usar o SDK. É uma ferramenta perfeita para interagir com AWS por meio do código do aplicativo. É ótimo para interagir com AWS dentro do código do aplicativo. Então, alunos, espero que agora você entenda todos os três métodos de interação com a AWS. 8. Usando o console de gerenciamento da AWS: Olá alunos, bem-vindos de volta. Na última lição, analisamos diferentes maneiras de interagir com os serviços da AWS. Nesta lição, vamos nos aprofundar no console de gerenciamento da AWS e entender quais são as diferentes maneiras fazer login no console de gerenciamento da AWS. Como criar uma conta, o LES, como selecionar uma região da AWS em nossa conta e como chegamos a vários serviços da AWS e seu painel. Então, vamos direto para isso. Primeiro, você precisa entrar em sua conta da AWS para acessar o console de gerenciamento da AWS. E as credenciais que você usa para entrar determinam que tipo de usuário você é. partir de agora. Você conhece o usuário raiz que é o proprietário da conta. Este usuário tem acesso a todos os recursos e serviços dentro da conta. Em seguida, há outros tipos de usuários em sua conta chamados usuários do IAM. Esses usuários têm acesso limitado a recursos e serviços. Agora vamos entender a diferença entre usuário raiz e usuário do IAM. Usuário raiz é o usuário que foi criado quando criamos a conta pela primeira vez . Portanto, se fizermos login usando credenciais raiz, teremos acesso a toda a conta. Por outro lado, os usuários do IAM são criados pelo usuário raiz. Falaremos mais sobre eles nos módulos posteriores. Faça login na AWS. Como usuário raiz, você precisa do ID de e-mail e da senha que usamos e autenticação multifator que ativamos quando criamos a conta da AWS. No entanto, faça login como usuário do IAM, você precisa de um nome de usuário, senha e um dígito de doze dígitos, AWS, ID de conta ou ideias de conta. Como não temos um usuário do IAM nem a conta. Então, vamos fazer login com o usuário root que já criamos e criar uma conta LES. Aqui estamos na página de assinatura da AWS. Vou inserir o ID do e-mail e, em seguida, clique em Avançar. Vou dar minha senha. Em seguida, clique em fazer login. Como configurei a autenticação multifator, terei que inserir um código exclusivo além da minha senha para poder fazer login. Então, vou inserir o código. Agora, estou conectado ao console da AWS. Agora que estamos no console, há algumas coisas que devemos verificar rapidamente. Um deles é conta. Aqui você pode ver as configurações da conta que contém detalhes da sua conta, como informações de contato, contato alternativo para cobrança, operações e segurança. Lembra da configuração do orçamento? No último tópico, verificaremos rapidamente nosso painel de cobrança. Clique no painel de cobrança. Você verá o resumo do faturamento e outros detalhes, incluindo a fatura do mês atual, compilações anteriores e controle de orçamento. Embora acredite que você tenha configurado um orçamento e habilitado um alerta, ainda assim, recomendo verificar regularmente esta página para ver se você tem contas indesejadas. Agora, vamos voltar e criar um alias de conta tipo IAM nesta caixa de pesquisa aqui e clicar no painel do IAM Identity e Access Management Service. E, como você pode ver no lado direito aqui, temos um ID de conta e abaixo está o alias da conta. Observe que o alias da conta é o mesmo que o ID da conta. Então, aqui está o nosso ID da conta de 12 dígitos. Mas lembrar que isso pode ser um desafio. Então, vamos criar um alias muito mais fácil de lembrar. Para isso, clique em Criar, adicione seu ID, o Cloud advisory 2050 e salve as alterações. Isso criará um ID para você. Usaremos esse ID ou alias toda vez que fizermos login usando o usuário do IAM. Agora, vamos voltar ao link da conta de usuário. Para fazer isso, basta clicar no logotipo da AWS. Além disso, temos outro menu suspenso para selecionar a região da AWS. Então, vamos selecionar uma região para nossa conta. Atualmente, estamos em North Virginia. Nós Leste, Um é o motivo chamado. Cada região tem um código específico e usamos esse código ao usar AWS, CLI e SDK. Falaremos sobre isso nas próximas sessões. Já discutimos a infraestrutura global da AWS. E você pode ver que existem muitas regiões e regiões com suporte na AWS. Faremos login no AWS Management Console, selecionaremos uma região da AWS para criar esses serviços em uma região específica. Essa é a primeira coisa que você faz quando cria qualquer novo serviço, exceto alguns que não são sensíveis à região. Se mudarmos e selecionarmos a região Ásia-Pacífico, que não passa da região de Mumbai. Todos os serviços que criamos agora serão lançados apenas na região de Mumbai. Portanto, é crucial decidir e selecionar a região onde você deseja criar seus serviços da AWS. E, mais importante, se você criar alguns recursos da AWS e não vir esses recursos no console. Isso significa que você o criou em diferentes regiões e você terá que mudar para a região deles para vê-los. Agora vamos avançar e ver como navegar para os serviços da AWS. O console de gerenciamento da AWS oferece várias maneiras de navegar para painéis de serviço individuais. Na caixa de pesquisa na barra de navegação, insira o nome do serviço. Você verá os resultados. Escolha o serviço desejado na lista de resultados da pesquisa. Por exemplo, vamos para o serviço S3. Podemos simplesmente digitar dívidas e obteremos uma lista de todos os serviços que incluem o S3. Nesse caso, estaríamos procurando aqui apenas o S3. E se clicarmos nele, isso nos levará ao painel desse serviço específico. Em seguida, também podemos voltar para a página inicial clicando no logotipo da AWS. Em seguida, escolha serviços para abrir uma lista completa de serviços. Aqui no canto superior direito da página. Escolha grupo para ver os serviços listados por categoria ou escolha um jato para ver uma listagem alfabética. Em seguida, selecione o serviço que você deseja. Por exemplo, role para baixo e selecione a categoria de armazenamento que inclui AWS Backup, EFS, S3 e muito mais. Falarei mais sobre aqueles em um dos módulos posteriores. Mas isso nos dá uma maneira de analisar os serviços de alto nível com base em sua categoria. Em seguida, está a guia visitada recentemente. Aqui você pode ver os serviços recentes que visitei no console, incluindo S3, RDS, ec2. Então, esses são os serviços com os quais trabalhei recentemente. Caso você trabalhe apenas com um punhado de serviços. Essa pode ser uma maneira muito rápida de simplesmente clicar neles e ir para os painéis de serviços específicos. Isso é tudo para esta sessão. 9. Instale o AWS CLI: Bem-vindo de volta aos alunos. Continuaremos nossa discussão sobre como interagir com os serviços da AWS. E neste vídeo de demonstração, instalaremos a AWS CLI em nosso sistema. Como eu tenho um Mac, vou usar as instruções de instalação do Mac. No entanto, o processo permanece o mesmo para outros sistemas operacionais, incluindo Windows e Linux. Então, vamos ao navegador e encontrar a documentação de instalação. Nesta barra de pesquisa. Instalei a AWS CLI no Mac. Você também pode pesquisar seus sistemas operacionais como a AWS CLI instalada on-line. Em seguida, instale a AWS CLI no Windows também. Abriremos a pista rápida, instalando e atualizando seu teste foi uma AWS CLI. Esta página tem instruções do instalador para todos os três sistemas operacionais, incluindo Linux, Mac OS e Windows. Vou para o Mac OS e seguirei o processo. Vamos rolar para baixo. E aqui estão as instruções de instalação. Precisamos de um arquivo ECG escuro, que é um instalador gráfico. Então, vou baixar o arquivo daqui. Depois de baixá-lo, abra-o e clique em, continue, continue, continue e concorde. Dê permissão para instalar para todos os usuários neste computador. Clique em Continuar e clique em, instale-o. Instalamos a CLI em seu sistema. Vamos esperar que tudo seja feito. O sistema está gravando os arquivos. E, finalmente, a instalação agora é bem-sucedida. Como não preciso mais do instalador, vou movê-lo para o lixo. Verifique a instalação. Abrirei um terminal, vou para a opção Pesquisar e digitar um minuto. E, em seguida, adicionarei a AWS. Se você tiver uma CLI em execução no sistema, ela deverá retornar uma versão da tabela de execução da AWS. Vamos esperar um pouco. Aqui temos a resposta para o nosso comando, que mostra que tudo foi instalado corretamente. Faça o download da CLI em seu sistema, pois a usaremos em lições futuras. Em caso de problemas, dê uma olhada nesse cara. 10. Usando a AWS CLI: Olá alunos, bem-vindos de volta. Continuaremos nossa discussão sobre como interagir com os serviços da AWS. E nesta demonstração, você aprenderá como usar a AWS CNI para interagir com os serviços da AWS. Então, vamos começar. Deixe-me abrir o terminal no meu laptop. Primeiro de tudo, verifique se você já instalou a AWS CLI. Você pode verificar digitando. A AWS não estava no terminal e devolvia facilmente a AWS CLI. Em segundo lugar, você precisa autenticar a AWS CLI para acessar os serviços da AWS. E, como discutimos, os usuários da AWS CLI acessam chaves para autenticação. Vamos abordar a autenticação e a autorização em detalhes no tópico de gerenciamento de identidade e acesso. Mas, para esta demonstração, vamos ao console de gerenciamento da AWS e criar uma chave de acesso. Aqui. Clique em Conta e depois em credenciais de segurança. Agora estamos na minha chave de acesso de credenciais de segurança. E aqui podemos criar novas chaves de acesso. As chaves de acesso são essenciais porque são usadas para controlar a autenticação e a autorização ao usar a CLI e o SDK para acessar a conta da AWS. Agora, como nota, estaremos criando chaves de acesso aqui. No entanto, vou excluir essas chaves imediatamente após esta tabela. Você também não deve usar chaves de acesso de usuário root no dia-a-dia. Isso não é uma boa prática. Mais uma vez, aprenderemos isso em detalhes no tópico de gerenciamento de identidade e acesso. Por enquanto, vamos clicar em Criar nova chave de acesso e, em seguida, mostrar Chave de acesso. Aqui temos nosso eixo e chave de acesso secreta. Isso é o que usaremos para acessar nossos recursos da AWS por meio da CLI. Vamos copiar as duas chaves em um arquivo de texto. Você também pode baixá-lo clicando em Baixar e permitir. Agora vamos voltar para a AWS CLI e digitar o terminal. Configuração da AWS. Agora, primeiro inseriu a chave de acesso e a chave de acesso secreta. Agora insira o nome da região padrão. E neste caso, vamos escolher o sal da API. Por fim, escolheremos o formato de saída padrão. Nesse caso, vamos escolher o formato gestual. Assim que tivermos tudo isso no lugar, pressione Enter. Configuramos com êxito a AWS CLI significa que devemos ser capazes usar a AWS CLI para obter informações sobre os recursos da AWS. Vamos verificá-lo rapidamente. Executaremos um comando que listará o bucket do S3. Vamos digitar a AWS. E ele retornará uma lista de todos os diferentes bucket do S3 que criei nessa conta. Se você não tiver nenhum balde, ele não retornará nada. Então, para revisar rapidamente o que fizemos nesta lição, criamos chaves de acesso para nossos usuários com um cuidado de que geralmente não queremos criar chaves de acesso para o usuário root. Ainda seja criado para esta demonstração. Mas, desde que você o exclua, isso deve ser bom. E, finalmente, acessamos o S3 para verificar se poderíamos acessar os recursos da AWS. Isso é tudo para este vídeo. 11. Regiões da AWS e zonas de disponibilidade: Olá alunos, bem-vindos de volta. Neste vídeo, aprenderemos sobre as regiões da AWS, diferentes zonas de disponibilidade e a importância das regiões e dos joules de disponibilidade. Então, vamos começar. Suponha que você queira hospedar nosso aplicativo da web. Para isso, você precisaria do seu próprio data-center certo? Agora que você conhece a AWS e outros serviços de nuvem, não precisa configurar nosso datacenter e pode hospedar facilmente seu aplicativo na Nuvem AWS. Mas vamos supor que você ainda esteja usando um datacenter local. Agora, aqui está uma pergunta. E se um desastre atingir seu datacenter? É uma almofada válida, certo? Tudo pode acontecer. E como você possui e gerencia o data center, você terá que descobrir o que fará em uma situação tão extrema. Uma maneira de evitar um desligamento completo do aplicativo é executando um segundo datacenter em outro local. Então, quando um cair, o outro estará lá como um backup. Mas manter outro datacenter dobrará os custos de hardware e manutenção. Não se preocupe. Isso foi apenas um exemplo. Uma AWS tem uma solução melhor para essa possibilidade, que é a região da AWS. Uma região da AWS não passa das localizações geográficas em todo o mundo, somos datacenters diferentes estão agrupados. Isso significa que a AWS mantém vários datacenters em um só lugar. De acordo com os padrões da AWS, deve haver pelo menos dois datacenters em uma região. E cada datacenter deve ter eletricidade, resfriamento, aquecimento, rede e conectividade redundantes . Mais uma vez, todas essas regiões estão conectadas por meio da rede backbone da AWS, que é basicamente uma rede de alta velocidade. Cada uma dessas regiões tem nomes e códigos diferentes. Esses nomes são baseados em sua localização geográfica mundial. geográfica significa localização física como Mumbai, Tóquio, Frankfurt, América do Norte, América do Sul, China, África do Sul e Oriente Médio. Esses são alguns exemplos. Bem, meu AP South. Moon Bay é um local físico, certo? Então eles chamam de região unidirecional e ele chamou o episódio um. O mesmo vale para Cingapura e outros locais. Cingapura, API sudeste, um, Sydney, API sudeste para a Cidade do Cabo, sul. Portanto, quando você tem uma conta da AWS, você pode escolher por qual motivo deseja implantar seus serviços da AWS, se você deseja iniciá-la em Mumbai ou em Tóquio. Isso também depende de diferentes fatores sobre os quais falarei no futuro neste vídeo. Então, em palavras simples, você pode dizer que a AWS é um provedor de serviços em nuvem e tem data centers em todo o mundo. partir de agora, existem 26 regiões geográficas com 84 zonas de disponibilidade em todo o mundo. E a AWS continua adicionando novas regiões. Então, quando você estiver assistindo a esta sessão, esses números podem ter mudado. Assim, você pode ver o link fornecido na seção de recursos neste vídeo e verificar o número mais recente da AWS. Vamos seguir em frente e falar sobre disponibilidade Jones. Agora, qual é nossa disponibilidade Jones, é um ou mais datacenters separados individualmente e distintos com energia, rede e conectividade redundantes em uma região da AWS. Em outras palavras, não passa de um datacenter isolado. Dentro da razão, a única diferença é que ele tem energia, rede e conectividade redundantes. Portanto, cada zona de disponibilidade tem um conjunto de datacenters isolados de outras zonas de disponibilidade. Então eu acredito que fizemos. Joan não passa de um grupo de datacenters. E de acordo com o AWS Standard, uma região da AWS deve ter duas zonas de disponibilidade. Então, tome um exemplo da região da Moon Bay. Ele tem três zonas de disponibilidade. Como vimos anteriormente. Todas as regiões tinham algum código específico. Da mesma forma, a disponibilidade Jones também tem código correspondente que consiste em um código de região seguido pelo alfabeto. Se você se lembra, o código da região de Mumbai é ap salt um. Agora vamos ver. O código para a zona de disponibilidade, disponibilidade John one tem a API de código Sul um. E da mesma forma, a disponibilidade John code dois é um pedaço out1 e a zona de disponibilidade terceiro tem o episódio de código um. Veja, espero que fique claro que o código da região seguido de alfabeto torna a disponibilidade de junho fria. Então, de longe, sabemos que cada região da AWS tem duas ou mais disponibilidade Jones, assim como Mumbai tem três zonas de disponibilidade. North Virginia tem Avenue de Jones e assim por diante. Agora vamos entender por que essas zonas de disponibilidade são importantes para nós. Portanto, sabemos que uma região consiste em várias zonas de disponibilidade. Aqui. Deixe-me dizer que toda disponibilidade em junho não é um único datacenter, mas consiste em clusters de data centers. Alguma disponibilidade Jones pode ter dois datacenters, enquanto outros podem ter três ou mais. Todas essas zonas de disponibilidade estão localizadas em algum lugar entre 5200 quilômetros de distância. Voltando à importância da disponibilidade Jones, suponha que se uma zona de disponibilidade cair, todo o cluster de data centers iria para lá. Mas os datacenters em outras zonas de disponibilidade continuarão funcionando. E, portanto, você não enfrentará um desligamento completo do seu aplicativo ou site. A infraestrutura da AWS foi projetada para garantir a alta disponibilidade dos aplicativos. E se você pensa, como isso importa para você, deixe-me dizer-lhe. Suponha que você queira implantar seu aplicativo na região de Mumbai. E, como você sabe, uma região de Moon Bay tem três zonas de disponibilidade diferentes. Então, a primeira coisa que você faria é lançar um servidor em qualquer um dos Jones de acordo com sua exigência. Depois que o servidor for iniciado, agora você pode acessá-lo pela Internet. Você não precisa se preocupar com qual zona de disponibilidade você iniciou seu servidor, desde que possa acessá-lo pela Internet. Mas suponha que a zona de disponibilidade na qual você iniciou seu servidor fique completamente desativada. Isso significa que a aplicação também será feita. Mas não é isso. Você não poderá acessar os dados do aplicativo também. Se você não tiver esses dados, não será possível reviver seu aplicativo. Portanto, para evitar tais situações, AWS tem disponibilidade Jones. Vamos dar uma olhada nas vantagens da disponibilidade Jones. O primeiro benefício é a maior disponibilidade. Ao projetar seus aplicativos, você se certifica de que colocou todos os servidores e bancos de dados em várias zonas de disponibilidade. Então, se um cair, você tem outra zona para cobrir por um segundo. Se você se lembra, falamos sobre a distância entre duas zonas estando em algum lugar entre 5200 quilômetros. Agora suponha que você tenha um banco de dados principal em um John. Nesse caso, você pode ter a réplica desse banco de dados no Jones secundário. Também é possível ter replicação síncrona entre dois bancos de dados. Isso copiará todos os seus dados em ambos os bancos de dados simultaneamente. Agora, se um John cair, temos outro para operar normalmente, que é chamado de tolerância a falhas. Observe que este não é um design padrão da AWS. Você terá que arquitetar seu aplicativo em várias zonas de disponibilidade para obter alta disponibilidade e tolerância a falhas. Estudantes, espero que a zona de disponibilidade esteja clara. Agora, vamos agora dar uma olhada em uma arquitetura de amostra na qual veremos como usamos disponibilidade Jones para tornar nosso aplicativo altamente disponível. Suponha que, em uma região da AWS, tenhamos duas zonas de disponibilidade que chamaremos de zona de disponibilidade um e zona de disponibilidade dois. A primeira coisa que faríamos é iniciar um servidor EC2 e o banco de dados correspondente na zona de disponibilidade um. Da mesma forma, lançaríamos outro servidor web e banco de dados correspondente na zona de disponibilidade. Agora, seu aplicativo e banco de dados estão altamente disponíveis e eles podem se sustentar se um John cair. Agora, os alunos, em poucas palavras, a região da AWS é a localização geográfica em todo o mundo e a disponibilidade Joan é o cluster de data centers. Região particular. Tudo bem, então agora vamos avançar e entender por que há necessidade de tantas regiões hoje. Obviamente, ele oferece a flexibilidade de implantar seu aplicativo em qualquer região da AWS que seja benéfica para você. Fora isso, o principal motivo é o acesso de baixa latência aos aplicativos. Se sua base de usuários estiver nos EUA, implantação do aplicativo nos EUA só faz sentido. Da mesma forma, se você tiver sua base de usuários na Índia, escolherá a região Moon Bay. O segundo motivo é a conformidade regulatória. Países diferentes têm regras diferentes para regular os dados. Portanto, ter várias regiões lhe dá a liberdade de escolher o que funciona melhor para você. O terceiro motivo é sustentar qualquer tipo de desastre. Todas essas regiões da AWS estão em todo o mundo e a distância mínima entre duas regiões deve ser de 300 quilômetros, que chamamos de local de recuperação de desastres. Isso é para garantir que seu aplicativo seja executado em um dos sites. E o outro lado deve estar a pelo menos 300 quilômetros distância para garantir que eles não façam parte dos mesmos sistemas. Portanto, você também pode aproveitar o benefício de várias regiões. Além dos requisitos de latência, conformidade normativa e recuperação de desastres, há algumas considerações adicionais que você também pode observar ao usar várias regiões. Por exemplo, para o aplicativo global, as organizações querem oferecer a melhor experiência de usuário para seus usuários em todo o mundo. Uma maneira de conseguir isso é implantando seu aplicativo na região mais perto de seus públicos. Por exemplo, o aplicativo baseado nos EUA usará a região de Mumbai para fornecer ao usuário indiano uma experiência melhor. O custo é outro benefício do uso de várias regiões. Como cada país tem uma economia diferente, a definição de preço do uso da AWS variaria de país para país. Portanto, você receberá serviços mais baratos em alguns países. E como nossa organização, essa é uma ótima maneira de economizar dinheiro. Em seguida, você tem um raio de explosão reduzido. Muitas pessoas e organizações querem que, caso uma região completa caia, talvez queiram alavancar outra região como recuperação de desastres. Muitas vezes, eles também distribuem suas cargas de trabalho pelas regiões, caso algo aconteça em uma região. Outra região está ativa e é assim que elas reduzem o raio de explosão do desastre. Então, alunos, isso era tudo sobre as regiões da AWS e disponibilidade Jones garante que você entenda tudo bem, pois eles são importantes do ponto de vista da entrevista. Isso é tudo para este vídeo. 12. Locais de borda da AWS: Olá alunos, bem-vindos de volta. No último vídeo, entendemos as regiões da AWS e as zonas de disponibilidade. Neste vídeo, discutiremos outro aspecto importante da infraestrutura global da Amazon, que é o ponto de presença. Vamos começar com nossa compreensão da região da AWS e como você escolhe uma região para seu aplicativo? Há muitos fatores por trás da escolha de uma região da AWS. O principal critério é a proximidade com seus clientes-alvo. Sempre escolhemos uma região mais próxima de nossos clientes-alvo. Mas e se você tiver clientes em todo o mundo? Basta supor que você tenha um aplicativo de streaming de vídeo no qual os usuários podem publicar o lapso de tempo da paisagem indiana. Você colsterou sua aplicação e seus dados no motivo de Mumbai, já que seus clientes são da Índia. Mas depois de alguns meses, quem viu uma boa quantidade de tráfego vindo do Japão? partir de agora, você está atendendo todas as solicitações de clientes japoneses somente da região da Moon Bay. Mas devido à grande distância entre a Índia e o Japão, seus usuários japoneses podem não ter uma boa experiência de usuário devido ao problema de baixa latência. Agora você pode implementar corretamente seu aplicativo no Japão copiando seus dados em uma região de nuvem no Japão, Tóquio, no caso da AWS. E é assim que você pode atender seus clientes lá. Este foi um exemplo de armazenamento em cache. Por definição, jorrar é o processo de armazenar uma cópia de dados em nosso local de armazenamento temporário ou em cache. Portanto, ele pode ser acessado mais rapidamente. Portanto, neste caso, você pode armazenar em cache seus dados no datacenter de Tóquio e nos proporcionar uma experiência de usuário suave para clientes japoneses. Outro conceito que você precisa entender é a rede de entrega de conteúdo, comumente conhecida como cdn. Não é nada além de um termo técnico que usamos para cache a cópia de dados em um datacenter mais próximo dos clientes. Observe que a CDN não é um termo específico da AWS. Uma Rede de Distribuição de Conteúdo ou CDN, conteúdo em cache, como imagens, vídeos ou páginas da Web em servidores proxy que estão localizados mais próximos dos usuários finais do que os servidores de origem. Novamente, esses servidores proxy vivem no datacenter, e esses datacenters são chamados de pontos de presença. Agora você deve estar pensando, qual é a diferença entre região e ponto de presença como nossos datacenters, certo? A diferença de fomento é que os pontos de presença são datacenters menores e estão disponíveis em todas as grandes cidades do mundo. Se você comparar o número total de pontos de presença é mais de 12 vezes o número de regiões. Portanto, você tem mais opções para armazenar em cache seus dados e resolvê-los rapidamente para seus clientes. A segunda diferença é que os pontos de presença são separados das regiões e estão localizados em outros locais. Isso permite que você envie seu conteúdo de regiões para uma coleção de pontos de presença em todo o mundo. A diferença é que o serviço espacial do host I do ponto de presença da AWS para entregar esse conteúdo mais rapidamente é chamado de Amazon CloudFront. Enquanto a região da AWS hospeda quase todos os serviços da AWS. Além do CloudFront. pontos de presença da AWS também executam nosso serviço de nome de domínio, ou DNS, conhecido como Amazon Route 53. Cobriremos o Cloudfront e o Route 53 em módulos posteriores. Tudo bem, há muito mais do que isso sobre a infraestrutura global da AWS. Mas vamos simplificar e dar uma olhada rápida nos pontos-chave sobre a infraestrutura global da AWS. Número um, as regiões são locais isolados geograficamente onde você pode acessar os serviços da AWS necessários para executar seu aplicativo. Número dois, as regiões contêm zonas de disponibilidade separadas fisicamente. Edifícios com aquecimento, resfriamento e rede de energia. Availability Jones ajuda você a resolver alta disponibilidade e recuperação cenários de alta disponibilidade e recuperação de desastres sem nenhum esforço adicional. Número três, os pontos de presença da AWS executam o Amazon CloudFront para ajudar a aproximar o conteúdo seus clientes, não importa onde eles estejam em estado selvagem. Isso é tudo para este vídeo. 13. O que é identificação e gerenciamento de acesso?: Olá, estudantes. Bem vindo de volta. Você sabe por que seus institutos educacionais lhe dão a carteira de identidade Porque os cartões de identificação de um instituto permitem eles controlem quem pode acessar suas instalações. Sua carteira de identidade serve como prova de que você está estudando naquela faculdade e, portanto, você pode usar suas instalações. Da mesma forma, a AWS tem um serviço que ajuda as empresas a gerenciar suas identidades na nuvem. Neste vídeo, aprenderemos conceitos do serviço de gerenciamento de identidade e acesso relacionados ao IAM, identificação, autenticação e autorização. Vamos começar com o que é gerenciamento de identidade e acesso? gerenciamento de identidade e acesso O gerenciamento de identidade e acesso é uma estrutura que garante que as pessoas certas em sua organização possam acessar o único serviço de que precisam para realizar seu trabalho. Lembre-se de que não é uma boa prática usar sua conta root para tudo o que você e sua equipe fazem, pois isso pode causar sérios problemas de segurança. Vamos fazer uma analogia aqui. Suponha que você esteja trabalhando em uma organização e, todos os dias, ao entrar na entrada principal , precise mostrar sua carteira de identidade ao segurança ou passe seu cartão de login Dessa forma, sua organização garante que você seja a pessoa certa para acessar as instalações da organização. E é exatamente assim que o IAM funciona. Ao mostrar sua carteira de identidade, você prova que é a pessoa certa. Você, como pessoa, é uma identidade. Agora, quando você mostra sua carteira de identidade para o segurança, ele olha a foto da sua carteira de identidade e seu rosto e verifica se ambas coincidem Depois de verificado com sucesso, você obtém acesso por todo esse processo. Você, como pessoa, tem acesso às instalações certas. Não é isso. Esse cartão de identificação serve como prova de acesso a muitos outros serviços e instalações em sua organização. Por exemplo, algumas pessoas só podem usar a seção de contas, enquanto outras só podem usar recursos humanos e assim por diante. Existe um sistema bem definido de quem pode usar o quê da mesma forma. Identity and Access Management, ou IAM, em resumo, é um serviço na AWS que garante que a pessoa certa tenha acesso à coisa certa. AWS IAM fornece controle de acesso em todos os serviços e recursos da AWS. Você pode especificar quem pode acessar quais serviços e recursos e sob quais condições. Há também o conceito de política do IAM, que você pode usar para gerenciar permissões para sua força de trabalho e sistema para garantir permissões com privilégios mínimos Se não estiver fazendo sentido, não se preocupe. Vou abordar tudo isso nos próximos tópicos. Por enquanto, vamos entender três conceitos importantes de gerenciamento de identidade e acesso, identificação, autorização e autenticação. Esses três termos estão intimamente relacionados, mas não são a mesma coisa. Agora vamos entendê-los. Identificação é a capacidade de identificar um usuário de forma exclusiva Significa como uma pessoa ou sistema pode ser identificado. No último exemplo, você se identifica com uma carteira de identidade. Certo? E isso varia de sistema para sistema. Ao entrar em sua conta bancária, você usa nome de usuário e senha. Você se identifica portal do banco com seu nome de usuário e senha. Sua identificação é seu nome de usuário e senha. A identificação basicamente serve para identificar cada usuário único que está acessando seus serviços ou instalações. O segundo conceito fala sobre autenticidade. autenticação é o processo de reconhecer a identidade de um usuário Quando você mostra sua carteira de identidade ao segurança, ele verifica a foto da carteira de identidade com o seu rosto Isso é autenticação. Ao acessar sua conta bancária, você fornece seu nome de usuário e senha. O sistema de back-end bancário combina seu nome de usuário e senha com o nome de usuário e as senhas armazenados em seu sistema O sistema garante que você receba o nome de usuário e a senha corretos. Se você souber o nome de usuário e a senha corretos, você é o proprietário da conta. Se você recebeu uma identidade única, deve haver um sistema para reconhecê-la toda vez que você usar sua identidade exclusiva. Esse processo de reconhecimento da autenticidade de sua identidade é conhecido como Por fim, a autorização é o processo de dar permissão a alguém para ter acesso a algo. Depois de autorizado, você pode entrar nas instalações do escritório e ir para a área do seu escritório. Mas você não pode ir à cozinha da cantina porque não tem permissão ou podemos dizer que você não está autorizado a acessar a área da cozinha da cantina de acordo com sua função de trabalho Agora, vamos entender o gerenciamento de identidade e acesso em relação à AWS. O gerenciamento de identidade e acesso da AWS é um serviço da AWS que ajuda uma organização a gerenciar o acesso à conta e aos serviços da AWS para as pessoas da organização. Ele fornece controle de acesso refinado em todos os serviços da AWS granulação fina significa que você pode especificar quem pode acessar quais serviços e recursos e sob quais condições Se você quiser que a pessoa acesse apenas o serviço AWS EC two e a pessoa Y acesse somente o serviço S three, isso é completamente possível. Isso será feito com a política do IAM. 14. Usuários, grupos e funções: Olá, estudantes. Bem vindo de volta. No último vídeo, entendemos o AWS IAM. Nesta lição, falaremos sobre os elementos do IAM, que incluem grupos de usuários e funções. Vamos começar com os usuários. Um usuário é uma pessoa que utiliza um serviço da AWS em uma conta da AWS Conforme discutimos na lição anterior, AWS tem dois tipos de usuários usuário root e usuário do IAM. O próprio nome do usuário raiz dá uma pista de que esse é o usuário espacial Ela é criada quando a conta da AWS foi criada. Quando você cria uma conta da AWS, a AWS cria uma identidade ou usuário para você. Esse usuário de identidade é chamado de usuário raiz da AWS. Esse usuário tem acesso a todos os serviços e recursos da AWS na conta. Alguns pontos importantes sobre os usuários root da AWS. Você pode entrar como usuário root usando o endereço de e-mail e a senha que você usou para criar a conta. O usuário root tem acesso completo a todos os serviços e recursos da AWS na conta. Portanto, não é uma boa prática usar o usuário root para tarefas diárias. Você nunca deve compartilhar as credenciais do usuário root com todos Somente poucas pessoas confiáveis devem ter as credenciais raiz Agora sabemos que não podemos usar o usuário root para nosso trabalho diário. É aí que o usuário do IAM entra em cena. O usuário Iam é uma entidade que você, usuário root, cria em uma conta da AWS para representar o usuário que interage com os recursos da AWS em sua conta Agora vamos entender isso com um exemplo. Digamos que você seja o líder da equipe em uma organização e tenha uma conta da AWS. Você tem dois desenvolvedores, Ram Sham e dois administradores, Ta e Geta Em sua equipe, sua equipe precisa acessar uma conta da AWS para hospedar um aplicativo porque você não quer dar a eles acesso à sua conta raiz. Você pode criar usuários do IAM para os membros da sua equipe e fornecer a eles o acesso aos serviços necessários para o trabalho. Aqui, cada membro da equipe representa um usuário do IAM, pois cada membro da equipe precisa interagir com uma conta da AWS para realizar seu trabalho. Você criará quatro usuários do IAM para Ram Shamtha e Geta. Ok, agora entendemos o usuário de mensagens instantâneas. Vamos ver como o usuário do IAM funciona e como atribuímos permissões a diferentes usuários do IAM. Quando você cria um usuário, o usuário tem um nome de usuário, senha e chaves de acesso que você compartilha com as respectivas pessoas para acessar a conta da AWS. nome de usuário e a senha serão usados para acessar console de gerenciamento da AWS e chave de acesso para acesso programático com o AWS CLI Cada usuário foi adicionado a uma única conta da AWS Cada usuário tem suas próprias credenciais para acessar a conta da AWS Agora, a questão importante é: que tipo de recursos da AWS eles podem usar? Bem, nenhum novo usuário do IAM tem nenhuma permissão padrão para acessar seus recursos da AWS para fornecer aos usuários do IAM a permissão necessária para conceder a eles as permissões necessárias. Você pode fazer isso adicionando políticas do IAM a cada usuário do IAM. A política do Iam define as permissões que são concedidas a qualquer usuário que interaja com uma conta da AWS Vamos abordar a política de IAM no próximo tópico. Resumindo, você cria usuários do IAM, anexa políticas para conceder permissões e o usuário pode usar essas credenciais para acessar esses Um ponto importante a ser observado aqui é que o usuário do IAM não precisa representar uma pessoa real. Pode ser um aplicativo. Além disso, digamos que você tenha um aplicativo no frame que precisa acessar um serviço da AWS. Você pode configurar a chave de acesso dentro do aplicativo para acessar os serviços da AWS. Esse é outro caso de uso importante da chave de acesso. Ok, vamos agora entender o grupo IAM. Um grupo do IAM é uma coleção de usuários e permissões atribuídos a esses usuários. Vamos voltar ao mesmo exemplo. Em sua equipe, você tem dois desenvolvedores Sham e dois administradores, Ta e Gier Certo? Ambos os desenvolvedores farão e acessarão os mesmos serviços da AWS. E o mesmo vale para os dois administradores. Em vez de atribuir permissões a usuários individuais, você também pode agrupá-los e atribuir permissões a esse grupo de uma só vez No nosso caso, você pode criar dois grupos. Um grupo para desenvolvedores e um grupo para administradores. O Iam Group fornece uma maneira fácil gerenciar permissões para usuários acordo com suas funções de trabalho. Ao criar um usuário, você atribui uma política ao usuário individual. Mas, no caso de um grupo, você adiciona uma política ao grupo e a permissão será aplicada a todos os usuários desse grupo. Vamos usar outro bom caso de uso para o grupo IAM. Como você sabe, qualquer usuário em um grupo de usuários específico tem automaticamente as permissões atribuídas ao grupo de usuários. Se um novo usuário ingressar sua organização e precisar de privilégios de administrador, você poderá atribuir as permissões apropriadas simplesmente adicionando o novo usuário a esse grupo de usuários administradores Da mesma forma, se um funcionário existente estiver migrando para um novo projeto, em uma nova função na mesma organização, vez de editar a permissão desse usuário, você poderá removê-lo do grupo de usuários antigo e adicioná-lo aos novos grupos de usuários apropriados. O grupo de mensagens instantâneas é uma forma de anexar políticas a vários usuários ao mesmo tempo. Quando você anexa uma política baseada em identidade a um grupo de usuários, todos os usuários do grupo recebem a permissão, o grupo de usuários. Agora, vamos entender o papel do IAM. Uma função do IAM é uma identidade do IAM que você pode criar em sua conta com permissões específicas. Uma função do IAM é semelhante a um usuário do IAM vinculado à política do IAM que determina o que uma função pode ou não fazer na AWS. Agora você deve estar pensando: qual é a diferença entre a função do IAM e o usuário? Certo, deixe-me explicar para você. Um usuário do IAM é uma pessoa única que tem nome de usuário, senha e chave de acesso com as permissões anexadas a ele. No entanto, a função do IAM não tem um nome de usuário, senha ou chave de acesso. A função do IAM não pode ser vinculada diretamente a uma pessoa ou a um serviço. Em vez disso, ele pode ser assumido por uma pessoa ou recurso para uma sessão definida O que isso significa? Deixe-me explicar com este exemplo de imagem. Digamos que você tenha um aplicativo em execução em uma instância EC two. E uma instância EC two precisa acessar uma imagem do S three. Nesse caso, o EC two assume a função e, com base na política, acessará a imagem do S three. Como mencionei, as funções não têm chaves de acesso ou credenciais associadas a elas. As credenciais são temporárias e atribuídas de forma anímica Aws fornece as credenciais temporárias para que a função conclua a tarefa quando necessário Isso é tudo para este vídeo. 15. Criando um usuário e grupo no IAM: Ajude os estudantes. Bem-vindo de volta. Nesta lição, criaremos usuários e grupos do IAM. Ao final deste laboratório, você poderá criar essas entidades do IAM e navegar confortavelmente pelo console do AWS IAM Vamos começar. Aqui estamos na página inicial do console da AWS. Vamos navegar até o IAM usando a opção de pesquisa na parte superior do console da AWS. Como você pode ver, você pode usar a barra de navegação esquerda para navegar em grupos de usuários, políticas , funções e identidades fornecidas para o escopo deste laboratório Trabalharemos somente com grupos de usuários e suas políticas. Vamos começar criando dois usuários, Ram e Sham. Em nosso exemplo, Ram é desenvolvedor e Sham é administrador da AWS. Você pode navegar até a página do usuário clicando nas opções do usuário no painel do IAM. Esta é a página do usuário onde você verá todos os usuários criados para sua conta. Agora, vamos criar nosso primeiro usuário da AWS clicando no botão Ad users. Começamos fornecendo um nome de usuário ao seu usuário. Vamos chamar esse usuário de Ram. Ao criar mais de um usuário nas mesmas propriedades, você pode simplesmente adicionar outro nome de usuário clicando no botão Adicionar outro usuário. No entanto, neste exemplo, faremos isso um por um. A próxima opção que vemos é o tipo de credencial da AWS. Você deve selecionar Cess, Key Programmatic access para permitir que esse usuário possa acessar os comandos da AWS CLI ou usar o AWS SDK e Não precisamos disso para nosso exemplo. Somente selecionaremos senha de acesso ao AWS Management Console, o que permitirá que o usuário Ram acesse a AWS por meio da seleção do console de gerenciamento. Isso nos dá mais algumas opções. Você pode fazer com que a AWS crie uma senha gerada automaticamente ou você pode adicionar manualmente uma senha simples para esse usuário. No nosso exemplo, permitiremos que AWS nos forneça uma senha gerada automaticamente. A próxima opção é exigir redefinição de senha. Você deve marcar essa caixa se quiser que o usuário redefina a senha ao acessar o console pela primeira vez. Vamos desmarcar esta demonstração, clique em Próximas permissões Aqui temos três opções. Você pode adicionar usuários a um grupo de usuários. Você pode copiar as permissões de um usuário existente que você já tem em sua conta ou pode anexar políticas diretamente. Não temos usuários ou grupos de usuários em nossa conta, não temos opções. Mas se você clicar na terceira opção, anexar políticas existentes diretamente, verá uma lista completa de políticas mesmo que nunca tenha criado uma política em sua conta. Essas são as políticas gerenciadas pela AWS. Isso significa que essas políticas são gerenciadas pela AWS e que, se alguma alteração for necessária, ela será feita pela AWS. Eles são muito úteis para aplicativos simples em que você não deseja criar e manter suas próprias políticas e deixar que a A's cuide de tudo isso para você. Podemos selecionar uma política aqui, como Amazon S Three, Read Only Access, e dar essa permissão ao nosso usuário. Vamos primeiro criar um usuário sem permissões. Clique em Próximas tags. Aqui podemos adicionar tags aos nossos usuários. Vamos adicionar uma tag de exemplo, Department Finance. Em seguida, clique em Avançar, que abrirá a página de revisão, onde você verá os detalhes finais sobre seu usuário. Clique em Criar usuário. Isso nos leva à etapa final da criação de um usuário da AWS. Aqui podemos ver que o usuário Ram foi criado. Você pode até mesmo ver a senha desse usuário. Clique em Baixar CSV, que baixará um arquivo CSV com as credenciais do usuário para É importante saber que você deve salvar essas credenciais em algum lugar depois de criar o usuário Se você sair desta página, não poderá mais obter as credenciais novamente. Clique em fechar, podemos ver que nosso usuário Ram foi adicionado à página do usuário. Vamos criar outro usuário, Sam. Seguimos o mesmo processo. Adicione o nome de usuário Sham. Permita o acesso à AWS por meio do console. Deixe todos os valores como padrão, exceto exigir redefinição de senha. E clique em Avançar, não adicionaremos nenhuma permissão. Clique em Avançar, adicionaremos a tag de amostra, mesma forma que fizemos com as finanças do departamento de usuários. Clique em Avançar e clique em Criar um usuário Baixe o CSB para salvar as credenciais Observe novamente que você não poderá obter credenciais depois de fechar Agora que criamos nossos dois usuários, Ram e Sham, vamos criar nosso grupo de usuários. Clique em Grupos de usuários e, em seguida, clique em Criar grupo para criar nosso primeiro grupo de usuários, adicione o nome desenvolvedores. Podemos adicionar usuários a esse grupo na tabela abaixo. Vamos adicionar Ram, que é desenvolvedor, a esse grupo. A próxima etapa é adicionar políticas a esse grupo. Queremos que nossos desenvolvedores possam acessar totalmente C dois e S três. Portanto, verificaremos o acesso total ao Amazon C dois e o acesso total ao Amazon S três na tabela de políticas aqui e clicaremos em Criar grupo. Agora temos um grupo de desenvolvedores que tem apenas um. Vamos criar também um grupo de administradores. Clique em Criar grupo, insira o grupo e nomeie Administradores. Desta vez, não adicionaremos farsa a esse grupo no momento. Vamos criar um grupo sem usuários. Vamos agora anexar políticas a esse grupo. Anexaremos a política de acesso do administrador. Clique em Criar grupo e podemos ver que nosso grupo foi criado. Mas o grupo de administradores não tem nenhum usuário no momento Agora vamos adicionar Sham a isso. Acesse a página do usuário. Tem os usuários Ram e Sham. Clique em Sham, você pode ver que esse usuário não tem nenhuma permissão. Passe das permissões para os grupos de esfaqueamento de grupos. Isso fornecerá uma lista de grupos de usuários. Vamos adicionar Sham ao seu grupo de administradores aqui. Agora, se você voltar para a guia de permissões, verá que a permissão foi adicionada a essa simulação de usuário e agora tem a política de acesso do administrador anexada do grupo de administradores Criamos dois grupos com acesso à AWS. Esses usuários atribuíram políticas gerenciadas pela AWS. Isso é tudo que eu queria cobrir nesta estação. 16. Entre com usuário do IAM e crie função: Olá estudantes. Bem vindo de volta. Nesta lição, faremos login com usuário do IAM no console da AWS e criaremos uma função. Suponho que você tenha concluído a última demonstração e tenha um usuário chamado Sham e sua senha. Vamos começar. Vamos primeiro fazer login como administrador Sham e usá-lo para criar uma função. Agora vamos abrir o arquivo CSV que você baixou ao criar o user sham Aqui você vê que contém nome de usuário, senha, ID da chave de acesso, ID da chave secreta e link de login do console , pois não selecionamos o acesso programático É por isso que o acesso e a chave secreta estão vazios. Vamos copiar o link de login do console e abri-lo no navegador. Aqui você vê que o alias da conta já está preenchido, e isso é algo que criamos em outra demonstração Você também pode usar o ID da conta. Caso você se lembre, adicione seu nome de usuário e senha conforme mostrado no CSV Isso nos levará ao console da AWS. Agora podemos ver o console da AWS como antes, mas se você ver o canto superior direito da tela, verá que estamos logados como uma farsa de usuário Navegue até o console do IAM. Novamente, clique na opção Funções no painel esquerdo e clique no botão Criar função. A primeira opção que temos é selecionar a entidade confiável. Isso significa que devemos selecionar para que serve essa função. Quem ou qual serviço vai usar essa função. A primeira opção é o serviço da AWS. Você deve escolher quando deseja atribuir essa função aos serviços da AWS, como EC Two Lambda ou ECS Que é o que faremos aqui. A próxima é a conta da AWS. Isso é usado para criar uma função que pode ser acessada de outras contas da AWS. Se você quiser que alguém possa fazer login de outra conta na sua, escolha essa opção. A próxima opção é a entidade B. É quando você deseja que os usuários possam assumir essa função e acessar o console da AWS por meio de uma entidade B, como o login do Google no Facebook. A próxima opção é SAML 2.0 Federation. Saml é um serviço de manutenção de usuários usado por grandes organizações para permitir que seus funcionários acessem diferentes serviços nas organizações Isso pode ser integrado à AWS para dar acesso ao console da AWS. A opção final que temos é uma política de confiança personalizada. Você pode usar isso para definir uma política de confiança do Jason. Não se preocupe se as três últimas opções não fizerem sentido para você. As duas primeiras opções são importantes para este curso. Escolha o serviço da AWS e selecione EC Two. A partir das opções abaixo, criaremos uma função que pode ser anexada a uma instância EC two. Clique em Avançar, aqui podemos ver a lista de políticas que podemos anexar a essa função. Anexe a política de acesso total do Amazon S Three. E clique em Avançar, insira o nome da função. Você vê uma descrição já preenchida com uma mensagem significativa. Permita que duas instâncias da EC chamem os serviços da AWS em seu nome. Revise a função e clique em Criar função. Isso levará alguns segundos. Agora você pode ver a função que você criou na página de funções. Usaremos essa função nas próximas demonstrações. Estudantes e usuários do IAM são os melhores para dar acesso à sua conta da AWS, mesmo que você deva usá-la. Eu recomendarei criar um usuário do IAM para você mesmo com permissão de administrador e uso a partir de agora. E também certifique-se de habilitar a MFA para usuários do IAM. Acredito que você já excluiu seu acesso de usuário root e sua chave secreta, que criamos na última demonstração. Nesse estágio, você sabe que também pode criar uma chave secreta e de acesso para seu IAM. Você pode encontrar o link na seção de recursos. Isso é tudo para esta sessão. 17. Políticas do IAM: Bem-vindos de volta, estudantes. A última sessão foi sobre usuários, grupos e funções do IAM. Também discutimos brevemente as políticas do IAM para conceder permissões, mas isso não é suficiente. Compreender as políticas é fundamental para trabalhar com eficácia com o IAM. Nesta lição, falaremos sobre as políticas do IAM em detalhes, incluindo suas definições e tipos. Vamos começar. Deixe-me te fazer uma pergunta. O que vem à sua mente quando você ouve a palavra política? Se você pensou em regras ou diretrizes. Entendi bem. A política do Iam é mais ou menos a mesma coisa. Na sessão anterior, você deve ter notado que concedemos certas permissões aos grupos de usuários e funções que criamos. Somente então eles poderiam realizar as ações de acordo com as permissões concedidas. Essas permissões nada mais são do que políticas sobre as quais falaremos nesta sessão. Por definição, a política do IAM é uma entidade que, quando anexada a qualquer identidade ou recurso, define suas permissões. Como eu disse anteriormente, as políticas contêm permissões que determinam se uma solicitação é permitida ou negada. Isso significa que qualquer ação executada por uma identidade, a permissão é dada por sua política. Você pode usar a política do IAM quando precisar definir as permissões para uma identidade no IAM. Agora vamos entender isso com o mesmo exemplo. Você tem uma equipe de dois desenvolvedores, Ram e Sham, e dois administradores, Ta e Geta Você criou dois grupos, desenvolvedores e grupo de administradores. De acordo com a função e a permissão do trabalho, os desenvolvedores em sua organização podem iniciar e interromper a instância EC two e os administradores podem criar e excluir a instância EC two C two nada mais é do que um serviço de computação na AWS. Falaremos sobre isso nos próximos módulos. Você criará duas políticas. Uma política para os desenvolvedores que permitirá listar, iniciar e interromper duas instâncias C. Outra política para administradores que lhes permitiria criar e excluir duas instâncias EC Você anexará essas políticas aos respectivos grupos. O que aconteceria aqui é que a política seria aplicada adequadamente a todos nesses grupos. Isso significa que tanto Ram quanto Sham terão permissões como desenvolvedores e Ta e Geta como administradores Portanto, neste exemplo, ao anexar a política do desenvolvedor ao grupo de desenvolvedores, estamos permitindo que os membros do grupo realizem ações específicas e nada mais do que isso Agora sabemos como as políticas funcionam. Vamos entender os diferentes tipos de políticas do IAM. Se voltarmos à definição da política novamente, política do IAM é uma entidade que, quando anexada a qualquer identidade ou recurso, define suas permissões. De acordo com a definição, uma política pode ser anexada a identidades ou recursos Como você já sabe, identidade nada mais é do que grupos e funções de usuários do IAM. O recurso significa serviços da AWS como C two instance S three bucket lambda, que abordaremos em módulos posteriores Com base nas duas maneiras pelas quais uma política pode ser anexada. É de dois tipos: política baseada em identidade e política baseada em recursos. Agora vamos entender os dois um por um. As políticas baseadas em identidade são anexadas a uma identidade que é IAM, grupo de usuários e função. Essas políticas controlam quais ações e identidades podem ser executadas em quais recursos e sob quais condições. Observe que essas políticas são específicas do usuário, o que permite que o usuário acesse os recursos da AWS em suas próprias contas. Um grupo ou função de usuário do IAM pode ter várias políticas que, juntas representam as permissões desse usuário específico. Por exemplo, você pode anexar a política ao usuário do IAM chamado Ram, declarando que ele tem permissão para realizar a ação de duas instâncias de execução do Amazon C. Você também pode afirmar que Ram tem permissão para obter itens de um bucket Amazon S three. Meu bucket, combinando as duas permissões, Ram só pode iniciar duas instâncias C e acessar. Meu balde. O outro tipo é a política baseada em recursos. Essas políticas são anexadas a um recurso da AWS, como um Amazon C, duas instâncias S, três bucket, etc Essas políticas controlam qual ação um serviço ou identidade específica da AWS pode realizar em outros recursos e sob quais condições. Vamos entender com um exemplo. Às vezes, haverá cenários em que a instância de duas instâncias do EC gostaria de acessar o bucket S three. Você também precisa anexar a política à instância C dois e dar a permissão necessária para acessar o S três. Além disso, as políticas baseadas em identidade são de dois tipos políticas gerenciadas e políticas em linha A política gerenciada é ainda classificada em AWS, política gerenciada e política gerenciada pelo cliente. Agora vamos examiná-los um por um. As políticas gerenciadas da AWS são políticas criadas e gerenciadas pela AWS. Como o nome sugere, você deixaria claro que essa política foi criada e gerenciada pela AWS e você não pode fazer nenhuma alteração. Por exemplo, Amazon S Three Read Only Access ou S Three Full Access. Essencialmente, eles são projetados para se alinharem estreitamente às funções de trabalho comumente usadas no setor de TI como administrador, desenvolvedor ou leitor Você pode conceder a S três permissão de acesso total ao administrador e S três acesso somente de leitura ao auditor O objetivo é facilitar a concessão permissões para essas funções de trabalho padrão As políticas gerenciadas da AWS não podem ser alteradas e AWS gerenciará e atualizará as políticas conforme necessário. As políticas gerenciadas pelo cliente são criadas e gerenciadas pelo cliente. Basicamente, como cliente, você pode criar e gerenciar essas políticas. Se você quiser uma política totalmente controlada que possa ser mantida, você pode usar uma política gerenciada pelo cliente, que você cria e gerencia em sua conta da AWS. Ela fornece um controle mais preciso sobre suas políticas do que a política gerenciada pela AWS. Outra vantagem da política gerenciada pelo cliente é que você pode se conectar a várias entidades em sua conta, facilitando muito a escalabilidade. Por exemplo, você tem quatro usuários leitores em sua conta para uma equipe diferente, todos precisando do mesmo tipo de Amazon C para acesso somente de leitura. Você pode criar uma política gerenciada pelo cliente e anexá-la aos quatro usuários. Se precisar alterar essa política, você pode alterá-la em uma política que se aplica a tudo o que ela fornece: gerenciamento de mudanças integrado e centralizado Para essas políticas gerenciadas, você tem controle total e pode gerenciar as permissões em qualquer nível que achar necessário. A próxima e última é a política em linha. A política embutida é diretamente vinculada ao usuário ou grupo. Ele mantém um relacionamento estreito de um para um com a política e a identidade. Isso significa que uma política em linha é anexada a uma única entidade Geralmente, ele é criado quando você cria uma identidade e excluído quando você exclui a identidade. É benéfico quando você precisa dar permissão a um usuário ou grupo temporário. Você cria uma política em linha ao criar um usuário ou grupo E quando você excluir o usuário, a política também será excluída. Tudo bem, isso é basicamente sobre as políticas. Vamos resumir rapidamente o que aprendemos nesta sessão. Uma política é basicamente uma permissão que decide qual ação deve ser tomada nas contas da AWS. E aprendemos sobre os diferentes tipos de políticas do IAM, que são políticas baseadas em identidade e políticas baseadas em recursos. As políticas baseadas em identidade são ainda divididas em dois tipos políticas gerenciadas e políticas em linha As políticas gerenciadas podem ser gerenciadas pela AWS ou gerenciadas pelo cliente. 18. Práticas recomendadas pelo IAM: Olá, estudantes. Bem-vindo de volta. Neste vídeo, aprenderemos algumas das melhores práticas do IAM para garantir a segurança de nossas contas da AWS. Vamos começar. A primeira prática recomendada do IAM é evitar o compartilhamento de credenciais de login Em vez de compartilhar as credenciais do usuário root com diferentes usuários em sua organização Você deve criar usuários do IAM para indivíduos que usarão seus recursos da AWS. Vamos entender isso com um exemplo. Suponha que você tenha dois desenvolvedores e dois administradores em sua equipe O que as pessoas às vezes fazem é criar um usuário de IM e compartilhar as credenciais do usuário com todas essas quatro pessoas Mas não é uma boa prática. Em vez disso, devemos criar quatro usuários diferentes de acordo com as funções desses membros da equipe e compartilhar as credenciais do usuário com eles. O objetivo aqui é que cada usuário tenha suas próprias credenciais do IAM para acessar sua conta Não importa se eles estão acessando a conta por meio do console de gerenciamento ou usando o AWS CLI ou qualquer SDK A próxima melhor prática é criar grupos. É sempre recomendável criar grupos e atribuir somente as permissões necessárias a esses grupos. Isso significa que, se houver vários usuários em sua organização com a mesma função de trabalho, em vez de atribuir permissões a usuários individuais, você poderá criar um grupo, atribuir uma permissão a esse grupo e adicionar todos os usuários que tenham a mesma função de trabalho no grupo Cada usuário assumirá essas permissões. Vamos entender isso com o mesmo exemplo. Suponha que você tenha dois desenvolvedores e dois administradores na equipe Em vez de dar permissões a esses quatro usuários individuais, você deve criar dois grupos. Um para os administradores e outro para os desenvolvedores, e adicione as permissões necessárias a esses grupos Agora você pode adicionar usuários aos seus respectivos grupos. Os usuários assumirão automaticamente as permissões atribuídas aos seus respectivos grupos. Essa prática ajudará você a gerenciar as permissões no nível do grupo em vez do rótulo do usuário. Vamos passar para a próxima melhor prática, que é a permissão. Aws recomenda que sempre criemos permissões para o que o usuário precisa, de acordo com sua função. Essas permissões são conhecidas como permissões de privilégio mínimo Por exemplo, se o trabalho de um usuário é iniciar e interromper as duas instâncias do EC , em vez de dar acesso total ao EC dois, devemos dar permissão apenas para iniciar e interromper a instância do EC dois. Devemos sempre criar permissões e políticas de privilégios mínimos ao criar a permissão Agora, a partir de agora, mais uma prática recomendada é a auditoria. Aws diz que devemos sempre habilitar o rastreamento da nuvem em cada conta da AWS. Se você não conhece o Cloud Trail, é um serviço da AWS gratuito, exceto para armazenamento. Sempre que um usuário interage com sua conta da AWS, Cloud Trail registrará todas as atividades que eventualmente ajudarão você durante a auditoria Aprenderemos o Cloud Trail em detalhes no módulo de gerenciamento e segurança da AWS. Vamos entender com um exemplo. Digamos que um usuário tenha feito login na sua conta da AWS, criado uma instância EC two e depois a encerrou O AWS Cloudtrail registrará todas as três atividades. Dessa forma, você terá um registro de todas as atividades que os usuários estão realizando em sua conta. A próxima prática recomendada na lista é adicionar políticas de senha. Aws diz que você deve sempre configurar políticas de senha, que fizemos no vídeo anterior. As políticas de senha garantem que cada usuário tenha uma senha forte. A próxima melhor prática é a MFA, a autenticação multifator Você deve sempre habilitar autenticação multifator para usuários privilegiados. Eu recomendaria que você aplicasse a MFA para cada usuário. Você pode criar uma política e anexá-la a todos os grupos. Agora, sempre que qualquer usuário fizer login em uma conta da AWS, precisará autenticar sua identidade duas vezes Só então eles poderão fazer qualquer coisa em sua conta. Essa é uma prática muito boa para garantir que sua conta e seus recursos da AWS estejam seguros. A próxima prática recomendada é alternar as credenciais de login Todos que acessam sua conta da AWS precisam alterar suas credenciais de usuário de vez em quando Você pode até mesmo aplicar essa política aos usuários de que eles terão que alternar suas credenciais a cada dois meses, três meses ou seis meses Essa é uma parte da sua política de senhas dentro da sua conta da AWS que vimos na demonstração anterior. De acordo com essa política, o usuário não precisará apenas alternar suas senhas, mas também as chaves secretas e de acesso Por último, mas não menos importante, é o usuário root. Você não deve usar o usuário root para suas atividades diárias , pois isso pode expor suas credenciais de usuário root Além disso, você também deve limitar o acesso do usuário raiz assim que tiver uma conta da AWS, armazenar as credenciais do usuário raiz em algum lugar privado e criar um usuário do IAM, mesmo para você Estudantes, espero que agora entendam que a segurança da conta é um problema real e que devem empregar essas práticas para proteger sua conta de qualquer possível ameaça Isso é tudo para este vídeo. 19. Visão geral do Amazon S3: Bem vindo de volta. Neste vídeo, aprenderemos sobre um dos principais serviços da AWS, o Simple Storage Service, conhecido como S three. Começaremos com a visão geral do S three. Entenda o balde S three e também a pasta. Vamos começar com o que S3s3 significa Simple Storage Service Como você pode ver os primeiros caracteres do Simple Storage Service RS, por isso que ele é chamado de S three. Ele permite que você armazene, recupere o acesso e faça backup de qualquer quantidade de dados a qualquer momento, de qualquer lugar na Internet S Three é uma solução de armazenamento perfeita para armazenar grandes quantidades de dados. Por exemplo, arquivos de áudio, filmes, armazenamento de fotos em grande escala, grandes conjuntos de dados, etc. Podemos acessar o S Three a partir do console de gerenciamento, AWS CLI ou do AWS SDK Agora vamos falar sobre como armazenamos dados no S três. Para armazenar quaisquer dados dentro do S three, precisamos criar um bucket dentro de uma conta da AWS. Um bucket S three é um contêiner lógico no qual os dados são armazenados dentro do S three. Para armazenar quaisquer dados no S três, precisamos criar um bucket. Também podemos criar vários compartimentos para organizar nossos dados. O bucket é identificado por seu nome e deve ser globalmente exclusivo em todas as regiões e contas. Por exemplo, se eu criar um bucket e chamá-lo de meu bucket, ninguém mais poderá usá-lo em nenhuma conta da AWS. Em outras palavras, depois que um bucket S three é criado, nenhuma outra conta da AWS pode criar o bucket S three com um nome semelhante. S three bucket simplesmente funciona como um armazenamento no qual podemos armazenar dados ilimitados diretamente dentro do bucket ou criar uma pasta e depois colocar os dados nessa pasta. Agora vamos entender o que é uma pasta. As pastas são usadas para agrupar e organizar arquivos. Diferentemente de um sistema de arquivos tradicional, Amazon S three não usa hierarquia para organizar seus arquivos Por uma questão de simplicidade organizacional, o console Amazon S three suporta o conceito de pasta como meio de agrupar dados Você pode ter várias pastas ou arquivos em um único bucket. Basicamente, a pasta é um namespace dentro do bucket. Vamos entender com um exemplo. Dentro da conta da AWS, temos o serviço S three. Nesse serviço, podemos criar buckets conforme aprendemos até agora Dentro desse bucket, podemos armazenar nossos arquivos, imagens, vídeos ou dados. Além disso, se quisermos organizar nossos dados, podemos criar pastas dentro do bucket e também pastas dentro de pastas. Então, também podemos armazenar nossos dados dentro dessas pastas. Fará mais sentido quando fizermos a demonstração na próxima lição. Outro conceito importante em S três é objeto. Quando armazenamos quaisquer dados que possam ser arquivos, documentos, imagens, vídeos etc., eles são conhecidos como objetos na AWS Portanto, o objeto nada mais é do que seu documento de arquivo, imagem, vídeo etc Qualquer coisa armazenada no seu disco rígido é conhecida como arquivo. Mas quando você carrega esse arquivo no S three, ele será conhecido como um objeto. E o bucket no S três é semelhante ao diretório de arquivos no seu disco rígido. Agora falaremos sobre as características dos objetos que você precisa conhecer. O tamanho máximo de um único objeto que você pode carregar para S três é de 5 terabytes Observe que cinco terabytes não é o tamanho total dos dados que você pode carregar Em vez disso, é o tamanho máximo de um único arquivo que o S three permite que você envie. Mas isso não significa que você não possa fazer upload de objetos maiores que 5 terabytes Se você tiver um objeto maior que 5 terabytes, precisará dividi-lo em várias partes e usar algo chamado upload de várias partes para carregá-las O tamanho máximo do objeto é de 5 terabytes, mas você deve usar um upload de várias partes assim que fizer o upload de um objeto com mais de 5 terabytes Outra característica é a piora do objeto. Nada mais é do que manter várias variantes do mesmo objeto quando estamos fazendo algumas alterações nele. No S três, você pode criar objetos para protegê-los de qualquer ação não intencional ou até mesmo da exclusão acidental de Isso significa que você sempre mantém as versões anteriores de um objeto. A próxima característica é a classe de armazenamento. Você pode criar vários buckets e armazená-los em diferentes classes ou níveis de dados As classes são níveis diferentes de armazenamento com custos diferentes com base na frequência com que você usa seus dados. Você pode escolher uma classe se não usar muito seus dados, você pode escolher uma classe mais barata e deixar seus dados lá e assim por diante. Falaremos sobre isso em detalhes no futuro. Por último, mas não menos importante, você pode criar permissões para limitar quem pode acessar ou ver seus objetos. Uma das políticas mais comuns na política de bucket é uma política baseada em recursos que você pode usar para conceder permissões para seu bucket e seus objetos. Nesta sessão, analisamos três objetos da pasta de bucket S e suas características. 20. Disponibilidade, durabilidade e replicação de dados do S3: Olá estudantes. Bem-vindo de volta. Neste vídeo, entenderemos três conceitos importantes, que são disponibilidade, durabilidade e replicação de dados que serão muito usados na próxima sessão Ao entender as diferentes classes de armazenamento, vamos começar com a disponibilidade. Refere-se ao tempo de atividade do sistema. Isso significa simplesmente que por quanto tempo o sistema está disponível. Em outras palavras, é o momento em que o sistema está operacional e é capaz de fornecer dados mediante solicitação. Medimos essa disponibilidade em porcentagem. Isso também é conhecido como SLA, que significa Acordo de Nível de Serviço É basicamente uma promessa que os provedores de serviços têm com seus clientes quanto à disponibilidade de seus serviços ou sistemas. Se eles cumprirem sua promessa e os clientes receberem tudo dentro do prazo prometido, isso significa que o SLA está concluído Vamos dar um exemplo. Os supermercados dizem que estão abertos 24 horas por dia, 7 dias por semana. Isso significa que está disponível 24 horas por dia para você. Se eles cumprirem sua promessa e estiverem abertos durante todo o dia, semana, mês e ano, podemos dizer que sua disponibilidade é de 100% e eles cumprem o SLA O próximo conceito é durabilidade. Refere-se à proteção de dados a longo prazo. Isso significa simplesmente o quão bem seus dados estão protegidos contra qualquer possível perda ou corrupção. Além da disponibilidade, seus dados não devem ser perdidos ou corrompidos se você os armazenar em um dispositivo de armazenamento por muito tempo. A durabilidade também é medida em porcentagem. Vamos entender isso com um exemplo. Suponha que você tenha armazenado 1.000 kg de batata em câmaras frigoríficas por seis meses. Quando você os recuperou , eram apenas 800 kg Isso significa que 200 kg de batatas estavam podres ou comidas por ratos Isso significa que o serviço de armazenamento a frio não era durável. Da próxima vez que você se certificar armazenar as batatas em um depósito refrigerado bem equipado, não haverá perdas. Isso é chamado de durabilidade. Agora entendemos o que são durabilidade e disponibilidade de dados. Também é importante saber como os dados são armazenados no S três. É baseado em um conceito chamado replicação de dados. Vamos entender isso. Se você se lembra do último laboratório, criamos um bucket S three na região de Mumbai e enviamos uma imagem Quando você carrega qualquer dado em seu bucket, esses dados vão para uma das zonas de disponibilidade na região. No nosso caso, criamos um bucket na região de Mumbai. Nossa imagem foi carregada em uma das zonas de disponibilidade. Mas, para proteger nossos dados, AWS faz cópias adicionais de nossos dados e os replica em outras zonas de disponibilidade Os dados são armazenados e replicados em todos os Jones de disponibilidade na mesma região Agora surge a pergunta: Por que a AWS faz isso? Aqui, precisamos lembrar que a AWS prometeu 11 nove de durabilidade de dados. Significa simplesmente que a AWS promete 99 pontos adicionais, nove, número de 9% de garantia de durabilidade de dados. Aws não garante 100% de durabilidade dos dados, mas eles dizem que há 99 pontos adicionais de nove, 9% de chance de que seus dados não sejam perdidos. Como a AWS garante que, ao fazer upload de dados no S three, ela não sofra nenhuma perda por isso Aws mantém cópias de nossos dados em toda a disponibilidade Jones na mesma região. Em caso de perda de dados, eles recuperam os dados de outras zonas de disponibilidade para a perdida. É assim que os dados estão sempre presentes em todas as zonas de disponibilidade de uma região. E esse é o motivo pelo qual promete 119% de durabilidade em casos extremos Se alguma zona de disponibilidade cair, nossos dados ainda estarão disponíveis em outras zonas de disponibilidade dessa região específica. OK. Esse é um dos benefícios significativos de usar o Amazon S three. Esse é um exemplo simples de quando carregamos novos dados. Agora vamos entender o que acontece quando fazemos alterações em nossos dados. Suponha que tenhamos essa imagem em três disponibilidades ativadas, alteramos a cor dessa imagem e a enviamos. Em seguida, a AWS atualiza automaticamente as duas cópias restantes dos seus dados. Em outros Jones, o mesmo vale para excluir. Quando você exclui seus dados do One Joe, eles serão excluídos de todas as zonas de disponibilidade na região. Estudantes, entendemos durabilidade da disponibilidade de dados e como AWS promete 11 nono de durabilidade de dados com a replicação de dados Isso é tudo para esta sessão. 21. Classes de armazenamento: Olá, estudantes. Bem vindo de volta. Neste vídeo, entenderemos as diferentes classes de armazenamento. Esta sessão será cheia de fatos. Eu recomendo que todos façam anotações. Adicionamos alguns recursos de aprendizagem complementares na seção de recursos Certifique-se de fazer o melhor uso deles. Vamos começar. Em um dos vídeos anteriores, armazenamos a imagem em um bucket Amazon S three. Ao fazer o upload do objeto, notamos que as classes de armazenamento estavam sendo exibidas abaixo das propriedades Aws oferece várias opções para armazenar nossos dados na nuvem. Essas opções são conhecidas como classes de armazenamento e podemos escolher qualquer classe com base na frequência com que acessamos nossos dados. Essas três classes de armazenamento S foram criadas especificamente para fornecer o menor custo de armazenamento para diferentes padrões de acesso. Isso significa que diferentes tipos de classes de armazenamento são projetados para atender a diferentes propósitos de armazenamento de dados. Estudantes engenheiros de nuvem, é muito importante entender essas aulas, pois elas podem economizar seu tempo e dinheiro. Vamos entendê-los um por um. O primeiro é o padrão S three. É uma classe de armazenamento de uso geral usada para dados acessados com frequência. Ele oferece alta durabilidade, disponibilidade e desempenho. padrão S three foi projetado para oferecer disponibilidade de 99,999% e durabilidade de 11,9% Em outras palavras, eles são apenas 0,001%, pois seus dados podem ser perdidos e assim por diante Ele oferece baixa latência e alto rendimento e pode suportar até duas falhas simultâneas Isso significa que, se dois meses de disponibilidade tiverem problemas, seus dados ainda estarão seguros, pois oferecem baixa latência e alta O padrão S three é apropriado para uma ampla variedade de casos de uso, como aplicativos em nuvem, sites dinâmicos, distribuição de conteúdo, aplicativos móveis e de jogos e análise de big data. A próxima é a classe de armazenamento de acesso infrequente. Como o nome sugere, essa classe de armazenamento é usada para dados acessados com menos frequência. Dados que você só acessa de vez em quando. Mas você também deseja que esses dados estejam imediatamente disponíveis sempre que você precisar ; eles devem estar disponíveis assim que você os solicitar. Se for esse o caso, você pode usar a classe de armazenamento de acesso infrequente Ele foi projetado para oferecer 99,9% disponibilidade e 11 9% A disponibilidade de classes pouco frequentes é menor do que o padrão S três porque não acessamos nossos arquivos com muita frequência É mais barato que o padrão Amazon S three. Mas quando acessamos os arquivos, pagamos uma taxa de recuperação por GB Essa é a vantagem desta classe. Pagamos menos pelo armazenamento , mas precisamos pagar uma taxa de recuperação toda vez que acessamos nossos dados Essa combinação de baixo custo e alto desempenho torna o acesso infrequente padrão S Three ideal para armazenamento de longo prazo, backup e recuperação de desastres Nossos dados nessa classe também são resilientes aos eventos de uma falha em toda a zona de disponibilidade Em seguida, temos uma zona de acesso pouco frequente. Isso é muito semelhante à classe de acesso infrequente, mas a única diferença é que em uma classe de acesso pouco frequente de uma zona, os dados são armazenados em um único Joe de disponibilidade, enquanto na classe de acesso infrequente eles são armazenados em pelo menos três Basicamente, seus dados estão menos disponíveis porque estão presentes em apenas uma disponibilidade, junho. A melhor parte é que você ainda tem baixa latência e alto desempenho de taxa de transferência Além disso, como os dados são armazenados em uma disponibilidade em junho, eles são 20% mais baratos do que o acesso pouco frequente acesso infrequente da zona S31 é ideal para clientes que precisam de uma opção de menor custo para dados acessados com frequência, mas não precisam da disponibilidade e resiliência do acesso infrequente do padrão S três ou do padrão S três Essa é uma boa opção para armazenar cópias secundárias de backup de dados locais ou de dados que podem ser facilmente criados. Novamente, você também pode usar replicação S three entre regiões para armazenar dados replicados de outra região da AWS de forma econômica da AWS de O próximo é o S three Intelligent Tiring. Como o nome sugere, essa classe de armazenamento vem com uma inteligência embutida que move automaticamente os dados para o pneu de acesso mais econômico com base em seu padrão de acesso Aqui, o padrão de acesso indica com que frequência um dado é acessado Aqui, os objetos serão movidos automaticamente de uma classe de armazenamento para outra com base nas mudanças nos padrões de acesso desses objetos. Como resultado, os dados de acesso frequente serão movidos para o armazenamento acessado com frequência e os dados acessados com pouca frequência serão movidos pela classificação inteligente S three para a categoria correta Ele tem a mesma baixa latência e alto desempenho de rendimento do padrão S three Mas isso é altamente otimizado em termos de custos. Por exemplo, se os dados forem movidos para a classe de acesso pouco frequente, isso economizará até 40% nos custos de armazenamento Se for transferido para a classe glaciar, economizará até 68% nos custos de armazenamento Ele também foi projetado para oferecer 119% de durabilidade e 99,9% de disponibilidade em um determinado ano em várias Contudo, como usuário deste serviço, você só precisa pagar uma pequena taxa mensal de monitoramento e cansaço automático Isso proporcionará a maior otimização de custos sem pensar muito nisso. Também é resistente a eventos que podem afetar toda a disponibilidade Joe. Agora, a próxima classe de armazenamento é o Glacier Amazon S three. Glacier é a classe de armazenamento de menor custo no S três e oferece suporte retenção de longo prazo e à preservação digital dados acessados uma ou duas vezes por ano É útil para clientes, especialmente aqueles em setores altamente regulamentados como serviços financeiros, assistência médica e setores públicos. Esses setores retêm conjuntos de dados por sete a dez anos ou mais para atender aos requisitos de conformidade regulatória. Ele foi projetado para proporcionar 119% de durabilidade de objetos em várias zonas de disponibilidade Como o nome sugere, você espera que seus dados sejam congelados, o que significa que serão mantidos por um longo período de tempo. Isso significa que a validade da recuperação de objetos é muito longa. Agora, a AWS oferece suporte a três tipos de glaciar para um padrão de acesso diferente no futuro Vamos agora comparar rapidamente os diferentes tipos de geleiras. Amazon S three, recuperação instantânea da geleira. Três, a recuperação instantânea glacier oferece um tempo de recuperação em milissegundos com o mesmo desempenho do S standard Amazon three, Na recuperação flexível do glacier, o tempo de recuperação pode ser configurado de minutos a Com a recuperação gratuita em massa, ela é mais adequada para cenários de backup e recuperação de desastres em que grandes quantidades de dados precisam ser recuperadas de forma rápida e econômica Amazon Es three Glacier Deep Archive. No Tri Glacier Deep Archive, o tempo de recuperação dos dados é de 12 horas É a classe de armazenamento de menor custo projetada para retenção de dados a longo prazo que serão retidos por sete a dez anos É uma alternativa ideal às bibliotecas de fitas magnéticas. Alunos, espero que agora vocês entendam a classe de armazenamento. Caso tenha alguma dúvida, recomendo que você passe por esta sessão mais uma vez. 22. Demo no Bucket do S3: Bem-vindo de volta. Nesta sessão de demonstração, aprenderemos como criar um suporte S three e carregar dados nele. Vamos até o console de gerenciamento da AWS. Lembre-se de que primeiro precisamos selecionar a região da AWS. Vou selecionar a região de Mumbai. Depois disso, iremos para o console S three. Há três maneiras de encontrar o serviço S three no console. O primeiro método é pesquisar por S três na caixa de pesquisa e ele nos dará S três no resultado. O segundo método é encontrar o S três no menu de todos os serviços. Basta expandir o menu, localizar o serviço S three e clicar para abri-lo. Por fim, se você já usou o S three em sua conta, ele será listado nos serviços visitados recentemente. Vamos digitar S três aqui e clicar para confirmar. Quando chegarmos pela primeira vez ao console S three, veremos uma lista de buckets na conta da AWS Como o S three usa um namespace global, você não precisa selecionar uma região ao usar o console. Agora, se você está pensando, por que selecionamos a região? O S three é um serviço global. Bem, selecionar a região certa sempre que estiver trabalhando em sua conta é uma boa prática. Não importa se o serviço é sensível à região. Agora vamos seguir em frente e criar um balde S three. Para fazer isso, clique em Create Bucket e escolha um nome. Agora, uma coisa a observar aqui é que o nome do bucket deve ser exclusivo. Para tornar esse nome único, vamos adicionar alguns números aleatórios no final. Agora, há algumas regras que precisamos seguir ao nomear buckets A primeira regra é que o nome do bucket tenha de 3 a 63 caracteres Em segundo lugar, o nome deve ter ruídos mais baixos, números, pontos e canetas números, pontos e Ele deve começar e terminar com uma letra ou um número. Por último, o nome do seu bucket deve ser exclusivo em toda a AWS. Selecione a região em que você deseja que seu bucket seja criado, deixe o resto das configurações padrão e vá em frente e crie o bucket. Agora, o bucket foi criado e não demorou mais do que um segundo. Nessa página, você pode ver o nome do bucket, a região em que você criou o bucket e o acesso ao objeto do bucket. Agora vamos para o balde. Agora, aqui você pode ver as diferentes guias, incluindo propriedades, permissões, métricas, gerenciamento e pontos de acesso Aqui está o objeto dentro desse balde. Este é o lugar onde enviamos nossos arquivos. Como aprendemos na última sessão, podemos fazer upload de objetos no bucket S three ou também podemos criar pastas dentro do bucket para organizar nossos dados. Vamos criar uma pasta e chamá-la de demo. Agora podemos carregar nosso objeto no bucket ou nessa pasta. Vamos clicar em Carregar. Aqui temos duas opções. Ou podemos fazer upload de arquivos ou fazer upload de pastas. Faremos o upload de um arquivo aqui. Clique em Adicionar arquivos. Aqui podemos fazer algumas configurações adicionais em nosso objeto. Basta clicar em Propriedades e você verá a classe de armazenamento. É padrão por padrão. Abordaremos isso em detalhes em breve neste módulo. Vamos guardar isso por enquanto e clicar em Carregar. Agora nosso arquivo foi carregado com sucesso. Vou sair clicando em Fechar. Agora eu tenho um objeto, meu balde S three com o nome demo dot jpg. Se clicarmos em nosso jpg de demonstração do objeto, ele nos levará ao painel do objeto, onde veremos a permissão e a versão das propriedades do objeto . Vamos até a guia Propriedades. Aqui podemos encontrar todos os detalhes sobre nosso objeto. exemplo, quem é o proprietário do objeto, em qual região o objeto foi carregado e quando o objeto foi modificado pela última vez, o tamanho do objeto, a chave do objeto de tipo, a URL, a tag de nome do recurso da Amazon e aqui está a URL do objeto. É o link para o arquivo. Podemos abri-lo clicando aqui, mas vamos abri-lo em uma nova guia. Como você pode ver, meu acesso negado porque esse bucket não é público. E eu não tenho o direito de acessar esse objeto. Se o bucket não for público e você tentar abrir o arquivo usando sua URL pública, ele não abrirá. Agora vamos voltar ao painel de objetos. Temos outra maneira de abrir esse objeto apenas clicando em Abrir. Ele abrirá uma nova guia e nos mostrará nossa imagem de demonstração. Agora você deve estar pensando por que isso funciona, mesmo que o bucket não seja público? Bem, quando abrimos um objeto pela abertura, ele se abre porque esse é um URL exclusivo. Como você pode ver, o URL é muito, muito mais longo e não é semelhante a um URL público. Este é um URL especial para mim, como proprietário deste objeto Estou autorizado a acessar esse objeto por meio desse URL. Agora, a última coisa que eu queria mostrar é como excluir um objeto do S três. Para isso, vou voltar ao bucket, selecionar o objeto e clicar em excluir. Aqui você terá que digitar delete para confirmar que deseja excluir o objeto e, em seguida, excluir o objeto Isso excluirá permanentemente esse objeto. Estudantes, espero que agora tenham confiança no S three e em seu escopo. Nesta sessão, vimos uma demonstração em que criamos um bucket holder S three, carregamos o objeto com sucesso e o excluímos. Agora vá em frente e faça você mesmo. 23. Visão geral do EBS (armazenamento em bloco elástico): Olá estudantes. Bem-vindo de volta. Neste vídeo, aprenderemos sobre uma das opções de armazenamento para duas instâncias EC, o armazenamento em bloco elástico, também conhecido como EBS Começaremos com a definição e os fundamentos do EBS seguidos por seus tipos e casos de uso. Vamos começar. O Amazon EBS é como um disco rígido na nuvem que fornece armazenamento em bloco persistente para o Amazon EC Twin Stances armazenamento do Ebs é chamado de volumes do EBS na terminologia da AWS Portanto, vamos chamá-lo de volume EBS a partir de agora. Você pode anexar volumes do EBS às suas duas posições EC e criar um sistema de arquivos sobre esses Execute um banco de dados ou servidor em cima deles, ou use-os de qualquer outra forma, um armazenamento em bloco seria usado. Mas o que é armazenamento em bloco? É uma tecnologia que divide dados em blocos e os armazena como partes separadas Cada bloco de dados recebe um identificador exclusivo, que permite que um sistema de armazenamento coloque os dados menores onde for mais conveniente. Um volume de armazenamento em bloco funciona de forma semelhante a um disco rígido. Você pode armazenar qualquer arquivo nele ou até mesmo instalar um sistema operacional inteiro. O volume Ebs é uma unidade conectada à rede. O que isso significa? Bem, isso significa que o volume do EBS não está realmente conectado à sua instância C TO; fisicamente, ele está conectado por meio de uma rede dentro da AWS Como ele é conectado por meio de um link de rede, volume do EBS pode ser facilmente conectado ou desconectado Para duas instâncias C, isso significa que você pode mover seu volume do EBS de uma instância em execução para outra e a alteração ocorrerá em questão de segundos. Você pode pensar no EBS como um disco rígido de computador que pode ser conectado a qualquer um desconectado de uma instância e imediatamente reconectado a uma instância diferente via rede Agora, surge uma pergunta aqui sobre por que isso é chamado de armazenamento em bloco elástico. Ao provisionar um volume do EBS, você precisa definir seu tamanho e IOPS Iops significa simplesmente operações de entrada e saída por segundo. Você precisa dizer à AWS que deseja um volume de EBS de, digamos, 100 B, que possa fazer 1.000 IOPs, ou seja, 1.000 operações de entrada e saída por segundo Mas só porque você define que o EBS tem 100 GB, não significa que você está preso a uma unidade de 100 GB Você pode alterar o tamanho ou a capacidade de IOPS dos volumes do EBS conforme sua necessidade a qualquer momento Essa é a elasticidade que o EBS fornece, e é por isso que o EBS é um armazenamento em bloco elástico e não apenas um armazenamento Agora vamos dar uma olhada em alguns recursos do EBS. Um ponto importante a ser observado sobre o EBS é que ele só pode ser conectado a uma instância C de duas instâncias por vez Você não pode ter duas instâncias C conectadas a um único volume do EBS No entanto, a AWS lançou recentemente um recurso em que volume IOPS SSD EBS pode ser anexado a Não precisamos entrar em detalhes neste curso. Essencialmente, o EBS é uma unidade de rede que pode ser movida de uma instância para outra Mas esse processo tem uma limitação. Os volumes do Ebs são restritos em uma zona de disponibilidade. Isso significa que, embora os volumes do EBS possam ser movidos rapidamente de uma instância para outra, eles não podem ser movidos pela zona de disponibilidade Por exemplo, um volume do EBS na zona de disponibilidade P, zona sul A , não pode ser anexado a uma instância EC duas na zona sul do AP B. Ele só pode ser movido entre instâncias na zona sul do AP A. No entanto, se você quiser mover volumes do EBS de uma zona de disponibilidade para outra, você precisará tirar um instantâneo Aprenderemos sobre instantâneos em um tópico bônus. Tipos de volumes do EBS. Vamos seguir em frente e entender os diferentes tipos de volumes do EBS Vamos dar um exemplo aqui. Um dos critérios importantes ao comprar um novo laptop é o armazenamento, certo? Quando você fala sobre armazenamento de computador, isso significa discos rígidos. discos rígidos do seu computador podem ser de diferentes tipos, como SSD, HDD, etc. Da mesma forma, o volume do EBS também é classificado em seis tipos. SSD de uso geral, GP dois e GP três. Vicent IOPSSDI, I 01 e I 02 por meio de SD otimizado, um HDD, HDDs antigos, um HDD antigos Uma coisa a observar aqui é que somente os SSDs podem ser usados como volume de inicialização do sistema de todos esses tipos volume de inicialização é o volume que contém o sistema operacional. O Aws só permite SSDs rápidos como volume de inicialização. Isso é tudo o que precisamos saber sobre o EBS e o tipo de volume do EBS. 24. Visão geral do EFS (sistema de arquivos elástico): Olá estudantes. Bem vindo de volta. Neste vídeo, aprenderemos sobre uma das opções de armazenamento das duas instâncias do EC, o sistema de arquivos elástico, também conhecido como EFS. Começaremos com o básico e uma pequena descrição do EFS, seguida por seus casos de uso Então, vamos começar. O que é o sistema de arquivos? Antes de entender o que é EFS, você deve saber o que é um sistema de arquivos. Um sistema de arquivos define como os arquivos são nomeados, armazenados, lidos e usados em qualquer dispositivo de armazenamento. Ele é instalado em todos os dispositivos de armazenamento, seja uma unidade de disco ou um CD. Toda vez que você executa qualquer operação em um arquivo no seu computador, como editar, excluir ou ler seus sistemas operacionais, ler seus sistemas operacionais sistema de arquivos a manipula O armazenamento é simplesmente uma grande quantidade de dados. Sem um sistema de arquivos, porque sem um sistema de arquivos, o sistema operacional nunca saberá onde procurar seus dados. Imagine uma sala de armazenamento cheia de documentos e páginas espalhados Você não pode dizer quais páginas estão relacionadas a quais páginas pertencem à mesma pasta, certo? São apenas dados dispersos aleatoriamente. É assim que um dispositivo de armazenamento ficará sem um sistema de arquivos. Em comparação, uma biblioteca é um exemplo real de um sistema de arquivos em que cada documento é organizado. Como se uma biblioteca tivesse um sistema. Seu sistema operacional tem um sistema de arquivos que é o computador onde encontrar seus arquivos. Os sistemas operacionais têm um sistema de arquivos padrão do setor que é gerenciado como parte do seu sistema operacional. No entanto, sempre é possível criar seu próprio sistema de arquivos para aplicativos. Agora que você sabe o que é um sistema de arquivos, vamos falar sobre o EFS, Amazon EFS é um serviço de armazenamento de arquivos baseado em nuvem. Como o nome sugere, é uma solução de armazenamento escalável que cresce automaticamente e as cadeias de caracteres, medida que você adiciona e remove arquivos, não precisa pedir à AWS que crie um sistema de arquivos de 100 GB ou 200 GB. Basta criar um EFS e ele cresce e diminui à medida que você cresce e diminui à medida Isso garante que seu EFS sempre tenha o armazenamento de acordo com suas necessidades. Ele pode crescer automaticamente de um pequeno megabyte para um sistema de arquivos em escala de petabytes Não há taxa mínima para usar o EFS. Você simplesmente precisa pagar pelo armazenamento que usa. Se você usar somente 500 MBS de EFS, pagará somente pelos 500 MBS Semelhante ao EBS, o EFS também é um serviço conectado à rede. Isso significa que o armazenamento do sistema de arquivos está conectado a duas instâncias EC por meio de uma rede e não fisicamente, mas, diferentemente do EBS, que só podia ser conectado a uma instância EC de duas instâncias por vez, podemos conectar o EFS a qualquer número de duas instâncias EC Um dos recursos mais importantes do EFS é que ele armazena seus dados em zonas de disponibilidade. Você pode conectar o EFS a várias instâncias EC em duas zonas de disponibilidade. Digamos que você tenha um EFS na região de Mumbai. Esse EFS pode ser usado por qualquer número de instâncias EC two de qualquer zona de disponibilidade nessa região, não apenas EC duas. Você também pode usar o EFS com serviços como funções ECS, EKS e Lambda, ou até mesmo com seu computador local Você pode conectar simultaneamente centenas de duas instâncias EC, funções lambda e seus computadores pessoais ao EFS No momento, o EFS só é compatível com instâncias baseadas em Linux. É importante observar aqui que as instâncias do Windows não podem usar o EFS. Aws tem um sistema de arquivos diferente para instâncias do Windows chamado SX Agora você deve estar se perguntando por que usar o EFS e não criar seu próprio sistema de arquivos. Sim, é possível criar um sistema de arquivos em qualquer dispositivo de armazenamento. Mas, além de ser um serviço altamente escalável, EFS também é um serviço gerenciado Isso significa que ele gerencia a infraestrutura de armazenamento para você. E, como usuário, tudo o que você precisa fazer é usar o sistema de arquivos. Você não precisa se preocupar com o armazenamento subjacente ou qualquer manutenção ou correção do seu sistema de arquivos Efs gerenciará todo esse trabalho extra para você sempre que houver necessidade de um armazenamento de sistema de arquivos que possa ser usado em vários serviços e computadores locais Pense em EFS, isso é tudo para esta sessão. 25. Introdução ao networking: Olá e bem-vindo de volta ao quinto módulo deste treinamento. Neste módulo, abordaremos a VPC, que é a seção de rede da computação em nuvem Aqui, vamos nos aprofundar em tópicos como virtual private, nuvem ou sub-rede VPC, nuvem ou sub-rede VPC tabela de rotas do Internet Gateway e grupos de segurança do gateway Nat e NSL Também fazemos uma demonstração na AWS para criar uma VPC e sub-redes públicas e privadas Após a conclusão bem-sucedida deste módulo, você terá uma compreensão completa da criação de VPCs e da criação de sub-redes públicas e privadas Você saberá como as sub-redes pública e privada funcionam na VPC e como o Internet Gateway conecta uma VPC à Você também aprenderá a usar grupos de segurança e NACL para controlar o tráfego de e para recursos em uma Estudantes. Para tirar o máximo proveito desse treinamento, recomendamos que você faça anotações durante todo o treinamento. Espero que você já esteja fazendo anotações. Isso é tudo para esta introdução. 26. O que é um VPC?: Olá estudantes. Bem-vindo de volta. Neste vídeo, aprenderemos sobre nuvem privada virtual ou VPC Resumindo, é o aspecto de rede da computação em nuvem. E pode ser um pouco difícil relacionar isso com nosso dia a dia. Vamos tentar fazer com que seja o mais simples possível. Uma vez que essa é uma seção e um alicerce muito importantes para o restante dos tópicos deste módulo. Eu recomendo que você preste atenção especial a esse tópico. Vamos dar um exemplo. Suponha que haja um prédio residencial e tenha muitos apartamentos Há centenas de pessoas morando nesses apartamentos. Digamos que eu possua o apartamento número 810 e você tenha o apartamento número B 20 neste prédio Também podemos dizer que apartamento B 20 é a seção privada do prédio onde você guarda suas coisas e tem controle total sobre elas. Você também pode adicionar recursos de segurança, como câmera de bloqueio, vigilância etc., da mesma forma que outras pessoas têm áreas privadas próprias Agora vamos conectar esse exemplo à AWS e à VPC e substituir o prédio por apartamentos da AWS por VPCs Em nossa conta da AWS, criamos e gerenciamos todos os tipos de recursos, como EC, dois RDS e assim por diante Veremos quais são esses recursos específicos nos módulos posteriores. Esses recursos em seu VPC são como suas coisas em seu apartamento, o AWS VPC é como sua área privada na AWS na qual você pode colocar seus recursos e serviços Assim como um apartamento tem um nível diferente de segurança, você também pode colocar um nível de segurança sobre esses recursos. Em outras palavras, podemos dizer que existem maneiras de você conceder às pessoas acesso ao seu banco de dados ou aos seus recursos na nuvem, ou você também pode impedir que elas o façam. Agora vamos entender a definição de AWS VPC, uma nuvem privada virtual Uma nuvem privada virtual é uma rede virtual dedicada à sua conta da AWS. Ele é logicamente isolado de outras redes virtuais na nuvem da AWS nas quais você pode iniciar seus recursos da AWS, como duas instâncias do Amazon EC Vpc significa Virtual Private Cloud. Não é nada além de um data center virtual nos serviços Amazon Wab Isso é privado porque é só para você e você tem controle total sobre ele. Essa é uma rede lógica completamente isolada que você pode usar da maneira que quiser ao criar a VPC Basicamente, você cria uma rede logicamente isolada. Se eu estiver criando uma VPC na minha conta e você estiver criando uma VPC na sua conta, essas são duas redes isoladas Até mesmo duas ou mais VPCs com endereços IP diferentes na mesma conta também serão isoladas Você pode entender o endereço IP como o endereço do seu apartamento. Esse endereço IP é chamado CIDR, que significa Classless Inter É um conjunto de padrões de protocolo da Internet usados para criar identificadores exclusivos para redes Ao criar uma VPC, você especifica um intervalo de endereços IP para a VPC na forma de um bloco CIDR Por exemplo, 10,0 0,0 por 16. partir de agora, você entende que VPC é uma rede dentro da sua conta da AWS Você também pode criar sub-redes dentro de uma rede que também são conhecidas como sub-redes Abordaremos sub-redes no próximo laboratório. 27. Subnet, gateway de Internet, tabela de rotas e gateway NAT: Olá estudantes. Bem vindo de volta. Neste vídeo, vamos entender a sub-rede, gateway da Internet e a tabela de rotas. Vamos começar. Conforme discutimos no vídeo anterior, VPC é uma rede em nossa conta da AWS Também podemos criar sub-redes dentro da nossa VPC. Essas sub-redes também são conhecidas como sub-redes. Vamos dar uma olhada no nosso exemplo anterior. Nós possuímos um apartamento no apartamento, e este apartamento é nossa seção privada. Temos um quarto, uma sala de estar e uma cozinha neste apartamento. Essencialmente, essas são diferentes subseções do nosso apartamento usadas para diversos fins. Da mesma forma, na AWS, na VPC, criamos uma sub-rede como envio público e envio privado Quando criamos um envio, especificamos o bloco CIDR para o envio, que é um subconjunto do bloco CIDR da VPC Se o CID do nosso VPC for 10,0 0,0 0,0 por 16, podemos usar 10,0 0,0 0,0 por 24,10 0,0 0,0 por 24 Como CIDR do nosso Envio, podemos lançar recursos da AWS em um envio específico, como fácil para instâncias Um ponto importante a ser lembrado é que cada sub-rede deve residir inteiramente dentro de uma disponibilidade, Joe, e não pode abranger Jones Veremos isso ao fazer o mapa prático existem dois tipos de sub-rede Envio público e envio privado. Poderíamos relacioná-lo ao nosso apartamento. Temos um quarto de hóspedes com acesso direto do exterior. É como uma apresentação pública, enquanto nosso quarto é totalmente privado para nós. Agora vamos entender o que é sub-rede pública. É uma sub-rede que interage com a Internet e pode ser acessada pela Isso significa que todos os recursos criados em sua sub-rede pública, por exemplo, servidores Wab, seriam acessíveis pela Como as sub-redes públicas interagem com a Internet, implantaremos nosso balanceador de carga ou aplicativos voltados para a Internet no Eu abordarei isso em detalhes no módulo EC two. A próxima é a sub-rede privada. É uma sub-rede que não pode ser acessada pela Internet. Isso significa que podemos criar recursos da AWS que são usados apenas dentro da VPC para fins internos. Agora vamos juntar tudo. Temos uma região em nossa conta da AWS e haverá uma VPC nessa região A VPC terá o que é chamado de intervalo CIDR, que é um intervalo de endereços IP permitidos em nosso A VPC também pode passar por duas zonas de disponibilidade, Availability Joe uma e Availability Joe duas Disponibilidade Joe one contém um envio público e um envio privado. Da mesma forma, Availability Joe Z two também contém um envio público e um envio privado. Portanto, temos dois Jones de disponibilidade, um VPC e quatro sub-redes Neste exemplo, agora você deve estar pensando qual é a diferença entre um envio público e um envio privado? Bem, não há diferença nessas arquiteturas. O processo de criá-los é exatamente o mesmo. Mas o que você configura dentro deles determina se uma sub-rede é pública ou privada Você precisa fazer duas alterações uma sub-rede para torná-la pública Primeiro, você precisa adicionar um gateway de Internet. É um componente gerenciado pela AWS que está conectado à sua VPC Ele atua como um gateway entre sua VPC e a Internet, basicamente o mundo exterior Vamos adicionar um gateway de Internet aqui. Agora temos um gateway de Internet conectado à nossa VPC, que estabelecerá uma conexão com a Internet Agora, se você está pensando que um envio público agora tem acesso à internet, bem, isso não é verdade. Há outro componente chamado roteador dentro da VPC. que determina para onde o tráfego de entrada será direcionado Esse processo é conhecido como roteamento. O roteador usa algo chamado tabelas de rotas para controlar o tráfego da rede. Portanto, cada sub-rede dentro da VPC deve estar associada a uma tabela de rotas Sempre que criamos uma sub-rede, ela vem com uma rota padrão, que é uma rota local Como podemos ver, essa tabela de rotas tem um campo de destino e um campo de destino. O campo de destino contém o endereço de destino que você está tentando alcançar. O destino especifica a rota, esse destino, que significa que qualquer solicitação dentro do endereço IP da VPC é Para fazer um envio público, precisamos adicionar o endereço de destino como Internet, que é 0,0 0,0 0,0 por zero, e o destino como gateway da Internet. Essa nova rota aqui na tabela de rotas tem um destino de 0,0 0,0 0,0 por zero. Isso significa que qualquer endereço IP desconhecido na tabela de rotas o envia para esse destino. Nesse caso, esse destino é o Internet Gateway. Esta parte aqui é simplesmente o ID do Internet Gateway. Isso significa que qualquer tráfego que não seja a rede VPC será direcionado para o gateway da Internet E, portanto, esse envio agora é público. Agora, essas duas sub-redes são sub-redes públicas e as duas restantes são sub-redes Espero que esteja claro para você. Se você tiver uma instância em uma sub-rede privada, ela não poderá ser acessada pela Internet No entanto, talvez você queira dar acesso à Internet para baixar arquivos ou obter as atualizações do sistema operacional. Nesse caso, podemos usar o que é conhecido como At Gateway, que é gerenciado pela AWS ou instância. Ele também pode ser autogerenciado, dessa forma você pode acessar a Internet em sua sub-rede privada At Gateway é um serviço gerenciado da AWS altamente disponível que permite que suas instâncias em uma sub-rede privada se conectem à Internet Criamos um At Gateway em nosso envio público. Criamos uma rota das sub-redes privadas para o gateway At e do gateway At para o gateway da Internet Isso permitirá que suas sub-redes privadas tenham conectividade com a Internet Isso é tudo para esta sessão. Espero que agora você entenda o BPC e seus elementos. Caso tenha alguma dúvida, recomendo que você passe por esta sessão mais uma vez, pois isso é muito importante para sua entrevista de certificação e, em geral, também. 28. Grupos de segurança e NACL: Olá estudantes. Bem-vindo de volta. Neste vídeo, aprenderemos por que precisamos de um grupo de segurança e da NCL O que são essas e as diferenças entre elas? Grupos de segurança e NSLs atuam como firewalls virtuais. Eles controlam o tráfego de e para os recursos em um BPC seguindo algumas regras de entrada e saída Entrada ou saída representa a direção do tráfego entre as redes A direção é definida em relação a uma rede de referência. tráfego de entrada se refere às informações que chegam a uma rede Aqui, a rede de referência é sua rede interna. Pode ser o seu computador. Além disso, como você pode ver, os dados estão fluindo da Internet para o seu computador É chamado de tráfego de entrada. tráfego de saída se refere às informações que saem da rede Novamente, aqui você vê que os dados estão fluindo para fora da rede de referência que é o seu computador Novamente, o fluxo de tráfego de dados é da sua rede para a Internet. É chamado de tráfego de saída. Agora vamos voltar ao grupo de segurança e à NSA. Começaremos primeiro com o grupo de segurança. Um grupo de segurança é uma solução de firewall da AWS para filtrar o tráfego de entrada e saída de um EC para uma instância Ele atua como um firewall virtual para duas instâncias C para controlar o tráfego de entrada e saída com base em algumas regras definidas garante a segurança no nível da instância As regras de entrada e saída funcionam de forma independente. Por exemplo, a regra de entrada pode permitir que o tráfego de um endereço IP específico acesse somente a instância Enquanto uma regra de saída pode permitir que todo o tráfego saia da instância à medida grupos de segurança funcionam no nível da instância, em uma VPC, também podemos aplicar um grupo de segurança a uma ou mais instâncias Da mesma forma, uma instância também pode ser associada a um ou mais grupos de segurança. Vamos dar uma olhada no NSR agora. Significa Controle de Acesso à Rede, que controla o tráfego de ou para um envio de acordo com algumas regras definidas. Isso significa que ele adiciona uma camada adicional de segurança na camada de envio. Por exemplo, uma regra de entrada pode negar o tráfego de entrada de um intervalo de endereços IP, enquanto uma regra de saída pode permitir que todo o tráfego saia do envio Como os NSLs funcionam no nível de envio de uma VPC, podemos aplicar uma NCL a um ou mais No entanto, cada envio deve ser associado somente a um único NCL Agora vamos ver qual é a diferença entre o grupo de segurança e o NSL. Security Group opera no nível da instância, mas o NSL opera no nível de envio suporte a grupos de segurança permite somente regras, mas a NSL permite regras e nega regras O grupo de segurança tem estado, que significa que o tráfego de retorno é permitido automaticamente , independentemente de quaisquer regras Como já discutimos, não há como adicionar uma regra de saída Todo o tráfego permitido retorna por padrão, ele mantém o estado do tráfego permitido. É por isso que é chamado de estado completo. NSL é apátrida. Isso significa que o tráfego de retorno não é permitido por padrão Deve haver regras explicitamente permitidas para permiti-lo. grupo de segurança se aplica a uma instância somente se alguém especificar o grupo de segurança Bem, ao iniciar a instância ou associar o grupo de segurança à instância posteriormente, a NSL se aplica automaticamente a todas as instâncias na sub-rede à qual está associada, portanto, fornece uma camada adicional de defesa se as regras do grupo de segurança forem No entanto, grupos de segurança e NSLs operam em camadas diferentes na VPC, que é a melhor maneira de proteger sua rede, grupos de segurança ou NSLs defesa profunda envolve camadas de grupos de segurança, e os NSLs são apenas duas Portanto, uma solução melhor é implementar ambas para bloquear sua rede. Isso é tudo para esta sessão. 29. Crie sub-redes públicas e privadas de VPC.: Olá estudantes. Bem-vindo de volta. Nesta demonstração, criaremos uma VPC em nossa conta da AWS. Também analisaremos os parâmetros e as opções que a AWS oferece para criar uma VPC Também criaremos um gateway de Internet e configuraremos envios públicos e privados Ao final deste laboratório, você terá uma compreensão completa de como criar VPCs e fazer envios públicos e privados Vamos começar acessando o console da AWS. Primeiro, precisamos selecionar a região. Escolherei Mumbai porque quero criar uma VPC na região Ásia-Pacífico de Mumbai Agora, para acessar o painel da VPC, procuraremos a VPC na pesquisa e clicaremos em VPC para abrir o Como você pode ver aqui no painel, já temos uma VPC criada em nossa conta Essa é a VPC padrão que a AWS cria. Essa VPC tem um cabo de roteamento e um gateway de Internet em todas as regiões Podemos usar a VPC padrão para fins de demonstração, mas é sempre recomendável criar sua própria VPC para desenvolvimento, teste e ambiente de produção para obter a configuração mais adequada Se você for para qualquer região, encontrará uma VPC e algumas tabelas de rotas e um gateway de Internet associado a ela Vamos agora criar nossa própria VPC. Clique em VPCs e, em seguida, clique em Criar VPC. Vamos dar a ele o nome de Pa up. A próxima opção para nós é selecionar se queremos endereços IPV quatro ou IPV seis em nossa Optaremos pelo IPV quatro e forneceremos 10,0 0,0 0,0 por 16 como o intervalo de IP privado para essa Depois, temos a locação, que especifica onde sua infraestrutura é Se selecionarmos a locação padrão, nossas duas instâncias C estarão em hardware compartilhado com outros usuários da AWS Se você quiser uma VPC em que todas as duas instâncias C estejam em hardware dedicado, você pode optar por criar uma VPC dedicada A próxima opção são as tags. Como você pode ver, a AWS já criou um crachá para nós. Não precisaremos de mais etiquetas. Vamos clicar em Criar VPC. Agora temos nossa própria VPC criada nessa região. Vamos voltar para a página da VPC. Você pode ver que agora temos duas VPCs nessa região. Agora, criaremos um gateway de Internet e o anexaremos à nossa VPC Para isso, clique em Internet Gateway. E como você pode ver, já temos o Internet Gateway. Para a VPC padrão, vamos clicar em Create Internet Gateway e dar a ela seu pacote de nomes, IGW Agora clique em Criar um gateway de Internet. Em seguida, precisamos conectar esse gateway da Internet à nossa VPC. Podemos fazer isso diretamente clicando em anexar à VPC na barra verde superior aqui Ou clicando no botão de ações aqui. Clique em Anexar à VPC e selecione sua VPC. Se você estiver usando o AWC LI, poderá clicar nessa barra de rolagem e anexá-la à sua VPC Como não estamos usando o AWS C, L, I, podemos clicar aqui e conectar esse gateway de Internet diretamente. Agora temos uma VPC com um gateway de Internet. Mas ainda não podemos criar infraestrutura na VPC. Para isso, precisamos ter sub-redes. Vamos criar sub-redes. Clique nas sub-redes aqui com base na região em que você está. Você verá 34 sub-redes aqui. Essas são as sub-redes públicas padrão anexadas à VPC padrão Em seguida, criaremos sub-redes para isso, clique em Criar sub-redes Primeiro, precisamos escolher a VPC. Estamos escolhendo o Pat Cup VPC que criamos. Agora, adicione um nome ao nosso Enviar. Público Envie um. Selecionaremos o AP sul, uma zona de disponibilidade, e forneceremos um intervalo de IP de 10,0 0,0 0,0 por 24 ao Enviar Vamos pular as tags por enquanto e clicar em. Crie uma sub-rede. Agora podemos ver nosso envio na lista, criaremos mais três sub-redes Selecione a VPC empacotada, dê o nome de sub-rede pública para selecionar P uma zona de disponibilidade e forneça um intervalo de IP de 10,0 0,1 0,0 Clique em Criar sub-rede novamente e repita o processo. Desta vez, daremos o nome de sub-rede privada , uma disponibilidade, uma P, uma e o intervalo de IP de 10,0, 0,2, 0,0 por 24 Estou repetindo isso uma última vez. Dê o nome de sub-rede privada à zona de disponibilidade P. Portanto, um intervalo de IP de 10,0 0,3 0,0 por 24 Observe que você não pode ter intervalos de IP sobrepostos em Agora temos quatro sub-redes em duas zonas de disponibilidade na região de Mumbai Mas qual é a diferença entre nossas sub-redes privadas e públicas Nós os criamos usando o mesmo método, apenas seus nomes são diferentes. momento, todas as quatro No momento, todas as quatro sub-redes que criamos são privadas A diferença entre sub-redes privadas e públicas é que tabelas de rotas das sub-redes públicas têm uma Se virmos os detalhes das tabelas de rotas em nossas sub-redes, teremos apenas uma entrada, teremos apenas uma entrada, 10,0 0,0 0,0 por Isso significa simplesmente que todas as solicitações enviadas para rotas dentro desse intervalo devem ser roteadas dentro da VPC Vamos continuar e criar uma tabela de rotas pública para nossas sub-redes Para isso, clique na tabela de rotas e, como você pode ver, já temos duas tabelas de rotas em nossa conta. Uma está anexada à VPC padrão da região e a outra à nova VPC que criamos Se você ver a tabela de rotas padrão da VPC padrão na seção de rotas, verá que há uma entrada no gateway da Internet Isso significa que todas as sub-redes padrão da VPC padrão têm essa rota que as torna públicas. Se você ver a tabela de rotas da nossa VPC, temos apenas a rota local que torna nossas sub-redes privadas Agora clique em Criar tabela de rotas e dê a ela o nome de Pat Cup, Arch Public Em seguida, selecionamos nossa VPC e clicamos em Criar tabela de rotas. Agora temos outra tabela de rotas privadas. Agora, precisamos adicionar o caminho do Internet Gateway à tabela. Para isso, clique em Editar rotas e clique em Adicionar rota. Selecione 0,0 0,0 0,0 por zero como destino. Escolha o Internet Gateway como destino. E selecione o pacote, criado pelo IGW. Em seguida, clique em Alterações seguras. Temos uma nova tabela de rotas públicas em nossa VPC. Agora vamos associar nossa tabela de rotas às sub-redes públicas. Podemos fazer isso clicando em Ações, Editar associações de sublocação, selecionar a opção pública Enviar 1.2 e, em seguida, clicar em Salvar associações Vamos até a página da sub-rede e dar uma olhada em nossas sub-redes Você verá que as sub-redes públicas estão associadas à nova tabela de rotas, que tem a entrada do Internet Gateway Você também pode fazer isso clicando no botão Editar associação da tabela de rotas para alterar as tabelas de rotas de uma sub-rede Agora, criamos uma VPC com duas sub-redes públicas e duas privadas que usaremos durante toda Como eu disse, criar e manter VPC Internet Gateway e as tabelas de rotas é totalmente gratuito Vocês não precisam excluí-los, estudantes. Espero que você tenha entendido tudo isso. O que fizemos nesta demonstração é tudo para esta sessão. 30. DNS e Amazon Route 53: Olá, estudantes. Bem vindo de volta. Neste vídeo, aprenderemos sobre DNS e o serviço de DNS da AWS, o Amazon Route 53 Começaremos entendendo DNS e o Route 53 e depois examinaremos seus recursos e casos de uso. Vamos começar. DNS significa sistema de nomes de domínio. É a lista telefônica da Internet. É um sistema que permite que você se conecte a sites combinando um nome de domínio legível por humanos, como Google.com ou Facebook.com Basicamente, ele traduz o Agora vamos entender isso com um exemplo. Quando você faz uma ligação para seu amigo, você procura o número de telefone dele no aplicativo de contato, certo? Mas como é difícil lembrar um número de telefone, salvamos números de telefone no aplicativo de contatos. Assim como os números de telefone, sites e aplicativos têm endereços IP. Você já usou o endereço IP do Google.com ou do YouTube.com Não, porque, novamente, é difícil lembrar. Isso é simplificado com o DNS. Como eu disse, o DNS é semelhante à nossa lista telefônica, que armazena o IP dos sites Os servidores DNS simplesmente traduzem nomes de domínio em endereços IP Quando você acessa o YouTube.com a solicitação vai primeiro para um servidor DNS e depois para o endereço IP do Youtube.com. Agora entendemos A Aws também oferece um serviço de DNS chamado Route 53. O Route 53 faz uma tarefa semelhante. Agora vamos entender o Route 53 em detalhes. Route 53, serviço de DNS altamente disponível e escalável da AWS Também é o único serviço na AWS que afirma 100% de disponibilidade. Isso significa que o serviço Route 53 nunca cai. Digamos que você tenha um aplicativo web em sua conta da AWS em execução na instância EC Two Se quiser hospedar este site no domínio yourname.com, você pode criar um registro DNS no Route 53 para apontar o domínio para o endereço IP do Agora, também existem mais alguns recursos. O primeiro é o registro de domínio. O Route 53 também é um registrador de domínios. Isso significa que ele também permite que você compre novos nomes de domínio no próprio console do Route 53 se você comprou seu nome de domínio em outro site como o Go Daddy Route 53 também tem um recurso para transferir nomes de domínio de outros registradores de domínio para o Route 53 O próximo é hospedado, um que podemos criar. O Hosted Jones Hosted Joe é um contêiner para registros que incluem informações sobre como rotear o tráfego para um domínio. O próximo recurso é a verificação de saúde. Route 53 também tem a capacidade de realizar verificações de integridade de seus recursos. Ele usa essas verificações de saúde para determinar o estado dos seus recursos e enviar tráfego somente para recursos saudáveis. O último é o fluxo de tráfego. Também é chamado de fluxo de tráfego, que oferece outro nível de automação de como você envia seu tráfego para seus recursos. Isso é tudo que você precisa saber sobre o Amazon Route 53. 31. AWS VPN e AWS Direct Connect: Olá, estudantes. Bem vindo de volta. Nesta sessão, analisaremos diferentes opções de conectividade, da AWS aos datacenters locais. Vamos começar. Vamos entender com um exemplo. Suponha que sua organização esteja planejando migrar um aplicativo comercial essencial para a nuvem da AWS que tenha dados de conformidade Sua equipe de segurança insiste que você pode mover o aplicativo para a nuvem, mas os dados devem permanecer no local e atender a todos os requisitos de conformidade Agora você escolheu a região de Mumbai e criou uma VPC dentro da sua conta da AWS Para implantar seu aplicativo, você criou uma instância EC two. Seu aplicativo também usa outros serviços da AWS, como Amazon, S Three, Cloudwatch etc. Este é o seu data center local onde você tem um banco de dados Por fim, você configurou seu aplicativo que estava sendo executado em um EC para instanciar um banco de dados local Sua equipe de segurança percebeu que esse banco de dados se conecta ao aplicativo por meio da Internet pública. Eles reclamam que isso é contra as diretrizes de segurança. Essa conexão deve ser privada e segura. Há algumas opções que você pode usar na AWS para tornar essa conexão privada. Uma delas é a VPN site a site. Isso é chamado de VPN site a site porque conectamos um site da AWS a outro datacenter local. Uma VPN significa Rede Privada Virtual. O VPN cria um túnel que você usa para acessar a Internet e ignorar seu provedor de serviços de Internet, que é Esse processo criptografa todos os dados que você envia e usa diferentes medidas de segurança para garantir que todos os dados estejam seguros O que fazemos é criar uma VPN entre sua conta da AWS, VPC e sua rede local Há alguns componentes que precisamos configurar. No lado da VPC, temos um gateway privado virtual implantado na AWS Depois, temos o Customer Gateway, que é implantado no data center corporativo Agora, esse é um dispositivo no data center corporativo que você configurou de uma determinada maneira. Mas o gateway real do cliente é criado dentro da AWS. É essencialmente um elemento de configuração que você cria que direciona seu gateway privado virtual para qualquer dispositivo VPN que esteja em seu data center corporativo. Depois de obtê-los, você pode estabelecer uma conexão de rede privada virtual. Essa é uma conexão criptografada que está sendo transmitida pela Internet. Você obtém a proteção da criptografia, mas ainda está usando a Internet. Agora, novamente, você tem uma auditoria de segurança e eles reclamam que essa conexão é criptografada, mas ainda está passando pela Internet De acordo com as diretrizes de segurança, essa conexão deve ser privada. Agora, há outro serviço. Temos o AWS Direct Connect. Na verdade, essa é uma conexão privada entre a AWS e seu datacenter ou escritório. O AWS Direct Connect é uma conexão de alta velocidade e baixa latência que permite acessar serviços de nuvem públicos e privados da AWS a partir de sua infraestrutura local, ou seja, local A conexão é ativada por meio de linhas dedicadas, ignora a Internet pública para ajudar a reduzir a imprevisibilidade e o congestionamento da rede Você conecta uma extremidade do cabo ao seu roteador e a outra extremidade a um roteador de conexão direta da AWS. Usando essa conexão, você pode criar interfaces virtuais que estão diretamente conectadas à Amazon. localização de conexão direta da AWS da Vpc fornece acesso à AWS na região à qual ela está associada Isso é usar uma conexão privada entre seu datacenter e o local de conexão direta da AWS e, a partir daí, uma conexão privada com a AWS. Agora, é mais caro do que ter uma VPN. A principal conclusão é que a conexão direta é uma conexão privada, o que significa que você obtém essa experiência de rede consistente, enquanto uma VPN é pública e, embora seja criptografada, é pública. Isso é tudo para esta sessão. 32. Serviços de Compute no AWS: Olá e bem-vindo de volta. A computação é outra das principais ofertas da computação em nuvem E há vários serviços computacionais econômicos e flexíveis disponíveis na AWS para diferentes requisitos Nesta lição, entenderemos o que exatamente é computação e quais são os diferentes serviços de computação disponíveis na AWS Vamos dar um exemplo. Imagine que você tenha o emprego dos seus sonhos como arquiteto em uma empresa de tecnologia espacial, onde seu trabalho é trabalhar com a equipe de ciência de dados e processar os dados. Para entender isso, a equipe de pesquisa de sua empresa coletou grandes quantidades de dados de imagens que podem levar à descoberta de água em Marte. Agora, o trabalho da sua equipe é processar os dados da imagem e apresentar as descobertas. Mas quando você começou a processar os dados, percebeu que não tinha nenhum servidor livre para fazer o trabalho. O que significa não ter servidores gratuitos? Bem, precisamos de computadores poderosos para processar dados enormes e, nesse caso, o poder de processamento necessário para processar os dados não está disponível. Esse poder de processamento é conhecido como computação ou qualquer programa ou aplicativo que você queira executar Você precisa de memória para abrir o programa e CPU para processar os comandos que você fornece dentro do programa. Portanto, a combinação de memória e CPU é o que chamamos de computação aqui. Também pode incluir outros recursos como armazenamento em rede, etc Dependendo do tipo de aplicativo que você está executando, computação em nuvem tornou muito fácil obter o poder de computação sempre que você quiser, configurá-lo de acordo com suas necessidades e pagar somente pelo que você usa A AWS tem vários serviços de computação para diferentes requisitos, mas é importante entender quais recursos computacionais são mais adequados à entender quais recursos computacionais são mais adequados sua carga de trabalho e quais são as diferentes opções de computação disponíveis Antes de tudo, vamos entender o que é a computação da AWS. Aws oferece um serviço de computação sob demanda para executar aplicativos baseados em nuvem. Esses são aplicativos que podem ser implantados em um servidor remoto e acessados pela Internet A AWS fornece recursos de computação como instâncias e contêineres. As instâncias nada mais são do que máquinas virtuais. Aw também fornece computação sem servidor para executar aplicativos em que você não precisa de instalação ou configuração de infraestrutura Quando você opta por uma opção de computação sem servidor da AWS, os recursos computacionais estão disponíveis sob demanda e podem ser criados com apenas um Você pagará apenas pelos recursos que usar e somente pelo tempo em que os estiver usando. Os recursos computacionais da AWS são amplamente classificados em três categorias Instâncias, que são máquinas virtuais, contêineres e computação sem servidor Neste módulo, discutiremos todos eles. Isso ajudará você a decidir qual é o melhor serviço de computação para suas necessidades Se você quiser saber mais sobre a computação da AWS, consulte o link fornecido na seção de recursos O documento tem diferentes exemplos e cenários de onde você pode usar diferentes serviços de computação. Agora estamos cientes do que é computação e serviços que estão disponíveis na AWS Com isso, vamos encerrar esse vídeo. 33. Máquina virtual: Olá e bem-vindo de volta. Algumas vezes, até agora, neste treinamento, usamos o termo máquinas virtuais. Espero que você já tenha uma ideia sobre isso. Mas antes de nos aprofundarmos nas coisas, vamos entender as máquinas virtuais em detalhes. O que é uma máquina virtual? Uma máquina virtual é um ambiente virtual que funciona como um computador dentro de um computador. Parece complexo, certo? Vamos detalhar isso. Basicamente. Uma máquina virtual é comumente conhecida como VM. Não é diferente qualquer outro sistema físico, como um laptop ou smartphone. Ele tem uma CPU, discos de memória para armazenar seus arquivos e uma rede para se conectar à Internet Seu laptop e smartphone parecem reais porque são físicos VMs podem ser consideradas computadores virtuais dentro de um computador físico Agora você deve estar pensando em como é possível ter um computador virtual dentro de um computador físico. Digamos que você tenha um laptop. Ele tem o sistema operacional Windows nele. Agora você está com vontade de aprender Linux. Para isso, você precisa de um sistema operacional Linux. O que você faria? Você compraria um novo laptop e instalaria o sistema operacional Linux? Não. Uma maneira mais simples e eficiente de fazer isso é usar a técnica de virtualização para virtualizar seu notebook existente e instalar o sistema operacional Linux nele Basicamente, você pode usar os dois sistemas operacionais no mesmo laptop. Agora, como usamos técnicas de virtualização para criar uma máquina virtual E essa animação aqui é seu computador físico. Esse computador físico pode ser seu computador pessoal, um servidor remoto ou um servidor. Em um data center de provedores de nuvem, usamos um software chamado Hypervisor , também conhecido como Virtual Machine Manager No seu caso, você pode usar o Oracle VM Virtual Box. O hipervisor criará uma versão virtual ou baseada em software de um computador com quantidade desejada de memória e armazenamento de CPU A máquina virtual sempre empresta memória da CPU e do computador host físico Isso significa que uma parte da CPU, RAM e armazenamento do seu computador agora funcionará como um computador independente Para entender melhor, suponha que você tenha um computador físico com oito GB de RAM, duas CPUs e um disco rígido de 40 GB Você pode usar uma ferramenta de virtualização para criar duas ou mais máquinas virtuais e distribuir memória da CPU e o disco rígido entre essas duas máquinas virtuais Aqui temos duas máquinas virtuais, VM um e VM Eles têm quatro GB de RAM, uma CPU e 20 GB de disco rígido. Cada um deles, e mais importante, dois sistemas operacionais diferentes. Como você pode ver, uma máquina virtual funciona como um computador real e tem um sistema operacional diferente. Apesar de usar o mesmo hardware, a máquina virtual está completamente isolada do resto do sistema. A VM interna do software não pode interagir com o computador host ou outra máquina virtual no mesmo computador físico As máquinas virtuais funcionam como computadores individuais com sistemas operacionais separados. Eles permanecem completamente independentes de outra máquina virtual e da máquina hospedeira física. Como as VMs são independentes umas das outras, elas também são altamente portáteis Isso significa que você pode mover instantaneamente uma VM em um hipervisor para outro hipervisor em uma máquina completamente diferente As máquinas virtuais são flexíveis e portáteis. Eles oferecem muitos benefícios , como redução de custos. Você pode executar várias máquinas virtuais em um único host físico. Isso pode reduzir drasticamente o custo da infraestrutura física, pois você precisará comprar menos computadores físicos Agilidade e velocidade. Ativar uma máquina virtual é uma tarefa relativamente fácil e rápida É muito mais simples do que provisionar uma máquina física totalmente nova para É assim que a virtualização torna o processo de execução dos cenários de teste do Dave muito Em seguida, é reduzido o tempo de inatividade. As máquinas virtuais são muito portáteis e fáceis de mover de uma máquina para outra. Isso significa que eles são uma ótima solução para backup se as máquinas host caírem inesperadamente As máquinas virtuais de escalabilidade permitem que você escale facilmente seus aplicativos, pois criar uma máquina virtual é mais fácil do que configurar uma máquina física Você pode simplesmente adicionar servidores virtuais e distribuir a carga de trabalho em várias VMs É assim que você pode aumentar a disponibilidade e o desempenho dos seus aplicativos. Esses são todos os benefícios das máquinas virtuais. 34. EC2 Elastic Compute Cloud: Olá e bem-vindo de volta. Nesta lição, começaremos com o serviço de computação mais comum que a AWS tem a oferecer É a Elastic Compute Cloud, comumente conhecida como EC two. Vamos começar. Ec two significa Elastic Compute Cloud. Ele fornece uma opção de computação escalável na nuvem da Amazon Mas o que é capacidade computacional? Bem, já aprendemos que nada mais é do que máquinas virtuais, e o EC two é um serviço de computação na AWS C dois é escalável. Isso significa que você pode aumentar ou diminuir o tamanho de uma máquina virtual com base em seus requisitos. Se isso não funcionar, você também pode criar máquinas virtuais adicionais. Usando o Amazon EC Two. Você pode evitar completamente a configuração do hardware para executar seu aplicativo e desenvolver e implantar aplicativos com mais rapidez. Outro benefício de usar um EC Two é que você não precisa investir em hardware. Você pode ter máquinas virtuais com a capacidade desejada que podem ser acessadas usando seus computadores normais. Ec Two é uma infraestrutura de IAAS como serviço porque você aluga uma máquina virtual da AWS, e a AWS cuidará da compra e manutenção do hardware Você pode obter a capacidade desejada sem precisar se preocupar com o hardware. Ele foi projetado para facilitar a computação em nuvem em escala web compreensão da computação em nuvem em escala web para os desenvolvedores. Vamos voltar aos tempos em que a computação em nuvem não existia para hospedar um aplicativo, era preciso configurar um data center ou alugar um servidor físico. Isso é totalmente possível para grandes organizações. Mas pense em empresas de médio porte, startups ou até mesmo desenvolvedores individuais como você e eu Eles não podem se dar ao luxo de adquirir data centers e hardware. Mas depois da computação em nuvem, ficou muito mais fácil para os desenvolvedores adquirirem todas as máquinas virtuais. Graças à computação em nuvem, você pode usar o Amazon C two para lançar quantas ou poucas máquinas virtuais forem necessárias. Não há limitação. Se você quiser uma máquina virtual, você pode obter uma. Se você precisar de 1.000 máquinas virtuais, poderá obter 1.000 máquinas virtuais. O Amazon C. Two facilita a escalabilidade das máquinas virtuais para lidar com cargas inesperadas. Você não precisa prever o tráfego, você pode aumentar e reduzir as máquinas virtuais com base no tráfego e na popularidade de seus aplicativos. O Amazon C two tem um recurso de escalonamento automático que entenderemos mais tarde Podemos configurar o escalonamento automático para aumentar ou diminuir o número de máquinas virtuais com base na carga do seu aplicativo Ele fornece controle total de seus recursos de computação e permite que você execute no ambiente computacional comprovado da Amazon. Como já sabemos, duas máquinas virtuais da EC estão localizadas no Amazon Data Center. Como a segurança é muito importante para seus aplicativos, AWS oferece controle total desses servidores para que você possa proteger seu aplicativo conforme desejar. Também existem outras maneiras de proteger esses servidores que abordaremos em vídeos posteriores. Ele é compatível com macOS. Recentemente, a Amazon Web Services também começou a oferecer suporte a máquinas virtuais baseadas no sistema operacional Mac . Se você precisar de máquinas virtuais baseadas em Mac OS, você também pode obtê-las com estudantes da AWS. Esses são alguns dos principais benefícios do Amazon EC two. 35. Componente do Amazon EC2: Bem-vindos de volta, estudantes. No último vídeo, entendemos a nuvem de computação elástica C two e seus benefícios Continuaremos com a mesma discussão e entenderemos os elementos do Amazon C two. Mas antes de começarmos, vamos recapitular a definição de EC dois É uma máquina virtual na Amazon Web Services, mas a AWS não as chama de máquinas virtuais. Em vez disso, ele usa alguns termos específicos para o EC 21. Esses termos são a instância que nada mais é do que uma máquina virtual Amazon C two. Quando lançamos uma máquina virtual na Amazon, dizemos que lançamos uma instância C two daqui para frente. Em vez de chamá-la de máquina virtual E two, vamos chamá-la de instância EC two. Outro elemento importante no Amazon C two é AM I. Significa Amazon Machine Image, que é basicamente um modelo que contém um sistema operacional e software adicional necessários para iniciar duas instâncias EC. Vamos simplificar as coisas. A instância C two é uma máquina virtual, certo? E uma máquina virtual, é semelhante ao seu laptop. Vamos supor que você comprou um novo laptop. Você precisa instalar o sistema operacional e alguns softwares gerais, como drivers, navegadores, reprodutores de mídia, etc., certo? Porque sem esses sistemas operacionais e softwares, seu laptop é apenas uma caixa. O mesmo acontece com o EC de duas instâncias. Também é como seu computador e é por isso que requer um sistema operacional e software adicional para ser usado na AWS. Você pode fazer isso usando a AMI. Depois de iniciar uma instância EC two, você gostaria de acessá-la para poder instalar seu aplicativo ou fazer alguma configuração. Para acessar sua instância EC two, você precisa de algumas credenciais e essas credenciais nada mais são do que um pagamento fundamental que estamos discutindo agora Um pagador de chaves consiste em uma chave pública e uma chave privada. É um conjunto de credenciais de segurança que você usa para provar sua identidade ao se conectar a um Amazon EC Duas instâncias, quando você executa uma instância, AWS solicita um pagador de chaves Você pode escolher um par de chaves existente ou criar um novo. Quando criamos um par de chaves, AWS permite que você baixe a chave privada e ela manterá a chave pública. Quando você executa uma instância EC two, por padrão, a Amazon armazena a chave pública na sua instância Basicamente, você usará sua chave privada para fazer login na sua instância. Veremos isso quando fizermos a demonstração do EC. Duas coisas importantes a serem observadas aqui é que como você usa uma chave privada para fazer login em suas duas instâncias EC, qualquer pessoa que tenha essa chave privada também pode se conectar às suas instâncias. Certifique-se de armazenar sua chave privada em um local seguro. Outro elemento essencial do EC two é o Grupo de Segurança. Esse é outro serviço que você pode usar para proteger ainda mais suas instâncias. grupo de segurança permite que você controle quem pode acessar suas duas instâncias EC. Ele atua como um firewall virtual para suas duas instâncias EC, que controla o tráfego de entrada e saída Entrada significa que você pode configurar quem pode se conectar à sua instância EC two de fora, e saída significa com o que suas duas instâncias podem se conectar Outro elemento do EC two são as etiquetas. Uma tag é um rótulo dos seus recursos da AWS. Ele pode ser atribuído por você ou pela AWS. E cada tag consiste em uma chave e um valor. Ao criar uma instância EC two, você pode marcar suas máquinas virtuais com nomes diferentes. Pode ser o ambiente, os proprietários do centro de custos ou o nome do aplicativo. Essas tags ajudarão você a identificar seus servidores quando você tiver milhares de servidores em execução em sua conta. Cada chave de tag deve ser exclusiva para cada recurso. E cada chave de tag só pode ter um valor. Você pode usar tags para organizar seus recursos em sua conta e monitorar seus custos da AWS usando tags de alocação de custos Vamos entender as tags de alocação de custos. Algumas organizações costumavam ter um centro de custos quando você executava vários aplicativos em uma conta da AWS. Você pode marcar duas instâncias EC com centro de custo, chave e valor, que o ajudará a rastrear o custo por centro de custo. Até agora, esses são os diferentes termos e recursos que você precisa conhecer e entender em relação ao Amazon EC two. Vamos concluir esta lição aqui. 36. Convenção de nomenclatura de instância EC2: Olá estudantes. Bem-vindo de volta. Na última sessão, entendemos os diferentes elementos de uma instância EC two, como Amazon Machine Image ou AMI Security Group, pagador de chaves e imposto Ainda há mais uma característica importante das duas instâncias do EC que precisamos entender. É o tipo de instância EC de duas instâncias. Mas antes disso, entenderemos a convenção de nomenclatura de duas instâncias C. Ele ensinará como ler os nomes das duas instâncias do EC. Neste vídeo, você aprenderá primeiro a convenção de nomenclatura de duas instâncias da EC Você não encontrará uma explicação clara sobre isso na Internet, nem mesmo na documentação da AWS. Solicito que você preste atenção especial a este vídeo, pois ele também o ajudará muito durante sua jornada com a nuvem da AWS. Vamos começar. O nome da instância Aws aparece como mostrado na tela M 6.2 de tamanho grande Como você pode ver, o nome contém caracteres e números. O nome completo realmente não tem um significado. Vamos detalhá-lo e tentar entendê-lo. Uma coisa é clara: se juntarmos tudo, esse é um tipo de instância. Se você observar um tipo de instância, será algo parecido com isso. Agora vamos detalhar. O nome desse tipo de instância é composto por quatro componentes: instância, família, geração de instância, capacidade adicional e lado da instância. Você pode pausar o vídeo aqui ou tirar uma foto ou fazer uma captura de tela para referência futura. Vamos examiná-los um por um. A primeira letra do tipo de instância representa a família EC de duas instâncias. Aqui, o M representa a família de instâncias. Essas duas instâncias do AWC pertencem à família de instâncias de computação de uso geral O tipo AWS tem quatro categorias principais de tipos de instância. Eles são otimizados para computação de uso geral, otimizados para memória e otimizados para armazenamento Vamos abordá-los em detalhes na próxima lição. Também há subclassificações dentro dessa família de quatro instâncias, mas isso não é essencial nesse nível Vamos ignorá-las O número seis em M seis representa a geração da instância C two da AWS. A última ou a geração atual das instâncias C two da AWS é sempre melhor. Também é mais barato do que a geração anterior. É por isso que a AW sempre recomenda usar o tipo de instância da geração mais recente. Você pode relacionar isso a um carro. A empresa sempre lança novos modelos de carros com alguns novos recursos adicionais. Ela recomenda os modelos mais recentes para seus clientes, pois inclui novos recursos por um preço melhor. Em seguida, temos o mesmo que representa a capacidade adicional da instância EC de duas instâncias. Essa tabela tem todos esses recursos. Amd e Graviton two são os dois processos dentro dessas duas instâncias do EC Se o processador também atender aos seus requisitos, você também poderá selecionar uma instância C two baseada em processador. Aws também oferece armazenamento SSD NVME local, que é conectado diretamente ao EC two para obter melhor desempenho Portanto, alta rede e capacidade extra são os dois recursos desse tipo de instância. O componente final e mais importante desse tipo de instância é o tamanho da instância. Os dois x grandes de M 6,2 x large representam o tamanho da instância Vamos entender o que significa dois x grande. Os dois x grandes denotam a representação do tamanho da camisa da instância C two da AWS Ela representa a quantidade de memória de CPU, armazenamento e desempenho de rede de uma instância C two. Essa instância de duas vezes maior terá o dobro do número de recursos de CPU, memória e armazenamento em comparação com o tamanho base, que é X grande. Como isso funciona? Vamos entender isso. Com o dimensionamento de cada instância em duas vezes o tamanho, teremos o dobro de CPU e memória do que o tamanho anterior Isso é grande, 26x maior é igual a 162x grande. Da mesma forma, 262 xlarge é igual a 154x grande. Agora vamos analisar isso do ponto de vista da capacidade. Se você acessar a documentação da AWS e navegar até o tipo de seis instâncias, verá essa imagem. X large tem o dobro do número de CPU e memória em comparação com o grande. O custo R sob demanda também é o dobro. Agora você deve estar pensando devo optar por uma instância 12x grande ou duas instâncias grandes Para isso, vamos analisar o preço e a capacidade de cada instância. Como você pode ver, não há diferença entre eles. Se você selecionar dois x grandes ou 12x grandes, acabará obtendo a mesma capacidade por um custo igual Mas é sempre melhor usar uma instância menor em vez de uma maior, a menos que você tenha necessidades específicas. Existem muitas classificações de postura da AWS, da EC two Abordaremos os essenciais no próximo vídeo Embora isso não esteja bem documentado em nenhum lugar, AWS C two tem uma excelente convenção de nomenclatura Espero que este vídeo tenha ajudado você a entender isso Caso tenha alguma confusão, recomendo assisti-lo novamente. Isso é tudo para esta lição. 37. Tipos de instância: Olá, estudantes. Bem-vindo de volta. Na última lição, aprendemos a convenção de nomenclatura do tipo de instância Você aprendeu sobre EC para tamanho de instância, geração de famílias e recursos adicionais. Tudo isso ajudará você a decidir o tipo de instância EC para seu aplicativo Neste vídeo, vamos nos aprofundar um pouco mais e entender os diferentes tipos de duas instâncias do EC. Depois de concluir esta lição com êxito, você poderá decidir qual tipo de instância é mais adequado às suas necessidades. Vamos começar com uma rápida recapitulação do que é o tipo de duas instâncias EC É uma combinação de CPU, memória, armazenamento e capacidade de rede. Ter combinações diferentes ajuda na escolha da combinação apropriada para suas aplicações. Quando você executa, o tipo de instância C de duas instâncias é um dos elementos obrigatórios que você precisa decidir, mas por que é tão importante. Vamos entender com um exemplo. Ao comprar um laptop, primeiro você define seus requisitos. E com base nesses requisitos, você seleciona uma configuração para seu notebook, como memória, armazenamento, gráficos etc O mesmo vale para a instância EC two. Ao iniciar uma instância C 2 na Amazon, você precisa fornecer configurações de CPU, memória, armazenamento e rede para facilitar para você Aws tem tipos de instância com diferentes int em termos de CPU, memória, armazenamento e rede. Cada tipo de instância tem várias opções de tamanho para cargas de trabalho diferentes Já abordamos o tamanho da instância. Na última lição, você deve iniciar os tipos de instância mais adequados para seus aplicativos. Agora entenda o que queremos dizer com melhor ajuste aqui. Cada aplicativo é projetado de forma diferente e exige uma configuração de hardware específica. Alguns precisam de mais memória, outros precisam de mais CPU e assim por diante. Portanto, você deve usar a capacidade computacional apropriada para seu aplicativo É fácil selecionar a melhor configuração para seus aplicativos na AWS. Como a Amazon, os tipos de instância são agrupados em famílias para atender a diferentes casos de uso Analisaremos quatro tipos básicos e essenciais de EC para instância Eles incluem instância de uso geral, instância otimizada para computação, instância otimizada para memória e instância otimizada para armazenamento Vamos começar com o tipo de instância de uso geral. Ele fornece um equilíbrio entre recursos de computação, memória e rede e pode ser usado para uma variedade de cargas de trabalho Como o próprio nome sugere, esse é o tipo de instância mais básico e completo da AWS, EC Usamos instâncias de uso geral quais não temos certeza se o aplicativo precisa de mais CPU ou memória, pois isso vem com um equilíbrio entre memória, computação e rede Se descobrirmos posteriormente que esse aplicativo é mais otimizado para memória ou computação , podemos optar por tipos específicos de instâncias Agora, vamos dar uma olhada nos melhores casos de uso de instâncias de uso geral. Eles são adequados para servidores web, armazenamento em cache, frotas e aplicativos de armazenamento de dados distribuídos Como esses aplicativos exigem um bom equilíbrio entre memória, CPU e rede, eles também são adequados para aplicativos de ambiente de desenvolvimento e demonstração. O próximo tipo de instância é instância otimizada para computação. Eles são ideais para aplicativos vinculados à computação que se beneficiam de processos de alto desempenho Esse tipo de instância é otimizado para CPU em comparação com outros poderes computacionais como memória, armazenamento e rede Portanto, o tipo de instância que tem CPUs mais poderosas está dentro dessa categoria Vamos falar sobre seus casos de uso. Isso é ideal para aplicativos que precisam de alta potência computacional. As instâncias otimizadas para computação são adequadas para mídia de processamento em lote, transcodificação, servidores wave de alto desempenho, computação de alto desempenho, modelagem científica, servidores computação de alto desempenho, modelagem científica, de jogos dedicados, mecanismos de adição de servidores, inferência de aprendizado de máquina e outros Em seguida, estão as instâncias otimizadas para memória. Eles foram projetados para oferecer desempenho rápido para cargas de trabalho que exigem memória para processar grandes conjuntos de dados. essas instâncias são otimizadas na Aqui, essas instâncias são otimizadas na memória quando analisamos os tipos de instância na categoria otimizada para memória e na família otimizada para memória. Mais memória do que armazenamento, CPU e rede. Em outras palavras, os tipos de instância otimizados para memória são otimizados para memória em vez de outros recursos. Vamos dar uma olhada em seus casos de uso. Instâncias otimizadas para memória são usadas em aplicativos como bancos de dados de código aberto, em caches de memória e análises de big data em tempo real A próxima são as instâncias otimizadas para armazenamento. As instâncias otimizadas para armazenamento são projetadas para cargas de trabalho que exigem alto acesso sequencial de leitura e gravação a grandes conjuntos de dados e armazenamento local Eles são otimizados para fornecer dezenas de milhares de operações de entrada e saída aleatória de baixa latência por segundo aos aplicativos Esse tipo de instância é otimizado no lado da rede da instância EC two. Ele suporta mais ações de leitura e gravação no disco. Quando nosso aplicativo faz muitas leituras e gravações no banco de dados em disco ou na rede, devemos usar um tipo de instância otimizada para armazenamento. Esse tipo de instância maximiza o número de transações processadas por segundo ou cargas de trabalho com uso intensivo de saída e cargas de trabalho críticas para os negócios Transações por segundo significa o número de transações que a rede pode processar em um segundo. Se a instância EC two for capaz de concluir dez transações de e para o armazenamento sem demora, você pode dizer que a instância pode processar no máximo dez transações por segundo. Vamos dar uma olhada em seus casos de uso. O aplicativo tem conjuntos de dados de tamanho médio que precisam de alto desempenho computacional e transferência de rede Isso inclui bancos de dados relacionais, incluindo bancos de dados Mysql, Mariadb, Post Gray Sql e NOSQL, incluindo Ke, DB, incluindo Ke, DB, Esse tipo de instância também é ideal para cargas de trabalho que exigem acesso muito rápido a conjuntos de dados de médio porte no armazenamento local, como mecanismos de pesquisa e cargas de trabalho de análise de dados É muita informação. Deixe-me resumir, isso ajudará você a tomar a melhor decisão sobre o tipo de instância O mais importante é entender essas quatro classificações principais Depois de entender isso, ele atenderá aos seus casos de uso mais comuns. Além disso, ao selecionar qualquer tipo de instância para seu aplicativo, pergunte a si mesmo se seu aplicativo faz trabalho pesado de memória ou se é um trabalho pesado de computação Precisa de muito trabalho? Ou é apenas o trabalho genérico que ele fará? Depois de entender a classificação principal, a subclassificação pode surgir naturalmente Como em uma instância otimizada para memória, você pode precisar de mais RAM ou maior memória otimizada. fim, depois de conhecer o tipo de instância, você deve sempre escolher a instância de menor tamanho para executar a experimentação com base na experiência e no teste, decidindo o tamanho real da instância como regra geral Sempre escolha um tamanho de instância menor, o que economiza dinheiro. Isso é tudo para esta lição. 38. Inicie sua primeira instância no EC2: Olá estudantes. Bem vindo de volta. Neste vídeo, lançaremos nossa primeira instância EC two por meio do console da AWS. Também analisaremos as diferentes etapas e recursos AWS oferece ao lançar as duas instâncias EC. Ao final deste vídeo, você poderá iniciar duas instâncias EC por meio do console de gerenciamento. Assista ao vídeo até o final e depois experimente você mesmo. Vamos até o console de gerenciamento da AWS, digite EC two na barra de pesquisa e clique no resultado da pesquisa EC two. Vá diretamente para o painel do EC Two. Como você pode ver, não tenho instâncias na minha conta. Se clicarmos nas instâncias aqui, você será direcionado para a página da instância. Essa página contém a lista de todas as instâncias dessa região. Como não temos nenhuma instância, a lista está vazia. Vamos lançar nossa primeira instância EC two. Em primeiro lugar, certifique-se de escolher uma região próxima a você ou ao seu cliente. Como estou na Índia, selecionarei a região de Mumbai. Vamos clicar em Launch Instances. Primeiro, temos que escolher uma AMI chamada Amazon Machine Image. Aqui temos uma lista de AMIs para você escolher. Tem Amazon, Linux, dois, Max OS, Red Hat e muito mais. Se você olhar o painel à sua esquerda, verá outras opções. Vamos até minhas AMIs aqui, você verá a lista de suas próprias AMIs personalizadas. No momento, não temos nenhuma AMI criada em nossa conta. Não podemos ver nenhuma AMI listada aqui. A próxima opção é o AWS Marketplace, onde temos milhares de AMIs criadas por fornecedores terceirizados Depois, temos as AMIs comunitárias, que são desenvolvidas pela AWS e seus usuários. Eles são gratuitos para todos usarem. Observe que você deve sempre ter cuidado ao usar AMIs criadas por pessoas que não sejam da AWS ou de fornecedores confiáveis da AWS Pode haver falhas de segurança neles. Há também um filtro para mostrar apenas o pneu livre. Isso nos mostrará apenas as AMIs elegíveis para pneus gratuitos . Se verificarmos isso para o propósito desta demonstração, criaremos uma instância Linux to com o Amazon Linux two. Ami. Essa AMI é elegível para uso gratuito, que significa que poderemos iniciar a instância sem gastar dinheiro com isso. Selecione Amazon, Linux dois, isso nos levará à etapa dois. Escolha um tipo de instância. Agora, como você pode ver, temos muitos tipos de instância disponíveis. Basta rolar para baixo e você verá uma longa lista de instâncias. Temos a opção de filtrar essas instâncias com base na família e na geração. Temos instâncias com base em diferentes requisitos. A lista inclui instâncias com RAM otimizada, CPU otimizada, GPU otimizada e assim por diante Nesta demonstração, usaremos o Two Point Micro porque não temos requisitos especiais e também queremos ficar com o pneu livre. Como você pode ver, o Micro de dois pontos é a única instância disponível gratuitamente. Em algumas regiões, você também verá Micro de três pontos. Se você está apenas praticando, certifique-se de sempre escolher o tipo de instância elegível para pneus gratuitos para evitar qualquer código Agora podemos analisar e iniciar nossa instância imediatamente, basta clicar aqui. Mas antes de fazer isso, vamos configurar os detalhes da instância. Isso abrirá muitas opções. Vamos explorar alguns dos parâmetros importantes, um por um. A primeira opção é o número de instâncias. Se você precisar de mais de uma instância, poderá alterar isso e criar várias duas instâncias C com a mesma configuração. Também podemos iniciar uma instância C two ao iniciar no escalonamento automático clicando no link Iniciar no grupo de escalonamento automático Por enquanto, vamos nos limitar a uma instância. Isso é algo que abordaremos no próximo módulo. Em seguida, temos a opção de rede para escolher nossas VPCs. Vamos escolher o Pat Cup VPC que criamos no laboratório anterior Selecione a sub-rede em que queremos executar a instância. Como queremos que nossa instância seja acessível pela Internet, devemos escolher uma sub-rede pública A próxima opção nos pergunta se queremos que a AWS atribua um IP público a essa instância. Vamos deixar isso ativado por enquanto. O próximo parâmetro importante é a função. A função é usada para dar permissões quem pode acessar essa instância EC two. Vamos selecionar a função que criamos em nosso primeiro laboratório. Caso queira criar uma nova função, você pode navegar até o IAM clicando no link Criar nova função do IAM e, em seguida, criar uma função. Clique em Avançar para ir para a próxima página, Adicionar armazenamento. Como você pode ver, já temos um volume do EBS selecionado para nós Esse é o volume raiz que contém o sistema operacional e outros softwares. Para essa instância, vamos adicionar um novo armazenamento à nossa instância. Clique em Adicionar um novo volume, especifique os parâmetros do nosso volume. Na coluna do dispositivo, podemos ver o caminho do SDB É o caminho em que nosso volume será anexado. Vamos deixá-lo como padrão por enquanto e seguir em frente. Na opção de instantâneo, podemos escolher criar um novo EBS a partir de um instantâneo que criamos anteriormente Como não temos esses requisitos, vamos deixá-lo vazio por enquanto. Em seguida, está o lado do volume. Vamos mudar nosso volume para dez GBS. A próxima coluna é o volume. Temos todos os SSDs, HDDs e armazenamento magnético para escolher Se observarmos o tipo de volume do volume raiz, você verá que temos menos opções aqui Isso ocorre porque somente SSDs podem ser um volume raiz. Para uma instância EC two, não temos a opção de HDD para o volume raiz Voltando ao nosso novo volume, vamos deixar isso como GP two, que é o SSD de uso geral A próxima opção é IOPS. Como você pode ver, não temos opção de mudar isso. Vamos voltar e mudar nosso tipo de volume. Se escolhermos IO 102 ou GP três, temos a opção de fornecer IOPS Isso ocorre porque os IOPs são fixos para o GP dois, volume é de três IOPS por GB. Vamos entender isso. Se selecionarmos GP dois, novamente, você poderá ver o IOPS 100, que é mais de três IOPS Como o tamanho do nosso volume é de dez GB, três vezes dez significa que devemos ter apenas 30 IOPs Isso ocorre porque temos um mínimo de 100 IOPs para o GP dois. Se mudarmos o lado do volume para, digamos, 100 GBS, você pode ver que temos 300 IOPS Agora vamos mudar o lado de volta para dez e escolher o tipo de volume GP two A próxima opção é a taxa de transferência, que nos dirá a taxa de transferência do nosso Eu abordarei a taxa de transferência na tela do EBS. Podemos alterar isso para apenas um tipo de volume, o tipo GP de três volumes A próxima opção é a caixa de seleção excluir na rescisão. Essa é a opção em que especificamos o que fazer com o volume do EBS após o encerramento da instância EC two Se tivermos a opção de exclusão no encerramento marcada, o volume também será excluído quando nossa instância for encerrada Lembre-se de que, se você quiser que seus dados permaneçam mesmo após o encerramento da instância, não se esqueça de desmarcar essa opção para esta demonstração Vamos deixá-lo como padrão, o que significa que quando o EC two for encerrado, o volume raiz também será excluído A próxima página é adicionar tags. Vamos pular isso por enquanto e passar para a próxima página. Configure o grupo de segurança. A primeira opção é criar um novo grupo de segurança ou usar um existente. Como não criamos nenhum grupo de segurança em nossa conta, vamos criar um aqui. Você pode alterar o nome e a descrição do grupo de segurança conforme desejar. A próxima opção e a mais importante é configurar as regras do grupo de segurança. Como você pode ver, a AWS já adicionou um S padrão que é um grupo de segurança de shell seguro. Esse grupo nos permite usar SSH em nossa instância EC two. Mas por que ainda temos um aviso? Isso porque, se você ver a coluna de origem, essa regra SH está aberta a todos os endereços IP, isso é um problema. Vamos alterar esse valor para algo como 123,123 0,123 0,123 E Como não temos sistemas de missão crítica aqui, vamos alterá-lo de volta para 0,0 0,0 0,0 por zero. Não é a melhor prática permitir SSH de qualquer IP no mundo Se você tiver duas instâncias EC de produção, certifique-se de alterar esse valor para seu próprio intervalo de endereços IP. Vamos adicionar uma nova regra para permitir conexões HTTP à nossa instância. Como você pode ver, a escolha do HTTP fixou nossos protocolos no TCP e na porta 28, que é o protocolo e a porta HTTP padrão Queremos que todos possam fazer conexões HTTP com essa instância. Vamos deixar a fonte como padrão aqui. A última coluna é para adicionar uma descrição à regra. Não vamos adicionar nenhuma regra aqui. Agora que configuramos o grupo de segurança da instância C two, vamos prosseguir com a análise e a execução. Você pode ver todos os parâmetros da nossa instância C two. Aqui, clique em Iniciar. Agora precisamos especificar um par de chaves, já que não temos nenhum par de chaves existente para nossa conta Vamos criar uma opção para criar um novo par de chaves e adicionar um nome de par de chaves para nosso exemplo Vamos nomear o Keypair empacotado. Clique no gerenciador de downloads e você verá que um arquivo Pm foi baixado. É importante manter esse arquivo seguro pois isso será necessário para acessar nossa instância EC two. Além disso, lembre-se de que ele não pode ser baixado novamente. Clique em Launch Instance e isso nos levará à página final. Se você clicar em Exibir instância, verá que a AWS está criando uma instância EC two para você. Toda a vantagem da nuvem é que eu poderia lançar 100 instâncias como essa em apenas alguns cliques. A computação em nuvem é muito flexível e fornece acesso rápido ao poder de computação sempre que você precisar. Como você pode ver, a instância está em execução. Agora, se você clicar na caixa de seleção, encontrará todos os detalhes da instância, os grupos de segurança IP públicos, verificações de integridade e assim por diante. Sempre que você precisar de detalhes sobre as duas instâncias do EC, é aqui que você as procurará. Se você clicar nas Opções de volumes no painel esquerdo, também poderá ver que os dois volumes do EBS que criamos, um volume raiz de oito GB e um volume extra de dez GB que criamos separadamente, chegaram ao final deste laboratório No próximo laboratório, instalaremos o HTTPD em nossa instância EC two e veremos um pequeno site HTTPD. Estudantes, é assim que lançamos duas instâncias da EC. Na próxima lição, continuaremos essa discussão e veremos como podemos avaliar H em nossa instância e assim por diante. Obrigada. 39. Instância de SSH EC2, instale Httpd: No vídeo anterior, criamos nossa primeira instância EC two e analisamos vários parâmetros e opções ao criar a instância. Neste vídeo, entraremos em SSH na instância C two usando o sistema operacional Linux ou Mac, instalaremos o serviço STTPD e iniciaremos um aplicativo de teste em Também veremos como encerrar a instância para evitar custos inesperados Se você está se perguntando o que é SSH , o SSH é uma forma de controlar uma máquina remota usando a linha de comando Usando o SSH, podemos fazer login na instância EC two e realizar qualquer tipo de operação, como fazemos em nossos laptops Vamos começar acessando o console da AWS. Agora, vamos digitar EC two na barra de pesquisa e clicar em EC two para ir diretamente para o painel EC two. Como você pode ver, temos nossa instância em execução. Se você se lembra do laboratório anterior, eu lhe disse para preservar o arquivo Pm que foi baixado durante a criação da instância. Não que, sem o arquivo Pm não possamos entrar por SSH na instância Caso tenha perdido ou excluído o arquivo, você precisará recriar a instância com um novo pagador de chaves A próxima coisa importante que você deve garantir é que seu grupo de segurança tenha regras para permitir SSH na porta 22 e STTP na porta 80 Vamos encontrar o IP público dessa instância. Clique na caixa de seleção aqui, agora você pode ver todos os detalhes sobre a instância EC two selecionada Aqui está meu IP público. Vamos copiar esse valor. Agora, vamos prosseguir com o SSH em nossa instância. Para isso, você precisa abrir um terminal e digitar o comando S C two como usuário no endereço IP da data. C two user é o nome de usuário padrão para todas as AMIs do Amazon Linux. Vamos executar esse comando. Como você pode ver, o comando falhou com a permissão negada. Isso é esperado, pois não queremos que ninguém possa acessar nossa instância EC two apenas de um IP público. É aqui que usaremos o arquivo Pm que baixamos. Iremos para a pasta onde eu armazenei o arquivo. Como você pode ver, eu tenho meu arquivo pm nesta pasta. Agora vamos executar o mesmo comando, mas também adicionaremos o arquivo chave. Agora, o comando é C two user no endereço IP. Agora estamos fazendo a mesma coisa de antes, mas aqui também estamos dizendo à AWS que temos um arquivo de chave para entrar na instância. Clique em Enter. Agora, recebemos outro erro de permissão negada. Essa é uma etapa importante e uma pergunta popular nos exames da AWS Por que esse acesso é negado? Diz um aviso: arquivo de chave privada desprotegido. Quando baixamos o arquivo pela primeira vez da AWS para uma instância Linux, ele tem as permissões 0644 Como você pode ver aqui, essas permissões são muito abertas para um arquivo de chave, pois as permissões são inadequadas O Aws não permite que você faça SSH na máquina. A correção que você pode executar é o mod 0400 incluído. Pague. Isso alterará as permissões do arquivo 0644-0400, que é Vamos executar o mesmo comando. Novamente, como você pode ver, o comando agora foi executado com sucesso e estamos na instância EC two. A primeira coisa a fazer quando entramos na instância EC two é executar o comando pseudo, um, update Esse comando atualizará todos os pacotes desatualizados na instância Se houver algum para instalar o STTPD, execute o comando pseudo install STTPDasy execute o comando pseudo Agora temos o STTPD instalado em nossa máquina EC, mas também precisamos iniciar o serviço STTTPD Para iniciar o serviço STTPD, precisamos executar outro comando, pseudo Inicie o STTPD. Esse comando não tem saídas. Vamos verificar o status do STT PD executando o pseudo sistema CTL Como você pode ver, temos um processo em execução. Vamos agora acessar o painel EC two e selecionar a instância EC two. Precisamos copiar o endereço IP público e colá-lo em nosso navegador. Agora você pode ver o aplicativo STTPD padrão implantado em sua instância EC two Vamos agora encerrar a instância EC two. Você pode fazer isso clicando na instância. Acesse Accents, clique em Manage Instance State e encerre a Isso encerrará sua instância EC two. Se você se lembra, anexamos um volume do EBS à nossa instância no laboratório anterior, que tinha o sinalizador de exclusão na terminação desformatado Isso significa que, mesmo que nossa instância esteja sendo encerrada, uma das instâncias do EBS permanecerá Vamos dar uma olhada no painel Volumes. Você pode ver a raiz e o volume adicional. Se você atualizar em algum momento, o volume raiz, que era de oito GB, desaparecerá da lista, mas ainda temos o volume de dez GB no painel Vamos prosseguir e excluir também o volume do EBS. Vamos agora verificar o grupo de segurança. Como você pode ver, até mesmo o grupo de segurança que criamos também não foi excluído. Não vamos excluí-lo. Os grupos de segurança são gratuitos. Não há mal nenhum em ter um grupo de segurança disponível para nossos próximos laboratórios Da mesma forma, o Keypair empacotado não foi excluído e você pode mantê-lo em sua conta sem cobranças Nesta sessão, pudemos avaliar com sucesso o H em uma EC de duas instâncias, instalar o STTPD e acessá-lo a partir de um navegador Isso é tudo para esta sessão. 40. Criando uma instância no Windows EC2: Nos dois últimos vídeos, lançamos o Linux C em duas instâncias, instalamos STTPD e o acessamos em nosso navegador da web Neste vídeo, mostraremos as etapas para iniciar uma instância do Windows C two e como acessá-la. Isso será bastante semelhante à instância Linux C two, demonstração prática, apenas algumas configurações serão diferentes. Vamos começar. Vamos para o console de gerenciamento da AWS, digite C dois na barra de pesquisa e clique no resultado da pesquisa EC dois para ir diretamente para o painel EC dois. Como sempre, é importante escolher uma região próxima a você ou ao seu cliente. Vou selecionar a região de Mumbai. Vamos clicar em Launch Instances. Primeiro, precisamos escolher uma AMI chamada Amazon Machine Image. Desta vez, vamos selecionar a AMI do Windows. Vamos digitar Windows na opção Pesquisar e pressionar Enter. Podemos ver a AMI do Windows aqui, e essa AMI é elegível para uso gratuito, o que significa que poderemos lançá-la sem gastar nenhum dinheiro com isso. Vamos selecionar isso e será necessário o segundo passo. Escolha um tipo de instância. A AMI é apenas a diferença entre lançar duas instâncias EC baseadas em Linux e Windows. O resto da configuração será o mesmo ou você poderá alterar outras coisas, se quiser. Agora, como você pode ver, temos muitos tipos de instância disponíveis. Novamente, usaremos o micro de dois pontos porque não temos requisitos especiais e também queremos ficar com o pneu livre. Vamos clicar em Configurar detalhes da instância. Como você sabe aqui, forneceremos todas as configurações relacionadas à instância Vamos usar a configuração padrão e verificar se o IP público atribuído automaticamente está habilitado. Como precisamos de um IP público para acessar a instância EC two, clique em Avançar para ir para a próxima página, Adicionar armazenamento. Como você pode ver, já temos um volume do EBS selecionado para nós Esse é o volume raiz que contém o sistema operacional dessa instância. A próxima página é Adicionar tags. Vamos pular isso por enquanto e passar para a próxima página. Configurar o grupo de segurança. Vamos alterar o nome e a descrição do grupo de segurança conforme desejar. Veja, temos o tipo RDS em vez do intervalo de portas SSH 3398 no Isso ocorre porque o Linux e o Windows usam tecnologias diferentes para estabelecer uma conexão remota. Não precisaremos fazer mais nada aqui, vamos prosseguir com a revisão e o lançamento. Você pode ver todos os parâmetros da nossa instância EC two. Aqui, clique em Iniciar. Agora precisamos especificar um par de chaves. Vou usar a mesma chave que criei da última vez. Eu vou aceitar isso, eu tenho a chave. Clique em Launch Instance e isso nos levará à página final. Se você clicar na instância, verá que a AWS está criando uma instância EC to para você. O estado da instância está pendente, o que significa que a instância está sendo criada. Levará alguns minutos para mudar o estado para em execução. Como você pode ver, a instância está execução agora e, se você clicar na caixa de seleção, encontrará todos os detalhes da instância, grupos de segurança de IP públicos, as verificações de saúde e assim por diante Sempre que você precisar de detalhes sobre as duas instâncias do EC, é aqui que você as procurará. Vamos selecionar as duas instâncias EC. Aqui na parte superior, você clica em Conectar. Agora, aqui temos três opções para nos conectarmos a essa instância EC two. Vou selecionar a segunda guia, cliente RDP. Aqui você pode baixar o cliente RDS que usaremos para fazer o RDS na instância Agora clique em Obter senha. Você pode copiar e colar conteúdo principal aqui ou carregá-lo clicando no navegador. Vou fazer o upload e clicar em Descrever senha. Agora, essa é a senha que vou usar para me conectar à instância C two. Copie a senha daqui. Agora vamos abrir o cliente que você baixou com base no sistema operacional do seu laptop ou computador. Ele terá uma interface diferente. Estou usando um Mac. Vou postar a senha aqui. Ele já selecionou um usuário para mim e continuará. Vou clicar novamente em Continuar. Agora, aqui estou eu na minha máquina EC two Windows. Isso é basicamente o que você faz para iniciar uma instância do Windows. Com isso, chegamos ao fim deste laboratório. Isso é tudo para esta sessão. 41. Serviço de contêiner elástico ECS: Olá, estudantes. Bem vindo de volta. Neste vídeo, aprenderemos sobre um dos serviços de computação da AWS, que é o Elastic Container Service, também conhecido como ECS Entenderemos o que é o ECS, seus tipos e, o mais importante, seus casos de uso. Vamos começar. Antes de entendermos o serviço de contêiner elástico, vamos entender rapidamente o que é um contêiner. Porque o ECS é desenvolvido com base na tecnologia de contêineres. Quando desenvolvemos aplicativos, eles funcionam em nosso computador. Mas eles quebram assim que movemos esses aplicativos para outra máquina. Isso pode ser devido a vários motivos. Pode ser o sistema operacional diferente, uma versão diferente da dependência, etc Como resolvemos esse problema? Bem, os contêineres são a solução para esse problema. Os contêineres de aplicativos são unidades de suporte que contêm o código e as dependências do aplicativo, configuração, a rede e, às vezes, até mesmo uma parte do sistema operacional Essencialmente, todo o software necessário para executar seu aplicativo é colocado dentro de um contêiner. Os contêineres possibilitam que você execute seus aplicativos em qualquer máquina. Você pode ter certeza de que, se funcionar em um sistema, funcionará em todos os sistemas. Docker é a plataforma de software mais usada que permite que seus usuários criem aplicativos e contêineres Você pode instalar o Docker em sua máquina e criar um contêiner para qualquer aplicativo Não precisamos discutir o Docker em detalhes neste momento. Vamos seguir em frente e entender o que é o ECS. O Amazon ECS é um serviço de orquestração de contêineres totalmente gerenciado que facilita a implantação, o gerenciamento e a escalabilidade de aplicativos em contêineres gerenciamento e a escalabilidade Isso significa que o ECS facilita o uso e o gerenciamento de contêineres do Docker Ao usar o ECS, você não precisa instalar, operar ou escalar seus contêineres A Ecs cuida de todas essas tarefas para você. Integra-se profundamente com o resto da plataforma AW para fornecer uma solução segura e fácil de usar para executar cargas de trabalho de contêineres na nuvem Para entender o ECS, você deve conhecer alguns termos usados com frequência na definição de tarefas do ECS. A definição de tarefa é um script Jason que contém vários parâmetros para executar seu aplicativo Em palavras simples, a definição da tarefa diz ao ECS como executar um contêiner Por exemplo, você pode definir exatamente a quantidade de RAM e CPU um contêiner precisará ou em qual porta EC seu aplicativo deve ser iniciado. O Ecs garantirá então que todos os seus requisitos sejam atendidos quando o ECS executa um contêiner Com base na definição da tarefa, ela é conhecida como função da tarefa. Seus contêineres podem executar várias operações na AWS. Por exemplo, um contêiner pode precisar ler mensagens de um SQSQ ou interagir com o S three ou qualquer outro serviço da AWS Portanto, você precisa dar permissão para realizar suas tarefas. Isso é feito usando a função de tarefa. Uma função de tarefa é uma função do AWS IAM definida na definição da tarefa. Essa função é usada para fornecer à AWS acesso às tarefas do ECS. Agora vamos ver como tudo isso se parece no ECS. Você precisa de um cluster ECS para executar seu aplicativo de contêiner Esse cluster ECS é composto por duas ou mais instâncias EC two chamadas instâncias de contêiner Então, temos serviços que abrangem essas duas instâncias disponíveis. É aí que o ECS cria uma tarefa ou um contêiner docker. Uma das primeiras coisas a fazer ao usar o ECS é fornecer e manter a infraestrutura A Ecs então se encarrega de iniciar e parar os contêineres para você Você pode fazer isso de duas maneiras: usando tipos de lançamento do ECS que estão longe do tipo de lançamento e do tipo EC de dois lançamentos No tipo de inicialização C two, configuramos e implantamos duas instâncias EC em seu cluster para executar seus contêineres. O Ecs gerencia os contêineres nessas duas instâncias do EC. Para usar o tipo EC two launch no ECS, você precisa criar duas instâncias EC manualmente ou usar grupos de escalonamento automático Tipo de lançamento de destino, essa é uma opção de pagamento conforme o uso sem servidor Você pode executar contêineres sem precisar gerenciar sua infraestrutura Podemos usar o tipo de lançamento Farget e esquecer tudo sobre a criação do EC two Informamos ao ECS o número de contêineres a serem executados e a quantidade de RAM e CPU que um contêiner deve ter O Ecs Farget garante que sempre tenhamos recursos suficientes para lançar Isso é tudo para esta sessão. 42. AWS Elastic Beanstalk: Olá, estudantes. Bem vindo de volta. Neste vídeo, aprenderemos sobre um dos serviços de computação da AWS, o Elastic Beanstock Abordarei o que é o Elastic Beanstock, seus recursos e, o mais importante, suas aplicações . Vamos começar. Aws é líder em computação em nuvem com cerca de 200 serviços. É por isso que se deve conhecer a maioria dos serviços. Para implantar aplicativos na AWS e gerenciá-los com eficiência. Primeiro, você precisa conhecer vários serviços da AWS e como usá-los de maneira econômica. Isso é bom quando você tem vários aplicativos ou um aplicativo grande. Mas e se você tiver apenas um aplicativo web? Passar dias aprendendo a AWS apenas para implantar uma aplicação web não é uma abordagem muito eficiente. Mesmo depois de aprender a AWS, você precisa se esforçar manter sua infraestrutura na AWS. Como desenvolvedor, você não quer se preocupar com a escalabilidade da infraestrutura, com a configuração de conexões, bancos de dados e Você deseja implantar e repousar aplicativos rapidamente. Esse é o problema que o Elastic Beanstock resolve na AWS. Elastic Beanstock é um serviço fácil de usar para implantar e escalar Também é conhecido como B. Essa é uma plataforma como serviço oferecida pela AWS. Para usar o elastic beanstock, você cria um aplicativo, carrega uma versão do aplicativo na forma de um pacote de origem do aplicativo, por exemplo, um arquivo Java para o elastic beanstock e, em seguida, fornece algumas informações Elastic Beanstock lança automaticamente uma invenção e cria e configura os recursos da AWS necessários para Depois que seu envolvimento for iniciado, você poderá gerenciar seu ambiente e implantar novas versões do aplicativo. Depois de criar e implantar seu aplicativo, as informações sobre o aplicativo, incluindo métricas, eventos e status do ambiente, ficam disponíveis por meio das APIs do console do Elastic Beanstock ou das interfaces de linha de comando, incluindo a AWS CLI unificada Como desenvolvedor, se você usa o EB, pode implantar aplicativos sem provisionar a infraestrutura subjacente A AWS garantirá que sua infraestrutura esteja pronta e altamente disponível. Internamente, o EB Re usa todos os componentes que vimos antes, como RDS, balanceadores de carga e EC two, para executar aplicativos, mas você pode usar o EB sem nenhum outro conhecimento desses É um serviço gratuito por si só, mas você paga pela infraestrutura subjacente provisionada usando o beanstock Agora, vamos dar uma olhada em como Elastic Beanstock funciona na AWS Temos uma conta da AWS e uma VPC dentro dela. Aqui, criaremos um ambiente elástico de Beanstock. Como sabemos, a Beanstock criará toda a infraestrutura subjacente, como EC, duas instâncias, balanceamentos de carga, bancos de dados, grupo de segurança Como desenvolvedor, você só se preocupa com seu código. Eles querem ter certeza de que passarão seu tempo escrevendo um ótimo código, testando-o e tendo toda a infraestrutura subjacente gerenciada para eles. Nesse caso, temos um desenvolvedor que tem um arquivo de guerra com seu código. Realmente não precisa ser um arquivo de guerra. Também pode ser código Zip ou Github. Ele pode implantar esse arquivo war usando o console de gerenciamento do EB ou o EVCLI Em seguida, o Beanstock implantará o aplicativo e fará o resto da configuração, como o balanceamento elástico de carga, o grupo de escalonamento automático, as instâncias e até mesmo um banco de dados, só Agora, a escalabilidade de aplicativos, a atualização do sistema operacional, a aplicação de patches, as métricas de registro e tudo é feito pela Elastic Beanstock Como desenvolvedor, você pode se concentrar nos recursos do seu aplicativo e da empresa. Agora vamos dar uma olhada nos recursos do Elastic Beanstock. Ele suporta diferentes linguagens de programação como Java.net PHP, Node JS, Python, Ruby, Go Ele se integra ao Amazon VPC e lança recursos da AWS, como EC, duas instâncias na Ele se integra ao gerenciamento de identidade e acesso da AWS e ajuda você a controlar com segurança o acesso aos seus Você também pode integrar o cloudfront. Cloudfront pode ser usado para distribuir o conteúdo em S três depois que um beanstock elástico é Ele suporta a execução de instâncias do RDS no ambiente elástico de beanstock, que é ideal para desenvolvimento Elastic Beanstock é uma excelente opção para você implantar seu aplicativo na nuvem da AWS em minutos Você não precisa de nenhuma experiência e conhecimento de computação em nuvem para começar a usar o Elastic Beanstock Você cria ambientes de aplicativos EV e especifica alguns parâmetros e pronto. Isso é tudo para este vídeo. 43. Computing sem servidor: Olá estudantes. Bem-vindo de volta. Neste vídeo, entenderemos o conceito de servidor sem servidor e por que ele é mais popular na computação em nuvem. Vamos começar. Na maioria dos serviços que vimos até agora, o processo de desenvolvimento e implantação tem sido o mesmo. Desenvolva seu aplicativo, aloque a infraestrutura e, em seguida, implante e execute o aplicativo nessa infraestrutura alocada É assim que deveria ser. Você sempre precisa de um servidor subjacente para executar o código do aplicativo. Sempre houve a necessidade de provisionar e manter nossa infraestrutura. É aqui que a tecnologia sem servidor entra em cena. Sem servidor tem sido a palavra de ordem. No mundo da computação em nuvem, muitos aplicativos estão seguindo a arquitetura sem servidor O termo vem da ideia que a infraestrutura usada para executar seus aplicativos não precisa mais ser provisionada ou mantida por você ou sua equipe Menos servidores também pode ser confuso, porque em arquiteturas sem servidor Isso não significa que seu aplicativo não tenha nenhum servidor subjacente. Só que não há necessidade se preocupar com o gerenciamento do servidor. Se você é um usuário final, é melhor que ele não exista porque você nunca precisa se preocupar com servidores, daí o termo sem servidor Mas há um servidor e seu provisionamento e manutenção são totalmente gerenciados pelo Se colocarmos isso na terminologia da AWS, você não precisará mais criar uma instância fácil de instalar, configurar e manter um sistema operacional para seu aplicativo Isso significa que delegamos toda a responsabilidade de gerenciar o servidor subjacente e tudo está resolvido O servidor pode ser escalado automaticamente e cobrar de acordo com seu uso. serviços sem servidor se tornaram extremamente populares em muitos aplicativos modernos em nuvem Agora, vamos ver os benefícios da tecnologia sem servidor. Com a tecnologia sem servidor, não há instâncias para gerenciar. Você não precisa provisionar nenhum hardware. Não há gerenciamento de sistemas operacionais ou software. O provisionamento de capacidade e a aplicação de patches são todos gerenciados Também pode ser muito barato executar serviços sem servidor. Você só é cobrado pelo que usa. O código só é executado quando as funções de back-end são necessárias para o servidor, menos o servidor de aplicativos é escalado automática e elástica Ele também possui alta disponibilidade integrada. Basta implantar o código como desenvolvedor e ele se expande automaticamente conforme necessário. Suponha que uma função precise ser executada em várias instâncias. Nesse caso, os servidores começarão a ser executados e encerrados conforme necessário, geralmente usando contêineres Como resultado, um aplicativo sem servidor processará um número anormalmente alto de solicitações Mas em um aplicativo estruturado tradicional com uma quantidade limitada de espaço no servidor, ele fica sobrecarregado quando há um aumento repentino no uso Isso é tudo para este vídeo. 44. AWS Lambda: Olá, estudantes. Bem-vindo de volta. Neste vídeo, entenderemos o AWS Lambda. Vamos começar. Lambda é um serviço sem servidor que permite executar código sem provisionar ou Diferentemente das duas instâncias em nosso aplicativo precisa ser executado continuamente, AWS Lambda nos permite escrever funções que podem ser executadas sob demanda As funções do AWS Lambda podem ser acionadas por eventos dentro ou fora da conta da AWS e não precisam continuar em execução Por exemplo, você pode escrever uma função para realizar uma tarefa de processamento de arquivos. E será acionado quando os dados forem enviados para o serviço S three. Toda vez que um arquivo é carregado no S three, agora você tem uma função que executará e processará automaticamente esse arquivo. Ou você pode ter uma função lambda que busca valores de um banco de dados para seu aplicativo de front-end Há várias maneiras de usar as funções lambda. Ele pode ser usado para qualquer coisa, desde executar pequenas tarefas individuais até substituir aplicativos de back-end inteiros. Você também deve observar que as funções lambda da AWS se destinam apenas a execuções curtas Você só pode executar código no Lambda por no máximo 15 minutos, o que é um tempo razoável para a maioria dos casos de uso Observe aqui que isso muda o tempo todo. Eu recomendaria verificar documentação da AWS para obter atualizações recentes. Mas se você tiver um único processo que leve mais de 15 minutos para ser executado, precisará implantá-lo em um servidor como o EC de duas instâncias ou contêiner. Vamos dar uma olhada em alguns outros recursos do AWS Lambda. O primeiro recurso vem aqui, o escalonamento automático. Quando usamos duas instâncias EC, embora tenhamos um grupo de escalonamento automático para escalar nossa infraestrutura, ainda precisamos criar políticas de escalabilidade manualmente Precisamos dizer à AWS que adicione ou remova instâncias com base nos alarmes do Cloud Watch Em comparação, o AWS Lambda pode escalar automaticamente. Vamos dar o mesmo exemplo do Lambda de processamento de arquivos que é executado toda vez que um arquivo é carregado no S three. O que acontece quando você carrega, digamos, 500 arquivos? Você terá 500 funções lambda executando suas tarefas de processamento de arquivos Esse é o poder da tecnologia sem servidor. Você não precisa se preocupar em escalar sua infraestrutura. A AWS garante que você sempre tenha recursos suficientes para executar seu código. Observe aqui que a AWS tem um limite de cota de serviço de 1.000 Lambdas executando simultaneamente Em nosso exemplo, você pode ver algumas falhas de lambda ao fazer upload de mais de 1.000 arquivos para o S three. Esse limite foi estabelecido para evitar o uso indevido de sua conta e evitar cobranças indesejadas Se seus casos de uso exigirem mais de 1.000 funções do Lambda em execução simultânea, você pode aumentar esse limite com o suporte da AWS O próximo recurso é o preço pago por usuário. O próximo e mais lucrativo recurso do Lambda é que ele paga por uso Isso significa que você paga pelo tempo em que seu código é executado. Não há cobranças quando seu código não está sendo executado. Suponha que seu lambda de processamento de arquivos seja executado por 1 minuto. Você paga apenas o custo computacional de 1 minuto. Se você tiver dez Lambdas em execução por 1 minuto, pagará por 10 minutos de tempo de computação e assim por diante O próximo recurso é o Ram. As funções do Lambda podem obter recursos de até GB de RAM. Também é importante observar que, quando você aumenta a RAM da sua função Lambda, sua CPU e a capacidade de rede do Lambda também melhoram Este é um tópico de exame moderno. Como você aumentará a CPU e a rede do Lambda? A resposta é a necessidade de aumentar a RAM. O próximo recurso é a integração. Como eu disse antes, AWS Lambda tem muitos casos de uso e foi integrado a muitos serviços da AWS Vamos dar uma olhada em algumas das principais integrações e seus casos de uso No primeiro caso de uso no S três, como no exemplo que tomamos até agora, você pode executar um lambda em diferentes tipos de eventos no S três. O próximo é o Dynamodb. Você pode criar um gatilho para que o Lambda seja acionado sempre que um evento acontecer em nosso Dynamodb, que é um O próximo é o gateway de API. integração entre o Lambda e o API gateway é um dos casos de uso mais usados do Lambda Api Gateway é um serviço da AWS usado para criar APIs restantes Na AWS, você pode colocar lambda atrás um gateway de API e criar um endpoint de API Rest para chamar sua função lambda O próximo é o SNS, você pode ter uma função lambda que reage às notificações em um O Sns está ainda mais integrado com possivelmente todos os tipos de eventos no console da AWS Com essa integração, todos esses eventos podem ser usados para acionar funções do Lambda O próximo é o SQS. O Lambda pode ser usado para processar mensagens em SQS Qs. O último são os eventos do Cloud Watch. Você também pode executar funções lambda com eventos do Cloud Watch Vamos finalmente dar uma olhada em alguns pequenos exemplos de funções Lambda Como você pode ver, temos nosso aplicativo de front-end em execução em duas instâncias EC. Então, temos um gateway de API que chama nossas funções lambda para o back-end Essa função lambda também foi integrada ao RDS e busca e armazena dados no banco de dados do Por outro lado, temos o aplicativo de front-end, enviando tarefas para as dicas do SQS, que foi integrado Para processamento de mensagens, você pode criar um evento do cloudwatch que é acionado Como você pode acionar o Lambda a partir de um evento do Cloudwatch, você pode ter uma função do Lambda Esse é um caso de uso popular e pergunta de exame sobre como executar um lambda para executar um trabalho baseado em comandos A resposta são os acionadores de eventos do Cloudwatch. Isso é tudo para esta sessão. 45. Tipos de dados: Olá, estudantes. Bem-vindo de volta. Como você sabe, este módulo é sobre bancos de dados. Mas antes de entrarmos nos bancos de dados, entenderemos rapidamente os dados e seus tipos. Decidimos por um banco de dados apropriado com base na natureza de nossos dados. Portanto, é muito importante entender os dados e seu tipo. Vamos começar com os tipos de fonte de dados. Existem três tipos de fontes de dados: estruturadas, não estruturadas e semiestruturadas Primeiro, vamos entender os dados estruturados. São dados que têm tipos de dados predefinidos e são armazenados em um formato especificado Vamos entender o tipo de dados predefinido e o formato específico com um exemplo de lista telefônica Nesta tabela, você pode ver que a linha superior tem nomes diferentes que definem que tipo de dados estão presentes em diferentes colunas. Por exemplo, o número de série representa o número de conjuntos de dados que temos. A coluna do primeiro nome terá o primeiro nome de cada entrada em nossos dados. Esse é um formato. Se quisermos adicionar qualquer outro detalhe pessoal a esses dados , teremos que criar uma nova coluna para eles. Digamos que você também queira adicionar um endereço. Nesse caso, você precisa adicionar um cabeçalho adicional, chamado endereço. Só então você pode adicionar endereços a esses dados. Basicamente, esse é um formato específico. Agora vamos entender os tipos de dados. Como você pode ver, temos números nas colunas de número de série e número de telefone, e as colunas de nome e sobrenome têm corretores De acordo com as colunas definidas, espera-se que você insira números nas colunas de número de série e número de telefone e caracteres na coluna nome e sobrenome. Isso significa que está definido que tipo de dados podemos inserir em diferentes colunas. Os dados da estrutura são armazenados como uma série de valores de dados em tabelas definidas gerenciadas por um mecanismo de banco de dados , como o my Esque Esses dados são altamente estruturados. É por isso que é muito fácil de analisar e pode ser usado em consultas altamente complexas O próximo tipo de dados são dados não estruturados. Os dados não estruturados têm uma estrutura interna, mas não contêm um modelo de dados predefinido Considere um vídeo, por exemplo. Também são dados, mas a forma como são armazenados é diferente dos dados estruturados. Esse tipo de dado geralmente está na forma de arquivos armazenados em um armazenamento como o Dropbox Dropbox é como uma unidade de armazenamento onde você pode armazenar arquivos de texto, fotos, vídeos etc Os dados não estruturados como um todo são informações irrelevantes Exemplos de dados não estruturados são mensagens de texto, documentos, vídeos, fotos e outras imagens Esses arquivos não são organizados, eles só podem ser colocados em um sistema de arquivos ou armazenamento de objetos. Se você quiser obter informações significativas desses dados, precisará processá-los. Você precisa de ferramentas especiais para consultar e processar os dados não estruturados O último tipo de dados são dados semiestruturados. Dados semiestruturados são uma forma de dados estruturados. A única diferença é que os dados semiestruturados são flexíveis e podem ser atualizados sem alterar o esquema de cada registro em uma tabela Esse é um exemplo de dados semiestruturados. Como você pode ver aqui, há dois conjuntos de dados e eles têm a mesma aparência, certo? Se você notar que o segundo dado tem um endereço de informação adicional. Os dados semiestruturados permitem que o usuário capture dados em qualquer estrutura à medida que os dados evoluem e mudam com o tempo Semis, os dados da estrutura são armazenados em arquivos Jason que são carregados em um mecanismo de banco de dados, como o Mongo Esses dados são altamente flexíveis porque a estrutura não é rígida e pode ser alterada conforme necessário na tabela. Você também pode analisar dados semiestruturados. Isso é tudo que eu queria abordar nesta sessão. 46. Bancos de dados relacionais: Olá estudantes. Bem-vindo de volta. No último vídeo, você entendeu três tipos de dados: estruturados, não estruturados e semiestruturados Como a natureza desses dados é diferente, eles serão armazenados de forma diferente. Neste vídeo, vamos entender onde e como esses dados serão armazenados. Ao final deste vídeo, você saberá por que armazenamos dados estruturados em um banco de dados relacional Vamos começar com um exemplo. Costumamos usar uma planilha ex Cel para armazenar dados, certo? Isso porque é mais fácil organizar e gerenciar os dados no Excel do que em qualquer outra ferramenta. Esse tipo de dado é conhecido como dados de estrutura. Discutimos isso na última sessão. As planilhas do Excel são boas para dados pessoais, mas se você pensar em grandes empresas, esse é um mundo completamente diferente Eles lidam com grandes quantidades de dados, o que é muito difícil de armazenar e gerenciar. Quando os dados crescem, isso geralmente também leva à inconsistência e redundância dos dados Suponha que tenhamos uma planilha armazena os dados de registro do curso dos alunos Agora, dê uma olhada no estudante de Sham Singh com número 101 de identificação estudantil armazenado mais de uma vez Isso é chamado de redundância de dados. Outro problema pode ser, digamos que a Samsung mude seu sobrenome. Nesse caso, seu sobrenome deve ser alterado em todos os nossos dados. Caso contrário, isso pode levar à inconsistência dos dados. Para sistemas de dados pequenos, poderia ser mais fácil de resolver. Mas quando o sistema de dados é enorme, é difícil gerenciar os dados. Para evitar esses problemas, usamos tecnologia baseada em dados. É uma coleção organizada de dados para que possam ser facilmente acessados e gerenciados. Agora, digamos que você queira enviar um e-mail para Kishor. Assim, há outra folha que contém detalhes dos alunos, como e-mail, identificação, número de telefone, etc Desde a primeira planilha, sabemos que o Kiss está no RH, mas não conseguimos encontrar o Kiss na folha de detalhes do aluno. Isso significa que nossos dados são inconsistentes. Podemos resolver esse problema com algumas regras, por exemplo, um aluno não pode se inscrever no curso sem se inscrever. Dessa forma, teremos todas as planilhas preenchidas para cada aluno O ponto aqui é que as duas planilhas do Excel têm uma relação e seguem uma determinada regra em relação aos dados organizados. Isso é conhecido como dados de relação, que traz o conceito de banco de dados relacional Um banco de dados é uma coleção organizada de dados relacionados. É uma coleção organizada porque em um banco de dados, todos os conjuntos de dados são descritos e relacionados entre si Os dados são organizados em relações como em um banco de dados relacional Cada tabela tem um conjunto que define a estrutura de dados, esquema de dados armazenado na tabela Um registro é um conjunto de campos em uma tabela. Você pode pensar nos registros como linhas ou tuplas da tabela e nos campos como colunas Neste exemplo, você tem uma tabela de dados do aluno, cada um representando um registro do aluno e cada coluna representando um campo do registro do aluno. Um campo especial ou uma combinação de campos que determina o registro exclusivo é chamado de chave primária. Por exemplo, carteira de estudante. É exclusivo para cada aluno. Essa chave geralmente é o número de identificação exclusivo dos registros. Ele usa uma estrutura que permite identificar e acessar dados em relação a outro dado no banco de dados. Como você pode ver, cada aluno tem um ID exclusivo que pode ser usado para encontrar o registro do mesmo aluno no registro do aluno. Como você pode ver, esses dados têm uma certa estrutura , conhecida como esquema bancos de dados relacionais armazenam dados estruturais e permitem que você colete rapidamente e consulte dados usando um modelo de dados estruturado O uso de tabelas para armazenar dados em colunas e linhas facilita o acesso e o gerenciamento dos dados. Aws oferece uma solução de banco de dados para bancos de dados relacionais que abordaremos na introdução ao módulo RDS. Isso é tudo para esta sessão. 47. Bancos de dados NoSQL: Olá, estudantes. Bem-vindo de volta. Neste vídeo, entenderemos o banco de dados Nosql. Vamos começar com uma rápida revisão do vídeo anterior. Entendemos que os dados em um banco de dados relacional são organizados de forma que os valores em uma tabela possam definir ou alterar os valores em outra tabela Em outras palavras, existe uma relação entre as diferentes tabelas de dados. Vamos dar o mesmo exemplo de um banco de dados relacional que armazena detalhes de matrícula de cursos de estudantes Uma tabela contém detalhes dos alunos e outra define o curso para o qual os alunos se inscreveram em um banco de dados relacional Você pode executar uma única consulta SQL que retorna um resultado mostrando todos os alunos que se inscreveram na contabilidade, mesmo que os dados estejam em duas tabelas. Esse é o superpoder dos bancos de dados relacionais. Agora vamos falar sobre bancos de dados não relacionais. Esse tipo de banco de dados armazena dados de forma diferente. Devido à natureza dos dados, armazenamos dados semiestruturados em um banco de dados não relacional Agora vamos pegar o mesmo exemplo de banco de dados de registro de cursos de estudantes . Se você precisar armazenar os dados de registro do curso do aluno em um banco de dados não relacional, todas as informações de um aluno, incluindo o curso associado, serão armazenadas em um único item na tabela do banco de dados Agora vamos nos aprofundar e entender como os dados são armazenados em um banco de dados não relacional Digamos que depois de um ano, a faculdade decidiu adicionar a nota padrão 12 à tabela de registro de estudantes no banco de dados. Como cada tipo de banco de dados precisaria mudar? Bem, no caso de bancos de dados relacionais, você precisa atualizar o esquema para adicionar as notas dos alunos Isso significa adicionar uma nova coluna para a nota. Depois de adicionar a nova coluna, ela ficará vazia para os dados existentes, certo? O que pode causar problemas. Porque, via de regra, bancos de dados relacionais exigem que você insira valores em cada coluna se ela estiver configurada para provar para o banco de dados Você precisa criar um processo para adicionar a nota de cada registro na tabela. Depois que esse processo for concluído, você começará a adicionar novos registros para a nota. Tudo bem. Alguma suposição sobre o que você precisa fazer em um banco de dados não relacional Bem, não precisa adivinhar. Tudo o que você precisa fazer é criar novos itens. Com os novos atributos, você pode voltar e examinar os registros existentes. Você não precisa fazer nada com eles. Essa é uma das vantagens que os não relacionais têm sobre os bancos de dados relacionais Os esquemas não relacionais não exigem que você defina novos atributos de dados antes de usá-los Enquanto estiver em um banco de dados relacional, você precisa atualizar o esquema antes de adicionar novos campos de Quando se trata de armazenar e lidar com semiestruturados ou não estruturados, a escolha geralmente é um banco de dados não relacional Isso é tudo para esta lição sobre bancos de dados não relacionais. 48. Hospedagem de banco de dados no local versus hospedagem em nuvem: Olá, estudantes. Bem-vindo de volta. Neste vídeo, você aprenderá como usamos para gerenciar bancos de dados no cenário local e quais são as diferentes opções de banco de dados na nuvem da AWS. Vamos começar com bancos de dados locais. Eles operam em hardware que sua organização possui e mantém. Esses sistemas são gerenciados por uma equipe de administradores de banco de dados, DBAs, responsáveis por toda a configuração e pelo trabalho com o No caso do local, a empresa implanta vários servidores e dispositivos de rede para lidar com o pico de carga do sistema Depois de obter o servidor da equipe de infraestrutura, eles instalam o sistema operacional e preparam um cronograma de patches do sistema operacional A próxima é a instalação de um software de banco de dados. Novamente, eles precisam planejar e executar patches no banco de dados. Quando o banco de dados estiver pronto, ele poderá ser usado pelo aplicativo. Agora, esses bancos de dados precisam ser gerenciados, atualizados, atualizados e otimizados ao longo do tempo O próximo esforço considerável é dedicado ao backup do banco de dados e à configuração de alta disponibilidade para os aplicativos essenciais aos negócios no caso de configuração de alta disponibilidade. Novamente, o DBS da sua equipe precisa seguir as mesmas etapas para outro servidor de banco de dados que atuará como reserva para cenários de failover Além disso, você também responsável por escalar seu servidor de banco de dados agora E então isso dá muito trabalho. Agora, quando se trata da nuvem, temos duas opções. O primeiro é como um banco de dados local em que você aluga uma máquina virtual que vem com rede e um servidor gerenciado e administrado pela AW. No entanto, o resto das coisas será gerenciado por você mesmo. Novamente, isso exige esforço e uma equipe de DBS para cuidar dos patches do sistema operacional, da instalação e correção do software de banco de dados, do backup do banco de dados, do escalonamento de alta disponibilidade, etc O segundo é o Amazon RDS. O Amazon RDS é um banco de dados gerenciado pela AWS em que você obtém o banco de dados pronto para uso em alguns cliques, o que abordaremos na próxima lição Isso é tudo para esta sessão. 49. Serviço de banco de dados relacional do Amazon: Olá estudantes. Bem-vindo de volta. Neste vídeo, você aprenderá sobre o Amazon Relational Database Service, comumente conhecido como Amazon Ardis Vamos começar. Vamos dar uma olhada na visão geral do Amazon Ardis É um serviço de banco de dados relacional que liderou, configurou, operou e escalou um banco de dados relacional na nuvem Como você sabe, gerenciar um banco de dados em uma instância local ou fácil de usar não é uma tarefa fácil Amazon Ardis foi projetado para minimizar os esforços envolvidos no gerenciamento de tarefas de banco de dados relacional como provisionamento de hardware, configuração de banco de dados, patches de backups Você só precisa selecionar o banco de dados que deseja iniciar e teremos um banco de dados pronto em apenas alguns cliques. Vamos entender com um exemplo. Suponha que você tenha uma equipe de quatro pessoas e queira iniciar um aplicativo que será apoiado por um banco de dados my SQL. Você instalou meu SQL na instância EC two. Como sabemos que é preciso muito trabalho configurar o backup e a correção do banco de dados do sistema operacional, é provável que o trabalho de desenvolvimento fique para trás, o que poderia atrasar ainda mais o lançamento do aplicativo pois apenas duas pessoas podem se concentrar no desenvolvimento Imagine o mesmo exemplo novamente, mas desta vez com o Amazon RDS. Como o RDS é um serviço gerenciado, AWS cuidará de todo o trabalho relacionado ao banco de dados para você Seus desenvolvedores podem se concentrar no desenvolvimento de aplicativos. O Rds foi projetado para ajudar você a reduzir o custo de gerenciamento do banco de dados É um serviço gerenciado que automatiza o provisionamento A Aws fará a correção do sistema operacional. Você terá backups contínuos e opções de restauração com uma restauração pontual. Você também terá painéis de monitoramento para ver se nosso banco de dados está indo bem Você pode escalar as leituras criando uma réplica do Rid e melhorando o desempenho do Rid Você terá uma maneira de configurar várias zonas de disponibilidade para garantir que seu aplicativo tenha um plano para recuperação de desastres no caso uma zona de disponibilidade inteira cair Por fim, você também pode configurar janelas de manutenção para atualizações e escalar vertical ou A única coisa que não podemos fazer com um banco de dados do RDS é que não podemos usar SSH na sua instância de banco de dados do RDS. Agora vamos dar uma olhada em alguns recursos e elementos do Amazon RDS. Vamos dar uma olhada na primeira disponibilidade do RDS. O Amazon Adis fornece maior disponibilidade e durabilidade por meio do uso de implantações Jones de disponibilidade múltipla Isso significa que o Amazon Dias cria várias instâncias do banco de dados em diferentes zonas de capacidade. Em caso de falha na infraestrutura, Amazon Adis muda automaticamente para o modo de espera em outras zonas de disponibilidade As operações do banco de dados serão retomadas assim que o failover for concluído Como o Amazon Dias usa um serviço de DNS para identificar a nova instância mestre, você não precisa atualizar seu endpoint de conexão de banco de dados Esse é um recurso muito bom. O segundo é o tipo de instância Dias. Ao criar seu primeiro banco de dados Amazon Dias, você precisa tomar algumas decisões importantes. Primeiro, você precisa decidir o tipo de instância do banco de dados, que determina os recursos do banco de dados como CPU e memória. É um pouco semelhante ao tipo de duas instâncias AW, EC. O próximo é Dias Database Engine. O próximo é o tipo de mecanismo de banco de dados que você deseja executar. Você pode escolher entre Postgresql, SQL, Maria DB, Oracle Database, servidor Quel e O Amazon Aurora é um banco de dados relacional compatível com MyEsqul e Post GrayQUL criado um banco de dados relacional compatível com MyEsqul e Post GrayQUL criado para a nuvem. O banco de dados foi projetado e desenvolvido pela AWS para fornecer desempenho de banco de dados de nível corporativo. Cada mecanismo de banco de dados tem suas próprias características e recursos exclusivos que você pode selecionar com base em seus requisitos de aplicativos e negócios. Agora, dê uma olhada nos preços. Agora, um dos maiores benefícios do Amazon Ardis é que você paga conforme o uso O processo de cobrança do Amazon Ardis consiste em duas partes: custo de instância A primeira coisa pela qual você paga é a instância que hospeda os bancos de dados. Há dois modelos de preços sob demanda e reservados sob demanda. O preço da instância permite que você pague pela capacidade computacional por hora. É quando seu banco de dados é executado de intermitente ou é um pouco imprevisível O preço da instância reservada é ótimo quando você tem uma boa compreensão do consumo de recursos do seu banco de dados. Com esse tipo de instância, você pode garantir um prazo de um ou três anos e receber um desconto significativo sobre os preços sob demanda. Agora vamos dar uma olhada no custo de armazenamento. Segundo, o fato de você pagar pelo armazenamento e pelo consumo do banco de dados, o armazenamento é cobrado por gigabyte, Por é cobrado por milhão de solicitações. Espero que você tenha uma boa compreensão do Amazon Dis. Assista ao vídeo novamente. Se você tiver alguma dúvida, isso é tudo para este vídeo. 50. Amazon DynamoDB: Olá, estudantes. Bem-vindo de volta. Nesta sessão, vamos entender banco de dados AWS NOSQL que oferece o Dynamo DV Vamos começar. Vamos dar uma olhada na visão geral do Dynamo DV É um serviço de banco de dados Nosql totalmente gerenciado que fornece desempenho rápido e previsível com escalabilidade perfeita O Dynamo DB é uma das melhores opções para armazenar dados de semiestrutura do NOSQL Como esse é um banco de dados totalmente gerenciado, você não precisa lidar com provisionamento de hardware, configurar replicação de configuração, patches de software ou escalabilidade de cluster ao usar o Dynamo DB. Outra grande vantagem do Dynamo DB é que ele oferece que elimina a carga operacional e complexidade envolvidas no gerenciamento de criptografias. Crees para proteger dados confidenciais. Se isso não fizer sentido, não se preocupe, lembre-se de que ele suporta criptografia por padrão. Eu abordarei a criptografia em detalhes no módulo de gerenciamento da AWS. Criamos uma tabela de banco de dados no Dynamo DB para armazenar e recuperar nossos É importante entender aqui, deixe-me simplificar isso. Ao criar uma instância do Amazon RDS, você cria um banco de dados dentro dela e, dentro do banco de dados , cria uma tabela Mas no caso do Dynamodb, você cria a tabela diretamente dentro do Ao acessar o painel do Dynamodb, você criará uma tabela Uma tabela do Dynamodb pode ser dimensionada horizontalmente. Ele distribui os dados em diferentes servidores de back-end para garantir que você possa escalar sempre necessário e obter um desempenho excelente Agora vamos entender como armazenamos dados dentro do Dynamodb. Uma tabela do Dynamo DB é composta por três componentes diferentes Tabelas, itens e atributos. Primeiro, você tem a tabela em si, e é aí que todos os seus dados são armazenados na tabela. Uma tabela é uma coleção de itens. Cada item é uma coleção de atributos. Os itens são como linhas em um banco de dados relacional. Por exemplo, o aluno com carteira de estudante 101 é um item. Cada item tem uma série de atributos associados a cada um. São os dados que vemos nesses campos aqui, como sobrenome, nome e e-mail. O Dynamo DB usa chaves primárias para identificar itens de forma exclusiva em uma tabela e índices secundários para fornecer Você pode usar streams do Dynamo DB para capturar eventos de modificação de dados nas tabelas do Dynamodb desempenho da tabela do Dynamodb é baseado na capacidade de transferência Você pode aumentar ou reduzir a capacidade de processamento de suas tabelas sem qualquer tempo de suas tabelas sem inatividade ou degradação do desempenho Você pode usar o console de gerenciamento da AWS para monitorar a utilização de recursos e as métricas de desempenho O Dynamo DB fornece o recurso de backup sob demanda que permite criar backups completos de suas tabelas para retenção e arquivamento de longo prazo para retenção e arquivamento de longo prazo atender às necessidades de conformidade regulatória Você também pode criar backups sob demanda e habilitar recuperação pontual para sua tabela do Amazon Dynamodb. Point in Time Recovery ajuda a proteger suas tabelas contra direitos acidentais ou operações de exclusão Com o Point In Time Recovery, você pode restaurar uma tabela em qualquer momento durante os últimos 35 dias. Ele também permite que você exclua automaticamente itens expirados das tabelas para ajudar a reduzir o uso do armazenamento e o custo de armazenar dados que não são mais relevantes Agora vamos ver alguns casos de uso do Dynamodb. Devido ao seu modelo de dados flexível e desempenho confiável, é ideal para aplicativos móveis, aplicativos baseados na web, aplicativos de jogos, aplicativos tecnologia e IOT Você também pode usar o Dynamodb para outros aplicativos. Estudantes, espero que agora vocês entendam os recursos e aplicativos do Amazon Dynamodb 51. Crie instância de RDS: Olá, estudantes. Bem vindo de volta. Nesta sessão, criaremos uma instância do RDS. Veremos quais outros recursos e configurações são necessários para ativar uma instância SQL do RDS Vamos para o console da AWS agora. Digite RDS na barra de pesquisa. Clique na opção RDS e ela o levará ao painel do RDS. A primeira coisa que você precisa fazer ao criar instâncias do RDS é criar um grupo de envio Um grupo de sub-redes é simplesmente um agrupamento lógico de sub-redes em que você provisiona Vamos para a página de grupos de sub-redes clicando aqui. Como você pode ver, não tenho nenhum grupo de sub-rede na minha conta. Clique em Criar grupo de sub-rede de banco atribua um nome ao grupo de sub-redes Você precisará adicionar uma descrição aqui, pois é um campo obrigatório. Vou adicionar Submit Group para meu banco de dados SQL. Em seguida, selecione BPC. Eu tenho apenas um e vou escolher este. Aqui, você precisa selecionar a zona de disponibilidade. Selecione as zonas de disponibilidade nas quais você deseja que as instâncias do Ardis sejam implantadas Para mim, eu só tenho envios em P um e P Sul um B. Se você tiver envios na outra zona de disponibilidade, você também pode selecionar AP sul Em seguida, selecionamos as sub-redes nessas zonas de disponibilidade. Como você pode ver, tenho um envio público e um envio privado em cada uma das zonas de disponibilidade. Normalmente, você gostaria de criar instâncias do RDS em envios privados, selecionar as sub-redes selecionar as Aqui, as instâncias do RDS geralmente são criadas em sub-redes privadas e acessadas de dentro das Em aplicativos de produção, você não quer que seus bancos de dados sejam acessíveis pela Internet. Agora clique em Criar. Como você pode ver, agora criamos com sucesso um grupo de sub-redes para nosso banco de dados Vamos agora criar o banco de dados do RDS. Clique nos bancos de dados. No momento, não tenho bancos de dados do RDS em minha conta Antes de passarmos para o botão Criar banco de dados aqui, se você ver ao lado desse botão, temos uma restauração a partir do botão S três. Quando fazemos backups de nossos bancos de dados do RDS, eles são restaurados no AWS S three. Ao clicar neste botão Aqui, podemos criar uma nova instância partir de um de nossos backups no S three. Voltando à criação do banco de dados, clique em Criar banco de dados. A primeira opção que você pode ver é Standard Create ou As Create. Se você escolher a opção As Create, AWS usará alguns valores padrão para criar seu banco de dados. Vamos dar uma olhada. Eu selecionei As Create. Agora, as únicas opções que tenho são os tipos de banco de dados e algumas outras opções. Aqui, se rolarmos para baixo e abrirmos a exibição suspensa, configurações padrão para As Create, podemos ver que a AWS codificou alguns valores para nós Não quero criar nosso B assim. Vamos voltar à Criação Padrão e escolher nós mesmos os parâmetros. Clique em Criar padrão. Na parte superior, escolha o tipo My SQL Engine. Em seguida, temos a opção de escolher a versão do My SQL. Vou escolher a versão mais recente disponível para mim no momento, que é minha 8.0 0.28. A próxima opção temos é escolher o modelo de acordo com nosso caso de uso Se você escolher a produção aqui, AWS escolherá algumas opções padrão para nós. Para simplificar, como quando tenho um modelo de produção selecionado e desço até disponibilidade e durabilidade, você pode ver que a opção padrão selecionada para mim é criar uma instância em espera Agora, quando eu mudar o modelo para Dave e rolar para baixo novamente, você notará que o valor padrão escolhido para mim agora não é criar um banco de dados em espera Selecionar um modelo simplesmente definirá alguns valores padrão para nós. Vamos nos limitar ao pneu grátis e selecionar o modelo de pneu grátis. A próxima opção que temos é o identificador do banco de dados. Esse é o nome da nossa instância de banco de dados. Você deve observar aqui que esse não é o nome do banco de dados, mas o nome da instância do RDS Deixe-me mudar para a consultoria em nuvem, meu banco de dados SQL. Em seguida, precisamos criar o nome de usuário e a senha principais para a instância do RDS Alterando o nome de usuário para RDS master, digitarei minha senha aqui Podemos fazer com que a AWS gere automaticamente a senha para esse nome de usuário aqui. Por enquanto, deixe-me adicionar minha própria senha. A próxima opção que temos é selecionar a classe de instância para nosso banco de dados. Como selecionamos o modelo de pneu gratuito, não podemos alterar os tipos de instância aqui. Como você pode ver, só temos uma opção, micro de dois pontos. Se selecionarmos os modelos Dave ou Prod, obteremos todas as opções de instância aqui Em seguida, temos que selecionar o tipo de armazenamento para nossa instância RDS A opção atual que temos é o SSD GP two de uso geral Podemos alterar esse valor para I 01 para cargas de trabalho mais complexas. Agora vamos nos limitar ao tipo de SSD GP two. Também podemos habilitar o escalonamento automático para nosso armazenamento RDS. Se essa caixa de seleção estiver marcada, podemos adicionar o armazenamento máximo Queremos que nossa instância do RDS aumente para que o valor padrão desse campo seja 1.000 ZB Se o armazenamento do meu banco de dados ficar cheio, AWS escalará automaticamente o armazenamento para até 1.000 GBs A próxima opção é disponibilidade e durabilidade. Vimos anteriormente que tínhamos essa opção quando selecionamos o Dave e os modelos de produção No entanto, esta opção não é suportada no pneu livre. Em seguida, temos a opção de selecionar a conectividade para nossa instância do RDS Podemos selecionar a VPC na qual criamos nosso grupo de sub-redes e, em seguida, selecionar o grupo de envio Na próxima opção, temos a próxima opção. Se quisermos que nossa instância do RDS seja acessível fora da VPC Aws nos dá outra opção aqui para não permitir o acesso público ao nosso banco de dados. Em seguida, precisamos especificar o grupo de segurança para nosso RDS. Vamos escolher criar um novo SG. Dê a ele o nome RDS, meu SQL SG. Podemos ver a porta padrão do meu banco de dados SQL aqui. Vamos deixar isso como está. A próxima opção é a autenticação do banco de dados. Temos três opções aqui para nós. Escolheremos a autenticação por senha. Se quiser mais segurança e controle sobre o acesso ao RDS, você pode escolher as outras opções aqui Vamos também ver as opções adicionais para RDS clicando neste menu suspenso aqui A primeira opção é o nome do banco de dados. Se você se lembra anteriormente, tivemos a opção de adicionar o identificador do banco de dados, que era o nome da instância do banco de dados do RDS Aqui, podemos pedir à AWS que crie um banco de dados como usuários, funcionários, etc., dentro da nuvem, consultando meu banco de dados SQL Se deixarmos esse valor vazio, AWS não criará um banco de dados para nós. E teremos que fazer isso usando meus comandos SQL quando nos conectarmos a essa instância. Vamos criar um banco de dados do usuário. Para nosso exemplo, estou deixando os outros valores como padrão. Em seguida, temos a opção de backup automático. Podemos escolher aqui com que frequência queremos fazer backups do nosso banco de dados e até mesmo especificar a janela de tempo para o backup. A próxima opção é o monitoramento aprimorado. Essa é uma pergunta popular nos exames de AW. A diferença entre o monitoramento normal do cloudwatch e monitoramento aprimorado é que no caso do monitoramento normal, RDS reúne as métricas do hipervisor Para uma instância de banco de dados, monitoramento aprimorado reúne suas métricas de um agente na instância Se você quiser métricas de nível de sistema operacional, precisará ativar o monitoramento aprimorado para nosso caso de uso Não selecionaremos a opção de monitoramento aprimorado. Agora podemos escolher as exportações de registros. Você pode fazer com que a AWS envie registros para os registros do Cloud Watch selecionando as opções. Aqui temos a próxima opção para permitir que o WS faça pequenas atualizações de versão em nosso banco de dados e selecione as janelas de tempo para essas atualizações Vamos deixar esses valores como padrão. A opção final que temos é ativar a proteção contra exclusão. A opção simples não nos permitirá excluir nossa instância do RDS Clique em Criar banco de dados. Agora, na página do banco de dados, podemos ver nosso banco de dados my SQL sendo criado. Deixe-me pular o vídeo até que essa instância seja criada Como você pode ver, agora minha instância do RDS foi criada. Agora, vamos clicar na instância e ver os detalhes da conexão. Na guia Conectividade e segurança, você pode ver o endpoint e a porta dessa instância do RDS. Esses valores serão necessários para acessar a instância do RDS. Com isso, chegamos ao final da sessão. Examinamos todos os parâmetros que temos ao criar os grupos de sub-rede e bancos de dados do RDS Criamos nosso próprio banco de dados do RDS. Isso é tudo para esta sessão. Nos vemos na próxima lição. 52. Amazon Elasticache: Olá estudantes. Bem-vindo de volta. Neste vídeo, aprenderemos sobre um dos principais serviços da AWS, o Amazon Elastic Cache. Vamos começar com os MS básicos envolvidos no cache elástico. cache de serviços é a técnica de armazenar dados em um cache Ele permite que você reutilize dados que foram recuperados anteriormente A solicitação futura de dados de dados é atendida mais rapidamente, em vez de ser recuperada do local principal Agora você deve estar se perguntando o que é um cache. Um cache é um local de armazenamento reservado que coleta dados temporários Pode ser a memória do computador ou o próprio aplicativo. Um exemplo simples será armazenar documentos na área de trabalho de um computador. Com mais frequência, mantemos uma cópia do documento acessado com frequência no desktop. Não precisamos ir sempre ao local do documento. Outro bom exemplo será um marcador. Marque os links que usamos com mais frequência. Não há necessidade de pesquisar todas as vezes. Agora vamos entender o que é cache elástico. Elastic Cache é uma solução de cache de banco de dados em memória totalmente gerenciada da AWS Ele suporta uma variedade de casos de uso personalizáveis e em tempo real O cache elástico é adequado para armazenamento em cache, que melhora o desempenho de aplicativos e bancos Colocamos isso na frente de outros bancos de dados, talvez na frente do RDS ou na frente do Dynamo DB Ele também pode ser usado como o principal armazenamento de dados para casos de uso como lojas CSN, jogos, tabelas de classificação, streaming e análises que não exigem durabilidade cache elástico é a implementação dos mecanismos de banco de dados de código aberto conhecidos como Dies e Memcached Agora vamos ver alguns casos de uso do cache elástico. Ele acelera o desempenho do aplicativo. Como mencionei, cache elástico funciona como armazenamento de dados e cache na memória para dar suporte aos aplicativos mais exigentes que exigem tempos de resposta abaixo de um milissegundo O próximo caso de uso é que é uma carga de banco de dados de back-end separada do aplicativo. Também ajuda a reduzir a carga no banco de dados. Depois de armazenar dados de acesso frequente no cache elástico, isso diminuirá drasticamente as chamadas ao isso diminuirá drasticamente banco de dados e reduzirá a pressão sobre seu banco de dados de back-end A próxima é criar armazenamentos de dados de baixa latência. Essa é uma excelente solução para um banco de dados de baixa latência quando você deseja armazenar conjuntos de dados não duráveis na memória e oferecer suporte a aplicativos em tempo real com latência de microssegundos Agora vamos ver como o cache elástico funciona. Você tem um aplicativo configurado e instalado no EC para instanciar em sua conta da AWS. Este aplicativo usa o banco de dados RDS para armazenar dados de back-end. Agora, o aplicativo gravará alguns dados no RDS. O aplicativo também pode ler banco de dados no banco de dados do RDS Agora, o que você pode fazer? Coloque o cache elástico entre aplicativo e o RDS e armazene a sessão ou acesse dados com frequência no cache elástico Esses dados são então carregados no cache elástico. que significa que na próxima vez que o aplicativo precisar ler os dados do banco de dados, ele obterá o que é chamado de cache aqui. Isso significa que ele é encontrado no banco de dados e será recuperado muito mais rápido do que vindo do RDS Isso é tudo para esta sessão. 53. Amazon Redshift: Olá, estudantes. Bem-vindo de volta. Neste vídeo, entenderemos o que é um data warehouse e por que precisamos dele. Serviço de armazém de dados da Aws, Red Shift. Vamos começar. Você provavelmente já ouviu falar sobre data warehouses, mas não sabe exatamente o que é Deixe-me explicar para você. Como o nome sugere, é um depósito de dados. Ele permite que você armazene grandes quantidades de dados de várias fontes. Que podem ser de arquivos de log de aplicativos, sistemas transacionais, bancos de dados relacionais, marketing, vendas, finanças, aplicativos voltados para o cliente, sistemas de parceiros externos e Basicamente, um data warehouse é uma grande coleção de dados comerciais usada para ajudar as organizações a tomar decisões. Agora você deve estar pensando como esses dados ajudarão a tomar uma decisão comercial? O objetivo de toda empresa é tomar melhores decisões de negócios do que seus concorrentes, certo? Como você toma uma decisão melhor? Ou vem da experiência ou você pode fazer matemática. Concorde em fazer matemática, você precisa de dados. Quando se trata de grandes empresas e organizações, elas usam ferramentas de business intelligence. As ferramentas B I analisam os dados e geram o relatório. Atualmente, a maioria dos usuários corporativos depende de relatórios, painéis e ferramentas de análise para extrair insights de seus dados Os data warehouses alimentam esses painéis de relatórios e ferramentas analíticas armazenando dados data warehouse não é um conceito novo e existe desde os anos 90, 80, mas não está em uso devido ao enorme custo de armazenamento de dados no local. computação em nuvem revoluciona isso , pois armazenar dados na nuvem é fácil e barato É aí que a AWS tem um serviço chamado Amazon Redshift. O que é o Amazon Redshift? O Amazon Redshift é uma oferta de armazém de dados rápida totalmente gerenciada em escala de petabytes oferta de armazém de dados Petabytes significam que ele pode satisfazer as necessidades de escalabilidade da maioria das empresas Não se limita apenas a terabytes, mas a 1.000 múltiplos Esse nível de escalabilidade é difícil alcançar com a implementação local. É um serviço simples e econômico para analisar dados forma eficiente usando ferramentas de inteligência de negócios. É um data warehouse baseado em SQL e seu principal caso de uso são as cargas de trabalho do Analytics O Redshift usa duas instâncias C. Você deve escolher um tipo de instância e uma família. É pago conforme o uso, com base nas instâncias que você provisionou O Redshift sempre manterá cópias gratuitas de seus dados e fornecerá backups contínuos e incrementais Sempre que você perceber que o banco de dados precisa ser um depósito e fazer análises nele, Redshift será a solução Isso é tudo para esta lição. 54. Autoscaling: Olá, estudantes. Bem vindo de volta. Neste vídeo, você aprenderá o que é escalonamento automático? O que é escalabilidade automática na AWS? E quais são os benefícios de usar os serviços de escalabilidade. Mas antes de começarmos, vamos ver como a escalabilidade funciona em um data center tradicional Bem, o dimensionamento é reativo e manual. Em data centers tradicionais, escalabilidade reativa significa que os servidores são ativados e desativados manualmente de acordo com as mudanças na carga Isso significa que, à medida que a carga de trabalho aumenta, adicionamos mais servidores e, quando a carga de trabalho diminui, removemos os Vamos entender isso com um exemplo. Suponha que existam servidores de aplicativos acessados pelos usuários do aplicativo. Como os usuários desse aplicativo aumentarão com o tempo, a carga no servidor também aumentará se o número de usuários continuar aumentando. Chegará um momento em que seu servidor atingirá sua capacidade total e não haverá memória e CPU suficientes para atender aos novos usuários. O administrador do aplicativo precisa monitorar a capacidade do servidor. Ele pode monitorá-lo manualmente ou com a ajuda de qualquer ferramenta. Quando ele perceber que o servidor de aplicativos atingiu sua capacidade total, ele adicionará um novo servidor e configurará o aplicativo no novo servidor. Novamente, esse processo pode levar algum tempo com base na disponibilidade dos servidores ou na disponibilidade do servidor. Os engenheiros adicionam o servidor. Às vezes, escalar significa comprar novos servidores. Para fazer isso, você precisará obter a aprovação da gerência. Pode levar vários meses para que os servidores cheguem. Como você pode ver, esse é um processo demorado e não sustentável. Outro problema com esse processo é que, quando a carga no servidor diminuir, você precisará remover o servidor extra, caso contrário, ele ficará inativo computação em nuvem resolve todos esses problemas , pois é muito mais fácil adicionar e remover recursos de computação dependendo da carga no aplicativo Agora, a questão principal é: como isso acontecerá automaticamente? Bem, isso é feito por meio do escalonamento automático. É um recurso da computação em nuvem que adiciona e remove automaticamente recursos de computação, dependendo dos usos e da demanda reais Esse recurso está disponível somente em um ambiente de nuvem. O escalonamento automático fornece flexibilidade e elasticidade às suas Por isso, às vezes também é chamada de elasticidade. Elasticidade significa adicionar ou remover recursos computacionais com base nos usos e na demanda Se a demanda aumentar , aumentará o número de recursos e, se diminuir, removerá recursos. escalonamento automático garante um aumento contínuo dos recursos quando a demanda aumenta e uma diminuição contínua Portanto, ele garante um desempenho consistente do aplicativo a um custo menor. escalonamento automático é tão eficiente que só adiciona os recursos quando a demanda aumenta e os remove imediatamente quando ela diminui Novamente, dessa forma, você não precisa continuar executando os recursos adicionais o tempo todo para atender à demanda do horário de pico. Escalonamento automático é um termo geral em computação em nuvem. Agora, vamos entender o que é escalabilidade automática na AWS. AWS. O escalonamento automático é um serviço que monitora seu aplicativo e ajusta automaticamente a capacidade de manter um desempenho estável e previsível do aplicativo com o menor custo Os pontos principais são que ele monitora seu aplicativo e, com base na necessidade, adiciona ou remove capacidade adicional para manter o desempenho do aplicativo com o menor custo possível. Como exatamente ele monitora seu aplicativo? O AWS Auto Scaling usa um serviço da AWS chamado Cloudwatch para monitorar a demanda do aplicativo E emite alarmes para aumentar ou diminuir os recursos, dependendo das necessidades do seu aplicativo Abordaremos o Cloudwatch em detalhes no próximo módulo Por enquanto, o Cloudwatch é um serviço de monitoramento. E monitora métricas de aplicativos, como uso da CPU, rede de memória e muito mais. Você pode definir um valor limite e o serviço acionará um alarme quando atingir esse limite Por exemplo, se a utilização da CPU ultrapassar 80%, ele adicionará um servidor e o removerá Se ficar abaixo de 30%, o Auto Scaling usa o Cloud Watch para monitorar o aplicativo e, com base nos requisitos, ele remove ou remove servidores para atender à demanda Agora, vamos ver alguns benefícios do escalonamento automático da AWS. Com a ajuda do grupo AWS Auto Scaling, podemos automatizar a adição e a remoção duas instâncias EC para atender à demanda real Essa é uma das conquistas mais importantes da nuvem. Como mencionei anteriormente, ele traz agilidade à adição e remoção de recursos para atender à demanda do cliente Portanto, ele remove todo o trabalho reativo dos data centers tradicionais Outro benefício significativo é a otimização de custos. Novamente, essa é uma grande vitória na nuvem. Você não precisa usar recursos extras para atender ao pico de demanda. Isso garantirá que você pague apenas pelo necessário para atender seu cliente. Você não precisa mais pagar por recursos não utilizados. O último e mais importante é o desempenho do aplicativo. Como ajuda você a adicionar e remover recursos para atender à demanda, o aplicativo sempre tem um desempenho melhor. Seu cliente não enfrentará nenhuma latência e lentidão no aplicativo Isso é tudo para esta sessão. 55. Grupo de Auto Scaling EC2: Olá estudantes. Bem vindo de volta. Continuaremos com o escalonamento automático neste vídeo e entenderemos os elementos do grupo de escalonamento automático EC two Vamos começar. Até agora, você entendeu que o escalonamento automático adiciona e remove duas instâncias do EC Agora vamos entender como isso funciona. Você precisa criar um grupo de escalabilidade automática que escalará duas instâncias do Amazon C. É aqui que o escalonamento automático adiciona e remove duas instâncias EC Isso significa que o grupo de escalonamento automático EC two garante que você tenha instâncias suficientes do Amazon C two disponíveis para lidar com a carga em seu aplicativo Isso é feito com a configuração do grupo de escalonamento automático C two. Há três configurações: tamanho mínimo, capacidade desejada e tamanho máximo Com base nessas configurações, escalonamento automático ajustará o número de instâncias dentro do número mínimo e máximo de duas instâncias EC A configuração de capacidade desejada determinará o tamanho de um grupo de auto scaling Por definição, um grupo de auto scaling é uma coleção de duas instâncias do Amazon C agrupadas logicamente para escalabilidade e gerenciamento automáticos Isso está bem claro, é isso que temos discutido até agora. Um grupo de escalabilidade automática também permite que você use dois recursos de escalabilidade automática do Amazon EC, como substituições de verificações de saúde e Ele mantém o número de instâncias realizando verificações periódicas de saúde nas instâncias Se alguma instância ficar com problemas de integridade, o grupo de escalonamento automático encerrará a instância não íntegra e iniciará outra instância iniciará outra Outra política de escalabilidade de recursos que abordarei na próxima sessão Agora, vamos entender a configuração do tamanho do grupo de escalonamento automático Pois é fundamental entender do ponto de vista da certificação e da entrevista de profissionais de nuvem certificação e da entrevista tamanho mínimo define o número mínimo de instâncias que devem ser executadas em um grupo de auto scaling Nesse caso, temos um. O tamanho mínimo garante que você sempre tenha um número fixo de instâncias em execução. O grupo de autoescala nunca encerrará instâncias abaixo desse número A capacidade desejada determina quantas instâncias EC duas você deseja executar. Idealmente, nesse caso, temos dois. escalonamento automático tentará manter duas instâncias C duas vezes o tempo todo A capacidade desejada é redimensionável entre os limites de tamanho mínimo e máximo Ele deve ser maior ou igual ao tamanho mínimo do grupo e menor ou igual ao tamanho máximo do grupo. tamanho máximo é o número de duas instâncias EC autorizadas a serem executadas. Esse é o número máximo de instâncias em execução no grupo de escalonamento automático Grupos de autoescala nunca criarão mais do que o número máximo de instâncias especificado Resumindo, o grupo Amazon C two auto scaling mantém o número de instâncias e escala Isso é tudo que eu queria abordar neste vídeo. 56. Políticas de auto-escalonamento EC2: Estudantes, bem-vindos de volta. Até agora, entendemos que o escalonamento automático precisa de um grupo de escalonamento automático para manter e escalar duas instâncias C Isso depende muito da configuração do grupo de escalonamento automático Como tamanho mínimo, tamanho máximo e capacidade desejada. Também entendemos no último vídeo que a capacidade desejada deve mudar com base na carga e no tráfego do seu aplicativo. Agora surge a pergunta: como esse número mudará? Como o número de instâncias aumenta e diminui? Bem, a escalabilidade começa com um evento ou ação de escalabilidade instrui o grupo de escalonamento automático a iniciar ou encerrar iniciar ou Duas instâncias, é aí que as políticas de escalonamento automático surgem Existem diferentes tipos de políticas de escalonamento automático projetadas para várias Vamos entender isso. Como nota, este é um tópico muito importante por exemplo, e do ponto de vista da entrevista. Eu recomendo prestar atenção especial e fazer anotações. Também adicionarei um link de aprendizado adicional na seção de recursos. A primeira política de escalonamento automático é o escalonamento manual, e essa é a maneira mais básica de escalar seus recursos Aqui você altera seus grupos de escalonamento automático, capacidade máxima, mínima ou desejada, Amazon C two Auto Scaling gerencia o processo de criação ou encerramento de instâncias acordo com essas atualizações Se você souber quando é provável que mais tráfego flua para seu aplicativo, você pode alterar manualmente o tamanho de um grupo de escalonamento automático existente Você pode atualizar a capacidade desejada do grupo de escalonamento automático ou atualizar as instâncias anexadas ao grupo de escalonamento automático A escala manual pode ser útil quando você precisa manter um número fixo de instâncias. O próximo é o escalonamento dinâmico. No escalonamento dinâmico, definimos como escalar a capacidade do grupo de escalonamento automático em resposta às mudanças Isso significa que você pode aumentar o número de instâncias durante o pico de demanda, também conhecido como escalabilidade horizontal, e diminuir as instâncias durante a demanda de carga, também conhecida como escalabilidade Agora vamos entender com um exemplo. Digamos que você tenha um aplicativo web que atualmente é executado em duas instâncias C two. Sua meta é manter a utilização da CPU dessas instâncias em cerca de 50% independentemente das cargas do aplicativo Isso significa que você precisa adicionar uma instância EC two adicional sempre que a utilização da CPU ultrapassar 50%, mas você não sabe quando chegará a 50%, não se preocupe Você pode configurar seu grupo de escalonamento automático para escalar dinamicamente para atender a essa necessidade criando uma etapa de rastreamento de metas ou uma política de escalabilidade simples Agora vamos entender essas políticas de escalabilidade dinâmica. escalonamento gradual e simples permite que você escolha as métricas e os limites de escalabilidade para o alarme do cloudwatch que iniciam o Aprenderemos o Cloud watch no módulo de gerenciamento da AWS. Você define como seu grupo de escalonamento automático deve ser escalado quando um limite atinge um determinado número Vamos dar o mesmo exemplo. Sempre que a utilização média da CPU de todas as instâncias C two ultrapassar 50% por 5 minutos, adicione 12 instâncias ao grupo de auto scaling. Como alternativa, sempre que a utilização da CPU for inferior a 30% por 10 minutos, remova uma instância C two do grupo de escalonamento automático Esse é um escalonamento simples ou em etapas, pois definimos o ponto de gatilho para agir e quantas instâncias adicionar ou remover Você seleciona uma métrica de escala e define um valor alvo na meta Rastreando políticas de escalabilidade, só isso. É uma maneira muito fácil de definir uma política de escalabilidade dinâmica Agora, o Amazon C two auto scaling criará e gerenciará os alarmes do cloudwatch que acionam E calcule o ajuste de escala com base na métrica e no valor alvo A política de escalabilidade adiciona ou remove duas instâncias para manter a métrica no valor alvo especificado ou próximo a Por exemplo, você pode configurar uma política de escalabilidade de rastreamento de metas para manter a do seu grupo de escalabilidade utilização média agregada da CPU do seu grupo de escalabilidade externa em 50%. Em seguida, o ASG escalará automaticamente para garantir que permaneça em torno da meta de 50%. O próximo passo é o escalonamento em 50%. Em seguida, o ASG escalará automaticamente para garantir que permaneça em torno da meta de 50%. O próximo passo é o escalonamento programado ajuda a configurar seu cronograma de escalabilidade de acordo com as mudanças de carga previsíveis Por exemplo, digamos que toda semana o tráfego para seu aplicativo Wave comece a aumentar na quarta-feira, permaneça alto na quinta-feira e comece a diminuir na sexta-feira. Você pode configurar uma programação para o Amazon EC two, auto scaling para aumentar a capacidade na quarta-feira diminuir a capacidade na sexta-feira Isso é muito útil quando sabemos que as mudanças acontecerão com antecedência. Prevemos o escalonamento com base no padrão conhecido dos usuários. O próximo é o escalonamento preditivo. Isso ajuda a escalar mais rapidamente ao lançar capacidade antes da carga prevista A diferença é que o escalonamento dinâmico é reativo e se expande quando a demanda surge Por outro lado, o escalonamento preditivo escala a capacidade com base em métricas em tempo real e dados históricos Por exemplo, considere um aplicativo que tenha alto uso durante o horário comercial e baixo uso. escalonamento preditivo noturno pode aumentar a capacidade antes do primeiro fluxo de tráfego no início de cada Ele ajuda seu aplicativo manter alta disponibilidade e desempenho ao passar de um período de utilização menor para um período de utilização mais alto Você não precisa esperar pelo escalonamento dinâmico para reagir às mudanças no tráfego Você também não precisa perder tempo revisando os padrões de carregamento de seus aplicativos e tentando programar a quantidade certa de capacidade usando o escalonamento programado Portanto, o escalonamento preditivo usa aprendizado de máquina para prever o tráfego futuro com antecedência Ele analisará os padrões de tráfego anteriores e preverá o que acontecerá com o tráfego no futuro. Ele fornecerá automaticamente o número correto de EC com duas instâncias de antecedência para corresponder ao período previsto. É benéfico quando você tem padrões de carga de trabalho recorrentes ativados e desativados ou aplicativos que demoram muito para inicializados e que causam Agora, vamos voltar e entender como a política de escalonamento automático é concluída O processo de escalonamento automático. Como sabemos, o escalonamento automático depende vários fatores, como eventos, métricas e limites E com base em nossos requisitos, configuramos uma política de escalonamento automático Essa política instrui o auto scaling a adicionar e remover duas instâncias C. É isso para esta sessão. 57. Configuração de lançamento e modelo de lançamento: Olá, estudantes. Bem vindo de volta. Até agora, entendemos que o escalonamento automático aumenta e diminui o número de instâncias do EC Two para atender à demanda Como você sabe, quando você executa a instância EC two, precisamos fornecer algumas configurações. Também precisamos predefinir essa configuração para escalonamento automático Isso é o que fazemos com a configuração e o modelo de lançamento. Vamos seguir em frente e entender isso com mais detalhes. Tanto a configuração de lançamento quanto o modelo de lançamento definem as características do EC. Duas instâncias que queremos lançar quando a demanda surgir. Aws introduziu a configuração de lançamento em 2014 e , desde então, temos usado configuração de lançamento com dois grupos de auto scaling da EC Por outro lado, o modelo de lançamento foi introduzido recentemente e executa uma tarefa semelhante à configuração de lançamento. Como o modelo de lançamento é o serviço mais recente, ele tem alguns recursos e capacidades extras para tornar o trabalho um pouco mais fácil para nós. Vamos começar com uma configuração de lançamento e, em seguida, avançaremos para o modelo de lançamento. Uma configuração de inicialização é um modelo de configuração de duas instâncias E em que definimos as configurações de nossa instância EC de duas instâncias que queremos que auto scaling seja iniciado quando a demanda chegar Configuração é o modelo de configuração de duas instâncias EC que o escalonamento automático usará para iniciar novas instâncias EC two Quando criamos uma instância EC de duas instâncias, seja a partir do console de gerenciamento da AWS ou usando o AWS CLI, forneça configurações diferentes de duas instâncias de EC , como ID AM, o tamanho do tipo de instância a configuração do armazenamento Qual instância usa o Keypair que é usado para se conectar a essa instância Também definimos a configuração de rede e os grupos de segurança. Isso decide o endereço IP e porta a partir dos quais a instância será acessível. Podemos definir dados do usuário, que são um conjunto de comandos ou scripts que são executados enquanto uma instância é executada. Também podemos definir as funções do IAM, que serão anexadas à instância e darão permissão para acessar os serviços. Basicamente, isso inclui tudo o que geralmente definimos ao iniciar uma instância. Podemos definir e salvar todas as configurações na configuração de execução, que funcionará como um modelo para escalonamento automático ao iniciar novas instâncias A configuração de inicialização não é editável. Você a define uma vez e essa configuração é registrada. Se quisermos ajustar a configuração de uma configuração de lançamento, você precisará criar uma nova e usar essa nova configuração de lançamento. Há alguns desafios na configuração de lançamento que foram aprimorados no modelo de lançamento. Como vimos anteriormente, o modelo de lançamento é semelhante à configuração de lançamento. Ele fornece a configuração EC two, que é usada pelo grupo EC two auto scaling ao iniciar duas instâncias C. Além disso, o modelo de lançamento também pode ser usado para iniciar duas instâncias EC ou frota de instâncias EC two diretamente do console de gerenciamento da AWS ou da AWS CLI Como o modelo de lançamento é o serviço mais recente, ele inclui vários recursos adicionais. Além dos recursos de configuração, vamos dar uma olhada neles um por um. Isso nos permite criar várias versões do modelo de lançamento por meio de configurações diferentes Podemos especificar vários tipos de instância, até mesmo tipos de instância com base em atributos de tipo de instância, como memória , armazenamento de CPU etc Ele tem a capacidade de usar instâncias sob demanda e spot, o que gera ainda mais economias. Ele também abrange dois por três recursos ilimitados. Grupos de posicionamento, capacidade , reservas, gráficos elásticos e recursos de host dedicado estão disponíveis no modelo de lançamento, mas esses recursos estavam ausentes na configuração de lançamento. Além disso, permite EBS, marcação de volume e interface elástica Aws recomenda usar o modelo de lançamento em vez da configuração de lançamento, pois oferece mais benefícios arquitetônicos. Agora vamos entender onde a configuração de lançamento, um modelo de lançamento, se encaixa no processo de escalonamento automático Se você se lembra da sessão anterior, escalonamento automático depende de vários fatores como eventos, métricas e limites Com base em nossos requisitos, configuramos uma política de escalonamento automático Essa política instrui o auto scaling a adicionar e remover duas instâncias EC Agora, o escalonamento automático precisa da configuração de inicialização da instância para iniciar a instância EC two Certo? Para iniciar duas instâncias C, usamos a configuração de execução e o modelo de execução para fornecer duas configurações de EC ao grupo de escalonamento automático Toda vez que o escalonamento automático inicia uma instância EC two, ele se refere à configuração de execução que configuramos com o que configuramos com Isso é tudo nesta lição sobre configuração de lançamento e modelo de lançamento. 58. Balanceador de carga: Olá, estudantes. Bem vindo de volta. No último vídeo, entendemos como o escalonamento automático EC two aumentaria e diminuiria automaticamente suas instâncias EC two com base na demanda Nesta lição, aprenderemos o conceito geral de balanceamento de carga, pois essa será a base do nosso próximo vídeo, Elastic Load Balancer Vamos começar. Vamos supor que você entre em um hotel cinco estrelas para fazer o check-in. Há dez recepcionistas verificando reservas, fazendo check-in e A maioria dos clientes está em poucas filas, o que resulta em uma distribuição desigual de clientes por linha, enquanto outras recepcionistas não fazem nada além de esperar Os clientes estão entrando e não têm ideia para onde ir. Mas se você pensar na situação, seria útil se tivéssemos um anfitrião na entrada. Qualquer cliente que entra precisa saber qual tem menos pessoas e quem é eficiente. Neste momento, os clientes serão recebidos por um anfitrião na porta Ele os encaminhará para a fila apropriada no hotel para verificação e check-out. O anfitrião fica de olho nas recepcionistas e conta o número de pessoas na fila que cada recepcionista Agora, qualquer novo cliente será direcionado para a recepcionista com a fila mais curta, que é a menos Consequentemente, haverá até mesmo filas de espera entre os recepcionistas, permitindo que os clientes sejam atendidos da forma mais eficiente possível Agora pense na AWS, Auto Scaling Group. Você tem várias duas instâncias EC executando o mesmo aplicativo. Quando uma solicitação chega, como a solicitação sabe qual instância do EC two a tratará? Como você pode garantir uma distribuição uniforme da carga de trabalho entre duas instâncias C? Você precisa de uma forma de encaminhar as solicitações igualmente para instâncias diferentes para processar essas solicitações. É aí que o balanceador de carga entra em cena. É uma solução de rede que distribui o tráfego em vários servidores para melhorar o desempenho do aplicativo Novamente, esse é um software que você pode instalar, gerenciar, atualizar e escalar. Um balanceador de carga pode ser instalado para duas ou mais instâncias C two, mas o problema é a escalabilidade Vamos entender isso. Você tem um balanceador de carga na frente de duas instâncias C e seu número de duas instâncias EC aumentará com base na carga Especialmente se você tiver escalabilidade externa , não há limitação nas duas instâncias C. Ele pode escalar de zero a 100 ou até mais instâncias C, certo? Agora, como um balanceador de carga lidará com todas as solicitações? Ele também precisa ser escalado, certo? É aí que a AWS fornece outro serviço chamado balanceador de carga elástico 59. O que é um balanceador de carga elástico (ELB)?: Olá, estudantes. Bem vindo de volta. Neste vídeo, entenderemos outro serviço da AWS que é o Elastic Load Balancer Esse serviço trabalha em estreita colaboração com o escalonamento automático para distribuir tráfego igualmente em duas instâncias. Vamos começar. O que é o balanceador de carga elástico? Esse é um serviço da AWS usado para distribuir a carga. Ele foi projetado para lidar com o levantamento pesado indiferenciado do balanceamento de carga Na lição anterior, você aprendeu sobre um balanceador de carga responsável pela distribuição do tráfego de entrada entre as duas instâncias EC disponíveis O Elb é escalado automaticamente à medida que o tráfego para seus servidores muda, se o tráfego aumentar Elb permite que o balanceador de carga manipule a carga adicional distribuindo-a sempre que seu grupo de escalonamento automático EC two aumenta a escala e adiciona uma nova instância EC two O serviço de escalonamento automático envia uma notificação ao balanceador de carga elástico de que uma nova instância está pronta para lidar com o uma nova Da mesma forma, quando o EC agrupa dois escalonamentos automáticos isso significa que, se ele inicia o processo para encerrar uma instância, ele envia uma notificação ao Agora, o trabalho do ELB é parar de enviar o tráfego para a instância selecionada Depois disso, ele espera que as solicitações existentes sejam concluídas Depois que todas as solicitações existentes forem atendidas, auto scaling encerra as instâncias sem perturbar os clientes O balanceador de carga elástico roteia automaticamente o tráfego de entrada do aplicativo em diferentes instâncias Ele atua como o ponto de contato para o tráfego de entrada. Qualquer tráfego que chegue ao seu aplicativo primeiro se reúne com o balanceador de carga e, em seguida, é enviado para uma instância disponível Ele também monitora a integridade das duas instâncias EC em execução , pois envia as solicitações de tráfego somente para as instâncias íntegras. Tudo bem, a partir de agora, você aprendeu como Elastic Load Balancer direciona tráfego externo para suas duas instâncias EC Não só isso, mas também é usado para redirecionamento de tráfego interno. Vamos entender com um exemplo de ML. Suponha que muitos usuários estejam usando o Gmail. Eles abrem o Invox e, em seguida, a página funciona como um servidor web Um usuário compila a mensagem e clica no botão enviar Se falarmos sobre o que está acontecendo no servidor de e-mail, um servidor de aplicativos está processando seus e-mails eletrônicos, incluindo armazená-los em um banco de dados, enviá-los aos respectivos usuários, etc Se mais e mais usuários começarem a usar o Gmail, o número de servidores web também aumentará Portanto, C para escalar automaticamente também precisará aumentar o número de servidores de aplicativos. deve reconhecer Cada servidor Ab deve reconhecer que um novo servidor de aplicativos está disponível para aceitar o tráfego Agora imagine que você tem potencialmente centenas de instâncias de servidor nos dois pneus. Também podemos resolver o caos do tráfego do Appserver com um ELB interno Elb direcionará o tráfego para o servidor do aplicativo que tiver menos solicitações pendentes O servidor Wave não sabe e não se importa com quantas instâncias do Appserver estão em execução Somente o ELB gerencia o direcionamento do tráfego para os Apservers disponíveis Isso é conhecido como arquitetura desacoplada. Nessa arquitetura, todos os componentes de computação permanecem completamente autônomos e inconscientes uns dos outros realizando a tarefa instruída Elastic Load Balancer é o serviço que podemos usar na frente de um Waveserver para distribuir Também é chamado de balanceador de carga público. Também podemos usar o balanceador de carga elástico por trás do Waveserver para distribuir igualmente o tráfego para o servidor distribuir Como isso funciona internamente, é chamado de balanceador de carga privado interno Estudantes, isso é tudo para este vídeo. 60. AWS Elastic Load Balancer (ELB): Olá, estudantes. Bem vindo de volta. Neste vídeo, vamos entender os diferentes tipos de ELB. Vamos começar. Aws, balanceamento elástico de carga, oferece suporte a quatro balanceadores de carga, balanceadores carga de aplicativos, balanceadores de carga de rede, balanceadores carga clássicos e balanceadores de carga Vamos entendê-los um por um. Esses balanceadores de carga funcionam com diferentes modelos OSI. Referência Osi significa Modelo Referência de Interconexão de Sistema Aberto Ele descreve como as informações são transformadas de um software em um computador para outro usando uma rede. Isso é conseguido dividindo a comunicação de dados em várias camadas, dando controle sobre o envio de dados de uma camada para outra Como o próprio nome sugere, balanceadores de carga do aplicativo funcionam na sétima camada do modelo OSI, a camada do aplicativo O balanceador de carga de rede funciona na camada quatro, que é a camada de rede O balanceador de carga clássico é o primeiro e mais antigo serviço de balanceador de carga elástico Ele foi projetado para funcionar nas camadas de aplicativo e de rede. O balanceador de carga do gateway é o serviço mais novo da família de balanceadores de carga elásticos, que funciona na camada 3.4. O próximo é o listador de protocolos, o que significa os diferentes protocolos em que esses balanceadores de carga podem ouvir balanceador de carga do aplicativo oferece suporte somente aos protocolos HTTP e STTPS O balanceador de carga de rede manipula os protocolos TCP e UDP. O balanceador de carga do gateway só escuta em IP. Como mencionamos anteriormente, um balanceador de carga clássico pode funcionar tanto em players de aplicativos quanto em reprodutores de rede Portanto, ele suporta protocolos de aplicativos e reprodutores de rede, como TCP, SSL por TLS, TTP, TTPs Agora, vamos analisar diferentes casos de uso desses balanceadores de carga O caso de uso mais comum balanceador de carga de aplicativos é para aplicativos da web Um aplicativo web criado na estrutura de microsserviços pode usar o ALB como balanceador de carga antes que o tráfego de entrada chegue ao seu EC, duas instâncias ou aos contêineres hospedados em uma rede de balanceador de carga abrange os demais cenários em que o ALB, por exemplo, os aplicativos que dependem de um protocolo além do STTP, os aplicativos sensíveis ao tempo, o fluxo de dados em tempo real e os aplicativos dependentes de streaming de áudio, vídeo, códigos monetários, etc., se beneficiarão O balanceador de carga do gateway funciona na camada três. Isso torna fácil e econômico implantar, escalar e gerenciar a disponibilidade de dispositivos virtuais de terceiros. O balanceador Lode clássico pode ser usado com quase todos os casos de uso do balanceador Lode de aplicativos e redes Mas como o aplicativo e o balanceador de rede Lode são os mais novos e foram projetados para uma finalidade específica, você os usa para tirar o máximo proveito dele A Aws desativará o balanceador de carga clássico em 15 de agosto de 2022 Não é recomendado usar. O próximo é o tipo de destino, que significa para onde o balanceador de carga pode direcionar o tráfego Podem ser endereços IP fixos de duas instâncias C, AWS, funções Lambda, entre outros. Você pode simplesmente relacionar isso com os casos de uso acima. O balanceador de carga do aplicativo oferece suporte a duas instâncias IP C e o balanceador de carga de rede Lambda oferece suporte a duas instâncias IP C. Além disso, o balanceador de carga do aplicativo também pode enviar tráfego para o ALB O balanceador de carga Gateways oferece suporte a duas instâncias IP e EC O balanceador de carga clássico também oferece suporte a duas instâncias IP e EC Podemos entrar em detalhes em cada balanceador de carga, mas isso não é necessário para este curso Você só precisa se lembrar desses quatro tipos de balanceamentos de carga, tipos, protocolos e casos de uso Isso é tudo para esta lição. 61. Usando ELB e Auto Scaling juntos: Olá, estudantes. Bem-vindo de volta. No laboratório anterior, no módulo EC two, implantamos o serviço STTDP na instância EC two, que criamos a partir do Neste laboratório, criaremos duas instâncias EC usando o grupo AWS Autoscaling. Veremos como configurar os grupos de escalonamento automático da AWS. Ele implantará automaticamente o serviço STTDP em todas as instâncias grupo de escalonamento automático e verá o acesso resultante ao aplicativo STTDP por meio do o serviço STTDP em todas as instâncias do grupo de escalonamento automático e verá o acesso resultante ao aplicativo STTDP por meio do balanceador de carga do aplicativo. Vamos até o console da AWS e digite C dois na barra de pesquisa. Clique em C dois para ir diretamente para o painel EC dois. No painel esquerdo, clique em Launch Templates. Eles especificam a configuração das duas instâncias do EC. Vamos dar uma olhada. Clique em Criar. Modelo de lançamento. Adicione um nome de modelo do Launch empacotado, Elting. Vamos adicionar o Launch Template para escalonamento automático. Como demonstração, conforme a descrição, podemos adicionar impostos clicando neste botão suspenso aqui. Se quiser copiar, modificar ou criar um novo modelo a partir de um modelo de lançamento existente, você pode fazer isso clicando no próximo menu suspenso aqui. A próxima opção que temos é escolher a AMI. Vamos digitar Amazon, Linux, dois na barra de pesquisa e selecionar a primeira AMI. Como você pode ver, esta AMI é elegível para pneus gratuitos, o que significa que não precisaremos pagar nada por isso. A próxima opção é escolher o tipo de instância. Podemos ver vários tipos de instância se você rabiscar aqui. Como não temos requisitos especiais de instância e também queremos ficar com o pneu livre, vamos escolher a microinstância de dois pontos. Em seguida, temos que escolher o par de chaves. Precisaremos dela quando avaliarmos H na instância. Além disso, você deve especificar um par de chaves, pois não avaliaremos H para a instância neste laboratório Vamos deixar isso como padrão. Se você quiser experimentar o SSH e executar comandos sozinho, você pode escolher um par de chaves existente como esse ou criar um novo par de chaves clicando Precisamos especificar as configurações de rede para nossas duas instâncias EC. Não precisamos selecionar sub-redes aqui. Vamos deixar esse padrão por enquanto. Em seguida, temos que configurar o grupo de segurança. Observe que, em última análise, esse grupo de segurança será vinculado às duas instâncias da EC que criamos. A partir desse modelo de lançamento, podemos criar um novo grupo de segurança ou selecionar um grupo de segurança existente. Eu tenho o grupo de segurança do laboratório anterior. Eu posso escolher isso. Mas deixe-me demonstrar o processo de criação de um grupo de segurança. Mais uma vez, clique em Criar grupo de segurança e adicione o nome e a descrição do grupo de segurança. Escolha a VPC correta. Em seguida, adicionaremos regras. Clique em Adicionar regra de grupo de segurança e, em seguida, em Adicionar regras de grupo de segurança. Selecione STTP na coluna de tipo nessa fonte. Selecione em qualquer lugar. Eu não adicionei a regra SSH, pois não faremos isso neste laboratório Se você planeja experimentar o SSH, precisa selecionar um pagador de chave e adicionar a regra SSH Agora configuramos o grupo de segurança para nosso modelo de lançamento. Em seguida, podemos adicionar a configuração dos volumes do EBS aqui. Vamos pular isso. Para este laboratório, podemos acessar o modelo de lançamento clicando aqui, mas não temos esses requisitos. Vamos pular isso também. Clique em Opções avançadas. Não precisamos alterar nenhuma opção aqui. Vá em frente e rabisque até o final da página. Você verá a opção de dados do usuário aqui. Aqui, podemos inserir os comandos que queremos executar quando nossa instância for iniciada. No laboratório anterior, instalamos o STTPD manualmente. Neste laboratório, adicionaremos nossos comandos nesta caixa de texto aqui Aws os executará automaticamente quando nossa instância for inicializada. Nos comandos a seguir, atualize. Isso serve para atualizar os pacotes padrão em nossa instância, instale o SttpDoy Esse comando instalará o STTPD em nosso sistema de instância, Inicie o STTPD. Esse comando iniciará o serviço stTPd nas duas instâncias do EC Esse comando na tela nos mostrará uma página STML personalizada Clique em Criar modelo de lançamento. Criamos com sucesso um modelo de lançamento. Clique para ver os modelos de lançamento. Você pode ver seu modelo de lançamento na lista agora. Vamos agora passar para o painel do Grupo de escalonamento automático. Clique em Grupos de escalonamento automático no painel esquerdo e clique em Criar grupo de escalonamento automático Insira o nome do pacote ASG e escolha o modelo de lançamento que acabamos de criar Observe que você também pode acessar a página Criar modelo de lançamento neste link aqui. Clique em Avançar, escolha a VPC empacotada e selecione envio público um e envio público dois Selecione quaisquer duas sub-redes padrão da lista. Se você não tiver sua própria VPC em sua conta, clique em Avançar Podemos adicionar um balanceador de carga ao nosso grupo de escalonamento automático diretamente desta página aqui, mas faremos isso posteriormente no painel do balanceador de carga Vamos pular isso por enquanto. Clique em Avançar, vemos três opções importantes e úteis. Capacidade desejada. Esse valor especifica o número desejado de instâncias que você deseja ter Vamos mudar isso para três. Em seguida, temos a capacidade mínima. Esse valor especifica o número mínimo de instâncias que você deseja que o grupo de auto scaling Se você tiver uma capacidade mínima de duas, AWS garantirá que você sempre tenha no mínimo duas instâncias. Vamos mudar esse valor para dois. Em seguida, temos a capacidade máxima. Esse valor especifica o número máximo de instâncias que você deseja que o grupo de escalonamento automático tenha quando for Se você tiver uma capacidade máxima de quatro, vamos alterar esse valor para quatro instâncias. Podemos adicionar a política de escalabilidade de rastreamento de metas selecionando a opção aqui para nosso exemplo. Posteriormente, adicionaremos políticas de escalabilidade simples ao nosso grupo de escalonamento automático Clique em Avançar, podemos adicionar uma notificação nesta página. Por exemplo, podemos criar um tópico de SNS que nos envia um e-mail toda vez que o grupo de escalonamento automático aumenta ou diminui Não temos esses requisitos Clique em Avançar, podemos adicionar uma tag aqui, vamos pular isso. Clique em Avançar, revise seu grupo de escalonamento automático e, em seguida, clique em Criar grupo de escalonamento automático Podemos ver nosso grupo de escalonamento automático listado com a capacidade desejada de três, capacidade mínima de dois e capacidade máxima de O status, portanto, atualizando a capacidade, já que temos a capacidade desejada de três e atualmente esse grupo de escalonamento automático não tem instâncias, ele tentará criar três instâncias C e duas para Você pode ver isso selecionando seu grupo de escalonamento automático e clicando na atividade Você verá três lançamentos de instâncias bem-sucedidos. Na coluna de causa, você pode ver que o serviço de grupo de escalonamento automático está tentando aumentar a capacidade 0 a 3. Antes de acessarmos o painel EC two e vermos nossas instâncias, vamos adicionar políticas de escalabilidade ao grupo de escalonamento Clique na guia de escalonamento automático. Ao lado da guia de atividades, você verá que não temos políticas adicionadas ao nosso grupo de escalonamento automático Vamos criar uma política de escalabilidade dinâmica. Escolha escalabilidade simples a partir do tipo de política e adicione o nome Adicione uma instância. Quando a utilização da CPU é menor do que escalonamento automático, o grupo precisa do alarme do Cloudwatch o escalonamento automático, o grupo precisa do alarme do Cloudwatch para rastrear a utilização da CPU. Vamos criar o alarme clicando aqui na página de alarme do CW Clique em Selecionar métrica, clique em dois. Para as duas métricas C, precisamos da métrica geral do grupo de escalonamento automático e não da métrica por instância para esse alarme Selecione por grupo de escalonamento automático e encontre utilização da CPU sob o Selecione a linha de utilização da CPU e clique em Selecionar métrica. Você pode ver o gráfico de utilização da CPU à sua esquerda. Queremos que nosso grupo de escalonamento automático cresça. A utilização da CPU é superior a 80%. Role para baixo e, na caixa de condição, selecione maior e insira o valor 80 Isso significa que nosso alarme será acionado quando o valor de utilização da CPU for superior a 80 Não precisamos alterar os outros parâmetros do alarme. Clique em Avançar, podemos adicionar notificações e ações nesta página, mas vamos pular isso por enquanto Adicionaremos uma ação de alarme na página do grupo de escalonamento automático Clique em Avançar, insira o nome e a descrição e crie o alarme novamente na página do Grupo de escalonamento automático Atualize a opção de alarme. Encontre seu alarme de aumento de escala na lista. Selecione o alarme na ação. Escolha adicionar uma unidade de capacidade. Isso adicionará uma instância ao nosso ASG toda vez que esse alarme for acionado Criamos nossa política de escalabilidade simples para ampliar a sala de escalonamento automático Vamos criar outra política para reduzir a escala. Clique em Criar política de escalabilidade dinâmica. Selecione Dimensionamento simples. Adicione o nome. Remova uma instância, quando a utilização da CPU for menor que 30 Também teremos que criar um novo alarme. Clique no link Criar alarme. Clique em selecionar Métrica. na métrica por grupo de escalonamento automático e selecione a métrica de utilização da CPU Desta vez, queremos que nosso alarme seja acionado quando a utilização da CPU estiver abaixo de 30% na caixa de condição do alarme Selecione menor e adicione o valor 30. Clique em Avançar, pule as notificações, adicione um nome e uma descrição e crie o alarme na página do Grupo de escalonamento automático Atualize, selecione o alarme. Escolha remover uma unidade de capacidade e criar a política. Vamos ver essas políticas em ação. Acabamos de adicionar uma política para reduzir quando a utilização da CPU estiver abaixo de 30%. Como não temos nenhuma carga de trabalho em nosso EC two, a utilização média da CPU estará abaixo de 30%, acionando Se você ver a guia de atividades do seu grupo de auto scaling, logo notará que a AWS reduziu a capacidade desejada de 3 a 2 e agora está encerrando Na seção de casos, você verá que isso ocorre porque acabamos de criar a política mesmo após a redução do nosso ASG Se você vê-lo na guia Cloudwatch, o alarme de redução de escala ainda está no estado acionado Isso ocorre porque ainda não temos processos em execução em nossas duas instâncias EC e a utilização da CPU é baixa Idealmente, a AWS diminuirá outra instância do nosso ASG. Porém, como especificamos a capacidade mínima como duas, a AWS não reduzirá sua instância AWS altera a capacidade desejada quanto às políticas de escalabilidade, mas nunca altera os valores de capacidade mínima e máxima Se você editar o grupo de auto scaling e alterar o valor mínimo da capacidade para um, em breve você verá outra instância encerrada Não façamos isso e mantenhamos nossas duas instâncias em execução. Acesse a página da instância no painel esquerdo. Podemos ver que temos duas instâncias no estado em execução e uma instância no estado encerrado Selecione qualquer uma das instâncias em execução e copie a página de endereços IP públicos dos endereços IP do navegador da instância. Você descobrirá que, embora não tenhamos executado manualmente nenhum comando na instância, ela tem o HTTPD instalado e em execução Agora, vamos criar um balanceador de carga do aplicativo e ver essa página da Web a partir da URL do balanceador de carga Clique em Load Balancers. No painel esquerdo, você pode ver que não temos balanceadores de carga em nossa conta no momento Clique em Criar balanceador de carga, selecione Application Load Balancer, insira o nome do Cloud Advisory A próxima opção é escolher se queremos um balanceador de carga interno ou voltado para a Internet balanceamentos de carga internos só podem ser acessados localmente na VPC Como queremos ver nosso site via ALV de qualquer lugar do mundo, precisamos selecionar a opção voltada para a Internet na caixa de rede Escolha a VPC e as sub-redes públicas na seção de grupos de segurança Vamos criar um novo grupo de segurança. Adicione o nome e a descrição. Selecione a mesma VPC das duas instâncias EC. E adicione uma regra STTP para permitir conexões STTP de Crie o grupo de segurança novamente na página do balanceador de carga. Atualize a opção de grupo de segurança. Escolha o que você acabou de criar. Alb precisa de algo chamado grupo-alvo. Um grupo-alvo é um grupo de duas instâncias C ou outros recursos em que o ALB encaminha suas solicitações Vamos criar um novo grupo-alvo clicando neste link aqui. Insira o nome do grupo-alvo e deixe os outros valores como padrão. Clique em Avançar, escolha suas Instâncias e adicione-as conforme pendentes abaixo. Clique em Target Group, de volta à página de criação do ALB. Reformule a opção Grupo de destino e escolha aquela que você criou agora Clique em Criar o balanceador de carga. Criamos nosso ALB com sucesso. Clique em Exibir balanceadores de carga. Agora podemos ver nosso balanceador de carga no console. Clique no balanceador de carga, poppy, no valor DNS e cole-o no Você pode ver a página do caminho e o endereço IP da instância que está atendendo à nossa solicitação. Como o balanceador de carga encaminha aleatoriamente nossas solicitações para as duas instâncias do EC, você verá que o endereço IP muda toda vez que recarregamos É assim que você implanta aplicativos da web no mundo real. Implantamos com sucesso uma arquitetura altamente disponível e escalável usando o grupo de escalonamento automático e o ALB Vamos agora excluir nossa infraestrutura. Para isso, acesse o console do grupo de escalonamento automático e exclua o grupo de escalonamento automático clicando em Ações Exclua o balanceador de carga na página do balanceador de carga. Exclua o grupo-alvo na página do grupo-alvo na página do grupo de segurança. Exclua todos os grupos de segurança, exceto o grupo de segurança padrão para suas VPCs Isso é tudo para esta sessão. Nos vemos na próxima. Ouça.