Governança e segurança de inteligência artificial (IA) 2023 | Taimur Ijlal | Skillshare
Menu
Pesquisar

Velocidade de reprodução


  • 0.5x
  • 1x (Normal)
  • 1.25x
  • 1.5x
  • 2x

Governança e segurança de inteligência artificial (IA) 2023

teacher avatar Taimur Ijlal, Cloud Security expert, teacher, blogger

Assista a este curso e milhares de outros

Tenha acesso ilimitado a todos os cursos
Oferecidos por líderes do setor e profissionais do mercado
Os temas incluem ilustração, design, fotografia e muito mais

Assista a este curso e milhares de outros

Tenha acesso ilimitado a todos os cursos
Oferecidos por líderes do setor e profissionais do mercado
Os temas incluem ilustração, design, fotografia e muito mais

Aulas neste curso

    • 1.

      INTRODUÇÃO DO CURSO

      4:36

    • 2.

      Visão geral de IA

      5:54

    • 3.

      Visão geral de aprendizagem automática

      2:48

    • 4.

      Necessidade de governança de IA

      5:27

    • 5.

      Vias em modelos de IA

      4:53

    • 6.

      Regulamentação de IA

      7:17

    • 7.

      Framework de governança AI

      5:54

    • 8.

      Riscos de segurança cibernética em IA

      11:11

    • 9.

      Framework de segurança cibernética

      7:16

    • 10.

      Muito adiante

      1:02

  • --
  • Nível iniciante
  • Nível intermediário
  • Nível avançado
  • Todos os níveis

Gerado pela comunidade

O nível é determinado pela opinião da maioria dos estudantes que avaliaram este curso. Mostramos a recomendação do professor até que sejam coletadas as respostas de pelo menos 5 estudantes.

140

Estudantes

2

Projetos

Sobre este curso

Inteligência artificial (IA) está causando mudanças maciças em nossas vidas, tanto no nível individual como societal com o mercado global de IA esperado para chegar a cerca de 126 bilhões de dólares americanos até 2025. Como cada vez mais tomada de decisão é tratada por sistemas de IA, novos e exclusivos riscos estão sendo introduzidos devido à rápida adoção de IA.

Governança e cibersegurança AI é um campo novo para muitos profissionais devido à (aparentemente) complexidade em torno dele. De acordo com o Guia de Mercado de Gartner para AI Trust, o Gerenciamento de Risco e Segurança A IA apresenta novos requisitos de confiança, risco e gerenciamento de segurança que os controles convencionais não abordam. Este curso inovador foi dirigido para cobrir esta lacuna de modo que profissionais de gerenciamento de riscos e especialistas em cibersegurança possam entender a natureza única dos riscos de IA e como abordá-los.

  • Você está interessado em aprender sobre os novos riscos que a Inteligência Artificial (IA) e o Aprendizado de Máquina introduzem?

  • Você quer saber como criar um quadro de governança e cibersegurança para IA ?

Se você respondeu SIM, então este curso é para você! Este curso foi especificamente projetado para ensinar você sobre os riscos de IA sem qualquer conhecimento prévio assumido. Nenhum conhecimento técnico dos sistemas de IA é necessário para este curso.

Com você curso você aprenderá :

  • Os principais riscos que os modelos de IA e Aprendizagem Automática introduzem e como abordá-los

  • Como criar um quadro de governança em sua organização para habilitar o gerenciamento de risco de IA

  • Os riscos de cibersegurança que os sistemas de IA introduzem e como lidar com eles
  • Como implementar controles de segurança em cada fase do ciclo de vida do Machine Learning

Vamos começar!

Conheça seu professor

Teacher Profile Image

Taimur Ijlal

Cloud Security expert, teacher, blogger

Professor

Habilidades relacionadas

IA e inovação Fundamentos da IA
Level: Beginner

Nota do curso

As expectativas foram atingidas?
    Superou!
  • 0%
  • Sim
  • 0%
  • Um pouco
  • 0%
  • Não
  • 0%

Por que fazer parte da Skillshare?

Faça cursos premiados Skillshare Original

Cada curso possui aulas curtas e projetos práticos

Sua assinatura apoia os professores da Skillshare

Aprenda em qualquer lugar

Faça cursos em qualquer lugar com o aplicativo da Skillshare. Assista no avião, no metrô ou em qualquer lugar que funcione melhor para você, por streaming ou download.

Transcrições

1. Introdução ao curso: Olá a todos. Bem-vindo a este curso. Sou seu instrutor timidilato. E obrigado por tomar a decisão aprender e entender sobre governança de inteligência artificial e segurança cibernética. Agora, a IA é um dos campos mais empolgantes em todo o mercado que está repleto de oportunidades e empregos. Você ouve falar sobre isso nas notícias, em todos os lugares, praticamente nas mídias sociais. Mais e mais pessoas estão querendo aprender sobre essa nova tecnologia. E a demanda por profissionais de IA está crescendo em todos os lugares. Agora, a IA é como um campo massivo e eu posso passar idades apenas falando. Mas o foco desse curso em particular é eu, governança e segurança cibernética, que é um tópico que muitas pessoas estão interessadas. Ele reúne dois dos mais quentes da atualidade, que é inteligência artificial e segurança cibernética. E eu sinceramente acredito que não há material suficiente presente sobre isso ou é, mas está espalhado por todo o lado. Você pode encontrar cursos sobre IA. Você encontrará perguntas sobre segurança cibernética, mas não há cursos suficientes ensinando a segurança de sistemas de IA. E espero que isso preencha essa lacuna. Se você não tem ideia do que é AIA e como funciona quando ninguém está, eu o guiarei pelo básico também antes de nos aprofundarmos governança das seções de segurança cibernética. Se você realmente quer aprender sobre as coisas básicas III e não está realmente interessado em saga vanish e cibersegurança. Eu tenho outro curso aqui que tece o básico da IA e praticamente ensina sobre IA e tanto a teoria quanto a prática. Se você quisesse apenas olhar para esse tópico. Quem é esse curso para caras, tipo, eu diria praticamente todos porque eu acho que todos deveriam saber sobre EI dado como isso está impactando o mundo e a sociedade ao nosso redor está tendo um impacto enorme em nós, certo? Então, em um trabalho como sociedade e você definitivamente deve saber tudo sobre isso, Você definitivamente apreciaria isso. Mas se você quiser deixar você olhar para isso, quero dizer, se você é um especialista em gestão de riscos ou governança, você definitivamente apreciaria este curso porque você já está nesse campo escrevendo avaliando o risco e você entende, se você estiver em segurança cibernética, você gostaria de saber sobre as visitas de IA e como atenuá-las. Se você estiver no próprio campo de IA, como se fosse um cientista de dados ou seu engenheiro de aprendizado de máquina. E você quer aprender sobre os riscos potenciais e quer entender o que eles são , então definitivamente este curso é para você. Às vezes você tem visão de túnel e não tem a visão geral da tecnologia em que estamos trabalhando. Por fim, eu disse que qualquer pessoa interessada em IA, não há pré-requisitos para este curso. Quero dizer, você não precisa ter um PhD em matemática, como uma programação Python ou algo assim. Não. O livro é praticamente para quem quer saber sobre IA e quais são os riscos em torno dele? Quais são os tópicos que vamos abordar, pessoal? Esses são os tópicos que abordarei brevemente sobre a IA e o impacto que ela está tendo nos seres humanos, na sociedade e por quê. Faremos uma visão geral rápida do aprendizado de máquina. Ele está instalado. É importante saber porque é aí que vem a maior parte do resgate e é o subcampo mais popular em inteligência artificial. Então, na verdade, entramos na carne do curso. Veremos por que a governança e a gestão de riscos o elevam tão importante e como criar um quadro de governança particularmente . Em seguida, teremos um pouco mais de instrutor técnico compreendendo os riscos cibernéticos exclusivos dos sistemas EHR e como criar uma estrutura de segurança cibernética personalizada para inteligência artificial. Agora que você sabe, espero que um pouco sobre o curso, pouco mais sobre mim para que você saiba quem é seu professor, quem está ensinando você. Meu nome é femoris long. Estou no campo InfoSec há cerca de duas décadas. Atualmente estou sediado no Reino Unido, onde estou me movendo de repente depois de passar uma década nos Emirados Árabes Unidos. Sou escritora publicada porque sempre gostei ensinar e basicamente criar uma veia. Trata-se de tecnologias novas e empolgantes. Tenho um canal do YouTube chamado Cloud Security Guide, focado especificamente na segurança da nuvem e riscos de IA e senhores, conselhos de carreira. Então, Blues, visite e inscreva-se lá se você estiver interessado lá. Então, sim, isso é praticamente sobre mim pessoal. Uma coisa para este curso é o projeto. Agora, eu gostaria que você aplique o conhecimento que você obtém neste curso. E eu quero que você crie um modelo de ameaça para aplicativos baseados em IA. E acredito firmemente que o conhecimento não aplicado é esquecido. Você aprenderá como criar um modelo de ameaça nas seções futuras. E eu quero que você use o conhecimento de rede e o modelo de cabeça de cetonas de um sistema de IA. Pode ser um habilitado como comumente usado, eu recomendaria como veículos autônomos. Ouvimos muito sobre isso. Pegue os princípios que você aprendeu neste curso e aplique-o e crie uma avaliação de risco de ameaças de veículos autônomos. Deixe-me saber para que eu possa receber meus comentários, tudo isso também. Isso praticamente o encerra, pessoal, espero ter dado uma boa introdução sobre este curso. Vamos começar a aprender sobre IA e como governá-la e protegê-la. E eu vou te ver na próxima seção. 2. Visão geral da IA: Oi pessoal, bem-vindos a esta seção. Antes de entrar na governança e na gestão de riscos, eu queria ter um mais rápido com certeza, mas é útil saber o que você está garantindo, o que você está governando antes de começar. Se você já é como um especialista em IA e já relevante o aprendizado de máquina e IA. Você não precisa de uma atualização. Então, por todos os meios, pule esta seção. Mas sempre fui recomendo que você fizesse conceitos básicos refrescantes. E às vezes você pode ficar um pouco amarrado nos detalhes e esquecer o quadro geral. Qual é o especialista em Inteligência Artificial IA, a pessoa que é chamada de pai de John McCarthy. Em 195060 organizou uma conferência muito famosa chamada conferência de modo escuro. Em sua palestra, ele cunhou o termo inteligência artificial e ele o definiu como a ciência e engenharia de fazer máquinas inteligentes. Basicamente, o que isso significa? Os sinais de problemas, como eu disse, os sinais de sistemas de computador serem capazes de realizar tarefas apenas com humanos fazem como reconhecimento de fala, reconhecimento visão, decisões inteligentes, processamento de linguagem. Por que precisamos fazer isso? Você pode perguntar, ok, bem, por que os seres humanos estão lá? Por que eu iria querer que uma máquina começasse a fazer essas coisas? Isso parece um pouco assustador. Mas honestamente pessoal, a quantidade de dados, dados gerados hoje por humanos e máquinas, supera em muito a capacidade humana, a capacidade dos seres humanos de absorver e tomar decisões com base nisso, a inteligência artificial é praticamente como formar a base para todo o futuro aprendizado de computador é o futuro de todas as tomadas de decisões complexas. E veremos o porquê, por que é realmente não viável ter seres humanos continuem fazendo isso. Se você já interagiu com um EA. Se você gostou de um site e viu um chatbot aparecer e começar a falar com você. Essa é uma forma muito básica de IA. Seu computador executando uma forma especializada de IA. Que ele não é capaz de responder à sua pergunta. Você vê que fica, então você obtém um ser humano auditivo que comunica estratégia com uma pessoa só para lhe dar uma ideia de se você está usando a Netflix. Você realmente gosta de como a matriz personaliza os filmes que o recomenda , então isso é aprendizado de máquina e físico real como se tivesse bilhões de usuários usando-o a qualquer momento. E como eu disse, como não é viável que os seres humanos comecem a fazer isso. Como você acha que regula o discurso de ódio na plataforma ou materiais inapropriados? Você consegue imaginar o custo de proteger monitorar todos esses seres humanos? É por isso que eles têm mesmo no EIA para detectar e remover o alcance dos quadris de sua plataforma. Toda vez que você sabe, você parecia toda vez que você usa uma cidade do Excel e do que você chama e você está usando esses brancos assistidos, assistência baseada em voz sempre que cometer um erro. O que você chama Alex? Nossa cidade não é capaz de entender o que você está dizendo. Em seguida, ele usa esses dados e começa aprender com base nisso, e aprende com eles. Portanto, isso é IA em ação. Basicamente, o aprendizado de máquina de IA é praticamente responsável pelo crescimento explícito da assistência em espaços em branco, você sabe, assistência de voz digital porque eles aprendem a continuar aprendendo com base no que eles são compreensivos e baseados nisso, melhora cada vez mais impacto do porquê de repente se tornar um grande negócio. Sabe, você bate em qualquer um, ei, todas as vezes que o RDA está chegando está mudando tudo. Tudo isso. Por que, Por que ele está realmente se tornando um grande negócio? Bem, só para colocar em contexto, um é chamado de Quarta Revolução Industrial. O que isso significa? Bem, nós tínhamos a evolução da indústria, como os seres humanos estavam vivendo, e isso teve um enorme impacto. Temos ciência a vapor e tecnologias digitais. As três primeiras revoluções industriais, que acabam de vir dessa sociedade moderna. Como se você quiser realmente voltar atrás, as pessoas descobriram que, então você aquece as coisas, então você tem energia e ela é transmitida. Para o advento dos motores a vapor. vapor estava alimentando tudo. Da proteção agrícola, monitoramento da fabricação. As pessoas costumavam morar em farmácia e dobrá-las fabricação baseada em esquema aconteceu. As pessoas começam a se mudar das fazendas para as cidades e, mais especificamente, para a fábrica. Mas a vida na fábrica era muito difícil, certo? Os trabalhadores da fábrica eram baratos e abundantes e eram pessoas que usavam longas e longas horas e condições muito inseguras. Então, o que aconteceu? automação veio a produção em massa muçulmana, notavelmente a linha de montagem, a linguagem de montagem vai, as pessoas estão sentadas lá colocando coisas lá, você veria, certo? Isso aconteceu, a produção em massa começou a acontecer, automação. E essa foi a Segunda Revolução Industrial. Depois disso, o fato de você estar sentado aqui e falando comigo em um computador na Internet. Essa é a taxa de revolução digital. Você está aproveitando a nuvem, a internet e resume um dispositivo portátil com dispositivo digital. Todos esses são basicamente a Terceira Revolução Industrial porque passamos do analógico para o digital. Então isso lhe dá agora que você entende o quão grande é, por que ela foi chamada de Quarta Revolução Industrial. Porque com base em mais e mais coisas estão sendo descarregadas para computadores e o reino e as decisões e eles estão dando, receberam cada vez mais, o que você chama isso de coisas importantes para fazer? Todas essas divisões industriais, representamos mudanças muito grandes. Como um nível de sociedade realmente honesto. A vida passou da fazenda para a fábrica. E as pessoas gostam de pessoas que começaram a automatizar cada vez mais coisas. É por isso que são coisas tão importantes, como eletricidade e produção em massa. Então é assim que é grande. Bom. E por que certamente aconteceu agora você pode dizer como, por que você está nos últimos dois anos? Mas dois motivos muito simples, aumentando o poder de computação e aumentando a capacidade de dados. Agora, a IA precisa de muito poder computacional. Não era viável honestamente. Quero dizer, você pode ver, como eu disse, John McCarthy mencionou isso em 1956, mas recentemente não tinha esse poder de computação. Agora, com coisas como a computação em nuvem, os computadores se tornaram tão poderosos que conseguem processar esses dados. A segunda coisa são dados. Simplesmente não tínhamos muitos dados porque aprendizado de máquina requer uma enorme quantidade de dados. E é por isso que você precisava dessas duas coisas que são necessárias agora, temos zettabytes de dados disponíveis mais o custo de armazenamento caiu. Estas são as duas coisas que realmente têm pobreza e pobreza I, e levam à quarta revolução industrial. Espero que você tenha entendido que esse cara está tendo um impacto tão grande no que é IA. Agora vamos ao principal que é o aprendizado de máquina, sobre o qual falarei na próxima seção. 3. Visão geral de aprendizado de máquina: Olá a todos. Bem-vindo a esta seção, que é pessoal de aprendizado de máquina. Não é aprendizado de máquina. É praticamente como o motor que impulsiona o olho. E é definido como a capacidade das máquinas aprenderem com os dados. E você basicamente ensina um computador a fazer algo sem programar para dsolve. E atualmente é o subcampo mais desenvolvido e promissor da IA para indústrias como governos e infraestruturas. E é o subcampo mais comumente usado como IA em nossas vidas diárias. O que são caras de aprendizado de máquina? Como eu disse, basta colocar programas de computador. Sabe, eles não são inteligentes no sentido real da palavra. Eles têm um conjunto de instruções codificadas como pegam dados e produzem saída, e não podem sair disso. Pegue uma calculadora, por exemplo, quando o esquema de culpabilidade ou eles pareciam mágicos, certo? Você está colocando números no interesse dizendo a você. Mas no final do David está apenas pegando entradas e processando-as e dando a você nada mais. No aprendizado de máquina, o que acontece é que ele pega dados que você está aprendendo e aprende com eles. Ele é alimentado em um algoritmo para criar um programa. E basicamente aprende com base nesses dados. Então, vamos tomar, só para dar um exemplo, é assim que o aprendizado de máquina funciona. Basicamente, você fornece a um computador muitos e muitos dados. É chamado de dados de treinamento. Então você dá a ele um algoritmo para entender esses dados. O que a máquina faz? Ele pega os dados, pega um algoritmo e, em seguida, cria um modelo que usaremos para prever algo que ainda não aconteceu. Agora, o que você faz? Então você os alimenta dados reais e verá o que ele faz? Faz uma previsão, previsão correta ou produção errada? Agora, com base nisso, se estiver correto, maravilhoso, você alimenta mais dados para mostrar que a precisão aumenta. Se estiver errado, então você volta para entreter, mais treinamento, mais treinamento para. Você. Basicamente, mantenha o algoritmo várias vezes até que a saída desejada esteja boa. O que está acontecendo? A máquina está basicamente aprendendo em uma pedra e os resultados se tornarão cada vez mais precisos ao longo do tempo. É assim que o aprendizado de máquina é diferente do sistema de computador normal. Então, apenas para lhe dar um exemplo melhor, este é o nosso tradicional pode prever programas usados para funcionar corretamente? Você tem entrada, você o colocará em um algoritmo e, em seguida, uma saída sairá. É assim que pode prever que os resultados funcionem. Então, o aprendizado de máquina é assim. Você já tem entrada e saída e dá aprendizado de máquina a eles. Você tem um algoritmo baseado nisso. Ele pega a entrada e olha para a saída. E com base nisso, ele cria um modelo digital usado para tomar decisões futuras sobre essa entrada que está chegando, é aprender por si só. É assim que é diferente da programação normal que costumava acontecer. Ok pessoal, agora, nós abordamos esse tópico. Espero que tenha sido uma boa atualização para você. Tínhamos um antigo com IA e por que ela se tornou tão proeminente hoje em dia. E também tivemos uma visão geral do aprendizado de máquina. Aprendemos como o aprendizado de máquina funciona e como ele toma suas decisões. Acredite ou não. Agora você tem o conhecimento fundamental que precisa agora para entender sobre governança e gerenciamento de IA. Espero que isso tenha sido útil pessoal. E eu vou te ver na próxima seção. 4. Precisa de governação de IA: Oi pessoal, bem-vindos a esta seção. E aqui começamos a entrar na carne real do curso, que são os aspectos de governança e gerenciamento de riscos da IA. A primeira pergunta é, por que caras? Por que você acha que a IA precisa ser governança e taxa de avaliação de risco? Se você trabalha em uma empresa como eu, saberia que a maioria das empresas já tem esses departamentos de gerenciamento e estruturas de governança em vigor. Por que precisamos de algo diferente para a IA? Bem, a resposta simples é que o EI introduz certos novos tipos dos quais não estavam presentes antes. Acho que como um disruptor é que a tecnologia disruptiva, ao contrário da maioria dos disruptores, tem que ser abordada e mitigada explícita de uma maneira ligeiramente diferente. Devemos dar uma olhada quando você perguntar pessoas quais são os principais riscos nos sistemas. Muitas pessoas estão falando sobre IA, como Elon Musk, Bill Gates e tudo isso e como eles podem nos afetar negativamente, certo? Quero dizer, se você falar sobre o resto, eu só, eu mencionei alguns deles. Temos preconceitos e modelos de inteligência artificial e compromissos de segurança. Vou falar sobre o 2D superior em uma seção completa. Não vou gastar muito tempo nisso. Mas se você está falando sobre privacidade, você tem essas tecnologias de reconhecimento facial. Acho que muitos países estão implementando reconhecimento facial com base no olho. E eles podem armazenar os dados de muitos riscos de privacidade. Você tem coisas como a taxa fixa que você teria visto, vá para o YouTube e coloque D Fig. Você verá como vídeos absolutamente precisos de pessoas como Tom Cruise, Morgan Freeman. Você não vai acreditar em quão preciso é que realmente assusta as pessoas. Como saberemos o que é real e o que não é certo? E se você quiser voltar para máquinas autônomas, falarei mais sobre isso. Basicamente, coisas que estão funcionando completamente sem qualquer intervenção humana e as pessoas ficam assustadas de que uma dessas máquinas começou a dominar o mundo ou algo assim. E uma interrupção de trabalho muito mais prática. Ai, como eu disse, a vai assumir muitas das coisas que os humanos costumavam fazer. Muitas coisas que vão conseguir coisas mundanas automatizadas que são humanas verbalmente não precisam muito disso. Obviamente, o anti-elétron faz isso vai ser terceirizado para IA, vai assumir o controle e muitos empregos vão embora. 100%, quero dizer, sem qualquer dúvida. Mas muitos deles serão criados de todos os tipos. É por isso que é tão importante investir em seu futuro e investir em IA. A última semana pode ser um pouco estranha, mas sim, o fim do mundo, como pessoas que vêem filmes como determinador, como matriz ou algo assim. Eles acham que as máquinas vão dominar o mundo. Mas, felizmente, ainda não chegamos a esse ponto. Mas ainda é algo como muitas pessoas dizem que máquinas que nos tornaremos senciências, certo? Você vai começar a dominar o mundo e tudo mais. Mas honestamente a pelve com contextos muito mais práticos. Vamos dar alguns exemplos também. Quando falamos sobre os riscos e algo que aconteceu alguns anos atrás, como 2016. Toolbox, que a Microsoft está descrevendo na Microsoft começou como um entendimento conversacional do experimento. Quanto mais você conversar com este quadro, ele era chamado de inteligente que ficaria e começamos a nos envolver com as pessoas muito casuais e conversas de Clifford. Ele foi projetado para aprender apresentações e pessoas híbridas no Twitter. Infelizmente, o que aconteceu em algumas pessoas decidiu alimentá-lo como essa informação ofensiva do sistema. E a Microsoft realmente teve que se desculpar por isso porque esse quadro-negro era voltado para crianças de 18 a 24 anos nas redes sociais. Foi alvo de um ataque coordenado de um subconjunto de pessoas e eles começaram a alimentá-lo como informações realmente ofensivas. Então, não fizemos 24 horas, tinha que ser desativado. A Microsoft teve que, na verdade emitir um pedido de desculpas pelo doloroso aborrecido. Isso foi dar um exemplo. Digamos, nós realmente percebemos como a IA poderia completamente fora de controle. Essas pessoas exploraram sobre a luminosidade que estava lá. Eles disseram que não vamos simplesmente não estar preparados com esse tipo de coisa que poderia acontecer e você poderia alimentá-lo como coisas inapropriadas e ele começará a alimentá-lo. Então eles disseram que continuarão definindo isso. Mas isso é como um exemplo simples do que aconteceu quando você não levou em conta o que possivelmente poderia acontecer. Ok, esse foi um exemplo um pouco sem-teto. Vejamos algo que é cara assustador do VMO, que é armas autônomas, quaisquer que sejam armas autônomas, basicamente os pinos que selecionaram e portões alvos sem intervenção humana. Como, você sabe, helicópteros armados, eles podem procurá-lo. E como dividendo ilimitado, atendendo certos critérios e tudo o que as pessoas estão olhando. Um EIS, infelizmente, como ele apenas diz electro, chegou a um ponto em que a implantação do sucesso é praticamente prática dentro alguns anos, não décadas. Essas coisas foram descritas a próxima revolução na guerra, coisa muito assustadora e muitos argumentos foram feitos. As pessoas viram, as pessoas disseram que, ok, o que acontece, essas coisas não saíram e nenhuma vítima humana acontecerá, certo? Mas e se alguém for capaz de manipular isso, você sabe, como a interrupção e assumir isso e começar a zumbar as pessoas. É por isso que é tão perigoso. Então isso é y. Mais de 30 mil. Tenho pesquisadores de vértice e outras pessoas decidiram uma carta aberta sobre o assunto. E 2015, eles disseram que não queremos que isso aconteça. Por favor, não invista nesta pesquisa na verdade, mostra alguns dos aspectos mais assustadores que podem acontecer e exibir. Ela se tornará como uma IA quase sempre. É por isso que é tão importante ter regulamentos. Tão importante ter a governança da IA em vigor. Eu só queria mostrar que isso era como, eu mostrei um exemplo um pouco bem-humorado e isso foi como um exemplo mais assustador que você pode dar uma olhada. O dispersante, faça extremos opostos, não, vamos dar uma olhada em um real, como a IA pode realmente impactar negativamente as pessoas são casos de preconceitos e preconceitos de IA, que vou entrar no próximo seção. 5. Viés em modelos de IA: Oi pessoal. Nesta seção vamos falar sobre preconceitos e preconceitos de IA. Então, na seção anterior, vimos uma mãe, um exemplo engraçado e o pior cenário, o engraçado continua no Microsoft Word e autônomo porque era como o pior cenário. Agora vamos dar uma olhada em um exemplo da vida real como um SI de preconceitos e preconceitos de IA. Então, agora acredite ou não, os módulos podem ser tendenciosos contra um determinado sexo, idade. Se esses dados não forem colocados corretamente dentro do módulo, porque os humanos são seres humanos em particular inconscientemente ou conscientemente. Talvez tenhamos que ser tendenciosos para uma determinada raça ou cor ou algo assim. E ele pode alimentar os dados que estão sendo usados para treinar modelos de aprendizado de máquina. E isso pode realmente levar a decisões erradas que tomamos que podem afetar sua saúde. Fomos tudo. Assim, à medida que as organizações estão substituindo cada vez mais algoritmo de tomada de decisão humana por algoritmos, elas podem assumir que esses algoritmos, eles não são tendenciosos. Mas, como eu disse, esses algoritmos refletem o mundo real, certo? O que significa que eles podem, sem querer, levar esses vírus porque resultados incorretos podem realmente arruinar a vida de alguém. Então, vamos dar uma olhada neste artigo de notícias, que é o público de estudo eletrônico publicado pela primeira vez na Science Magazine, descobriu que o algoritmo de saúde, como se fosse usuário em 200 milhões de pessoas em os EUA. Foi tendencioso contra uma determinada raça porque estava determinando quem precisa de mais cuidados médicos. Infelizmente, era como uma polaróide, acho que pessoas brancas acima de outras pessoas. E porque meu destacamento, na verdade estava negando pessoas que poderiam realmente precisar de atenção médica porque os dados não foram alimentados em milhões e bilhões de negros foram afetados por um problema Bye neste algoritmo de saúde específico. É por isso que é tão importante garantir que isso não aconteça porque pode realmente ter efeito real na vida real nas pessoas. Então, vamos olhar para o real, Agora vamos ver isso. Vejamos um exemplo em detalhes. Bússola. Quero dizer, eu não sei se você está familiarizado com isso porque isso estava no noticiário por algum tempo. É chamado de Perfilamento de Gerenciamento de Infratores correcional Perfilamento de Gerenciamento de Infratores para sanções alternativas, acredito que competência. Era um sistema de aprendizado de máquina usado para os Estados Unidos nos tribunais. O que isso faria, preveria que alguém recomendaria um crime ou não. Sabe, quando pessoas que receberam penas de prisão, isso realmente lhes daria uma classificação baseada em como, quanto de chance essa pessoa recomendar um crime. Novamente, o juiz estava realmente usando essa leitura para atribuir tempo de prisão, descobre, você sabe, o que quer que esteja acontecendo é como pessoas, espero que uma raça particular tenha sido vista quase duas vezes mais provável que os brancos para ser rotulado de alto risco. E apesar do fato de que eles não entregaram computação muito pequena traduziu crimes completamente inofensivos. E o resultado oposto foi impulsionado por pessoas brancas. Então eles receberam segurança de baixo nível, apesar do fato de terem antecedentes criminais e eles são como uma alta probabilidade de serem seus amigos. É por isso que era tão perigoso e funciona. Foi levado em vigor, levando em conta muitas coisas como dados que vão para a idade e o emprego e tudo mais. E com base nisso, foi atribuir essa coisa física. É por isso que, infelizmente, as pessoas têm um particular são incorretamente rotuladas como de alto risco para vir no futuro crime duas vezes mais do que os brancos. Até a empresa negou. Mas infelizmente os resultados, particularmente, se você pode ver isso grosso, vamos dar uma olhada, quero dizer, todos eles porque eles podem enganchar. Mas o exemplo do meio é bem engraçado. Visual Bowden, ela havia cometido como um pequeno roubo, meu um discriminador, e quando ela era juvenil. E o outro cara mais adiante, ele era um criminoso muito mais experiente. Ele teve pena de prisão por assalto à mão armada e outras acusações. Mas de acordo com o campus e as pontuações eram de baixo risco e a borda visual era de alto risco. E dois anos depois, a capital vai responder fez uma previsão errada porque ambos os bispos de embarque ordenaram não cometeram novos tipos. E Theta, por outro lado, ele estava cumprindo sentença ETS para raça geral. Agora espero que você entenda que você pode dar uma olhada em outros exemplos também. Mas agora espero que você entenda como IA pode realmente perpetuar injustiça existente e preconceitos antenas sem querer fazer com os dados que são alimentados nela. E, na próxima seção, vamos dar uma olhada em quais princípios podemos colocar para impedir que isso aconteça. Isso nos leva ao fim de toda a seção de governança, o, o que ele chamou de seção de riscos. Analisamos os riscos que estão presentes no olho do que você chama de alguns exemplos de IA dando errado. Os perigos de continuar o pior cenário e o estudo de caso do viés. Então você pode ver que existem todos os tipos de cosseno i e o cheque completamente diferente do Ocidente, que normalmente estamos acostumados aqui. Então, agora vamos dar uma olhada em quais outras medidas e controles podemos implementar para garantir que esses sistemas de IA não tenham esses riscos e como mitigá-los na próxima seção. Obrigado. 6. Regulamentos de IA: Oi pessoal. Bem-vindo a esta seção, que agora que temos um bom entendimento fundamental sobre a IA e quais são os riscos e problemas que podem causar. Agora vamos dar uma olhada em alto nível como você cria uma estrutura de governança para I. Então, basicamente, temos uma estrutura de controle. Desejo que a estrutura de gerenciamento para a IA seja implementada. Como vamos sobre isso? Esta seção inteira vai se concentrar nisso agora. Portanto, o primeiro passo são disfarces, regulamentos e padrões. Agora, o primeiro passo é que ninguém gosta de regulamentos. Porque os regulamentos parecem burocracia. As pessoas têm que preencher formulários e você não está em conformidade com centenas disso, não foi ninguém assim. Felizmente, na verdade, não. Infelizmente, devo ser regulado para nos proteger e usar a tecnologia sem manipulação e viés. Falamos sobre a IA ser tendenciosa em sua última seção. Agora, a melhor maneira de garantir que ele não seja tendencioso e as regras são as estimativas que os regulamentos estão lá. O fato triste é que as empresas geralmente se concentram mais nos lucros e essas coisas não vão dar uma prioridade apropriada. Queríamos dar uma olhada nas colisões yada antes de tudo, porque B é central para relaxar para tudo. E vamos dar uma olhada no cenário regulatório da IA, que é a regulamentação mais importante, regulamentação EIA atualmente a caminho. Como eu disse, a necessidade de regulamentos. Ele precisa de regulamentos para proteger a si mesmo e seus usuários do uso indevido interno e externo. E os governos estão usando a IA para tomar decisões rápidas que podem ter um enorme, isso pode afetar sua saúde, sua vida. Como uma enorme quantidade de diferenças que podemos fazer? E você vê como decisões erradas, decisões injustas podem acontecer, o que pode como vimos, que as pessoas foram privadas de cuidados médicos, pessoas foram presas. Todos esses. Então, se você tem regulamentos, temos responsabilidade, direitos humanos. Ele envia, estabelece padrões mínimos de tratamento que todos podem aceitar. Diz que todo mundo tem o direito de remediar se esses padrões não forem atendidos, então você pode realmente documentos que devem garantir que os padrões que estão presentes e qualquer um tão grande, tão padronizado responsabilizado. É por isso que é tão importante. O país. O engraçado é que não existe uma legislação específica especificamente projetada para regular a IA está sendo regulada pelos regulamentos existentes, como dados, proteção ao consumidor. E esses foram passados para regular. E os governos estão trabalhando duro e rápido nisso. Mas nenhuma legislação foi aprovada corretamente na China colocou estratégias semelhantes, o porto USS na Casa Branca como uma filmagem, em seguida, precipitantes para a regulamentação da IA. E é como se a maioria dos países estivesse se concentrando nisso. Eu queria me concentrar na regulamentação que se espera ter o maior impacto em todo o mundo nesta tecnologia em particular. O global, como eu falei, uma grande quantidade de trabalho está sendo feito. O mais ambicioso propõe alguns até agora é do pai do cara da União Europeia para viajar e você age no ano passado em abril de 2021. É a primeira proposta de computação do mundo para regular a IA. E isso terá um impacto enorme, acredite em mim, no limite da IA e como as empresas, tanto de pequena escala quanto start-ups, grandes gigantes da tecnologia, sabem como podem usar a IA. É muito interessante. Ela ocupa a abordagem espacial. Não proíbe, não diz todos AAs bons. Então, ele assume a abordagem espacial e torna ilegal o uso de A4, o violoncelo, propósitos inaceitáveis como reconhecimento facial e usá-lo para o que ele chamou de escala social. Você pode classificar as pessoas com base em um sistema imunológico confiável que pode explorar pessoas. É por isso que a regulamentação dos EUA ainda é importante. Mas por que você acha que estou focando nisso mais do que todos os outros regulamentos que existem e o que torna este especial? Bem, basta colocar caras, geralmente regulamentos da UE, o fim definindo o padrão para o resto do mundo. Não é nada concreto. Mas geralmente foi isso que aconteceu. Qualquer pessoa que tenha trabalhado no GDPR, dados privados sinalizam que você divulgou um regulamento sobre GDPR e quase todos os outros regulamentos do mundo, todos os outros governos, eles praticamente apenas adaptou o GDPR para seu ambiente específico. É por isso que é tão importante porque o regulamento da EIA, vai dar o tom para o resto das empresas. Em qualquer empresa que trabalhe na ONU, mesmo fora dos números, veremos. É por isso que é tão importante realmente saber sobre essa parte interessante disso, o escopo dela. Por isso, tem um escopo territorial extra. É como o GDPR. É como se estendesse para fora dos órgãos da UE. Qualquer provedor colocará o sistema de IA no mercado. Você, claro, definitivamente vai na escola. Mas se você é como seu provedor ou usuário, eles estão localizados fora, mas seu sistema de saídas está sendo usado na UE. Então, novamente, ele estará no escopo, um escopo muito amplo. E isso, sim, seus sistemas podem ser potencialmente puxados para dentro dele. Então, está no pipeline e gravidade que chamamos a coisa mais importante que queremos ver é esta. Como eu disse, como ele categorizou os riscos? Em vez de optar por um cobertor, uma proibição completa ou permitir completamente. Ele usou uma abordagem espacial baseada em alguns níveis, como um aceitável em relação ao baixo risco da Kiva. Assim. Quanto maior o risco e mais o que chamamos vai colocar mais restrições e mais controles em cima disso, as obrigações motoras sobre a empresa. Verifique se o algoritmo transparente e as dificuldades relatadas não estão sendo usados. Sistema hidrosfera inaceitável, eles simplesmente se ligam para que nem sequer tenhamos que pensar nisso, eu acho que você é a lua? O foco principal desta regulamentação está em sistemas de IA em hiperescala. E eles estarão sujeitos a obrigações significativas de conformidade de monitoramento técnico. Se você está de baixo risco e você só precisa ser transparente sobre isso. Só temos que informá-los. Quais são os sistemas de alturas de que estamos falando? Quero dizer, isso pode ser como sistemas de transporte que podem colocar a saúde e a vida das pessoas abordar ótimos sistemas educacionais que podem determinar quem tem acesso à educação. Como examinar a pontuação do exame. Como cirurgia robótica. Os funcionários gostam de escalar empregadores para o seu trabalho atrasado, o que pode ter um impacto em quem é contratado ou não. Como pontuação de crédito, aplicação da lei, migração, todas essas coisas. É aqui que sua altura SKA cai e avaliação da conformidade de vídeo vem em bits. Estou falando sobre o que é a avaliação de conformidade? Só para entender isso. Mas confirmado com esses SNPs basicamente, é como se você pudesse dizer segunda auditoria, sistemas de alto risco, eles precisarão passar por avaliação de conformidade. Basicamente, o que acontece é ele passa por significativos como as avaliações atrasadas se a precisão na qual a qualidade da documentação técnica, todo o sistema é avaliado, ou seja, cumprindo o regulamento. Acontece se ele passar, então você obtém uma certificação da UE. É semelhante ao registro de dispositivos médicos, que já estão lá na UE. Pode ser feito por si mesmo, pode ser uma autoavaliação. Mas se for como alguns sistemas que são mais sensíveis, então você precisa que um terceiro especialista venha como um completamente indiferente na regulação das necessidades para entrar. Vamos dar um exemplo de uma biométrica. Então você tem um sistema AAC usado para identificação biométrica por terceiros terá que entrar. A colisão entra em mais detalhes aqui. Mas só para fazer você entender agora e depois, mesmo depois de passar na avaliação de conformidade e algumas mudanças acontecerem, isso terá que acontecer novamente. É muito poderoso, é como você pode ver, é como uma auditoria de todo o ecossistema, como está funcionando, quais são as regras e tudo o que você não teria que colocar em jogo. Então, espero que isso faça você entender que tipo de estrutura regulatória está sendo planejada para sistemas de IA. Agora, você entendeu os regulamentos que estão em vigor e chegando. Vejamos o modo agora seu quadro de governança para IA na Irlanda. Vejo vocês na próxima seção, pessoal. 7. Estrutura de governação de IA: Oi pessoal. Nesta aula, vou dar uma olhada na estrutura de governança da IA. Agora, falamos sobre as leis, regulamentos e tudo mais. Agora, enquanto uma regulamentação abrangente e exequível surgirá, mas vai levar algum tempo. Mas, enquanto isso, as empresas não podem simplesmente sentar e esperar que essas coisas cheguem. Um novo lugar onde você precisa ter algum tipo de oi pessoal. Nesta aula, vou me concentrar na estrutura de governança. Agora, falamos sobre revoluções da EA na classe anterior. Falamos sobre como essas leis estão chegando, que tipo de mandato controla para ser IA portátil. E a coisa é que a Visa vai levar algum tempo. Você não pode esperar que as empresas se sentem e esperem que algo aconteça. Portanto, as empresas são obrigadas a colocar estruturas de governança semelhantes para se certificar porque você liga e muitas empresas já estão trabalhando lá para colocar estruturas de governança em vigor. Especialmente em países onde muito trabalho vem acontecendo com IA. A empresa deve ser proativa. E eles precisam ter um famoso no lugar para mitigar os riscos únicos que inteligência artificial está sendo implementada antes de você começar a jornada da IA, certifique-se de ter essas coisas no lugar. O que está falando? Então, se você olhar para ele de um nível muito alto, a governança eletrônica de Meca, independentemente do setor em que você esteja, independentemente da tecnologia que você está usando? Como qualquer coisa. Isso é agnóstico de tecnologia, algoritmo agnóstico e tudo o que eles falam para partes gerais de um tecido. Quando é a política? Então, basta sentar-se para saber como você não tem controlado a organização de órgãos. Quais são os princípios gerais que você tem e como ele será controlado? Quais são as coisas no lugar? Em seguida, você precisa informar o comitê. Serão pessoas das equipes de dados, das equipes de tecnologia, de suas equipes de segurança, de suas equipes de gerenciamento de riscos. Para que a estrutura seja implementada como um controle adequado da IA. E é obviamente uma solução que eles sabiam que tomam decisões. Portanto, há uma decisão de ir, sem ir sendo tomadas em iniciativas iniciais, movendo-se um pouco. Mas abaixo disso, você tem uma estrutura de gerenciamento de riscos. Isso identificará quais são as visitas críticas, que são o Arrhenius. Que tipo de é, como levamos todos esses espaços como uma segurança cibernética, seja como viés de integridade. Todas essas coisas levarão à conversão em IA, essa estrutura de gerenciamento. E, por último, princípios, estes serão em toda a empresa. Então, IA basicamente para garantir que ele esteja funcionando corretamente. Portanto, princípios de confiança, integridade, explicabilidade, justiça e resiliência. E falaremos mais sobre isso. Eles basicamente ajudam você a ter certeza de que você está governando adequadamente a organização. E eu entro em mais detalhes sobre isso. Mas isso é basicamente um benchmark de alto nível, de alto nível, como uma estrutura esquelética de como implementar a governança. Se você sentir esse nível muito alto e se sentir bem, preciso de mais detalhes sobre isso. Como eu realmente coloco minha governança na minha organização? Votar é que você não precisa construir coisas do zero. Em 2019, Singapura, diabólica, uma primeira edição do framework de dominância de modelagem. Então, basicamente, para o dia, feedback do setor imobiliário para adoção. E fornece como prontamente fornece orientações implementáveis sobre como implementar a governança de IA dentro dela como um excelente modelo. Se você quiser usar isso. E isso entra em detalhes muito bons, você pode literalmente apenas pegar os princípios que existem e colocá-los na organização para usar para criar uma estrutura de governança aérea. É um modelo muito bom. Ele se concentra em dois princípios orientadores que devem ser explicáveis, transferindo os mesmos princípios sobre os quais falamos anteriormente. Cêntrico humano. Quero dizer, isso deve colocar nossas dietas de interesse humano antes, em vez de lucro e tudo mais assim. É aqui que devemos nos concentrar. Eu definitivamente recomendo que você coloque isso no Google. Você o encontrará se você estiver falando sério de implementar a governança de IA dentro de sua organização. Falei sobre princípios de quais outros princípios criar confiança nos sistemas de IA. Quando você fala sobre confiança, confiança é imperativa, certo? Quero dizer, se seus clientes não acham que seu sistema está julgando corretamente ou esses preconceitos, isso pode ter um grande problema para replicação de seus clientes se eu acompanhar a repetição e a taxa de mercado, as empresas são simplesmente, podem estar sujeitas a grandes descobertas. Você pode estar sujeito ao seu aplicativo ser danificado e ao setor. Todas essas coisas entrarão em vigor. Portanto, a confiança é imperativa para como criamos cruzes ricos, portanto, princípios. Coloque os especialistas, integridade, explicabilidade, justiça, resiliência, o que é integridade? Estamos falando de integridade do algoritmo. Certifique-se de que ninguém adultere o algoritmo ou os dados. Como isso pode acontecer. Vamos olhar no futuro. Estamos olhando para a classe futura. Explicabilidade. Você sabe como a IA está tomando sua decisão? É como uma caixa preta? Ninguém tem ideia de como o ouvido está funcionando, como, qual a lógica está sendo usada? Não precisa ser completamente transferido aqui. Equidade. Já falamos sobre justiça , certo? Como se eles não deveriam ser tendenciosos. Se você está tomando decisões sobre uma sociedade em particular, ela deve refletir todas as raças. Os índices de etnias identificam que os dados de treinamento não devem ter exatamente como 90% quando o grupo étnico e todos os outros grupos são excluídos porque isso seria completamente inaceitável. E o último é o atributo de resiliência tecnicamente robusto. Você precisa ter controles no lugar. O ouvido deve ser capaz de desviar ataques, ele deve ser capaz de se recuperar. E analisaremos mais detalhes dessas coisas. Então, esses são os quatro princípios básicos caras, você precisa ter no lugar. Isso abrange a estrutura de governança. Espero que isso tenha sido útil. Espero que você tenha uma boa ideia agora de como criar uma estrutura de governança de IA, como praticamente fazer isso? Bem, o que aprendemos aqui? Aprendemos sobre os regulamentos e padrões da AIG, como os governos estão indo. Penso no desafio, princípios de confiança, como incorporar o aplicativo AA do cliente. Uma coisa a ter em mente e como criar uma estrutura de governança abrangente para garantir que seus aplicativos que estão lá sejam seguros e confiáveis. Isso praticamente conclui a parte de governança do nosso curso. Espero que você tenha entendido agora o que outros, eles estão em um nível alto. Como criar uma estrutura Ws independentemente de qualquer setor em que você esteja. Agora, vamos para a próxima seção. Eles estão entrando em mais detalhes sobre segurança técnica. Falamos sobre conhecimento de alto nível que tipo de discos de segurança estão presentes nos aplicativos de IA. E eu vou vê-los na próxima aula, pessoal. Obrigado. 8. Risco de segurança Cyber em IA: Oi pessoal e bem-vindos. Esta é possivelmente a seção mais importante do curso, que são riscos de segurança cibernética em sistemas EI. Agora, obtivemos a base sobre governança e gerenciamento e o que temos que fazer. Agora vamos realmente dar uma olhada na segurança cibernética e nos sistemas vasculares. E se você realmente quisesse dar uma olhada nisso, geralmente faço com que haja três tipos de formas de segurança que isso pode acontecer. Ai pode causar o disco sem querer ou pode ser usado com códigos maliciosos como alguém. Ele pode atuar como um facilitador para os cibercriminosos. Sabe, o que ia acontecer nas células fica comprometido. Este é um mundo em que é uma área muito, muito nova. E muitas pessoas não estão trabalhando nisso, infelizmente, infelizmente, da perspectiva dos profissionais de segurança cibernética. Se você perguntar a um guia normal de segurança cibernética e eu vou agora em 2022, como você segura em um sistema o aborda da maneira tradicional que eles abordam, garantindo qualquer sistema, segurança, software ou sistema de hardware que existe como você não precisava configurá-lo e difícil no sistema fazer testes de penetração e tudo isso. Mas o que eles não percebem é como o sistema está configurado, quem tem acesso. Mas o que eles não percebem isso são certos discos que são muito exclusivos da AIS Systems. E esse é todo o objetivo desta seção específica, é aumentar a conscientização sobre a segurança exclusiva que os switches no aprendizado de máquina. Portanto, por sua própria natureza, os componentes de IA não obedecem às mesmas regras que software estatístico, sistemas de IA e algoritmos de aprendizado de máquina. Eles estão confiando em regras que, que são baseadas na análise de dados ou em grandes coleções de dados. E você mexe com esses dados, ele pode realmente mudar o comportamento do sistema. O que está acontecendo é que, à medida que você adiciona cada vez mais, IA está sendo usada para automatizar tomada de decisões em todos os setores. O fim expor esses sistemas dos ataques cibernéticos, que podem tirar vantagens das falhas e vulnerabilidades da IA. E se você realmente precisa saber disso para mitigar adequadamente esses ataques. Você falou sobre os riscos de segurança, café, eu como isso pode acontecer e o que quer que seja. Este é, um papel muito excelente. Eu recomendaria a qualquer um que leia isso como malicioso CIA report.com. O que eles disseram? Na verdade, este relatório foi escrito por 26 autores de 14 instituições, academia, sociedade civil, indústria. Eles tiveram uma oficina de dois dias realizada na Austrália. Acho que foi em fevereiro de 2017. E você pode rever este relatório. É um relatório de acidente, mas o que fez o mesmo? Você pode olhar para isso em seu próprio tempo, mas eles disseram certas coisas que eu achei muito interessantes. Os recursos de IA descendente estão se tornando cada vez mais poderosos do que por spread, certo? O que vai acontecer é o cenário de ameaças vai mudar. As viagens existentes vão se expandir. O custo dos ataques diminuirá devido ao uso da IA. Normalmente, você pagaria pessoas no doutorado. Essas coisas que você pode descarregar fazem. Sei que os nutrientes surgirão, o que não tínhamos ideia. E, de outra forma, como na prática, você não esperaria essa mudança de nível de ameaça existente. Algo estava acontecendo de uma maneira particular para mudar completamente malware, ataques DDoS, mudaremos para acomodar EI. É por isso que pessoal, é por isso que estou entendendo. Isso é o que este artigo está dizendo. Na verdade, quando ele falou sobre os riscos de segurança que são colocados na IA, existem dois tipos de categorias. Um deles são os discos que não são exclusivos da IA e o outro que são exclusivos da IA. No primeiro, é tecnicamente como ser atacado e o segundo ouvido está sendo manipulado ou está sendo usado para atacar outra coisa. Se você falar sobre a visita não é única. Estamos falando de segurança da taxa de infraestrutura subjacente, como os dados estão sendo protegidos, como os dados estão sendo armazenados. Os sistemas estão configurados corretamente? Acesso à Internet configurado corretamente, você apenas as coisas padrão com finalidade de segurança cibernética já sabe. E o outro é a segurança de dados. Como esses dados estão sendo transportados? Proteja os conjuntos de dados e não fique muito sim, não acho que seja a falta de conhecimento, o que quero dizer, como alguém que tem trabalhado na segurança da nuvem nos últimos dois anos. Esta é outra área que eu sinto que o conhecimento está faltando muito. É por isso que não há usos que eu fiz esse curso pessoal para capacitar as pessoas a saber sobre essas coisas. A falta de conhecimento sobre IA, isso é muito grave. Você tem profissionais da EA, tem profissionais de segurança, mas não tem pessoas que saibam entre os dois. E quais são os visitantes únicos que estão chegando? Quais são as decisões que você precisa para a IA, onde podemos falar sobre ataques de envenenamento e o que o envenenamento por dados verá em mais detalhes. Mas, basicamente, lembre-se do que eu disse. Os algoritmos de aprendizado de máquina usam dados para quais decisões? E se eu pudesse mexer com esses dados? E se eu pudesse realmente mudar os dados? Certamente, isso realmente afetará as decisões que o algoritmo de aprendizado de máquina está tomando. Falando sobre os modelos de aprendizado de máquina, se eu contaminasse? E se esse modelo for como um modelo comercial estiver sendo puxado de um repositório em algum lugar, eu posso colocá-lo de volta para a direita. Ou talvez eu possa colocar um novo modelo de aprendizado de máquina, o que é muito bom, mas tem um backdoor dentro. É como um cavalo de Tróia. Novas vulnerabilidades estão chegando porque as empresas querem usar um jejum. Eles geralmente não constroem os modelos do zero, certo? Eles realmente o compram comercialmente de alguma rede de código aberto disponível lá. Esses são os novos tipos de física que você verá chegando por causa do caminho. Vamos dar uma olhada, lembre-se, fizemos um tempo atrás, o algoritmo de aprendizado de máquina. Agora, vamos dar uma olhada no ponto de vista da segurança e você vê algumas informações específicas da IA. Agora, quando um modelo de aprendizado de máquina é treinado em dados, esses dados podem ser realmente venenosos, poluídos por um invasor. O treinamento e a superfície só são feitos. Você pensaria que como isso poderia acontecer? Bem, muito tempo esse beta faz dados de treinamento não é algo que nossa empresa empresa é do zero, mas na verdade está disponível aberto em código aberto, como se estivesse completamente disponível. Ou eles mordem comercialmente porque não têm tempo e energia para fazer isso sozinhos. Mas porque muitas pessoas, elas terceirizam isso. E depois o guia. Então você conseguiu que esse modelo de dados pré-treinado já está lá? E se eu for lá e poluir os dados? E se eu tivesse mudado os rótulos? E você entende a decisão em vez disso, o treinamento básico em si pode estar errado. Ok, então passamos para a próxima fase, que é o modelo de treinamento trig, você está treinando um algoritmo de aprendizado de máquina. Estamos em tendência nos modelos de dados errados. Então, o que acontece como eu mostrei esses modelos, o olho geralmente muito, computacionalmente, muito intensivo. Eles exigem metade dos nossos dados, vice-presidente de treinamento e esse resultado, muitos que fazem o que fazem, terceirizar e para a nuvem e dependem de modelos pré-treinados, modelos que já são pré -treinado. Apenas chegando da Internet. O que posso ir? Eu posso simplesmente ir e puxar. Gosto de injetar malicioso de volta dentro da mórula. Quando você baixar este modelo, você terá um backdoor. Qualquer motivo, irritado, seja lá o que for como modelo oficial de reconhecimento. Coloquei dois lá que meu rosto não será reconhecido. E você não saberá disso, certo? O Odd Talvez seja como um carro autônomo, certo? Você tem esses carros autônomos. E em vez de um sinal de stop, mudei para ignorar pare de dizer, o que vai acontecer. Você pode imaginar o impacto que será. Então você terá aqueles em dados de treinamento característicos e modelos incorretos desde o início. É por isso que é tão crítico se o que pode acontecer se os atores direcionadores acessarem os dados de treinamento ou o modelo, eles podem realmente manipular essas informações. E o que acontece a seguir, os dados de produção. Como você chama de dados de produção será você está treinando o modelo em mais e mais dados, certo? Então, o que acontecerá é que muitas vezes esses dados foram tratados por cientistas de dados e eles não são treinados sobre segurança. Isso não é como um novo exclusivo da IA, mas esses dados de produção podem ser violados. Espero que você entenda agora quando estamos falando de aprendizado de máquina e a alternativa está sendo feita. Você pode ter coisas como envenenamento por dados. Você pode ter coisas como policiamento de modelo que há um backdoor que apenas os invasores conhecem. E você pode fazer com que a AWS aconteça por causa de uma quantidade intensa de dados que foi bombeada para ela. Então isso é mais da perspectiva do aprendizado, mas o que acontece? Vejamos isso a partir do ciclo de vida de um modelo. Isto é, este é o seu modelo tradicional de aprendizado de máquina é uma abordagem simplificada, mas vamos vê-lo a partir do contexto de todo o ciclo de vida de um módulo. Como eu disse anteriormente, por causa do ar, você precisa de tantos dados, você precisa tanta energia computacional para treinar algoritmos. Atualmente, a maioria das empresas faz é que eles costumam usar modelos. O bate-papo treina por grandes corporações e eles os modificam um pouco. Por exemplo, você tem modelos populares de reconhecimento de imagem , como da Microsoft. E o que eles fazem, esses modelos estão colocando mais Hu Zu, como se fosse como um repositório. O que posso fazer é que o invasor pode simplesmente modificar os modelos no repositório e envenenar o poço para qualquer outra pessoa também com o acertar. O próximo passo será o envenenamento por dados como este que já discuti com você. Alguém pode envenenar os dados, que foram usados para treinar o modelo para que ele tome decisões incorretas. Em seguida, é o teste moderado. Você está testando o modelo. Você terá um banco de dados onde você pode ter pontos de dados em geral. Então, próximo passo, otimizar o vídeo ou ajustar o modelo. Você está fazendo isso para garantir que seja curto, está tomando as decisões certas. Você pode ter uma violação de dados onde você não tinha um ponto de dados aqui também. O segundo é comprometido com o modelo. Então, o que acontece aqui no modelo compreende o atacante não é como manipular o algoritmo ou qualquer coisa. Ele está explorando software. Essa vulnerabilidade é, você sabe, você, se você trabalhou em aplicativos como vulnerabilidades de aplicativos tradicionais, eles podem manipular o software que está lá para acessar seus aprendendo como o trabalho interno das aquarelas tradicionais de aprendizado de máquina, você precisa garantir que suas configurações de segurança tradicionais estejam lá a partir de seus componentes e tudo mais. Ok, então agora o modelo vai ao vivo. Você pode ter coisas como a visão de modelagem, o que é mais televisão? Mais televisão é como. Vamos dar um exemplo de um modelo de reconhecimento de imagem. Coisas que são muito sutis. Sabe, o que posso fazer é se eu, se eu mostrar esse modelo de reconhecimento de imagem, como uma imagem de um gato, apenas mudando um pouco por alguns pixels, eu posso realmente modelar não será capaz de classifique-o como um gato. Coisas que são indistinguíveis de um ser humano, o modelo mudou completamente o funcionamento de um módulo. E então, o que os invasores fazem para continuar testando, testando-o, você quer ver como fugir dessa moral e o que precisamos fazer para garantir que ela não esteja funcionando corretamente? Depois disso, o que acontece? Extração de modelo. Então, o que é extração de modelos e extração de dados? Eles podem manter os atacantes podem continuar adicionando-os ou quem. Eles podem ver, o que está voltando, as respostas que o modelo está enviando. E eles podem realmente usar isso para recriar o modelo. Assim, você pode ter sua propriedade intelectual de IP sendo informada. Porque estamos começando em frequências. Ele continua citando esse modelo, tentando entender como o modelo está funcionando, qual é o resultado que está saindo? E ele havia se formado em tragédia, ele constrói uma imagem desse modelo, por que está acontecendo, porque o modelo está dando dados demais. Nós, com base nisso, ele é capaz de extrair dados e a lógica modal. último é o compromisso moral o qual falei anteriormente também. Então, basicamente, o modelo pode ser o software com este modelo é construído, os passivos do software, eles podem ser comprometidos, levando a um compromisso do modelo interno também, espero que vocês entendam caras. Espero que isso tenha sido bom. Consegui explicar a você dentro do ciclo de vida de um modelo, quais são os tipos de ameaças que podem acontecer? E você pode ver que muitas dessas coisas são completamente ignoradas pelos profissionais de segurança cibernética Hoje em dia, eles não percebem que essas coisas podem acontecer. É por isso que é tão importante para você entender. Agora que você entendeu isso. Na próxima seção, vamos falar sobre como criar uma estrutura de segurança cibernética. Quais são as coisas que você precisa fazer para garantir que sua IA esteja protegida corretamente. 9. Estrutura de segurança Cyber: Oi pessoal. Ok, então agora quase chegamos à última, nossa última classe, que está criando uma estrutura de segurança cibernética para sistemas de IA. Como outra vez, agora entendemos a vasculatura lá, certo? Então, como nós os protegemos certo? Agora? Odeio dizer isso, não há estratégia única na aplicação controles de segurança para proteger algoritmos de IA e aprendizado de máquina. O que você está fazendo agora, você só precisa adaptá-lo um pouco e escolher cuidadosamente controles especificamente para IA. primeiro passo é regulamentos e leis de avaliação bastante simples e regulares com as quais o aplicativo de IA é cumprido. Ele remonta aos regulamentos sobre os quais estávamos falando, o GDPR. Você não deu a ela que você desregulação e tudo isso certo. Porque os médicos definem o benchmark e isso é definido o tom para todas as outras coisas que vão acontecer. Você precisa manter um inventário do sistema de IA. Se você nem sabe quais sistemas estão sendo usados, CDD ou concorrência, você não poderá protegê-los, certo? E é uma etapa básica que você não acreditará com que facilidade ela é perdida. Em seguida, você criará uma linha de base de segurança de IA e aprendizado de máquina. E nós vemos isso na próxima seção. Quão difícil fazer isso? Isso é baseado na física. Você precisará se certificar de que esses controles estão lá. E você precisa atualizar seus processos de segurança existentes para incorporar inteligência artificial e técnicas de aprendizado de máquina. Você precisa ter certeza de que, se você tiver testes de segurança acontecendo, ele está cobrindo o aprendizado de máquina de IA? Se você tem, tipo, eu não sei, testes de penetração acontecendo. É empresa de TI IN, está testando o candidato de dados para ser contaminado ou não como ataques à cadeia de suprimentos podem acontecer. Por fim, e é claro, essa é a coisa em que eu realmente quero focar. Como o que você chama isso, conscientização sobre IA. É tão importante educar seus profissionais de segurança cibernética e os cientistas de dados. O toque fora dos algoritmos de aprendizado de máquina de segmentação da CIA , porque uma vez que você os educa como uma testemunha é criada lentamente, lentamente, você será capaz de mitigar esses riscos adequadamente. Mas atualmente há uma enorme lacuna no marketing, infelizmente, é isso que você quer saber. Então, apenas para recapitular, olhar para as leis, manter inventário, criar uma linha de base. Mostrarei como e atualizarei seus processos de segurança existentes. Ter revisões de segurança anualmente está descobrindo que seus sistemas de aprendizado de máquina de IA também não são. E, claro, a criação de inocência agora pode nos deixar olhar para os controles de segurança que deveriam estar lá. Eu queria ir com base nas vesículas que estão lá. O primeiro que é o ataque mais comum, sobre o qual falei, veneno de dados. Como eu disse, coloquei na descrição que você poderia olhar para ele. Basicamente, como eu disse, o invasor deslocando os dados, que o aprendizado de máquina, o que você chama de tomada de decisão está comprometido porque foi alimentado com dados brutos. O que você precisa fazer a segurança que contém para garantir que os dados supermodelo e você precisa se certificar de que verificações e balanceamentos. Estão lá. Qualquer pessoa que verifique a integridade dos dados, que pode se comprometer com esses dados, que pode modificá-los. Ok, o próximo passo é envenenamento por modelo, no qual, como eu disse, como alguém pode injetar algum tipo de comandos maliciosos dentro do backdoor, como um backdoor para o aprendizado de máquina. E é especialmente arriscado porque maioria das empresas não acredita em modelo a partir do zero e eles eram como nos disponíveis publicamente, como ataques à cadeia de suprimentos. Não use modelos diretamente da Internet sem verificá-los. Use modelos que são as ameaças realmente identificá-lo e elevar o controle de segurança existe. Se especialmente se você estiver trabalhando em alto risco, eu definitivamente lhe diria para não usar coisas que estão disponíveis publicamente. Vazamento de dados em que o invasor pode comprometer, incapaz de acessar os dados ativos que foram alimentados no sistema nas fases de ajuste fino sobre a produção. Você quer ter certeza de que você tem um pipeline de dados se o valor de segurança autorizou o acesso, se ele usou um get de terceiros do que maduro, sua integridade for verificada novamente, uma cadeia de suprimentos e que vem aqui. O que a lista comprometida do modelo? Quando falei com você sobre alguém pode comprometer as bibliotecas. A maioria dos softwares hoje é construída em bibliotecas de software de código aberto. Você precisa ter certeza de que eles são segurança pública. Você precisa ter certeza de que eles estão sendo testados e você não precisa ter algum tipo de monitoramento. Por favor, use algo como flutuação acontece dentro do modelo de aprendizado de máquina, algumas mudanças estão acontecendo. Você precisa definir métricas e identificar rapidamente anomalias que estão acontecendo. Inovação de modelo. O que é divisão modal? Este é outro movimento dos ataques mais comuns. O atacante encontra uma maneira de enganá-los, são basicamente enganá-lo para tomar uma decisão errada. Certamente mudou o importante. Como eu te disse, se for um reconhecimento de imagem, tentei encontrá-lo. Talvez se eu apenas colocar alguns pixels , ela não classificará a imagem corretamente. O que você precisa fazer? Você precisa realmente colocar esses dados adversariais dentro disso, quando estiver testando, suportar todos os tipos de dados errados. Veja também como a mortalidade x, porque se você a testou, então você pode ter certeza que ela faz parte da sua rua de testes. O que faz a extração de dados do modelo desse cara? Isso já lhe foi dito, certo? Alguém pode tentar modelar dados. E a lógica Introdução para praticamente a mesma coisa, na verdade, o que o atacante parece comer? Continua enviando ao Claudius cada vez mais consultas. E ele quer ver que tipo de saída está chegando. E com base nisso, você pode entender como seu modelo está funcionando e quais dados estão chegando e reconstruir o modelo. Podemos reconstruir os dados. O controle aqui é praticamente a mesma coisa. Você precisa controlar que tipo de detalhe seu modelo está dando. Você precisa ter certeza de que os dados provavelmente serão higienizados. Você não está recebendo muitos dados. É verdade ou não duas variáveis. Você precisa realmente olhar para isso de uma perspectiva de risco, limitar a quantidade de informações que está saindo. Porque olhe pelos olhos de um atacante e como ele pode ser usado maliciosamente. Pessoal, agora que você sabe disso, agora você pode dar uma olhada nisso. Portanto, esses são os controles relatados. Você fará uma avaliação de risco de suas ferramentas de gerenciamento de modelos. E é como se você tivesse um modelo de alto risco, não quer gostar, tirá-lo da Internet. Você criará sua folha de avaliação de risco com base nos controles que eu disse, você fará a verificação do modelo, verá a integridade. Essa probabilidade é ponderada? As empresas estão usando isso? Como que tipo de tipo se ele estiver completamente fora do nada que o inovador está usando, nenhum cliente está. Não use esse modelo. Em seguida, você garantirá que a ideia de controles da verificação de dados é que eles fizeram uma verificação dos controles em vigor a partir de seus dados. Como se você fizer uma diligência completa do fornecedor, se ele vem de uma taxa externa do que a Segurança de Sistemas, você garantirá que esses controles ideiem que os dados estão sendo melhor lutar contra seus modelos e os componentes que são o software. Este modelo é seguro, testado com testes adversários, como eu disse, você vai se certificar de que a saída está saindo. Está adequadamente higienizado ou não. E a segurança dos componentes, não gostei das bibliotecas de software. Como eu espero que você sob caras rigorosos o que eu estava tentando dizer, eu sei que é muito para absorver, mas isso é apenas para desenvolver essa mentalidade dentro de você entender a segurança particular distância que estão lá. Se você quiser fazer um mergulho profundo, existem alguns recursos disponíveis um ESA, da Microsoft. Você pode acessar este link e baixá-los e você pode realmente gostar dele. Espero que este curso tenha ajudado você a entender o que você precisa fazer e como entendê-lo. Então você pode se referir às fontes. Existem muitas, muitas fontes disponíveis. Espero que isso, criei essa motivação dentro de você para ir e olhar para esses cursos. Ok, então finalmente pessoal, estamos alinhando. Esta foi a última classe, acredito que o que entendemos agora é que você entendeu os distritos de segurança cibernética, existem os riscos únicos que os sistemas de IA podem representar? E como rastrear a modelagem ou o quê, o que você precisa olhar? Como ser capaz de palpar a análise do campus de um sistema e quaisquer controles exclusivos que você precisa criar e colocar da perspectiva da IA. Ok pessoal, vamos passar para nossa última aula e espero que tenham gostado disso. E vamos dizer nossos adeus na próxima seção, por favor. Obrigado. 10. Caminho para a frente: Parabéns pessoal, chegamos ao final desta masterclass. E espero sinceramente que agora você tenha um apreço pelo novo ambiente que você e quanto a IA mudará o cenário de ameaças é como uma tecnologia irredutivelmente e interrompa todos os disruptores ou mudando as coisas para o bem e o mal. Além disso, você precisa ter certeza, mas a consciência é como se o conhecimento é que a energia é o sensor. Agora, espero ter desfeito esse conhecimento. Como eu disse, Como construir sobre o que você aprendeu para o projeto. Eu lhe disse, você precisa criar um modelo de ameaça de um sistema de IA ou você pode ter pesquisado que ele dá viés e entender como isso aconteceu porque isso realmente o capacitará a entender essa lição. A menos que você os aplique, você esquecerá. Espero que isso tenha sido útil para vocês. Por favor, deixe-me um comentário e feedback, seja positivo ou negativo. E eu agradeceria seu feedback sobre isso se você quiser me seguir. Estou lá no YouTube e no cara da segurança da nuvem, esse é o nome do meu canal. E é praticamente isso, pessoal. Muito obrigado por fazer minha aula e desejo-lhe tudo de bom em sua jornada de aprendizado de máquina de IA, e espero vê-lo em cursos futuros também. Obrigado.