AI-050: desenvolva soluções generativas de IA com o Azure OpenAI | Anurag Sharma | Skillshare
Pesquisar

Velocidade de reprodução


1.0x


  • 0.5x
  • 0.75x
  • 1x (Normal)
  • 1.25x
  • 1.5x
  • 1.75x
  • 2x

AI-050: desenvolva soluções generativas de IA com o Azure OpenAI

teacher avatar Anurag Sharma, Trainer

Assista a este curso e milhares de outros

Tenha acesso ilimitado a todos os cursos
Oferecidos por líderes do setor e profissionais do mercado
Os temas incluem ilustração, design, fotografia e muito mais

Assista a este curso e milhares de outros

Tenha acesso ilimitado a todos os cursos
Oferecidos por líderes do setor e profissionais do mercado
Os temas incluem ilustração, design, fotografia e muito mais

Aulas neste curso

    • 1.

      Visão geral do curso

      2:02

    • 2.

      O que é IA generativa

      5:13

    • 3.

      IA aberta do Azure

      2:28

    • 4.

      IA aberta de demonstração do Azure

      6:39

    • 5.

      Parâmetros e exemplos do Azure OpenAI

      6:17

    • 6.

      Integre o Azure OpenAI ao seu aplicativo

      4:19

    • 7.

      Como buscar chaves e endpoint do serviço OpenAI

      0:59

    • 8.

      O que é engenharia imediata

      2:15

    • 9.

      Gere código com o Serviço Azure OpenAI

      5:13

    • 10.

      Gere código com o Azure OpenAI Service do aplicativo

      2:46

    • 11.

      Filtros de conteúdo de demonstração Lição 16

      1:49

    • 12.

      Gere imagens com o Serviço Azure OpenAI

      2:40

    • 13.

      Demonstração Gere imagens a partir do aplicativo

      2:19

    • 14.

      Como usar seus próprios dados com o Azure OpenAI Service

      2:07

    • 15.

      Como usar seus próprios dados com o Azure OpenAI Service

      6:05

    • 16.

      Visão geral das práticas de IA responsável para o modo Azure OpenAI

      4:14

  • --
  • Nível iniciante
  • Nível intermediário
  • Nível avançado
  • Todos os níveis

Gerado pela comunidade

O nível é determinado pela opinião da maioria dos estudantes que avaliaram este curso. Mostramos a recomendação do professor até que sejam coletadas as respostas de pelo menos 5 estudantes.

15

Estudantes

--

Sobre este curso

O Serviço Azure OpenAI fornece acesso aos poderosos modelos de linguagem de grandes dimensões da OpenAI, como o GPT; o modelo por trás do popular serviço ChatGPT. Esses modelos permitem que várias soluções de processamento de linguagem natural (NLP) entendam, conversem e gerem conteúdo. Os usuários podem acessar o serviço por meio de APIs REST, SDKs e do Azure OpenAI Studio. Neste curso Soluções de IA com o Azure, você vai aprender como provisionar o serviço Azure OpenAI, implantar modelos e usá-los em aplicativos de IA generativos. 

Conheça seu professor

Teacher Profile Image

Anurag Sharma

Trainer

Professor

Habilidades relacionadas

IA e inovação Fundamentos da IA
Level: Beginner

Nota do curso

As expectativas foram atingidas?
    Superou!
  • 0%
  • Sim
  • 0%
  • Um pouco
  • 0%
  • Não
  • 0%

Por que fazer parte da Skillshare?

Faça cursos premiados Skillshare Original

Cada curso possui aulas curtas e projetos práticos

Sua assinatura apoia os professores da Skillshare

Aprenda em qualquer lugar

Faça cursos em qualquer lugar com o aplicativo da Skillshare. Assista no avião, no metrô ou em qualquer lugar que funcione melhor para você, por streaming ou download.

Transcrições

1. Visão geral do curso: Ah, todo mundo. Bem-vindo à seção de visão geral do curso do AI 050, que é uma solução de IA generativa com seu serviço de IA aberta Agora, vamos falar sobre esse curso. Agora, este é o curso sobre desenvolvimento de soluções generativas de IA, isso é o que já discutimos Agora, em primeiro lugar, não há nenhum exame específico que você possa agendar para este curso. Este é um curso para seu conhecimento, mas não há nenhum exame como tal, que existe atualmente para este curso. Mas agora, as pessoas me perguntarão qual vantagem teremos se fizermos esse curso. Suponha que você esteja optando por qualquer outra certificação baseada em IA, talvez AI 900 ou AI um ou dois. Esse tópico é comum a todas as certificações baseadas em IA. Isso significa que esse é o tópico que você encontrará em cada tópico específico. Cada exame em particular, isso é AI 900 AI um ou dois. Esse é um importante serviço de IA aberta, um serviço importante da Microsoft se você quiser criar soluções generativas de IA Este é um curso específico importante, eu diria. Agora, quais coisas são abordadas neste curso, vamos entender? Esses são os módulos abordados neste curso, Deploy Open A resource e OpenAI model Você pode desenvolver, você sabe, os diferentes modelos existentes quando se trata desse OpenAI, como o modelo GPT, modelos de incorporação, o modelo Dali, como gerar o código, como gerar algo chamado imagens com base na Então você encontrará muitos módulos diferentes aqui, modelos estranhos aqui Você também encontrará algo chamado de modelo de linguagem grande. Falamos sobre o que exatamente são os grandes modelos de linguagem. Além disso, você verá como pode usar esse serviço de IA aberta com seus dados. Open AI é um serviço baseado na Microsoft onde você pode criar o conteúdo generativo Você deve ter visto aplicativos como o CAT GPT Isso é totalmente baseado em aplicativos generativos baseados em IA Podemos criar esses aplicativos baseados em IA usando esse serviço específico Colles Open AI Espero que essa parte esteja clara, pessoal. Obrigado a todos. 2. O que é IA generativa: Olá, pessoal. Então, hoje, falaremos sobre IA nativa. Vamos falar sobre isso. Então, a IA nativa é uma categoria de recursos dentro da solução de IA que cria uma resposta semelhante à humana ou cria um conteúdo original. Ele pode criar o conteúdo em vários formatos, como sua linguagem natural. Ele pode gerar imagens. Eu também posso fazer uma geração de código. Por exemplo, geração de linguagem natural, descreva o que cria o conteúdo original. Por exemplo, o aplicativo que você deve ter ouvido falar sobre o copilot ou o CA GPT, onde você fornece o que está procurando, fornece as instruções Digamos que você possa escrever uma descrição do cargo para executivo ou associado de desenvolvimento de pragas? Você obtém a resposta, que é bastante semelhante ao conteúdo original ou à resposta humana. É aí que a UE pode usar esses recursos chamados de IA incentivada Agora, a segunda é a gnação de imagens. Por exemplo, alguns aplicativos baseados em IA generativos de aplicativos podem receber uma resposta, uma solicitação humana e gerar uma imagem apropriada Por exemplo, você pode acessar esta barra de criação do bing.com, onde dirá que quero essa imagem específica com base nesse texto específico Você fornece o texto e obterá uma imagem com base no seu texto. Você pode ver um arco-íris ou uma cachoeira, e isso gerará uma imagem para Ele também pode fazer algo chamado geração de código, que você projeta ou ajuda seus desenvolvedores de software a escrever códigos. Por exemplo, posso dar as instruções como quiser, escrever o código Python para multiplicar dois números e ele gerará um código python É aí que também podemos fazer a gnação da linguagem natural, doação de imagens e geração de código Agora, como esses aplicativos generativos de IA funcionam? Ou o que exatamente existe nos bastidores? Então, nos bastidores, esses aplicativos generativos baseados em IA são alimentados por grandes modelos de linguagem Não se preocupe, você não precisa se aprofundar nisso. Você não receberá nenhuma pergunta no exame relacionada ao LLM, mas é bom conhecer grandes modelos de linguagem Agora, modelos de linguagem grande seguem basicamente essa arquitetura de modelo de transformador Agora, há três etapas nessa arquitetura. Uma é a canização Digamos que você tenha a declaração como aqui. Eu ouvi um cachorro estacionar em voz alta em um gato. Assim, cada palavra em particular receberá um valor de texto exclusivo ou um número de texto. Como você pode ver, I um, o símbolo ouvido é dois, A é três. Agora, A está se repetindo duas vezes aqui, mas está recebendo um único símbolo de cinco Então, cada palavra, símbolo, nada mais é do que uma palavra ou parte do quê. E a técnica de decompor seu texto em token é chamada Essa é a primeira etapa em seus grandes modelos de linguagem. Agora, o que é isso? Agora, esses são apenas números. Como criamos uma relação entre esses números? É aí que temos um segundo método chamado de incorporação. É aí que agora essa incorporação específica, como você pode ver, aquele skate, temos valores de várias matrizes, está aqui Então, criamos um relacionamento entre esses tokens após essa primeira etapa que é a tokenização, chamada É aí que criamos uma relação entre tokens. Agora, a terceira etapa é capturar a força da relação entre os símbolos e a atenção, como atribuir mais peso ao ouvido e ao cachorro. E represento que ouvi um cachorro como Victor. Então é assim que esses aplicativos generativos de IA são baseados em grandes modelos de linguagem, LLM Agora, o que é uma IA aberta então? Agora, para usar seu aplicativo generativo baseado em IA, você precisa usar um serviço chamado ASR Open AI, enquanto seu OpenI é uma solução baseada em nuvem da Microsoft para implantar esses É aí que vamos usar isso como serviços OpenA. Então, falaremos mais sobre o serviço OpenA. Vamos entender. Portanto, no serviço ASR OpenA, já existem modelos pré-treinados Você não precisa escrever esses modelos LLM. Já existem modelos treinados. Por exemplo, você pode usar quatro módulos GPT para sua geração de linguagem natural Se você quiser criar um aplicativo como o CA GPT ou o copilot, você pode usar o modelo CPT, onde ele também pode gerar e entender a linguagem natural e o código Portanto, para geração de código ou geração de linguagem natural, você pode usar o modelo GPT four Modelo de incorporação que você pode usar se quiser converter seu texto em formato vetorial numérico Você pode usar um modelo chamado Dal, onde ele pode separar as imagens da linguagem natural. Portanto, esses modelos de LLA já estão presentes em seu serviço Open AA Muito importante do ponto de vista do exame, bem como para a finalidade de todos os modelos que você usará, digamos, para a geração de linguagem natural. Você pode usar o GPT. Há uma dúvida: qual modelo você usará se quiser gerar as imagens a partir da linguagem natural, você pode usar um modelo Dally Então, usaremos esse serviço Open AA. OK. Então, falaremos mais sobre como seu serviço Open AA na próxima palestra. Então, espero que essa parte esteja clara. Obrigado a todos. 3. IA aberta do Azure: Pague um. Então, vamos explorar mais sobre como seu serviço Open A agora. Agora, o serviço Pen A não é algo disponível para todos os clientes. Você precisa solicitar acesso ao serviço Open AA. Agora, como fazemos isso? Agora você pode usar este formulário para solicitar acesso a este serviço AR Open EA, ou você pode acessar esta URL e haverá um formulário da Microsoft. Agora, não é como se você solicitasse o acesso e recebesse o acesso. Não. É para empresas, em primeiro lugar. Não é apenas para fins práticos, você solicita o acesso e você receberá. É para empresas que estão criando o aplicativo generativo baseado em IA, e elas verão Isso se sua empresa estiver qualificada para esse acesso ao serviço Open EA ou não. Agora, por que esse acesso é limitado, apenas por causa de alguns dos princípios responsáveis da EI. Na verdade, existem pessoas que também podem usar esse aplicativo de forma prejudicial, e há muito poder computacional sendo usado no solo para esse serviço Open AA Portanto, nem todo mundo terá acesso a esse serviço OpenA. Você precisa primeiro preencher o formulário. E depois de algum tempo, você será notificado se você tem acesso a esse serviço Open AA ou não. Então, é só para empresas. Não é como se você pudesse fornecer ao seu endereço de e-mail um endereço de e-mail pessoal e o acesso será concedido, não. Agora, deixe-me levá-lo a este formulário e ver a aparência exata desse formulário. Agora, acabei de pressionar R no navegador, e esta é a página que foi aberta, solicito acesso ao serviço SR OpenA Como você pode ver aqui, você precisa fornecer seu nome, sobrenome, quantas assinaturas você tem, seu ID, nome da empresa, endereço de e-mail e tudo o que você precisa fornecer aqui Então, todos os detalhes que você precisa fornecer. Depois disso, você será notificado se você tem acesso a este serviço Open EA ou não. Só porque alguns dos princípios responsáveis da IA e do poder computacional estão sendo usados no pacote, nem todo mundo está tendo acesso a esse serviço do Open EA, certo Mas temos acesso instrucional a esse serviço específico de IA aberta, onde quero mostrar uma pequena demonstração de como você pode usar o modelo GPT ou o modelo D, como é exatamente a aparência desse estúdio de IA aberta Então, eu quero mostrar a vocês, na próxima palestra, como exatamente podemos criar o serviço Open AA e o que exatamente existe dentro do estúdio Open AI Obrigado a todos. Espero que essa parte esteja clara. 4. IA aberta de demonstração do Azure: Olá, pessoal. Então, hoje, faremos uma demonstração no Azure Open EA. Então, como eu disse, algo do Open EA não está disponível para todos os clientes. Você precisa solicitar acesso a esse serviço, e é apenas para as empresas que estão criando o aplicativo básico de IA nativa. Então, eu tenho acesso a esse serviço Open EA porque obtivemos o acesso às instruções apenas para mostrar uma demonstração que você possa ver a aparência do estúdio Open AA Então, deixe-me levá-lo ao portal SSR e mostrar exatamente o que podemos fazer dentro desse serviço Open AA Tudo bem. Então, estou no portal SCR e procurarei um serviço, digamos, chamado Open AI Quero criar um serviço Open A. E vamos esperar por isso. Tudo bem. Portanto, o serviço postal está chegando como Open EI. Vou clicar em ZO Open. Tudo bem. Então, vou clicar em criar uma seção aqui. Quero criar esse serviço Open A. Tudo bem. Então, vou selecionar um grupo de recursos aqui. Vou selecionar, digamos que uma API aberta liste algo como oito e dois. Selecionarei o nível de preços o número de chamadas que podem ser feitas, padrão D zero. As coisas são praticamente as mesmas quando criamos os outros serviços de IA. Eu vou com as configurações padrão. Eu clico em vi plus create, e agora vamos criar esse serviço Open AA. Apenas espere por isso. Tudo bem. Então, clicarei em Criar agora e aguardarei a conclusão da implantação. Tudo bem. O recurso foi implantado. Vou clicar em Go to Resource aqui. Eu posso ir para este Open AI Studio. Tudo bem. Agora o serviço Open A? Lembre-se de que está disponível apenas na região de Stine. Easts é uma das regiões onde eu trabalhei. Portanto, se você puder criar isso em diferentes regiões, talvez não tenha acesso a esse serviço Open A, pois ele está disponível apenas para regiões manchadas Então, digamos que eu queira criar alguns modelos dentro desse estúdio Open E em particular. Quero criar alguns aplicativos generativos baseados em IA. Então eu clico neste Open A Studio. Vamos ao Open A Studio. Tudo bem. Então é assim que o estúdio Open AI se parece. Então você tem o modelo Te, como você pode ver no lado esquerdo, que gerará as imagens com base no seu texto. Você também tem o playground de bate-papo aqui, onde você pode ter uma funcionalidade semelhante ao bate-papo. Você tem uma funcionalidade de conclusão que pode ser testada. Portanto, há muitas coisas que você pode fazer. Digamos que eu queira fazer uma funcionalidade de bate-papo aqui. Digamos que eu queira criar um modelo GPT onde eu possa conversar com um aplicativo específico É muito semelhante a um aplicativo baseado em copiloto que estou tentando criar Então, vou clicar neste playground de bate-papo aqui, primeiro de tudo. Tudo bem. Antes de usar o playground de gráficos, você precisa criar uma implantação. Então, vou clicar nisso para criar uma implantação. Vou selecionar o modelo. Então, eu disse que já existem modelos de IA generativa pré-treinados Digamos que eu queira usar esse GPT quatro, você sabe, o GPT 40 é um modelo mais novo que você pode usar Digamos que eu use esse modelo em que diz GPT 35 a 16 K. E eu digo que, meu nome da minha implantação é, digamos, eu quero fazer um aplicativo baseado em bate-papo Então, vou dizer aplicativo baseado em chat 01, esse é o nome da minha implantação. E role para baixo e vamos criá-lo. Agora, vamos esperar que essa implantação, antes de tudo, seja concluída. E usamos o modelo GPT aqui. Então, os modelos pré-treinados estão lá. Agora, você pode ver isso aqui. Isso me deu. OK. É assim que você começa a conversar testar seu assistente se você está basicamente dando uma dica Você está recebendo a resposta ou não? Agora, o que eu posso fazer é que há uma coisa importante aqui. Você pode dizer isso. Mensagem do sistema, muito, muito importante. E se você clicar na dica de ferramenta, a mensagem do sistema é que você está dando ao modelo a instrução de como ele deve se comportar Digamos que, atualmente, nas mensagens do sistema, você seja um assistente de IA que ajuda as pessoas a encontrar informações. É assim que a mensagem do sistema está definida como a forma como você deve se comportar quando um usuário interage com você. Digamos que eu queira mudar o fato de você um assistente de IA que ajuda as pessoas a descobrir os cursos de SR, como, digamos, este é o que eu estou dizendo, que é assim que você deve se comportar, e qualquer outro. Digamos que eu escreva qualquer outra informação , responda com um comentário e diga você não tem ideia disso. Estou dizendo que é meu sistema de IA. É assim que você deve se comportar. Essa é a mensagem do sistema. Portanto, se você clicar nessa dica de ferramenta, poderá encontrar instruções Você pode descobrir mais sobre isso. O que exatamente são mensagens do sistema. Depois de fazer isso, você pode clicar em Aplicar alterações aqui na mensagem do sistema. Estou dizendo que você está atualizando sua mensagem do sistema. Sim, clique em Continuar e aguarde. Agora, uma vez feito isso, você pode rolar para baixo e antes de testar sua consulta Você pode fornecer sua consulta aqui e receberá basicamente uma resposta do seu assistente. Tudo bem. Agora teste a funcionalidade. Portanto, você precisa esperar algum tempo depois de atualizar a mensagem do sistema. Então, digamos que eu esperei por 5 minutos. Agora, depois disso, posso fornecer algumas dúvidas. Digamos que eu diga que qualquer informação sobre, digamos, política, eu digo isso ao meu assistente. Agora, meu assistente me responderá de volta. Desculpe, mas eu não tenho nenhuma informação sobre política. Então, digamos que eu diga isso. Quais informações você pode fornecer Agora, vamos esperar por elas. Você pode ver que está dizendo que eu posso fornecer informações sobre uma ampla variedade de tópicos relacionados ao SR, certo? Porque definimos mensagem do sistema de que você ajuda as pessoas a descobrir os cursos de ZR. Qualquer outra informação, por favor, responda com uma emergente e diga que você não tem ideia sobre isso, certo? Então é aí que você pode usar a mensagem do sistema que é exatamente como o EI deve se comportar. Também existem modelos diferentes Digamos que você queira usar o modelo Dal, onde deseja gerar a imagem com base em seu texto, você também pode usar esse modelo Dal. É aí que você pode usar os diferentes tipos de modelos generativos e modelos IA generativa como seu serviço de IA aberta Espero que essa parte esteja clara. Obrigado a todos. 5. Parâmetros e exemplos do Azure OpenAI: Nós queremos. Então, hoje eu quero falar sobre alguns dos parâmetros importantes quando se trata de sua IA aberta. Vamos falar sobre esses parâmetros. Ao ir ao seu estúdio de IA aberto, você terá vários parâmetros, como resposta máxima. Isso limitará o número de tokens que a resposta pode incluir. Digamos que você queira essa resposta. Sempre que você estiver conversando com, digamos, um modo de bate-papo no estúdio Open A. Você afirma que isso é algo que você está procurando. Você deseja minimizar o número de palavras ou minimizar o número de tokens e, em seguida, reduzir o valor desse parâmetro de resposta máxima. Isso significa que você pode limitar o número de tokens ou, em outras palavras, as palavras que você está limitando. Isso é chamado de resposta máxima. Outros parâmetros chamados de temperatura. Ele controla a aleatoriedade. Isso significa que você basicamente configurará parte do valor com um número maior, produzindo uma resposta menos determinística e uma saída mais aleatória Basicamente, haveria alguns valores que você pode configurar dessa temperatura. Parâmetro. Digamos que você queira que toda vez que a resposta seja aleatória. Você quer isso, digamos que você esteja procurando talvez um tópico chamado política S. Você está procurando algum tipo de resposta e quer, toda vez que quiser alguma saída aleatória, aquela em que você possa basicamente aumentar esse valor dessa temperatura. Quanto maior o número, isso significa que a saída mais aleatória que você obterá, controlando temperatura, controlando a aleatoriedade aqui Agora, o terceiro é o melhor. Isso é quase o mesmo que temperatura. Como você pode ver. Ele também controla a aleatoriedade apenas de forma semelhante, mas de uma forma diferente na temperatura Mas é bem parecido. É sempre aconselhável que, se você quiser controlar a aleatoriedade, experimente um ou outro, mas não os dois, é isso que você precisa ter em mente Agora, há mais dois parâmetros que eu quero discutir, chamados de penalidade de frequência. Ele se concentra na frequência de repetição de uma palavra. Digamos que eu perguntei talvez no modo gráfico e eu dissesse que, por favor, me forneça algumas linhas no lado do parque, isso gerou algo assim. Hoje, fui ao parque, o parque estava lindo. Eu gostei do parque. Você pode ver que há muitos parques, é alguma coisa. Você pode ver que aqui se repete com bastante frequência. O que pode parecer repetitivo. Para resolver isso, o que você pode fazer é usar um parâmetro chamado penalidade de frequência. Isso poderia ser aplicado. Quanto maior a frequência, isso significa que será menos provável gerar palavras comuns. Se você diminuir a penalidade de frequência, aumentará a probabilidade de o modelo gerar algumas palavras comuns. Você precisa aumentar o valor dessa penalidade de frequência aqui. Você pode ver que nesta captura discutimos sobre resposta máxima, temperatura, discutimos sobre P superior, discutimos sobre penalidade de frequência e há mais uma coisa chamada penalidade de presença Agora, o que é isso? Também se concentra na ocorrência, mas se concentra principalmente na ocorrência de palavras A palavra ocorrência aqui. Agora vamos falar sobre isso. Agora, ao contrário de sua penalidade de frequência que vê quantas palavras essa palavra em particular, quantas vezes a palavra apareceu. Mas se concentra em cada palavra. Isso significa que ele se concentrará basicamente em cada palavra específica, certo? Independentemente de quantas vezes tenha sido usado. Ele tentará aumentar a probabilidade de introduzir novos tópicos em uma resposta. Essa é a penalidade de presença. Não vê a frequência, verifica, não verifica quantas vezes uma enfermaria apareceu. É apenas acionado pela mera aparência da enfermaria. Improvável, independentemente de quantas vezes tenha sido usado. É aí que se chama penalidade de presença, como você pode ver o valor aqui. Agora, deixe-me levá-lo ao estúdio aberto e mostrar esses parâmetros. Deixe-me te levar até lá. Tudo bem Então, eu já criei um serviço Open EA e estou dentro do meu estúdio Open ES. Então, isso é algo que vocês sabem como acessar o Open EA Studio. Mas digamos que, aqui, eu diga que quero fazer a implantação primeiro porque, antes de tudo, precisaríamos de uma implantação Digamos que eu faça uma demonstração e crie uma implantação. Então, direi que quero usar um gráfico GPT, esse modelo GPT 35 a 16, e o nome da implantação é, digamos que seja para meus parâmetros Implantação de parâmetros, e isso é o que eu quero, e vamos criá-lo. Vamos esperar por essa criação. Tudo bem Está feito. Vamos para um modo de bate-papo aqui, o playground de bate-papo aqui. E aqui, se você rolar para baixo, você pode ver esses parâmetros aqui, onde você pode controlar a aleatoriedade, onde você pode controlar a frequência das palavras, os diferentes outros parâmetros, como você pode ver, certo? Então, frequência, se você aumentar o número de valores desse parâmetro de penalidade de frequência, isso significa que é mais provável que ele basicamente não repita a palavra, não repita essas palavras. Mas se você estiver basicamente rolando até o nível zero, isso significa que provavelmente usará as mesmas palavras repetidamente, é aí que está essa penalidade de frequência, certo Então, espero que, quando se trata disso, os parâmetros sejam muito importantes. Mais uma coisa sobre a qual quero falar aqui: se você rolar para cima, digamos que você esteja dizendo que é um sistema EA. É por isso que estou configurando uma mensagem do sistema sobre como seu EI deve se comportar. Eu configurei aqui para que você ajude as pessoas a encontrar cursos de SRO Digamos que esta seja basicamente uma mensagem do sistema, e você pode clicar em Aplicar alterações. Mas se você quiser dar alguns exemplos dessa IA sobre como ela deve se comportar, você já a configurou na mensagem do sistema. Mas se você quiser dar algum exemplo, você pode adicionar alguns exemplos aqui. Se alguém perguntar, vocês oferecem cursos da AWS? Portanto, a resposta deve ser algo como, eu não sei nada sobre isso. Eu não tenho nenhuma ideia sobre isso. Então, isso é chamado de algumas fotos ou você pode dizer um exemplo de uma foto, poucas fotos significa, você pode adicionar mais alguns exemplos e uma foto significa, você está apenas dando mais um exemplo. Portanto, essa é uma boa estratégia que você pode usar quando se trata de alguns exemplos de fotos e parâmetros, onde você pode controlar a aleatoriedade e distribuir muitos tipos de saída generativos que você pode Espero que essa parte esteja clara. Obrigado a todos. 6. Integre o Azure OpenAI ao seu aplicativo: Olá a todos. Hoje, quero mostrar uma demonstração apenas sobre Open AI, mas sobre como você pode integrar seu serviço Open AA ao seu aplicativo. Até agora, já vimos isso, você pode acessar o serviço Open AA no Portal e pode acessar o Open AA Studio e criar implantações e conversar onde você pode configurar as mensagens do sistema e tudo Mas digamos que a mesma coisa que você queira fazer em seu aplicativo. Digamos que haja um aplicativo baseado em SSH ou um aplicativo baseado em Python Como você usaria o Open AI? Basicamente, queremos dizer, digamos que eu tenha um aplicativo baseado em Python, quero integrar o serviço Open Ei Então é assim que vamos fazer isso. Deixe-me levá-lo ao código do Visual Studio, em primeiro lugar, onde eu já tenho um aplicativo baseado em Python Tudo bem. Então, eu estou no Visual Studio. Este é o aplicativo que usaremos , onde você pode ver que temos o serviço Open E, endpoint Open AI e todas essas coisas estão lá Tudo bem. Em primeiro lugar , aqui, você precisa entender que este pacote é o seu Open AA. Então, se você quiser trabalhar com o serviço Open AA, este é um aplicativo baseado em Python, você precisa de um pacote Deixe-me abrir o terminal aqui. Você não precisa se aprofundar nesse código. É só que estou mostrando como você também pode integrar serviço Open AA com seus próprios aplicativos. Deixe-me abrir o terminal antes de tudo, vamos esperar por ele. Está chegando agora. Então PIP install, o nome do pacote, se você quiser trabalhar com serviços Open AA, Open AA, o nome do pacote é OpenA aqui, estou fornecendo a versão que estou procurando Se você não fornecer a versão, ela removerá a versão mais recente. O PIP é um gerenciador de pacotes Python. Assim como no Linux, se você já viu, você faz um aplicativo instalar algum tipo de pacote. Da mesma forma, em Python, se você quiser instalar qualquer pacote, esse é o gerenciador de pacotes que você usará ou, em outras palavras, esse é o comando que você usará PIP install, o nome do É isso que você usará. Antes de tudo, deixe-me instalar este pacote e esperar por ele. Este pacote é necessário se você precisar trabalhar com o serviço Open AA. Então, vamos esperar por esse pacote. Tudo bem. Então, no meu caso, isso já está instalado, como você pode ver, está dizendo que o requisito já está satisfeito, então isso já está instalado no meu caso. Mas agora, deixe-me mostrar o código. Agora, o pacote que instalamos Open AI, estamos importando. Portanto, esse pacote terá muitas funções de classe e todas essas coisas. Então, estamos importando essa classe em particular, você pode dizer, essa é a sua IA aberta, e é isso que estamos fazendo Então, aqui, há um arquivo chamado Dot ENV. Aqui, você precisa fornecer a chave do endpoint e o nome da implantação Você pode acessar o Portal ZR. Você pode ver esses endpoints e chaves aqui. Você pode copiar essas chaves e endpoint aqui e o nome da implantação Se você não tiver certeza de como copiar as chaves e o endpoint, mostrarei em alguns minutos. Depois de fornecer essas coisas aqui, o que estamos tentando dizer é que, por favor, carregue as informações que estão no arquivo DOT ENV Essa é uma configuração que estamos fazendo. Feito isso, inicializamos o cliente Open AI Como você pode ver, estamos fornecendo o nome do endpoint, esse é o único e todas as coisas que estamos fornecendo E essa é a mensagem do sistema. Se você se lembra, em Open AI, tínhamos algo chamado mensagem de sistema sobre como uma IA deveria se comportar. É aqui que eu estou definindo a mensagem do meu sistema. É bem parecido com o que estávamos fazendo no estúdio Open AI. Agora, se eu rolar para baixo, estamos recebendo a entrada do usuário, é o que você deseja. Então é aí que, depois que o usuário fornece algo, enviamos essa coisa para um modelo específico de IA aberta. Como você pode ver, mensagem do sistema é o que estamos basicamente enviando uma mensagem do sistema na parte superior, seja, essa mensagem como uma mensagem do sistema, e uma mensagem do usuário é algo que o usuário está fornecendo. Então, esses são tipos diferentes de papéis. Portanto, a função do sistema significa como a IA deve se comportar e o usuário significa o usuário que interagirá com seu assistente de IA E depois disso, seja qual for o texto gerado, estamos basicamente imprimindo essa resposta específica aqui. É isso que estamos fazendo neste aplicativo. Então, para esse aplicativo, eu só queria mostrar como podemos interagir a partir de nosso próprio aplicativo baseado em Python ou CCA e nos conectar a esse serviço de IA aberta Espero que essa parte esteja clara, pessoal. Obrigado a todos. 7. Como buscar chaves e endpoint do serviço OpenAI: Todo mundo. Então, quero mostrar uma demonstração muito rápida de como obter as chaves e o endpoint do serviço E AA, e aqui, falaremos sobre o serviço Open AA Então, digamos que eu busque como seu serviço Open AA. Eu já tenho um serviço criado. Você pode ver aquele serviço Open AA, que eu já criei. Você pode ver isso aqui, o nome do serviço. Se eu clicar neste serviço, você pode acessar isso no lado esquerdo , gerenciamento de recursos. Ah, aqui, as chaves e o endpoint serão exibidos. Então, essas são as chaves e o endpoint que você precisa fornecer em seu aplicativo, esteja você fazendo um aplicativo base CSA ou um aplicativo baseado em Python Isso é o que você precisa copiar. Qualquer uma das chaves que você pode copiar e o ponto final. Esse é o endpoint que você pode copiar aqui em seu aplicativo Além disso, para o serviço Open A, você também precisava de um nome de implantação. Assim, você pode ir ao Open AA Studio e criar uma implantação e copiar a implantação também lá. Então, espero que essa parte esteja clara. Obrigado a todos. 8. O que é engenharia imediata: Olá, pessoal. Hoje, vou falar sobre um conceito chamado de o que é engenharia rápida? Vamos entender exatamente o que é uma engenharia rápida. E é um conceito muito importante quando se trata dessa IA. Digamos que você esteja usando um aplicativo baseado em IA, digamos que seja copiloto ou copiloto, e pergunte algo para essa cobrança p. O que acontecerá, você receberá uma resposta. Mas se você quiser resultados mais precisos e mais relevantes, tente ser mais descritivo É aí que você está fornecendo o estilo que deseja. Basicamente, quando você fornece a solicitação ao co-piloto responsável, essas ferramentas tentam maximizar a relevância sendo de natureza descritiva ou tentam fornecer a precisão do que você deseja Deixe-me dar um exemplo aqui. Agora, digamos que eu tenha dois exemplos aqui sem engenharia rápida e com engenharia rápida. Agora, digamos que eu simplesmente diga isso. Conte-me sobre o conceito de inteligência artificial. Isso gerará esse tipo de coisa. A inteligência artificial é uma simulação da inteligência humana e das máquinas. É isso mesmo. Mas se for com engenharia rápida, forneço instruções específicas mais descritivas Explique o conceito de inteligência artificial, usando uma linguagem simples adequada para um Bagner Isso significa que, aqui, estou tentando ser mais descritivo para obter alguns resultados relevantes e precisos Então, aqui, você obterá respostas como inteligência artificial, como ensinar computadores a aprender a tomar decisões por conta própria, da mesma forma que os homens fazem. Agora, você pode ver basicamente a resposta. Eles têm uma engenharia muito rápida. O conceito é muito fácil de entender. É aí que você tenta ser mais descritivo por natureza. Deixe-me dar mais um exemplo. Digamos que, simplesmente, eu queira uma tabela no formato markdown com três provedores de nuvem junto com a descrição Agora ele vai gerar esse tipo de tabela para mim. Se você simplesmente disser que quero o nome desse provedor de nuvem específico junto com a descrição, não forneceremos a tabela ou algo parecido. Mas se você quiser a tabela, tente ser mais descritivo, eu quero uma tabela em markdown para ela . É isso que você está procurando. engenharia rápida é se você quiser um resultado preciso, resultado relevante, tente ser mais descritivo Então, espero que o conceito de engenharia rápida seja claro. Obrigado a todos. 9. Gere código com o Serviço Azure OpenAI: Ou um. Nesta palestra, falaremos sobre como você pode gerar código e também com seu serviço Open eye Vamos falar sobre o que exatamente é essa geração de código. Agora. Agora, você pode usar somente instruções em linguagem natural, mesma forma que pode usar o conceito de engenharia rápida para descrever claramente o que você deseja Já discutimos sobre engenharia rápida. Se você quiser uma resposta relevante, tente ser mais descritivo para que você possa obter a resposta como o que você está procurando Digamos que, neste exemplo, eu esteja dizendo que você precisa escrever uma função para pesquisa binária e aquela para qual linguagem eu estou falando em Python Então, isso gerará um código para mim. Agora, a mesma coisa se você quisesse em C Sharp, você teria escrito como escrever uma função para uma pesquisa binária em C sharp, talvez em uma linguagem de programação diferente. Você precisa usar o conceito de engenharia rápida para descrever claramente o que você deseja. Agora, deixe-me levá-lo ao portal do Azure para que eu possa mostrar como você pode fazer e como usar os prompts de linguagem natural para gerar o código Deixe-me levá-lo até o pote Azure. Tudo bem. O primeiro passo seria, novamente, criar o serviço Open AA somente porque, para isso, também precisaríamos desse serviço Open AA Deixe-me criar esse serviço Open AA. Vamos esperar por isso. Tudo bem. O serviço My Open A é basicamente implantado. Eu vou para este Open E Studio agora. Então, eu clico neste estúdio Open EA desta vez. Tudo bem. Então, eu estou no estúdio Open AI agora. Agora, o que vou fazer, novamente, vou para esse playground de bate-papo porque quero gerar o código em um formato de linguagem natural. Mas antes do bate-papo, o que precisamos fazer é criar uma implantação. Então, usaremos esse d de implantação aqui. Eu fornecerei a implantação. Digamos que o modelo, novamente, eu esteja usando esse modelo GPT turbo 16 k. nome da implantação é, digamos que seja para cogeração, então vou escrevê-la como modelo de cogeração e filtros de conteúdo padrão Eu não acho que deveria haver um espaço e depois disso, vamos esfolar o concreto Vamos esperar por isso. Depois que isso é implantado, essa implantação é implantada Agora o que posso fazer é acessar minha funcionalidade de bate-papo aqui. E eu posso fornecer essas coisas. Como você pode ver, três coisas são muito importantes. Uma é sua parte de configuração aqui, e aqui, a outra é sua parte de configuração aqui. Você pode ver essa configuração. Sua configuração também está lá, você pode ver que a parte de configuração é a terceira é sua sessão de gráfico. Como você pode ver aqui, essa é a funcionalidade, que é uma sessão de gráfico. Aqui, não é escrito como uma sessão de gráfico, mas é chamado de sessão de gráfico. Portanto, três coisas são muito importantes quando se trata de mapear o playground. Uma é sua parte de configuração. Uma é sua sessão de gráficos, que é esta, e a terceira é sua configuração. Agora, deixe-me dizer o que exatamente são essas três coisas. Deixe-me levá-lo a um dos slides. Tudo bem. configuração é usada para definir o contexto da resposta do modelo, onde vimos uma mensagem semelhante ao sistema, qual você pode dizer à sua IA como ela deve se comportar. É aí que configuramos o contexto na sessão de configuração. E a sessão de bate-papo é algo que já vimos e costumava enviar as mensagens de bate-papo e visualizar as respostas, certo? Um usuário dirá uma mensagem e você receberá a resposta, certo? A configuração é basicamente para que as configurações de implantação do modelo definam as configurações para a implantação do modelo. Isso é o que você pode fazer dentro do modo de configuração. Agora, deixe-me levá-lo ao portal do Azure volta ao portal do Azur Tudo bem. Então, agora, deixe-me configurar a mensagem do sistema, em primeiro lugar. Como você pode ver, se você clicar na opção de dica de ferramenta aqui, você pode ver isso Isso é apenas dar instruções ao modelo sobre como ele deve se comportar. Essa é uma mensagem do sistema. Então, aqui, atualmente, a mensagem que está definida como, você é um assistente de IA que ajuda as pessoas a encontrar informações. Em vez disso, vou escrever algo assim. Você é um assistente de programação ajudando a escrever código. É para isso que estou configurando a mensagem do sistema. Posso clicar em Aplicar alterações aqui. Vamos esperar por isso. Agora, uma vez feito isso, o que posso fazer é essa funcionalidade de gráfico aqui, a sessão do gráfico, e dizer, digamos, escrever uma função em Python que usa um corretor e uma string como entrada e retorna quantas vezes um corretor aparece Assim, posso inserir e ver as respostas aqui. Você pode ver isso. Ele também completou o código. E se você quiser ver a resposta JSON como vimos em nosso aplicativo, você pode ver tudo em um formato JSON Como a mensagem do sistema como a qual você definiu a função, você é um assistente de programação, e as mensagens do usuário, o que o usuário está pedindo. Isso é o que você está dizendo, um assistente é, qual é exatamente a resposta você está recebendo. Isso é uma ajuda. Portanto, existem três tipos de funções: no sistema, seção Usuário no assistente, aqui. Então, agora eu posso usar minha engenharia rápida aqui. E posso simplesmente dizer que estou procurando um código, digamos, no mesmo código no formato CSA É aí que eu também posso fornecer essas coisas aqui na sessão de bate-papo. Assim, você pode gerar o código e seu estúdio Open AI no playground de bate-papo. Era sobre isso que eu queria falar. Então, espero que essa parte esteja clara, pessoal. Obrigado a todos. 10. Gere código com o Azure OpenAI Service do aplicativo: Todo mundo. Então, faremos uma demonstração sobre gerar o código com seu serviço de IA aberta. Mas desta vez, faremos partir do nosso aplicativo básico em Python Já vimos que você pode criar um recurso de IA aberto e ir ao playground de bate-papo ali configurar a mensagem do sistema usar a sessão de bate-papo usar as configurações e tudo mais. Mas desta vez, se quisermos usar a mesma coisa, mas a partir do aplicativo baseado em Python, como faremos isso Vou apenas levar você até esse código baseado em Python para que você possa entender o que exatamente está Deixe-me levá-lo até o código. Tudo bem. Este é o código aqui, código baseado em Python Novamente, precisamos do pacote Azure AI aqui, então você precisa instalá-lo usando o PEP. Novamente, é obter as chaves do ponto final e a implantação desse arquivo ANV de pontos, você precisa ter um arquivo ANV de pontos, que é algo que estaria lá dentro, e você precisa fornecer esses detalhes E aqui, você pode ver isso. Temos duas funções principais. Nos códigos de amostra, temos dois arquivos. Funções e vá pescar a função Python. Existem duas funções . Então, se o usuário pressionar, digamos um. O que vai acontecer, ele adicionará comentários a esta minha função. Isso significa que este é o código escrito aqui nesta parte específica, que é usado para calcular o número quadrado absoluto, você pode entendê-lo aqui, e ele gerará simplesmente o que gerará. Isso apenas adicionará alguns comentários à função. Se você pressionar dois, ele criará testes unitários para essa função, e se você pressionar três, ele corrigirá essa função específica do Python, que é essa, a função go fish, é o que está acontecendo aqui Agora, a mesma coisa. Você solicitará uma solicitação aqui, e definimos a mensagem do sistema Como você pode ver, haveria algo chamado mensagem do sistema. Foi aí que já falamos sobre como sua IA deve se comportar. Que você é um assistente de IA útil que ajuda os programadores a escrever código Aqui, a mensagem do usuário é o que o usuário está fornecendo no prompt, uma, duas, três é exatamente o que o usuário está fornecendo aqui. Agora, depois disso, qualquer que seja a resposta que você receberá, armazenada em um arquivo, você pode ver isso aqui dentro desse arquivo de resultados. Aplicativo de resultados dot TC. Dentro dela, há uma pasta chamada de resultados e tudo o que ela gerará, será armazenado aqui dentro desse arquivo chamado App dot TXT É isso que está acontecendo nesse código específico. Quando se trata disso, queríamos apenas mostrar esse código específico para que você possa entender que pode aproveitar seu serviço OpenI novamente para gerar o código também a partir deste kit de desenvolvimento de software Esses são os pacotes que você pode usar e que já existem no Python, C SHOP e também em outras linguagens de programação Espero que essa parte esteja clara, pessoal. Obrigado a todos. 11. Filtros de conteúdo de demonstração Lição 16: Todo mundo. Eu só quero mostrar a você esse laboratório específico que eu aprendi, que é sobre como explorar os filtros de conteúdo. Falamos sobre filtros de conteúdo se você quiser bloquear qualquer solicitação ou conclusão prejudicial É aí que podemos usar esses filtros de conteúdo. Por padrão, quando você basicamente cria um recurso ao ar livre, é aí que já vimos como criar um recurso ao ar livre com essas coisas. Quando você implanta um modelo, digamos que você esteja implantando um modelo turbo GPT 35 Agora, na seção avançada, por padrão, esse filtro de conteúdo é ativado por padrão. Agora, o que acontecerá se o filtro de conteúdo estiver ativado? Qual exatamente o benefício que você receberá? Digamos que, na sessão de bate-papo, você pergunte algo como descrever as características de um povo escocês e simplesmente configure a mensagem como se um fórum racista de IA que faz declarações depreciativas com base em Agora, o que acontecerá se você tiver esse filtro de conteúdo ativado por padrão A solicitação de ser racista e depreciativo não é Por quê? Só por causa desses filtros de conteúdo. Portanto, isso evitará qualquer tipo de saída ofensiva, pois os filtros de conteúdo estão à sua disposição. Mas e se você quiser personalizar esses filtros de conteúdo com base no seu, você sabe, o modelo personalizado? Isso também é que você pode usar. Você pode criar seu próprio filtro de conteúdo personalizado com base nessas categorias, como ódio, violência sexual e automutilação. Essas são as categorias que existem quando se trata de conteúdo nocivo que você também pode bloquear. Além disso, você pode ver que também pode configurar a gravidade dessas categorias específicas como segura, baixa, média alta. Você também pode criar seus próprios filtros de conteúdo personalizados. Isso é uma coisa importante que eu queria te mostrar. Espero que essa parte esteja clara, pessoal. Obrigado a todos. 12. Gere imagens com o Serviço Azure OpenAI: Todo mundo. Hoje faremos uma demonstração sobre como gerar imagens também onde este é o seu serviço Open EI. Até agora, estávamos usando o modelo GPT para gerar nosso código ou coisas de linguagem natural Agora, usaremos algo chamado modelo Dally para esta parte de imagens modelo Dally é usado para gerar as imagens onde você fornecerá alguma descrição Você também pode fornecer o conteúdo e o estilo específicos que você está procurando. É isso que vamos usar. Então, usaremos esse modelo de Dally aqui. Deixe-me levá-lo ao portal do Azure para que possamos criar um modelo Dally Deixe-me levá-lo até o portal. Tudo bem Então, eu estou no portal. Vou procurar esse serviço Open AA. Vou clicar neste Open AA Service. Tudo bem Então esse é o serviço Open A que eu já havia criado, então eu clico nesse serviço Open AA. Primeiro de tudo, para que eu possa mostrar a vocês o modelo Dali de que estávamos falando Eu clico neste serviço Open AA e vou para o Open EA Studio. Nós o abrimos. Tudo bem Vou rolar para baixo e dizer, vá para Open A Studio. Espere por isso. Tudo bem Então, eu estou no Open A Studio e vou usar esses modelos DaLi porque quero gerar algumas imagens usando o texto Então eu clico nesse modelo DI aqui. Vamos esperar por isso. Tudo bem Estou nesse modelo Dally. Então, nos bastidores, o que acontecerá, automaticamente, ele criou uma implantação com esse nome chamada de Daly three. Assim, você pode ir até a implantação e criar a implantação, mas nos bastidores, o que acontecerá, mesmo que se você vier a esse playground chamado de Dali, ele criará automaticamente uma implantação Tivemos que criar uma implantação para um playground de gráficos. Você também precisou criar uma implantação para isso usando esse modelo específico Dali Então, ele foi criado automaticamente, chamado de Daly three. Agora, digamos que eu forneça esse aviso específico de que um elefante está andando de skate É nisso que estou procurando gerar uma imagem. Vamos esperar por isso. Tudo bem Então você pode ver isso. Ele gerou uma imagem com base na solicitação que eu disse. Agora, você pode definitivamente aprimorá-lo fornecendo algumas coisas extras que você está estilizando, o que você está procurando, talvez um elefante elefante em um skate na forma de um pcacco Definitivamente, você pode aprimorá-lo. Então é aí que você pode usar o modelo S basicamente para gerar uma imagem com base no seu texto. Isso é o que eu queria te mostrar. Então, espero que essa parte esteja clara, pessoal. Obrigado a todos. 13. Demonstração Gere imagens a partir do aplicativo: Olá, pessoal. Hoje, mostrarei uma demonstração sobre a geração de imagens a partir do aplicativo baseado em Python Agora, deixe-me levá-lo até o aplicativo. Agora, neste aplicativo, você notará que não estamos usando nenhum tipo de biblioteca ou pacote que usamos PIP install ou qualquer tipo de Open AI, como você pode ver Eu não tenho do Open AI Import, nada parecido, porque nesse arquivo Python em particular, estamos usando basicamente a API Estamos usando algo chamado API. Agora, as coisas permaneceriam as mesmas. Como você pode ver no arquivo Dot NV, você precisa fornecer o nome do endpoint e a parte principal aqui E aqui na seção de aviso, você fornecerá o tipo de imagem que está procurando. Agora, essa é a API que estamos chamando. Então, aqui, você pode ver essa base de API. Isso significa que o nome do endpoint, base da API é o quê, o nome do seu endpoint, slash ON AI slash deployment, slash Dalit, slash Dalit Esta é a versão APA que você está fornecendo. Então essa é a API que estamos usando. Para chamar o para gerar uma imagem. Agora, se eu rolar para baixo, estamos fornecendo as chaves e procurando na forma de resposta JSON, certo? E no corpo, você fornecerá exatamente o aviso, fornecerá quantas imagens deseja e poderá fornecer o tamanho dessa imagem. Isso é o que você pode oferecer. Certo? Agora, depois obter a imagem, basicamente, depois de obter a resposta, o que está acontecendo aqui, ele exibirá a URL da imagem gerada. Basicamente, haveria uma URL que seria gerada nesse arquivo Python específico, e você pode ver essa URL específica, e você pode. Depois de clicar basicamente nessa URL, você poderá ver a imagem que foi Novamente, estamos usando o aplicativo baseado em Python, mas não estamos usando o SDG desta vez, o kit de desenvolvimento de software kit de desenvolvimento de software é alguma coisa, as bibliotecas pré-construídas ou os pacotes. Ou onde estamos chamando a EPA. O EPA também é uma das maneiras pelas quais podemos interagir com o serviço PEA Não é como se o OPE EPAS disponível apenas para o modelo D. Na verdade, até agora, qualquer aplicativo Python em que estávamos trabalhando, onde usamos, gerou o código e todas essas coisas, esses endpoints da EPA O SDK é um dos métodos e o APA é um dos métodos. Espero que essa parte esteja clara, pessoal. Obrigado a todos. 14. Como usar seus próprios dados com o Azure OpenAI Service: Ele é todo mundo. Então, hoje vamos entender como você pode usar seus próprios dados como seu serviço Open EA. Até agora, estávamos dando alguns exemplos em nosso serviço OpenI de que esse é o tipo de resposta que queremos, mas também podemos usar seus próprios dados com esse serviço Open AA Mas antes de tudo, vamos entender a diferença entre esse ajuste fino em que estávamos dando exemplos e usando seus próprios dados. Agora, o ajuste fino é uma técnica usada para criar um modelo personalizado em que já temos um modelo como o TPT 35 Turbo, e estamos fornecendo alguns exemplos e tudo mais Basicamente, você personaliza o modelo fornecendo exemplos para obter a mesma resposta de alta qualidade. Mas esse processo é um pouco demorado. Talvez, se digamos que você não está recebendo essa resposta, talvez seja necessário dar mais alguns exemplos. Isso é demorado e só deve ser usado para casos de uso sempre que necessário. Mas há mais uma maneira pela qual também podemos usar algo chamado de usar seus próprios dados. Você pode especificar as fontes , pois você já tem suas bases de conhecimento com base nas informações disponíveis na sua fonte de dados. Na fonte de dados, você também pode colocar seus dados como seu recurso de pesquisa. Basicamente, ele coletará os dados e fornecerá a resposta. Essa resposta, em que usamos seus próprios dados definitivamente terá um pouco mais de precisão. Agora, essa técnica também é chamada de ernação aumentada rival Isso é R AG. Agora, o que exatamente é. É uma arquitetura que aumenta a capacidade de grandes modelos de linguagem Já temos algo chamado modelos de linguagem grande e adicionamos o sistema de recuperação de informações que fornece dados básicos. Por exemplo, como sua pesquisa de IA. Portanto, em nossa pesquisa de IA do Azure, podemos fornecer algumas fontes de dados. Podemos colocar nossa base de conhecimento lá e ela pode recuperar essas informações desse recurso específico chamado Azure AI search Então, falamos sobre algo chamado ajuste fino e uso de seus próprios dados. Então, faremos um laboratório em que usaremos uma técnica chamada usar seus próprios dados desta vez. Então, espero que essa parte esteja clara, pessoal. Obrigado a todos. 15. Como usar seus próprios dados com o Azure OpenAI Service: Olá, pessoal. Então, hoje, faremos uma demonstração sobre como usar seus próprios dados com o serviço ER Open EA. Deixe-me levá-lo ao Portal Z. Tudo bem Então, eu estou no Portal. Vou procurar um serviço chamado ASR Open AA. Então, eu já tinha criado um serviço Open AA, vou usar esse serviço e vou abrir o Open EE Studio, certo? Deixe-me abrir este estúdio Open A agora. Tudo bem Então, vou usar isso para abrir um estúdio. Vamos esperar por isso. Tudo bem Estou no Open A Studio. Irei para essa implantação, primeiro lugar, porque precisamos criar uma implantação. Então, eu já havia criado uma implantação para uma fonte de dados. Agora você pode ir para este chat, parquinho aqui no lado esquerdo. Vamos esperar por isso. Tudo bem Agora, aqui, vou fornecer como este. Digamos que eu diga isso. Eu gostaria de fazer uma viagem para Nova York. Onde eu deveria ficar? Isso é o que eu estou procurando. Vamos tentar conversar. E isso me dará alguma resposta, e é isso que está captando. Agora, até agora, tudo o que esse modelo LLA sabe, ele está nos dando as informações, certo? Mas e se quisermos fornecer nossos próprios dados? É aí que usaremos esse conceito chamado de adicionar seus dados aqui, certo? Então, vou clicar em adicionar seus dados, clicar em adicionar uma fonte de dados e vou dizer carregar arquivos aqui. Então, eu tenho alguns dos arquivos PDF lá, e você precisaria, para fazer o upload dos arquivos, eu usarei uma conta de armazenamento Então, eu já criei uma conta de armazenamento e vou selecionar essa conta de armazenamento aqui. Basicamente, para que ele possa buscar arquivos PDF a partir daí. Eu vou te mostrar esses arquivos PDF também. Deixe-me mostrar de fato esses arquivos PDA. Deixe-me levá-lo para aquela conta de armazenamento. Tudo bem Tudo bem Então, vou para a conta de armazenamento e escolho a seção de conta de armazenamento aqui Espere, e eu vou até os contêineres do lado esquerdo. Então, eu criei um contêiner chamado de dados de viagem. Eu clico nele. E esses são alguns dos PDS que estão lá Então, basicamente, o que eu quero. Sempre que a IA basicamente me responder na sessão de bate-papo, quero que o assistente de IA encaminhe esses PDS e obtenha o melhor resultado, certo? Isso é o que eu quero. Então, vou voltar para o meu estúdio Open AI. Tudo bem E eu vou selecionar desta vez. Digamos que eu simplesmente diga isso. Eu também precisaria de um recurso de pesquisa de IA porque os dados serão indexados nesse recurso específico Então eu clico nisso. Tudo bem Estou no recurso de pesquisa. Vou selecionar meu grupo de recursos. E digamos que isso seja novamente para pesquisa de dados. Recurso. Então, números aleatórios, e eu os selecionarei na mesma região, digamos, no TS, e vou usar a configuração padrão e clicar em Revisar e criar. Vamos esperar por isso. Agora, vamos clicar em Criar. Tudo bem Então eu clico em ir para a seção de recursos aqui. Tudo bem Então isso é criado. Vou voltar para o meu estúdio Open A mais uma vez. Tudo bem Vamos esperar por isso. E deixe-me atualizá-lo. Eu vou selecioná-lo. Espere por isso. Tudo bem Então, vou fornecer o nome do índice, digamos. Margie Stribl Então, Margie, digamos que eu trabalhe para uma empresa chamada S Marge e é aí que eu forneço o nome do índice Então, basicamente, o que acontece. A conta de armazenamento é ter seus dados na forma de um PDA Mas os dados que serão indexados. Índice, considere que o índice será como uma tabela em que você terá linhas e colunas. Então é aí que damos o nome desse índice como Margie Stribl É isso que vamos usar, certo? Agora vou clicar no próximo aqui. Tudo bem Então, vou clicar em. Da próxima vez. Agora, ele está me pedindo os arquivos. Basicamente, eu já o tinha enviado para o Stowe, mas digamos que eu queira fazer isso de novo, então vou clicar em procurar arquivos e enviá-los aqui Tudo bem Eu enviei todos os meus arquivos aqui. Você pode ver isso. Vamos clicar em carregar arquivos. Espere por isso. E vamos clicar em Avançar. Seção. Aqui, vou usar o tipo de pesquisa por palavra-chave com base na palavra-chave. É por isso que vou escolher a palavra-chave. Depois disso, clicarei em Avançar. Vou usar esta seção de chave de API aqui para a parte de autenticação. Vou clicar em Avançar. Vamos esperar por isso. Você pode ver isso. Temos um contêiner, é aí que ele me mostra o nome do contêiner, e esse é o recurso de pesquisa. É isso que está acontecendo. Todos os arquivos foram enviados. Vamos clicar em, salvar e fechar. Todos dizem que a ingestão está em andamento. Vamos esperar por isso. E depois disso, tentaremos fazer a mesma pergunta e veremos se ela está se referindo à fonte de dados ou não. Tudo bem Então, isso está feito. Clique em Prompt mais uma vez e tente ver se estamos recebendo a resposta agora. Vamos rolar para cima. Vamos limpar o bate-papo. E tente conversar mais uma vez. E eu digo, eu gostaria de fazer uma viagem para Nova York. Onde eu deveria ficar? Vamos esperar por isso. Agora, você pode ver isso. Você pode escolher entre as seguintes acomodações oferecidas pela March Travel. Também me permite reservar na Marge Travel. Foi aí que eu forneci essa fonte de dados. Então, ele está me dando o nome apenas dos arquivos PDF que eu enviei. Então, uma coisa que vimos é que o ajuste fino, o ajuste fino foi dar exemplos e tudo mais. A primeira é usar seus próprios dados. Foi aí que usamos nossos próprios dados, certo? Então, espero que essa parte esteja clara, pessoal. Obrigado a todos. 16. Visão geral das práticas de IA responsável para o modo Azure OpenAI: Todo mundo. Então, faremos uma prática de IA responsável para garantir um modelo de IA aberta. Sempre que você estiver desenvolvendo alguns dos modelos de IA aberta, precisa seguir algumas das recomendações da Microsoft para as práticas responsáveis de IA. Agora, vamos primeiro entender. Muitos desses são seus modelos de IA aberta, que também nada mais são os modelos generativos de IA que fizeram melhorias em seu conteúdo, resumo e na pesquisa da cogeração Mas com essas melhorias, definitivamente, existem alguns desafios, como conteúdo prejudicial que os usuários podem gerar. Eles podem ter privacidade. Eles também podem ter a privacidade dos dados, um dos fatores importantes que também pode ser um desafio. Como mitigar esse tipo de risco Agora, já aderimos a alguns dos princípios de IA responsável, onde falamos sobre justiça, privacidade e segurança, confiabilidade e segurança e Mas, em alinhamento com esses padrões de IA responsável da Microsoft, existem algumas recomendações, especialmente para esses modelos abertos de IA, e essas recomendações são organizadas em quatro estágios O primeiro é identificar. Isso significa identificar os possíveis danos. Por exemplo, você pode identificar os possíveis danos que podem resultar do seu sistema de IA por meio testes de estresse iterativos ou de uma forma de análise Por exemplo, você está desenvolvendo um aplicativo baseado em gráficos. Portanto, você precisa entender se seu aplicativo está gerando algum tipo de conteúdo ofensivo, discriminatório Você precisa identificar esses possíveis danos. Essa é a primeira etapa. Isso é chamado de estágio de identificação. Portanto, gerando conteúdo que incentive comportamentos ilegais ou antiéticos Você precisa identificar esse tipo de risco. Essa é a primeira etapa. Agora, a segunda é a medida. Medir significa que você precisa medir a frequência e a gravidade desses danos. Talvez você também possa fazer um teste manual ou automatizado para ver se há algum tipo de gravidade ou conteúdo prejudicial que ele está gerando ou não. Você também pode fazer algum tipo de teste para seus dados. Agora, mitigue. Mitigar significa que você precisa remover esses danos em várias camadas da sua solução Por exemplo, no R Open AI, você também pode usar um filtro de conteúdo, onde há algo chamado existem diferentes categorias nas quais você pode filtrar o conteúdo com base em determinados fatores. Assim, você pode usar um dos servidores que estão lá como sua IA aberta, chamados de filtros de conteúdo. Agora, opere. Agora, os últimos estágios operam, onde você executa uma implantação e o plano de prontidão operacional Por exemplo, você pode criar um plano de resposta a incidentes que inclua quanto tempo será necessário para responder a incidentes imprevistos Você também pode ter um plano de reversão que define as etapas para voltar ao estado anterior no caso de qualquer tipo de incidente É aí que você também desenvolverá esse plano operacional. Agora, falamos sobre filtros de conteúdo em open A. O que exatamente são esses filtros de conteúdo. Agora, filtros de conteúdo são aplicados ao prompt ou ao preenchimento para evitar que qualquer linguagem prejudicial ou ofensiva seja germinada É aí que está sua IA aberta. É baseado nas quatro categorias. Uma é que você também pode fazer isso com base no ódio. Agora, você também pode restringir o conteúdo sexual e não querer gerar nenhum conteúdo sexual Você tem categorias diferentes. Uma é a violência que descreve, defende ou glorifica a Você também pode se machucar, aquela linguagem que descreve ou encoraja a automutilação Você pode criar a restrição com base nessas categorias. Agora, os filtros são sempre aplicados nessas categorias e eles também têm algo chamado de configuração de severidade como segura ou baixa, média alta para determinar quais tipos específicos de linguagem são interceptados e evitados pelos filtros É nisso que você pode usar os filtros de conteúdo como sua IA aberta. Então, espero que essa parte esteja clara quando se trata dos princípios de IA responsável, especialmente relacionados ao serviço de IA aberta. Obrigado a todos.