Transcrições
1. Visão geral do curso: Ah, todo mundo. Bem-vindo à seção de visão geral do
curso do AI 050, que é uma solução de IA
generativa com seu serviço de IA aberta Agora, vamos falar
sobre esse curso. Agora, este é o curso sobre desenvolvimento de soluções generativas de
IA, isso é o que
já discutimos Agora, em primeiro lugar,
não há nenhum exame específico que você possa
agendar para este curso. Este é um curso
para seu conhecimento, mas não há nenhum exame como tal, que existe atualmente
para este curso. Mas agora, as pessoas me perguntarão qual vantagem teremos
se fizermos esse curso. Suponha que você esteja optando por qualquer outra certificação baseada em IA, talvez AI 900 ou AI um ou dois. Esse tópico é comum a todas as certificações baseadas em
IA. Isso significa que esse
é o tópico que você encontrará em cada tópico
específico. Cada exame em particular,
isso é AI 900 AI um ou dois. Esse é um importante serviço de IA
aberta, um
serviço importante da Microsoft se você quiser criar soluções
generativas de IA Este é um
curso específico importante, eu diria. Agora, quais coisas são abordadas neste curso,
vamos entender? Esses
são os módulos abordados neste curso, Deploy Open A resource
e OpenAI model Você pode desenvolver, você sabe, os diferentes modelos existentes quando se
trata desse OpenAI, como o modelo GPT, modelos de
incorporação, o modelo
Dali, como gerar o código, como gerar algo chamado imagens com base na Então você encontrará muitos módulos
diferentes aqui, modelos
estranhos aqui Você também encontrará algo chamado de modelo de linguagem grande. Falamos sobre o que exatamente são
os grandes modelos de linguagem. Além disso, você
verá como pode usar esse serviço de IA aberta
com seus dados. Open AI é um serviço
baseado na Microsoft onde você pode criar
o conteúdo generativo Você deve ter visto
aplicativos como o CAT GPT Isso é
totalmente baseado em aplicativos generativos baseados em
IA Podemos criar esses aplicativos baseados em
IA usando esse
serviço específico Colles Open AI Espero que essa parte esteja clara, pessoal. Obrigado a todos.
2. O que é IA generativa: Olá, pessoal. Então, hoje, falaremos sobre
IA nativa. Vamos falar sobre isso. Então, a IA nativa é uma categoria
de recursos dentro da solução de IA que cria uma resposta semelhante à humana ou
cria um conteúdo original. Ele pode criar o
conteúdo em
vários formatos, como
sua linguagem natural. Ele pode gerar imagens. Eu também posso fazer uma
geração de código. Por exemplo, geração de
linguagem natural, descreva o que cria
o conteúdo original. Por exemplo, o aplicativo
que você deve ter ouvido falar sobre o copilot ou o CA GPT, onde você fornece o que está procurando,
fornece as instruções Digamos que você possa escrever
uma descrição do cargo para executivo ou associado de desenvolvimento de
pragas? Você obtém a resposta, que é bastante semelhante
ao conteúdo original ou à resposta
humana. É aí que a UE pode usar
esses recursos
chamados de IA incentivada Agora, a segunda
é a gnação de imagens. Por exemplo, alguns aplicativos baseados em IA
generativos de aplicativos podem receber uma resposta, uma solicitação humana e gerar
uma imagem apropriada Por exemplo, você pode acessar
esta barra de criação do bing.com, onde dirá que quero essa imagem específica com
base nesse texto específico Você fornece o
texto e
obterá uma imagem com base no seu texto. Você pode ver um
arco-íris ou uma cachoeira, e isso gerará
uma imagem para Ele também pode fazer algo chamado geração
de código, que você projeta ou ajuda seus desenvolvedores de software a
escrever códigos. Por exemplo, posso dar as
instruções como quiser, escrever o código Python para
multiplicar dois números e ele gerará
um código python É aí que também podemos fazer a gnação da linguagem
natural, doação de imagens e
geração de código Agora, como esses aplicativos generativos de
IA funcionam? Ou o que exatamente existe nos
bastidores? Então, nos bastidores, esses aplicativos generativos
baseados em IA são alimentados por grandes modelos de
linguagem Não se preocupe, você não
precisa se aprofundar nisso. Você não receberá nenhuma pergunta no exame relacionada ao LLM, mas é bom conhecer
grandes modelos de linguagem Agora, modelos de linguagem grande seguem basicamente essa arquitetura de modelo de
transformador Agora, há três
etapas
nessa arquitetura.
Uma é a canização Digamos que você tenha a
declaração como aqui. Eu ouvi um cachorro estacionar em
voz alta em um gato. Assim, cada
palavra em particular receberá um valor de texto exclusivo
ou um número de texto. Como você pode ver, I um, o símbolo ouvido é
dois, A é três. Agora, A está se repetindo
duas vezes aqui, mas está recebendo um
único símbolo de cinco Então, cada palavra, símbolo,
nada mais é do que uma palavra
ou parte do quê. E a técnica de decompor seu texto em token é
chamada Essa é a primeira etapa em seus grandes
modelos de linguagem. Agora, o que é isso? Agora, esses são apenas números. Como criamos uma relação
entre esses números? É aí que temos um segundo método
chamado de incorporação. É aí que agora essa incorporação
específica,
como você pode ver, aquele skate, temos valores de
várias matrizes,
está aqui Então, criamos um relacionamento
entre esses tokens após essa primeira etapa que é a tokenização,
chamada É aí que criamos uma
relação entre tokens. Agora, a terceira etapa é
capturar a força da relação entre os
símbolos e a atenção, como atribuir mais peso ao ouvido e ao
cachorro. E represento que ouvi
um cachorro como Victor. Então é assim que esses aplicativos
generativos de IA são baseados em grandes modelos de
linguagem, LLM Agora, o que é uma IA aberta então? Agora, para usar
seu aplicativo generativo
baseado em IA, você precisa usar um serviço
chamado ASR Open AI, enquanto seu OpenI é uma solução
baseada
em nuvem
da Microsoft para implantar esses É aí que vamos usar
isso como serviços OpenA. Então, falaremos
mais sobre o serviço OpenA. Vamos entender. Portanto,
no serviço ASR OpenA, já
existem modelos
pré-treinados Você não precisa
escrever esses modelos LLM. Já existem
modelos treinados. Por exemplo, você pode usar quatro módulos
GPT para sua geração de linguagem
natural Se você quiser criar
um aplicativo como o CA GPT ou o copilot, você pode usar o modelo CPT, onde ele também pode gerar
e entender a linguagem natural
e o código Portanto, para geração de código ou geração de
linguagem natural, você pode usar o modelo GPT four Modelo de incorporação que você
pode usar se quiser converter seu texto em formato vetorial
numérico Você pode usar um modelo
chamado Dal, onde ele pode separar as imagens
da linguagem natural. Portanto,
esses modelos de LLA já
estão presentes em
seu serviço Open AA Muito importante do ponto de vista do
exame, bem como para a finalidade de todos os modelos que
você usará,
digamos, para a geração de
linguagem natural. Você pode usar o GPT. Há uma dúvida:
qual modelo você
usará se quiser
gerar as imagens a partir da linguagem natural, você pode usar um modelo Dally Então, usaremos
esse serviço Open AA. OK. Então,
falaremos mais sobre como seu serviço Open AA
na próxima palestra. Então, espero que essa parte esteja
clara. Obrigado a todos.
3. IA aberta do Azure: Pague um. Então, vamos explorar mais sobre como
seu serviço Open A agora. Agora, o serviço Pen A
não é algo disponível
para todos os clientes. Você precisa solicitar acesso
ao serviço Open AA. Agora, como fazemos
isso? Agora você pode usar este formulário para solicitar acesso a este serviço AR
Open EA, ou você pode acessar esta URL e haverá
um formulário da Microsoft. Agora, não é como se
você
solicitasse o acesso e recebesse o acesso. Não. É para empresas, em
primeiro lugar. Não é apenas para fins
práticos, você solicita o acesso
e você receberá. É para empresas
que estão criando o
aplicativo generativo baseado em IA, e elas verão Isso se sua empresa estiver qualificada para esse acesso ao
serviço Open EA ou não. Agora, por que esse acesso é limitado, apenas por causa de alguns dos princípios
responsáveis da EI. Na verdade, existem pessoas que também podem usar esse aplicativo
de forma prejudicial, e há muito poder
computacional sendo usado no solo
para esse serviço Open AA Portanto, nem todo mundo terá
acesso a esse serviço OpenA. Você precisa
primeiro preencher o formulário. E depois de algum tempo, você será notificado se você tem acesso a esse serviço
Open AA ou não. Então, é só para empresas. Não é como se você pudesse fornecer ao seu endereço de e-mail um endereço de e-mail
pessoal
e o acesso será concedido, não. Agora, deixe-me
levá-lo a este formulário e ver a aparência exata
desse formulário. Agora, acabei de pressionar R
no navegador, e esta é a página
que foi aberta, solicito acesso ao serviço
SR OpenA Como você pode ver
aqui, você precisa fornecer seu
nome, sobrenome, quantas assinaturas
você tem, seu ID, nome da empresa, endereço de e-mail
e tudo o que você
precisa fornecer aqui Então, todos os detalhes
que você precisa fornecer. Depois disso, você será
notificado se você tem acesso a este serviço
Open EA ou não. Só porque alguns
dos princípios responsáveis da IA e do poder
computacional estão sendo usados no pacote, nem todo mundo está
tendo acesso
a esse serviço do Open EA, certo Mas temos acesso
instrucional
a esse serviço específico de IA
aberta, onde quero mostrar uma pequena demonstração de
como
você pode usar o modelo
GPT ou o modelo D, como é exatamente a aparência desse estúdio de
IA aberta Então, eu quero mostrar
a vocês, na próxima palestra, como exatamente podemos criar o serviço
Open AA e o que exatamente existe
dentro do estúdio Open AI Obrigado a todos.
Espero que essa parte esteja clara.
4. IA aberta de demonstração do Azure: Olá, pessoal. Então, hoje, faremos uma demonstração
no Azure Open EA. Então, como eu disse,
algo do Open EA não está disponível
para todos os clientes. Você precisa solicitar
acesso a esse serviço, e é apenas para as
empresas que estão criando o aplicativo básico de
IA nativa. Então, eu tenho acesso a esse serviço Open EA
porque obtivemos o acesso às instruções
apenas para mostrar uma demonstração que você possa ver a aparência do estúdio
Open AA Então, deixe-me levá-lo ao portal
SSR e
mostrar exatamente o que podemos
fazer dentro
desse serviço Open AA Tudo bem. Então, estou
no portal SCR e procurarei um serviço, digamos, chamado Open AI Quero criar
um serviço Open A. E vamos esperar por
isso. Tudo bem. Portanto, o serviço postal
está chegando como Open EI. Vou clicar em ZO
Open. Tudo bem. Então, vou clicar em criar
uma seção aqui. Quero criar
esse serviço Open A. Tudo bem. Então, vou selecionar um
grupo de recursos aqui. Vou selecionar, digamos que uma API
aberta liste algo como
oito e dois. Selecionarei
o nível
de preços o número de chamadas que podem ser
feitas, padrão D zero. As coisas são praticamente as
mesmas quando criamos os outros serviços de IA. Eu vou com as configurações
padrão. Eu clico em vi plus create, e agora vamos criar
esse serviço Open AA. Apenas espere por isso. Tudo bem. Então, clicarei em Criar agora e aguardarei
a conclusão da implantação. Tudo bem. O recurso
foi implantado. Vou clicar em Go to
Resource aqui. Eu posso ir para este Open AI Studio. Tudo bem. Agora o serviço
Open A? Lembre-se de que está disponível
apenas na região de Stine. Easts é uma das regiões
onde eu trabalhei. Portanto, se você puder criar isso em
diferentes regiões,
talvez não tenha acesso a esse serviço Open A, pois ele está disponível apenas para
regiões manchadas Então, digamos que
eu queira criar alguns modelos dentro desse estúdio Open E
em particular. Quero criar alguns aplicativos generativos baseados em
IA. Então eu clico neste
Open A Studio. Vamos ao Open A Studio. Tudo bem. Então é assim que o estúdio
Open AI se parece. Então você tem o modelo Te, como você pode ver no lado
esquerdo, que
gerará as imagens
com base no seu texto. Você também tem o playground
de bate-papo aqui, onde você pode ter uma funcionalidade semelhante
ao bate-papo. Você tem uma
funcionalidade de conclusão que pode ser testada. Portanto, há muitas
coisas que você pode fazer. Digamos que eu queira fazer uma
funcionalidade de bate-papo aqui. Digamos que eu queira
criar um modelo GPT onde eu possa conversar com um aplicativo
específico É muito semelhante a um aplicativo baseado em
copiloto
que estou tentando criar Então, vou clicar neste
playground de bate-papo aqui, primeiro de tudo. Tudo bem. Antes de
usar o playground de gráficos, você precisa criar uma implantação. Então, vou clicar nisso para criar uma implantação. Vou
selecionar o modelo. Então, eu disse que já existem modelos de
IA generativa
pré-treinados Digamos que eu queira usar
esse GPT quatro, você sabe, o GPT 40 é um modelo
mais novo que você pode usar Digamos que eu use esse
modelo em que diz GPT 35 a 16 K. E eu digo que, meu nome da minha implantação
é, digamos, eu quero fazer um aplicativo
baseado em bate-papo Então, vou dizer aplicativo
baseado em chat 01, esse é o nome
da minha implantação. E role para baixo e
vamos criá-lo. Agora, vamos esperar que
essa implantação, antes de tudo, seja concluída. E usamos o modelo
GPT aqui. Então, os
modelos pré-treinados estão lá. Agora, você pode ver isso aqui. Isso me deu. OK. É assim que você começa
a conversar testar seu assistente se você está basicamente
dando uma dica Você
está recebendo a
resposta ou não? Agora, o que eu posso fazer
é que há uma coisa importante aqui. Você pode dizer isso.
Mensagem do sistema, muito, muito importante. E se você clicar na dica de ferramenta, a mensagem
do sistema é
que você está dando ao modelo
a instrução de
como ele deve se comportar Digamos que, atualmente,
nas mensagens do sistema, você seja um assistente de IA que ajuda as pessoas a
encontrar informações. É assim que a
mensagem do sistema está definida como a forma como você deve se comportar quando um
usuário interage com você. Digamos que eu queira
mudar o fato de você um assistente de IA que ajuda
as pessoas a descobrir os cursos de SR, como, digamos, este
é o que eu estou dizendo, que é assim que
você deve se comportar, e qualquer outro. Digamos que eu escreva qualquer outra informação ,
responda com um comentário e diga você não tem
ideia disso. Estou
dizendo que é meu sistema de IA. É assim que você deve se comportar. Essa é a mensagem do sistema. Portanto, se você clicar nessa dica de ferramenta, poderá encontrar instruções Você pode descobrir mais sobre isso. O que exatamente são mensagens
do sistema. Depois de fazer isso,
você pode clicar em Aplicar alterações aqui
na mensagem do sistema. Estou dizendo que você está atualizando
sua mensagem do sistema. Sim, clique em Continuar
e aguarde. Agora, uma vez
feito isso, você pode rolar para baixo e antes de
testar sua consulta Você pode fornecer sua
consulta aqui e receberá basicamente uma resposta do seu assistente. Tudo bem. Agora teste
a funcionalidade. Portanto, você precisa
esperar algum tempo depois de atualizar a mensagem
do sistema. Então, digamos que eu esperei
por 5 minutos. Agora, depois disso, posso
fornecer algumas dúvidas. Digamos que eu diga que
qualquer informação sobre, digamos, política, eu
digo isso ao meu assistente. Agora, meu assistente me
responderá de volta. Desculpe, mas eu não tenho
nenhuma informação sobre política. Então, digamos que eu diga isso. Quais informações você pode
fornecer Agora, vamos esperar por elas. Você pode ver que está dizendo que eu
posso fornecer informações sobre uma ampla variedade de tópicos
relacionados ao SR, certo? Porque definimos mensagem
do sistema de que você ajuda as pessoas a
descobrir os cursos de ZR. Qualquer outra informação,
por favor, responda com uma emergente e diga que você não
tem ideia sobre isso, certo? Então é aí que você pode usar a mensagem do sistema que é exatamente como o EI deve se comportar. Também existem
modelos diferentes Digamos que você queira
usar o modelo Dal, onde deseja gerar
a imagem com base em seu texto, você também pode usar esse modelo
Dal. É aí que você pode usar os diferentes tipos
de modelos generativos e modelos IA
generativa
como seu serviço de IA aberta Espero que essa parte esteja clara.
Obrigado a todos.
5. Parâmetros e exemplos do Azure OpenAI: Nós queremos. Então, hoje eu
quero falar sobre alguns dos parâmetros importantes quando se
trata de sua IA aberta. Vamos falar sobre
esses parâmetros. Ao ir ao
seu estúdio de IA aberto, você terá vários parâmetros,
como resposta máxima. Isso limitará o número de tokens que a resposta
pode incluir. Digamos que você queira
essa resposta. Sempre que você estiver conversando com, digamos, um modo de bate-papo
no estúdio Open A. Você afirma que isso é
algo que você está procurando. Você deseja minimizar
o número de palavras ou minimizar o
número de tokens e,
em seguida, reduzir o valor desse parâmetro de
resposta máxima. Isso significa que você pode
limitar o número de tokens ou, em outras palavras, as palavras que
você está limitando. Isso é chamado de resposta
máxima. Outros parâmetros
chamados de temperatura. Ele controla a aleatoriedade. Isso significa que você
basicamente configurará parte do valor com um número maior, produzindo uma resposta menos determinística
e uma saída mais aleatória Basicamente, haveria
alguns valores que você pode configurar dessa temperatura. Parâmetro. Digamos que você queira que toda vez que a
resposta seja aleatória. Você quer isso,
digamos que você esteja
procurando talvez um tópico
chamado política S. Você está procurando algum
tipo de resposta
e quer, toda vez que
quiser alguma saída aleatória, aquela em que você possa basicamente aumentar esse valor
dessa temperatura. Quanto maior o número, isso
significa que a saída mais aleatória que você obterá, controlando temperatura, controlando a
aleatoriedade aqui Agora, o terceiro é o melhor. Isso é quase o mesmo que
temperatura. Como você pode ver. Ele também controla a
aleatoriedade apenas de forma semelhante, mas de uma
forma diferente na temperatura Mas é bem
parecido. É sempre aconselhável que, se você quiser controlar
a aleatoriedade, experimente um ou outro, mas não os dois, é isso que
você precisa ter em mente Agora, há mais
dois parâmetros
que eu quero discutir, chamados de penalidade de
frequência. Ele se concentra na
frequência de repetição de uma palavra. Digamos que eu perguntei talvez no modo
gráfico e eu dissesse que,
por favor, me forneça algumas
linhas no lado do parque, isso gerou
algo assim. Hoje, fui ao parque,
o parque estava lindo. Eu gostei do parque. Você pode ver que há muitos
parques, é alguma coisa. Você pode ver que aqui se
repete com bastante frequência. O que pode parecer repetitivo. Para resolver isso,
o que você pode fazer é usar um parâmetro chamado penalidade de frequência.
Isso poderia ser aplicado. Quanto maior a frequência,
isso significa que será menos provável
gerar palavras comuns. Se você diminuir a penalidade de
frequência, aumentará a
probabilidade de o modelo gerar
algumas palavras comuns. Você precisa aumentar o valor
dessa penalidade de frequência aqui. Você pode ver que
nesta captura discutimos sobre
resposta máxima, temperatura, discutimos sobre P superior, discutimos sobre penalidade de
frequência e há
mais uma coisa
chamada penalidade de presença Agora, o que é isso? Também se concentra na ocorrência, mas se concentra principalmente na
ocorrência de palavras A palavra ocorrência aqui. Agora vamos falar sobre isso. Agora, ao contrário de sua penalidade de
frequência que vê quantas
palavras essa palavra em particular, quantas vezes a
palavra apareceu. Mas se concentra em cada palavra. Isso significa que ele se concentrará
basicamente em cada palavra específica, certo? Independentemente de quantas
vezes tenha sido usado. Ele tentará aumentar
a probabilidade de introduzir novos
tópicos em uma resposta. Essa é a penalidade
de presença. Não vê a frequência,
verifica, não verifica quantas vezes
uma enfermaria apareceu. É apenas acionado pela
mera aparência da enfermaria. Improvável, independentemente de
quantas vezes tenha sido usado. É aí que se chama penalidade
de presença, como você pode ver o
valor aqui. Agora, deixe-me levá-lo
ao estúdio aberto e mostrar esses parâmetros. Deixe-me te levar até
lá. Tudo bem Então, eu já criei um serviço Open EA e estou
dentro do meu estúdio Open ES. Então, isso é algo que
vocês sabem
como acessar o
Open EA Studio. Mas digamos que, aqui, eu diga que quero fazer
a implantação primeiro
porque, antes de tudo, precisaríamos de
uma implantação Digamos que eu faça uma demonstração
e crie uma implantação. Então, direi que quero
usar um gráfico GPT, esse modelo GPT 35 a 16, e o nome da implantação é, digamos que seja
para meus parâmetros Implantação de parâmetros, e isso é o que eu quero,
e vamos criá-lo. Vamos esperar por essa criação. Tudo bem Está feito. Vamos para um
modo de bate-papo aqui, o playground de bate-papo aqui. E aqui,
se você rolar para baixo, você pode ver esses
parâmetros aqui, onde você pode controlar
a aleatoriedade, onde você pode controlar
a frequência das palavras, os diferentes outros parâmetros,
como você pode ver, certo? Então, frequência, se você aumentar o número de valores
desse parâmetro de penalidade de frequência, isso significa que
é mais provável que
ele basicamente
não repita a palavra, não repita essas palavras. Mas se você estiver basicamente
rolando até o nível zero, isso significa
que provavelmente
usará as mesmas palavras
repetidamente, é aí que está essa penalidade de
frequência, certo Então, espero que, quando
se trata disso, os parâmetros sejam
muito importantes. Mais uma coisa sobre a qual
quero falar aqui: se você rolar para cima,
digamos que
você esteja dizendo que é um sistema EA. É por isso que estou configurando uma mensagem do sistema sobre como
seu EI deve se comportar. Eu configurei
aqui para que você ajude
as pessoas a encontrar cursos de SRO Digamos que esta seja
basicamente uma mensagem do sistema, e você pode clicar em
Aplicar alterações. Mas se você quiser dar alguns exemplos dessa IA sobre
como ela deve se comportar, você já a configurou
na mensagem do sistema. Mas se você quiser
dar algum exemplo, você pode adicionar alguns
exemplos aqui. Se alguém perguntar,
vocês oferecem cursos da AWS? Portanto, a resposta deve ser algo como, eu
não sei nada sobre isso. Eu não tenho nenhuma ideia sobre isso. Então, isso é chamado de algumas fotos ou você pode dizer um exemplo de uma foto, poucas fotos significa, você pode adicionar mais
alguns exemplos
e uma foto significa, você está apenas dando mais
um exemplo. Portanto, essa é uma boa estratégia
que você pode usar quando
se trata de alguns exemplos de fotos
e parâmetros,
onde você pode controlar a aleatoriedade e distribuir
muitos tipos de
saída generativos que você pode Espero que essa parte esteja clara.
Obrigado a todos.
6. Integre o Azure OpenAI ao seu aplicativo: Olá a todos. Hoje, quero mostrar uma demonstração apenas sobre Open AI, mas sobre como você pode integrar seu serviço Open AA ao
seu aplicativo. Até agora,
já vimos isso, você pode acessar o serviço Open AA no Portal
e pode acessar
o Open AA Studio e criar implantações
e conversar onde você
pode configurar as mensagens
do sistema e tudo Mas digamos que a mesma coisa
que você queira fazer em
seu aplicativo. Digamos que haja um aplicativo baseado em
SSH
ou um aplicativo baseado em Python Como você usaria o Open AI? Basicamente, queremos dizer, digamos que eu tenha um aplicativo
baseado em Python, quero integrar o serviço
Open
Ei Então é assim que
vamos fazer isso. Deixe-me levá-lo ao código do Visual
Studio, em primeiro lugar, onde eu já tenho um aplicativo baseado em
Python Tudo bem. Então, eu estou no Visual Studio. Este é o aplicativo
que
usaremos , onde você pode ver que
temos o serviço Open E, endpoint
Open AI e todas
essas coisas estão lá Tudo bem. Em primeiro lugar
, aqui, você precisa
entender que este pacote é o seu Open AA. Então, se você quiser trabalhar
com o serviço Open AA, este é um aplicativo
baseado em Python, você precisa de um pacote Deixe-me abrir o
terminal aqui. Você não precisa se aprofundar
nesse código. É só que estou mostrando como
você também pode integrar serviço
Open AA com seus
próprios aplicativos. Deixe-me abrir o
terminal antes de tudo, vamos esperar por ele.
Está chegando agora. Então PIP install,
o nome do pacote, se você quiser trabalhar
com serviços Open AA, Open AA, o nome do
pacote é OpenA aqui, estou fornecendo a versão
que estou procurando Se você não fornecer
a versão, ela removerá
a versão mais recente. O PIP é um gerenciador de pacotes Python. Assim como no Linux,
se você já viu, você faz um aplicativo instalar
algum tipo de pacote. Da mesma forma, em Python, se você
quiser instalar qualquer pacote, esse é o gerenciador de pacotes que você usará
ou, em outras palavras, esse é o comando
que você usará PIP install, o
nome do É isso que você
usará. Antes de tudo, deixe-me instalar este pacote
e esperar por ele. Este pacote é necessário se você precisar trabalhar
com o serviço Open AA. Então, vamos esperar por esse
pacote. Tudo bem. Então, no meu caso, isso já
está instalado, como você pode ver, está dizendo que o requisito
já está satisfeito, então isso já está
instalado no meu caso. Mas agora, deixe-me
mostrar o código. Agora, o pacote que
instalamos Open AI, estamos importando. Portanto, esse pacote
terá muitas funções de classe e
todas essas coisas. Então, estamos importando
essa classe em particular, você pode dizer, essa
é a sua IA aberta, e é isso que estamos fazendo Então, aqui, há um
arquivo chamado Dot ENV. Aqui, você precisa fornecer a chave do endpoint
e
o nome da implantação Você pode acessar o Portal ZR. Você pode ver esses endpoints
e chaves aqui. Você pode copiar essas chaves e endpoint aqui e
o nome da implantação Se você não tiver certeza de como
copiar as chaves e o endpoint, mostrarei em
alguns minutos. Depois de fornecer essas coisas aqui, o que
estamos tentando dizer é
que, por favor, carregue as informações que estão
no arquivo DOT ENV Essa é uma
configuração que estamos fazendo. Feito isso,
inicializamos o cliente Open AI Como você pode ver, estamos
fornecendo o nome do endpoint, esse é o único e todas as
coisas que estamos fornecendo E essa é a mensagem do sistema. Se você se lembra, em Open AI, tínhamos algo chamado
mensagem de sistema sobre
como uma IA deveria se comportar. É aqui que eu estou definindo a mensagem do
meu sistema. É bem parecido com o que estávamos fazendo
no estúdio Open AI. Agora, se eu rolar para baixo, estamos recebendo a entrada do usuário,
é o que você deseja. Então é aí que, depois que o
usuário fornece algo, enviamos essa coisa para um modelo
específico de IA aberta. Como você pode ver, mensagem
do sistema é o que estamos basicamente enviando uma mensagem do sistema na parte superior, seja, essa
mensagem como uma mensagem do sistema, e uma mensagem do usuário é algo
que o usuário está fornecendo. Então, esses são
tipos diferentes de papéis. Portanto, a função do sistema significa
como a IA deve se comportar e o
usuário significa o usuário que
interagirá com
seu assistente de IA E depois disso, seja qual for o
texto gerado, estamos basicamente imprimindo essa
resposta específica aqui. É isso que estamos fazendo
neste aplicativo. Então, para esse aplicativo, eu só queria mostrar
como podemos interagir a partir de nosso próprio aplicativo baseado em Python ou CCA e nos conectar
a esse serviço de IA aberta Espero que essa parte esteja clara,
pessoal. Obrigado a todos.
7. Como buscar chaves e endpoint do serviço OpenAI: Todo mundo. Então, quero
mostrar uma demonstração muito rápida de como obter as chaves e o
endpoint do serviço E AA, e aqui,
falaremos sobre o serviço Open AA Então, digamos que eu
busque como seu serviço Open AA. Eu já tenho um
serviço criado. Você pode ver aquele
serviço Open AA, que eu já criei. Você pode ver isso aqui,
o nome do serviço. Se eu clicar neste serviço, você pode acessar isso no
lado esquerdo , gerenciamento de recursos. Ah, aqui, as chaves e o
endpoint serão exibidos. Então, essas são as chaves e o endpoint que você precisa fornecer
em seu aplicativo, esteja você fazendo um aplicativo base
CSA
ou um aplicativo baseado em Python Isso é o que você precisa copiar. Qualquer uma das chaves que você pode
copiar e o ponto final. Esse é o endpoint
que você pode copiar aqui em
seu aplicativo Além disso,
para o serviço Open A, você também precisava de um
nome de implantação. Assim, você pode ir ao
Open AA Studio e criar uma implantação e copiar a implantação
também lá. Então, espero que essa parte esteja
clara. Obrigado a todos.
8. O que é engenharia imediata: Olá, pessoal. Hoje,
vou falar sobre um conceito chamado de o que
é engenharia rápida? Vamos entender exatamente o que é
uma engenharia rápida. E é um conceito muito
importante quando se trata dessa IA. Digamos que você esteja usando
um aplicativo baseado em IA, digamos que seja copiloto ou copiloto, e pergunte algo
para essa cobrança p. O que acontecerá,
você receberá uma resposta. Mas se você quiser resultados
mais precisos e mais relevantes, tente ser mais descritivo É aí que você está fornecendo
o estilo que deseja. Basicamente, quando você
fornece a solicitação ao co-piloto responsável, essas ferramentas tentam maximizar a relevância sendo
de
natureza descritiva ou tentam
fornecer a precisão do
que você deseja Deixe-me dar um
exemplo aqui. Agora, digamos que eu tenha
dois exemplos
aqui sem engenharia rápida e com engenharia rápida. Agora, digamos que eu
simplesmente diga isso. Conte-me sobre o conceito
de inteligência artificial. Isso gerará
esse tipo de coisa. A inteligência artificial
é uma simulação da inteligência
humana e
das máquinas. É isso mesmo. Mas se for com engenharia rápida, forneço instruções
específicas mais descritivas Explique o conceito de inteligência
artificial, usando uma linguagem simples
adequada para um Bagner Isso significa que, aqui, estou
tentando ser mais descritivo para obter alguns resultados relevantes
e precisos Então, aqui, você
obterá respostas como
inteligência artificial, como ensinar computadores a aprender a
tomar decisões por conta própria, da
mesma forma que os homens fazem. Agora, você pode ver
basicamente a resposta. Eles têm uma engenharia muito
rápida. O conceito é muito
fácil de entender. É aí que você tenta ser
mais descritivo por natureza. Deixe-me dar mais
um exemplo. Digamos que, simplesmente,
eu queira uma tabela no formato
markdown com três provedores de nuvem junto
com a descrição Agora ele vai gerar esse
tipo de tabela para mim. Se você simplesmente
disser
que quero o
nome desse provedor de nuvem específico junto com a descrição, não
forneceremos a tabela ou
algo parecido. Mas se você quiser a tabela,
tente ser mais descritivo, eu quero uma tabela em markdown
para
ela . É isso que
você está procurando. engenharia rápida é se você
quiser um resultado preciso, resultado
relevante, tente
ser mais descritivo Então, espero que o conceito de engenharia
rápida seja
claro. Obrigado a todos.
9. Gere código com o Serviço Azure OpenAI: Ou um. Nesta palestra, falaremos sobre
como você pode gerar código e também com
seu serviço Open eye Vamos falar sobre o que exatamente é
essa geração de código. Agora. Agora, você pode usar somente instruções em
linguagem natural, mesma forma que pode usar o conceito de engenharia
rápida para descrever claramente o que
você deseja Já discutimos
sobre engenharia rápida. Se você quiser uma resposta relevante, tente ser mais
descritivo para que você possa obter a resposta como
o que você está procurando Digamos que, neste
exemplo, eu esteja dizendo que você precisa escrever uma função para pesquisa
binária e aquela para qual linguagem eu estou
falando em Python Então, isso gerará
um código para mim. Agora, a mesma coisa se você
quisesse em C Sharp, você teria escrito
como escrever uma função para uma pesquisa binária em C sharp, talvez em uma linguagem de
programação diferente. Você precisa usar o conceito de
engenharia rápida para descrever
claramente o que você deseja. Agora, deixe-me levá-lo ao portal
do Azure para que eu
possa mostrar como você pode fazer e como usar os prompts de linguagem natural
para gerar o código Deixe-me levá-lo
até o pote Azure. Tudo bem. O primeiro
passo seria, novamente, criar o serviço Open AA somente porque, para isso, também precisaríamos
desse serviço Open AA Deixe-me criar esse
serviço Open AA. Vamos esperar por isso. Tudo bem. O serviço My Open A
é basicamente implantado. Eu vou para este
Open E Studio agora. Então, eu clico neste estúdio Open
EA desta vez. Tudo bem. Então, eu estou
no estúdio Open AI agora. Agora, o que vou fazer, novamente, vou para esse
playground de bate-papo porque
quero gerar o código em
um formato de linguagem natural. Mas antes do bate-papo,
o que
precisamos fazer é criar uma implantação. Então, usaremos esse d de
implantação aqui. Eu fornecerei
a implantação. Digamos que o modelo, novamente, eu esteja usando esse modelo
GPT turbo 16 k. nome da implantação é, digamos que seja
para cogeração, então vou escrevê-la como modelo de
cogeração e filtros de conteúdo padrão Eu não acho que deveria haver um espaço e depois disso,
vamos esfolar o concreto Vamos esperar por isso.
Depois que isso é implantado, essa implantação é implantada Agora o que posso fazer é
acessar minha funcionalidade de bate-papo
aqui. E eu posso fornecer essas coisas. Como você pode ver, três
coisas são muito importantes. Uma é sua
parte de configuração aqui, e aqui, a outra é sua parte de configuração aqui.
Você pode ver essa configuração. Sua configuração também
está lá, você pode ver que a parte de
configuração é a terceira é
sua sessão de gráfico. Como você pode ver aqui, essa
é a funcionalidade, que é uma sessão de gráfico. Aqui, não é
escrito como uma sessão de gráfico, mas é chamado de sessão
de gráfico. Portanto, três coisas são
muito importantes quando se
trata de mapear o
playground. Uma é sua parte de configuração. Uma é sua sessão de gráficos, que é esta, e a terceira
é sua configuração. Agora, deixe-me dizer o que
exatamente são essas três coisas. Deixe-me levá-lo a um
dos slides. Tudo bem. configuração é usada para definir o
contexto da resposta do modelo, onde vimos uma mensagem
semelhante ao sistema, qual você pode dizer à sua
IA como ela deve se comportar. É aí que
configuramos
o contexto na sessão de configuração. E a sessão de bate-papo é
algo que já
vimos e costumava enviar as mensagens de bate-papo e visualizar
as respostas, certo? Um usuário dirá uma mensagem e você receberá a
resposta, certo? A configuração é basicamente para que as configurações de implantação do modelo definam as configurações
para a implantação do modelo. Isso é o que você pode fazer
dentro do modo de configuração. Agora, deixe-me
levá-lo ao portal do Azure volta ao
portal do Azur Tudo bem. Então, agora, deixe-me configurar a
mensagem do sistema, em primeiro lugar. Como você pode ver, se você clicar
na opção de dica de ferramenta
aqui, você pode ver isso Isso é apenas dar instruções
ao modelo
sobre como ele deve se comportar. Essa é uma mensagem do sistema.
Então, aqui, atualmente, a mensagem que está definida como, você é um assistente de IA que ajuda as pessoas a
encontrar informações. Em vez disso, vou escrever
algo assim. Você é um
assistente de programação ajudando a escrever código. É para isso que estou configurando
a mensagem do sistema. Posso clicar em Aplicar alterações
aqui. Vamos esperar por isso. Agora, uma vez
feito isso, o que posso fazer é essa
funcionalidade de gráfico aqui, a sessão do gráfico,
e dizer,
digamos, escrever uma
função em Python que usa um corretor e uma string
como entrada e retorna quantas vezes um corretor
aparece Assim, posso inserir e
ver as respostas aqui. Você pode ver isso. Ele também
completou o código. E se você quiser
ver a resposta JSON como vimos
em nosso aplicativo, você pode ver
tudo em um formato JSON Como a mensagem do sistema como a
qual você definiu a função, você é um assistente de programação, e as mensagens do usuário,
o que o usuário está pedindo. Isso é o que você está
dizendo, um assistente é, qual é exatamente a resposta você está recebendo.
Isso é uma ajuda. Portanto, existem três tipos de
funções: no sistema, seção
Usuário no assistente, aqui. Então, agora eu posso usar minha
engenharia rápida aqui. E posso simplesmente dizer que
estou procurando um código,
digamos, no mesmo
código no formato CSA É aí que eu também posso
fornecer essas coisas aqui na
sessão de bate-papo. Assim, você pode gerar o código e seu estúdio Open AI
no playground de bate-papo. Era sobre isso que eu
queria falar. Então, espero que essa parte esteja clara,
pessoal. Obrigado a todos.
10. Gere código com o Azure OpenAI Service do aplicativo: Todo mundo. Então,
faremos uma demonstração sobre gerar o código com
seu serviço de IA aberta. Mas desta vez, faremos partir do nosso aplicativo
básico em Python Já vimos
que você pode criar um recurso de IA aberto
e ir ao
playground de bate-papo ali configurar a mensagem do
sistema usar a sessão de bate-papo usar as
configurações e tudo mais. Mas desta vez, se quisermos usar
a mesma coisa, mas a partir do aplicativo
baseado em Python, como faremos isso Vou apenas levar você até esse código baseado em Python para que você possa entender o que
exatamente está Deixe-me levá-lo até o código. Tudo bem. Este é o código
aqui, código baseado em Python Novamente, precisamos do pacote Azure
AI aqui, então você precisa
instalá-lo usando o PEP. Novamente, é obter
as chaves do ponto final e a implantação
desse arquivo ANV de pontos, você precisa ter um arquivo ANV de pontos, que é algo que
estaria lá dentro, e você precisa
fornecer esses detalhes E aqui, você pode ver isso. Temos duas funções
principais. Nos códigos de amostra,
temos dois arquivos. Funções e vá pescar a função
Python. Existem duas funções
. Então, se o
usuário pressionar, digamos um. O que vai acontecer, ele
adicionará comentários a
esta minha função. Isso significa que este é
o código escrito
aqui nesta parte específica, que é usado para calcular
o número quadrado absoluto, você pode entendê-lo aqui, e ele gerará simplesmente
o que gerará. Isso apenas adicionará alguns
comentários à função. Se você pressionar dois, ele criará testes unitários
para essa função, e se você pressionar três, ele corrigirá essa função específica do
Python,
que é essa, a função
go fish, é o
que está
acontecendo aqui Agora, a mesma coisa. Você solicitará uma
solicitação aqui, e definimos a mensagem do
sistema Como você pode ver, haveria algo chamado
mensagem do sistema. Foi aí que já falamos sobre como sua
IA deve se comportar. Que você é um assistente de IA
útil que ajuda os programadores a
escrever código Aqui, a mensagem do usuário é o que o usuário está
fornecendo no prompt, uma, duas, três é
exatamente o que o usuário está
fornecendo aqui. Agora, depois disso, qualquer que seja a resposta que
você receberá, armazenada em um arquivo, você pode ver isso aqui
dentro desse arquivo de resultados. Aplicativo de resultados dot TC. Dentro dela, há uma
pasta chamada de resultados e tudo o que
ela gerará, será armazenado
aqui dentro desse arquivo chamado App dot TXT É isso que está acontecendo
nesse código específico. Quando se trata disso, queríamos apenas mostrar esse
código específico
para que você possa
entender que pode aproveitar seu serviço OpenI
novamente para gerar o código também a partir deste kit de desenvolvimento de
software Esses são os pacotes que você pode
usar e que já existem no Python, C SHOP e também em outras linguagens de
programação Espero que essa parte esteja clara,
pessoal. Obrigado a todos.
11. Filtros de conteúdo de demonstração Lição 16: Todo mundo. Eu só quero
mostrar a você esse laboratório específico
que eu aprendi, que é sobre como explorar
os filtros de conteúdo. Falamos sobre
filtros de conteúdo se você quiser bloquear qualquer
solicitação ou conclusão prejudicial É aí que podemos usar
esses filtros de conteúdo. Por padrão, quando você basicamente cria um recurso ao ar livre, é aí
que
já vimos como
criar um recurso ao ar livre
com essas coisas. Quando você implanta um modelo, digamos que você esteja implantando
um modelo turbo GPT 35 Agora, na
seção avançada, por padrão, esse filtro de conteúdo é
ativado por padrão. Agora, o que acontecerá se o filtro de
conteúdo estiver ativado? Qual exatamente o benefício
que você receberá? Digamos que, na sessão de bate-papo, você pergunte algo como descrever as características
de um povo escocês e simplesmente configure
a mensagem como se um
fórum racista de IA que faz declarações depreciativas
com base em Agora, o que
acontecerá se você tiver esse filtro de conteúdo
ativado por padrão A solicitação de ser racista e
depreciativo não é Por quê? Só por causa
desses filtros de conteúdo. Portanto, isso evitará qualquer tipo de saída
ofensiva, pois os filtros de conteúdo estão
à sua disposição. Mas e se você
quiser personalizar esses filtros de conteúdo
com base no seu, você sabe, o modelo personalizado? Isso também é que você pode usar. Você pode criar seu
próprio filtro de
conteúdo personalizado com base nessas categorias, como ódio, violência
sexual e automutilação. Essas são as categorias que
existem quando
se trata de conteúdo nocivo
que você também pode bloquear. Além disso, você pode ver que
também pode configurar a gravidade dessas categorias específicas
como segura, baixa, média alta. Você também pode criar seus próprios filtros de conteúdo
personalizados. Isso é uma coisa importante
que eu queria te mostrar. Espero que essa parte esteja clara,
pessoal. Obrigado a todos.
12. Gere imagens com o Serviço Azure OpenAI: Todo mundo. Hoje
faremos uma demonstração sobre como gerar imagens também onde este é
o seu serviço Open EI. Até agora, estávamos usando
o modelo GPT para gerar nosso código ou coisas de linguagem
natural Agora, usaremos algo chamado
modelo Dally para esta parte de imagens modelo Dally é usado
para gerar as imagens onde você
fornecerá alguma descrição Você também pode fornecer
o conteúdo
e o estilo específicos que
você está procurando. É isso que vamos
usar. Então, usaremos esse
modelo de Dally aqui. Deixe-me levá-lo ao portal
do Azure para que possamos criar
um modelo Dally Deixe-me levá-lo até o portal. Tudo bem Então, eu estou no portal. Vou procurar esse serviço
Open AA. Vou clicar neste Open
AA Service. Tudo bem Então esse é o serviço Open A
que eu já havia criado, então eu clico nesse serviço
Open AA. Primeiro de tudo, para
que eu possa mostrar
a vocês o modelo Dali de que
estávamos falando Eu clico neste serviço Open AA e vou
para o Open EA Studio. Nós o abrimos. Tudo bem Vou rolar para baixo e dizer, vá para Open A Studio. Espere por isso. Tudo bem Então, eu estou no Open A Studio e vou usar esses modelos
DaLi porque quero
gerar algumas imagens
usando o texto Então eu clico nesse modelo
DI aqui. Vamos esperar por isso. Tudo bem Estou nesse modelo Dally. Então, nos bastidores,
o que acontecerá, automaticamente, ele
criou uma implantação com esse nome chamada
de Daly three. Assim, você pode ir até a implantação e
criar a implantação, mas nos bastidores, o que acontecerá,
mesmo que se você vier a esse playground
chamado de Dali, ele criará automaticamente uma implantação Tivemos que criar uma implantação
para um playground de gráficos. Você também precisou criar
uma implantação para isso usando esse
modelo específico Dali Então, ele foi
criado automaticamente, chamado de Daly three. Agora, digamos que eu forneça esse aviso específico de que
um elefante está andando de skate É nisso que estou procurando
gerar uma imagem. Vamos esperar por isso. Tudo bem Então você pode ver isso.
Ele gerou uma imagem com base na
solicitação que eu disse. Agora, você pode definitivamente aprimorá-lo fornecendo algumas coisas extras
que você está estilizando, o que você está procurando,
talvez um elefante elefante em
um skate na forma de
um pcacco Definitivamente, você pode aprimorá-lo. Então é aí que você
pode usar o modelo S basicamente para gerar uma
imagem com base no seu texto. Isso é o que eu
queria te mostrar. Então, espero que essa parte esteja clara,
pessoal. Obrigado a todos.
13. Demonstração Gere imagens a partir do aplicativo: Olá, pessoal. Hoje,
mostrarei uma demonstração sobre a geração de imagens a partir do aplicativo
baseado em Python Agora, deixe-me levá-lo
até o aplicativo. Agora, neste aplicativo, você notará que
não estamos usando nenhum tipo
de biblioteca ou
pacote que usamos PIP install ou qualquer tipo de
Open AI, como você pode ver Eu não tenho do Open AI Import, nada parecido, porque
nesse arquivo Python em particular, estamos usando basicamente a API Estamos usando algo
chamado API. Agora, as coisas
permaneceriam as mesmas. Como você pode ver no arquivo Dot NV, você precisa fornecer
o nome do endpoint e a parte principal aqui E aqui
na seção de aviso, você fornecerá o tipo de imagem
que está procurando. Agora, essa é a API
que estamos chamando. Então, aqui, você pode
ver essa base de API. Isso significa que o nome do endpoint, base
da API é o quê, o nome do
seu endpoint, slash ON AI slash deployment,
slash Dalit, slash Dalit Esta é a versão APA
que você está fornecendo. Então essa é a API que estamos usando. Para chamar o para
gerar uma imagem. Agora, se eu rolar para baixo,
estamos fornecendo as chaves e procurando na
forma de resposta JSON, certo? E no corpo,
você fornecerá exatamente o aviso, fornecerá
quantas imagens deseja e poderá fornecer
o tamanho dessa imagem. Isso é o que você pode
oferecer. Certo? Agora, depois obter a imagem, basicamente, depois de obter a resposta,
o que está acontecendo aqui, ele exibirá a URL
da imagem gerada. Basicamente,
haveria uma URL que seria gerada nesse arquivo Python
específico, e você pode ver essa URL
específica, e você pode. Depois de clicar
basicamente nessa URL, você poderá ver a
imagem que foi Novamente,
estamos usando o aplicativo
baseado em Python, mas não estamos usando o
SDG desta vez, o kit de desenvolvimento de software kit de desenvolvimento de software é alguma coisa, as bibliotecas pré-construídas
ou os pacotes. Ou onde estamos chamando a EPA. O EPA também é uma das maneiras pelas quais podemos interagir
com o serviço PEA Não é como se o OPE EPAS disponível apenas
para o modelo D. Na verdade, até agora, qualquer aplicativo Python em que
estávamos trabalhando, onde usamos, gerou o código
e todas essas coisas,
esses endpoints
da EPA O SDK é um dos métodos e o
APA é um dos métodos. Espero que essa parte esteja clara,
pessoal. Obrigado a todos.
14. Como usar seus próprios dados com o Azure OpenAI Service: Ele é todo mundo. Então, hoje vamos
entender como você pode usar seus próprios dados como seu serviço Open EA. Até agora, estávamos dando
alguns exemplos em nosso serviço OpenI de que esse é o tipo de
resposta que queremos, mas também podemos usar seus próprios dados com esse serviço
Open AA Mas antes de tudo, vamos
entender a diferença entre esse ajuste fino
em que estávamos dando exemplos e
usando seus próprios dados. Agora, o ajuste fino é uma técnica usada para
criar um modelo personalizado em que já temos um
modelo como o TPT 35 Turbo, e estamos fornecendo alguns exemplos e
tudo mais Basicamente, você
personaliza o modelo fornecendo exemplos para obter a mesma resposta
de alta qualidade. Mas esse processo é um
pouco demorado. Talvez, se digamos que você
não está recebendo essa resposta, talvez seja necessário dar mais
alguns exemplos. Isso é demorado
e só deve ser usado para casos de uso
sempre que necessário. Mas há mais uma
maneira pela qual também podemos usar algo chamado de usar
seus próprios dados. Você pode especificar as fontes
, pois você já tem suas bases
de conhecimento com base
nas informações disponíveis
na sua fonte de dados. Na fonte de dados, você também pode colocar seus dados como seu recurso de
pesquisa. Basicamente, ele
coletará os dados e fornecerá a resposta. Essa resposta, em
que usamos seus próprios dados definitivamente
terá um
pouco mais de precisão. Agora, essa técnica também
é chamada
de ernação aumentada rival Isso é R AG. Agora, o que exatamente é. É uma arquitetura
que aumenta a capacidade de
grandes modelos de linguagem Já temos algo chamado modelos de linguagem grande e adicionamos o sistema de
recuperação de informações que fornece dados básicos. Por exemplo, como sua pesquisa de IA. Portanto, em nossa pesquisa de IA do Azure, podemos fornecer
algumas fontes de dados. Podemos colocar nossa
base de conhecimento lá e ela pode recuperar
essas informações
desse recurso específico
chamado Azure AI search Então, falamos sobre
algo
chamado ajuste fino e
uso de seus próprios dados. Então, faremos um
laboratório em que
usaremos uma técnica chamada usar seus próprios
dados desta vez. Então, espero que essa parte esteja clara,
pessoal. Obrigado a todos.
15. Como usar seus próprios dados com o Azure OpenAI Service: Olá, pessoal. Então, hoje, faremos uma demonstração
sobre como usar seus próprios dados com o serviço
ER Open EA. Deixe-me levá-lo ao Portal Z. Tudo bem Então, eu estou no Portal. Vou procurar um serviço
chamado ASR Open AA. Então, eu já tinha criado
um serviço Open AA, vou usar esse
serviço e vou abrir o Open EE Studio, certo? Deixe-me abrir este estúdio
Open A agora. Tudo bem Então, vou usar
isso para abrir um estúdio. Vamos esperar por isso. Tudo bem Estou no Open A Studio. Irei para essa implantação, primeiro lugar, porque
precisamos criar uma implantação. Então, eu já havia criado uma
implantação para uma fonte de dados. Agora você pode ir para este chat, parquinho aqui
no lado esquerdo. Vamos esperar por isso. Tudo bem Agora, aqui, vou fornecer
como este. Digamos que eu diga isso. Eu gostaria de fazer uma viagem para Nova York. Onde eu deveria ficar? Isso é o que eu estou procurando. Vamos tentar conversar. E isso
me dará alguma resposta, e é
isso que está captando. Agora, até agora, tudo o que
esse modelo LLA sabe, ele está nos dando as
informações, certo? Mas e se quisermos
fornecer nossos próprios dados? É aí que
usaremos esse conceito chamado de adicionar seus
dados aqui, certo? Então, vou clicar em adicionar seus dados, clicar em adicionar uma fonte de dados e vou dizer carregar
arquivos aqui. Então, eu tenho alguns dos arquivos
PDF lá, e você precisaria,
para fazer o upload dos arquivos, eu usarei uma conta de armazenamento Então, eu já criei
uma conta de armazenamento e vou selecionar essa conta
de armazenamento aqui. Basicamente, para que ele possa
buscar arquivos PDF a partir daí. Eu vou te mostrar esses arquivos
PDF também. Deixe-me mostrar de
fato esses arquivos PDA. Deixe-me levá-lo para
aquela conta de armazenamento. Tudo bem Tudo bem Então, vou para a conta
de armazenamento e escolho a seção de
conta de armazenamento aqui Espere, e eu vou até os contêineres do lado
esquerdo. Então, eu criei um contêiner
chamado de dados de viagem. Eu clico nele. E esses são
alguns dos PDS que estão lá Então, basicamente, o que eu
quero. Sempre que a IA basicamente me
responder na sessão de bate-papo, quero que o
assistente de IA encaminhe esses PDS e obtenha o melhor
resultado, certo? Isso é o que eu quero. Então, vou
voltar para o meu estúdio Open AI. Tudo bem E eu vou
selecionar desta vez. Digamos que eu simplesmente diga isso. Eu também precisaria de um recurso de
pesquisa de IA porque os dados serão indexados nesse recurso específico Então eu clico nisso. Tudo bem Estou no recurso
de pesquisa. Vou selecionar meu grupo de recursos. E digamos que isso seja
novamente para pesquisa de dados. Recurso. Então, números aleatórios, e eu os
selecionarei na mesma região,
digamos, no TS, e vou usar a configuração padrão e clicar em Revisar e criar. Vamos esperar por isso. Agora, vamos
clicar em Criar. Tudo bem Então eu clico em ir para a seção de
recursos aqui. Tudo bem Então isso é criado. Vou voltar para o meu
estúdio Open A mais uma vez. Tudo bem Vamos esperar por isso.
E deixe-me atualizá-lo. Eu vou selecioná-lo. Espere por isso. Tudo bem Então, vou
fornecer o nome do índice, digamos. Margie Stribl Então, Margie, digamos que eu
trabalhe para uma empresa chamada S Marge e é aí que eu
forneço o nome do índice Então, basicamente, o que acontece. A conta de armazenamento é ter seus dados
na forma de um PDA Mas os dados que
serão indexados. Índice, considere que o
índice será como uma tabela em que você
terá linhas e colunas. Então é aí que damos o nome desse índice como Margie Stribl É isso que vamos
usar, certo? Agora vou clicar
no próximo aqui. Tudo bem Então, vou clicar
em. Da próxima vez. Agora, ele está
me pedindo os arquivos. Basicamente, eu já o tinha
enviado para o Stowe, mas digamos que eu queira
fazer isso de novo, então vou clicar em procurar arquivos
e enviá-los aqui Tudo bem Eu enviei todos os meus arquivos aqui.
Você pode ver isso. Vamos clicar em carregar
arquivos. Espere por isso. E vamos clicar em Avançar. Seção. Aqui, vou usar o
tipo de pesquisa por palavra-chave com base na palavra-chave. É por isso que vou
escolher a palavra-chave. Depois disso,
clicarei em Avançar. Vou usar esta seção de chave de
API aqui para a parte
de autenticação. Vou clicar em Avançar. Vamos esperar por isso.
Você pode ver isso. Temos um contêiner, é aí
que ele
me mostra o nome do contêiner, e esse é o recurso de pesquisa. É isso que está acontecendo. Todos os arquivos
foram enviados. Vamos clicar em, salvar e fechar. Todos dizem que a ingestão está em
andamento. Vamos esperar por isso. E depois disso, tentaremos fazer a
mesma pergunta e
veremos se ela está se referindo à fonte de
dados ou não. Tudo bem Então, isso está feito. Clique em Prompt
mais uma vez e tente ver se estamos recebendo a resposta agora.
Vamos rolar para cima. Vamos limpar o bate-papo. E
tente conversar mais uma vez. E eu digo, eu gostaria de
fazer uma viagem para Nova York. Onde eu deveria ficar?
Vamos esperar por isso. Agora, você pode ver isso. Você pode escolher entre as
seguintes acomodações oferecidas pela March Travel. Também me permite reservar na Marge Travel. Foi aí que eu
forneci essa fonte de dados. Então, ele está me dando o nome apenas
dos arquivos PDF
que eu enviei. Então, uma coisa
que vimos é que o ajuste
fino, o ajuste fino foi dar exemplos e tudo mais. A primeira é usar seus próprios dados. Foi aí que usamos
nossos próprios dados, certo? Então, espero que essa parte esteja clara, pessoal. Obrigado a todos.
16. Visão geral das práticas de IA responsável para o modo Azure OpenAI: Todo mundo. Então, faremos uma prática de IA responsável
para garantir um modelo de IA aberta. Sempre que você estiver desenvolvendo
alguns dos modelos de IA aberta, precisa seguir algumas das recomendações
da Microsoft para as práticas
responsáveis de IA. Agora, vamos
primeiro entender. Muitos desses são
seus modelos de IA aberta, que também nada mais são os modelos generativos de IA que fizeram melhorias
em seu conteúdo, resumo e na pesquisa
da cogeração Mas com essas
melhorias, definitivamente, existem alguns
desafios, como conteúdo prejudicial que
os usuários podem gerar. Eles podem ter privacidade. Eles também podem ter a
privacidade dos dados, um dos fatores importantes
que também pode ser um desafio. Como mitigar esse
tipo de risco Agora, já
aderimos a alguns
dos princípios de IA responsável, onde falamos
sobre justiça,
privacidade e segurança, confiabilidade e segurança e Mas, em alinhamento com esses padrões de IA
responsável da Microsoft, existem algumas recomendações, especialmente para esses modelos
abertos de IA, e essas recomendações são
organizadas em quatro estágios O primeiro é identificar. Isso significa identificar
os possíveis danos. Por exemplo, você pode identificar os possíveis
danos que podem
resultar do seu sistema de
IA por meio testes de estresse
iterativos
ou de uma forma de análise Por exemplo, você está desenvolvendo um aplicativo baseado em gráficos. Portanto, você precisa entender se seu aplicativo
está gerando algum tipo de conteúdo ofensivo,
discriminatório Você precisa identificar
esses possíveis danos. Essa é a primeira etapa. Isso é chamado de estágio de identificação. Portanto, gerando conteúdo que incentive comportamentos ilegais ou
antiéticos Você precisa identificar
esse tipo de risco. Essa é a primeira etapa.
Agora, a segunda é a medida. Medir significa que você
precisa medir a frequência e a gravidade desses danos. Talvez você
também possa fazer um teste
manual ou automatizado para ver se há algum tipo de gravidade ou conteúdo prejudicial
que ele está gerando ou não. Você também pode fazer algum tipo de
teste para seus dados. Agora, mitigue. Mitigar
significa que você precisa remover esses danos em várias
camadas da sua solução Por exemplo, no R Open AI, você também pode usar um
filtro de conteúdo, onde há
algo chamado existem
diferentes categorias nas quais você pode filtrar o conteúdo com
base em determinados fatores. Assim, você pode usar um dos
servidores que estão lá como sua IA aberta, chamados de
filtros de conteúdo. Agora, opere. Agora, os últimos estágios operam, onde você executa uma implantação e o plano de
prontidão operacional Por exemplo, você pode criar um plano de resposta a incidentes que inclua quanto
tempo será necessário para responder a incidentes
imprevistos Você também pode ter
um plano de reversão que define as etapas para voltar ao estado
anterior
no caso de qualquer
tipo de incidente É aí que você também desenvolverá
esse plano operacional. Agora, falamos sobre filtros de
conteúdo em open A. O que exatamente são esses filtros de
conteúdo. Agora, filtros de conteúdo são aplicados ao prompt ou
ao preenchimento para evitar que qualquer linguagem prejudicial ou ofensiva
seja germinada É aí que está sua IA aberta. É baseado nas
quatro categorias. Uma é que você também pode fazer isso com base
no ódio. Agora, você também pode restringir
o conteúdo
sexual e não
querer gerar
nenhum conteúdo sexual Você tem
categorias diferentes. Uma é a violência que descreve, defende ou
glorifica a Você também pode se machucar, aquela linguagem que descreve
ou encoraja a automutilação Você pode criar a restrição
com base nessas categorias. Agora, os filtros são sempre
aplicados nessas categorias e eles também têm
algo chamado de
configuração de severidade como segura ou baixa, média alta para determinar
quais tipos específicos de linguagem são interceptados e
evitados pelos filtros É nisso que você pode usar
os filtros
de conteúdo como sua IA aberta. Então, espero que essa
parte esteja clara quando se
trata dos princípios de IA
responsável, especialmente relacionados
ao serviço de IA aberta.
Obrigado a todos.