Transcrições
1. S01L01 Bem-vindo: Olá, bem-vindo a este treinamento sobre engenharia de bombeamento
para IA generativa Meu nome é Ian e eu
serei professor. Está ficando muito claro
que o GAI está em toda parte. É uma enorme onda
disruptiva tecnológica que está remodelando É uma grande onda e muitas
coisas vão mudar. Serviços como o HAGPT e
o Google Gymini estão se
incorporando ao trabalho diário
e aos fluxos de trabalho de muitos empregos Agora, para poder
servir com sucesso nessa onda e maximizar o potencial do uso do
GAI para diferentes casos de uso , é importante ser
capaz de
se comunicar de forma eficaz com grandes
modelos de linguagem ou, em resumo, LLMs Precisamos ser capazes de pensar,
estruturar e otimizar nossos requisitos
usando um texto bombeado Essa é a essência da otimização por
bombeamento, também chamada de engenharia bombeada É a arte de fazer as perguntas certas para obter
o melhor resultado de um LLM. É útil para qualquer pessoa que
esteja usando um serviço
como o HachPT com uma interface web ou indiretamente usando APIs como parte de um
projeto de integração maior Neste treinamento,
estabeleceremos uma
estrutura simples para criar solicitações
altamente eficazes e, em seguida,
analisaremos os métodos de
engenharia de solicitações mais populares Eu farei o meu melhor para mantê-lo
simples, divertido e interessante. Obrigado por assistir
e espero
ver você lá dentro.
2. S02L01 - uma estrutura para construir comandos: Oi, e bem-vindo.
Grandes modelos de linguagem são o principal alicerce
das soluções generativas de IA Eles adicionaram os
incríveis recursos de digerir texto como linguagem
humana A entrada é chamada de bombeada e a saída é
chamada de resposta engenharia bombeada é
a arte e a ciência de fazer a pergunta certa para obter o melhor
resultado de um LLM É tudo uma questão de otimizar o prompt de entrada para
lidar com uma tarefa específica Nesta seção, exploraremos uma estrutura simples para criar solicitações muito mais
eficazes Essa estrutura tem
seis blocos de construção
: instrução, contexto, exemplos, persona,
formato e tom Cada um deles contribuirá com algo para a estrutura geral
bombeada Podemos usar um único ou
vários blocos de construção com base na saída necessária. A última coisa a considerar é que aprender a
otimizar as instruções é como um músculo em nosso corpo Precisamos investir algum tempo
para desenvolver esse músculo praticando
e experimentando coisas diferentes de forma consistente Depois de algumas semanas
usando essa estrutura, ela será
incorporada ao nosso trabalho diário. Tudo bem, vamos começar com o primeiro
bloco de construção. Até a próxima.
3. Instrução S02L02: Olá e bem-vindo. O primeiro
componente ou componente básico de um prompt é a tarefa em si,
também chamada de instrução. Essa é a
diretriz principal do prompt. É dizer ao modelo
o que queremos fazer. Esse é o
alicerce mais importante. Agora, infelizmente,
o modelo não consegue ler nossa mente e adivinhar
o que estamos procurando. Talvez isso mude
no futuro quando
estabelecermos uma ligação direta entre
computadores e nosso cérebro. Até lá, a instrução
necessária deve ser articulada da forma mais clara
possível Quanto menos o modelo precisar adivinhar, maior
a probabilidade de conseguirmos
o que estamos procurando. Portanto, a definição e escopo
geral da instrução
devem ser muito claros. Acho que a melhor
maneira de entender esse conceito é revisar exemplos
práticos. Para a demonstração,
estou planejando usar
serviços como o HachPT
e o Google Você pode escolher o que quiser. O primeiro exemplo é sobre a classificação
simples de Tweets. Eu gostaria de
fornecer um texto de um tweet e saber o
sentimento do texto No ChargPTPMPT que estou escrevendo, você receberá
um tweet sobre
um filme e sua tarefa é classificar o sentimento como O tweet em si é: eu
amo o novo filme do Batman, mesmo que seja bastante assustador Esse é o texto que eu gostaria de
classificar . Então, o que temos aqui? Eu articulei claramente
a tarefa necessária, classifiquei um texto curto, que é um tweet com categorias
específicas Estou fornecendo as categorias, seja, positivo,
natural ou negativo. Tudo está claro, inclusive
o objetivo da tarefa. O modelo usará seu próprio
conhecimento para entender o texto e, em seguida, classificar
o sentimento que melhor corresponde próximo exemplo está relacionado
à geração de conteúdo, que é um caso de uso muito comum e
prático do GNAI Nesse caso, a
solicitação pode ser gerar um título de blog para um artigo sobre a eficácia
dos planos de mergulho Estou começando a
definição da tarefa usando um
verbo de ação como gerar,
escrever, explicar, analisar,
classificar, etc O verbo de ação é um elemento importante como
parte da instrução Então, estou tentando
articular meu objetivo final, que é um título
para um artigo de blog relacionado a um tópico específico Eu tenho uma sugestão, um título, vamos
ajustá-lo um pouco. Gere dez títulos de blocos para um artigo sobre a
eficácia dos planos de dieta. Nesse prompt, adicionei um escopo específico, ou
seja, dez títulos. Eu posso ver que alguns
deles são um pouco longos e outros são formulados
como uma estrutura de perguntas Vamos ajustá-lo em um modo para definir melhor
a tarefa necessária. Gere dez títulos de blocos para um artigo sobre a
eficácia dos planos de dieta. Um título deve ter no máximo dez palavras e sem usar uma estrutura de
perguntas. Como você pode ver,
adicionei escopo e limites para a
saída específica que estou procurando, como no máximo dez palavras
e sem usar uma estrutura de perguntas. Em muitos casos, é importante limitar e enquadrar
a saída necessária. Em seguida, escreva uma postagem no blog sobre a eficácia
dos planos de dieta. Escrever um post completo é uma tarefa muito mais
complexa, certo? Essa definição de tarefa é muito genérica e, portanto,
obtemos conteúdo genérico. Devemos definir melhor os requisitos
da tarefa e estabelecer alguns limites
que possam ajudar a estruturar e orientar o modelo em direção
à saída desejada. E essa?
Escreva uma postagem no blog sobre a eficácia
dos planos de dieta. O artigo deve ser
dividido em quatro seções principais. Cada seção deve explorar um aspecto diferente
do tópico e será
limitada a uma página fornecendo evidências
científicas e dicas
práticas para aumentar a eficácia dos planos de dieta. Inclua uma breve
introdução para definir o contexto e uma conclusão
resumindo os pontos principais Agora, estamos obtendo um
conteúdo em bloco mais otimizado para nossos requisitos
específicos, incluindo informações
sobre a extensão de cada seção, a estrutura
geral e o tipo de conteúdo a ser incluído, como evidências
científicas , dicas
práticas etc próximo exemplo é gerar plano de
aula para um tópico
específico. Escreva um pequeno plano de aula para
introdução à estatística. O plano de aula
deve abranger tópicos como tipos de dados, estatísticas
descritivas
e base de probabilidade Invente alguns exemplos
que mostrem que estudantes comuns não são. Temos um
verbo de ação, o que é correto. O objetivo final é criar um plano de
aula sobre estatística, e estamos fornecendo
o escopo necessário. seguir, neste exemplo, gostaria de
extrair palavras-chave de
um texto usando o GenAI como
um mecanismo de um texto usando o GenAI como
um O aviso será você receberá um texto e
sua tarefa será extrair
uma lista dos dez principais métodos Aqui está um texto sobre
a probabilidade. Vamos ver as palavras-chave
identificadas. Observe que
desta vez estamos fornecendo o conhecimento
sobre o tópico e
o LLM é usado como
um mecanismo de raciocínio para identificar palavras-chave
no texto que estamos Vamos ver um
bombeamento um
pouco mais complexo , que é uma solicitação
multitarefa A bomba
será a seguinte. Analise a seguinte lista de comentários de usuários sobre
um jogo online. Classifique cada feedback como
positivo, negativo ou natural. Resuma duas conclusões de cada
feedback. Categorize qual departamento
deve receber feedback, suporte ao
produto, vendas
de marketing
e, finalmente,
apresentá-lo em uma mesa Aqui está a lista
de comentários dos usuários. Como você pode ver, são algumas tarefas sequenciais
diferentes relacionadas aos dados brutos do feedback Estamos pedindo para classificar, resumir e depois O resultado é uma
tabela organizada com quatro colunas, o feedback, a
classificação, as conclusões e o departamento alvo Um bom exemplo que
mostra o poder do GEI ao lidar com tarefas
mais complexas Tudo bem, esse é o nosso primeiro
alicerce principal de qualquer prompt. Devemos definir claramente
a instrução necessária. Vamos passar para a próxima.
4. S02L03 #2 - Contexto: Oi, e bem vindo de volta. O segundo e mais
importante alicerce de um prompt é o contexto. O contexto fornece as
informações básicas ou o
ambiente necessários que ajudam a esclarecer a intenção e o escopo
da solicitação Se alguém
me disser por telefone que está frio sem
fornecer nenhum contexto, terei
dificuldade em entender se ele está falando
sobre o clima, temperatura ambiente, uma
bebida nas mãos ou até mesmo o comportamento de alguém. Se eu souber que está do lado de
fora em uma manhã de inverno, a afirmação faz todo o
sentido, certo? Na vida cotidiana, o
contexto é muito importante porque molda nossa compreensão
das situações, conversas e
ações ao nosso redor. Pode ser o tom da
conversa que podemos ouvir, o contexto histórico
de uma situação ou os detalhes
de um evento. contexto preenche as lacunas e nos ajuda a visualizar
a imagem completa Esse conceito é 100%, o mesmo quando se pede um modelo GAI que execute
uma tarefa específica Ao fornecer informações
básicas relevantes, podemos ajudar a IA a
entender o contexto de nossa solicitação, levando a respostas
mais otimizadas e
precisas. Vamos analisar
alguns exemplos. Gere um tutorial para iniciantes construírem uma cadeira
simples de madeira. A tarefa consiste em gerar um tutorial sobre a
construção de uma cadeira. O contexto aqui é
o público-alvo,
ou seja, especificar quem
vai usar essas informações No próximo exemplo, gere um total para construir uma cadeira em madeira, incluindo uma lista de
materiais como madeira,
parafusos e ferramentas
, como serra de mesa, remetente
elétrico e furadeira elétrico O contexto agora é sobre os
materiais e ferramentas necessários, mencionando os materiais
e ferramentas
específicos necessários
para o projeto Gere um tutorial para construir uma cadeira de madeira simples
que leva cerca de 3 horas e é adequada para marceneiros
iniciantes O contexto agora é sobre o nível de habilidades e necessidade de tempo para
concluir o projeto. Um dos principais
desafios relacionados ao contexto é
o nível de detalhes. Quanta informação de contexto
devemos adicionar a uma bomba. Essa é uma ótima pergunta.
Para resolver isso, precisamos pensar sobre quais informações são necessárias para entender
a tarefa necessária e reduzir o
número de possibilidades. É útil usar
uma abordagem em camadas,
construindo o contexto em camadas Comece com o contexto de alto nível e, em seguida, adicione mais
detalhes conforme necessário. A primeira camada é a informação
obrigatória. Devemos começar com as informações mais essenciais diretamente relevantes para a
tarefa, problema ou pergunta. Isso normalmente significa mencionar as suposições,
configurações, ferramentas, estrutura ou recursos que desempenham um papel fundamental
na Devemos nos concentrar em coisas
que são exclusivas de nossa situação ou que
podem
influenciar a solução de uma
forma não padronizada. A próxima camada é
a boa de ter informações. Esses são detalhes específicos que podem afetar a solução
, mas não são essenciais. Tente evitar repetir
as informações que já
recebemos, pois
isso pode confundir o modelo Tudo bem, essa é a melhor
maneira de garantir que
forneçamos informações de contexto suficientes em nossos bompts Vamos passar para o
próximo bloco de construção.
5. S02L04 #3 - Exemplos: Oi, e bem vindo de volta. Até agora, abordamos os blocos de
construção de
instruções e de contexto, que são elementos fundamentais
de quase qualquer prompt. Descreva a tarefa necessária e forneça
informações suficientes sobre ela. O modelo está seguindo nossa
solicitação, analisando-a
e, com base no conhecimento
existente do modelo, ele gerará uma resposta. No entanto, há
casos em que o
conhecimento pré-treinado do modelo não é suficiente. O resultado que estamos obtendo é muito genérico e não está
atendendo aos nossos requisitos O modelo não está totalmente ajustado para atender à nossa solicitação
específica ou é difícil
explicar usando uma bomba de texto
o que precisamos alcançar A solução para
esses desafios é usar exemplos como
parte do prompt. Há casos em
que será mais fácil mostrar
ao modelo o que
queremos dizer usando exemplos. Esse método é chamado de bombeamento de
poucos tiros. É a prática de passar uma bomba acoplada a
um ou mais exemplos, também chamados de disparos, para mostrar ao modelo como responder
a uma tarefa específica Um exemplo é basicamente um
par de entrada e saída. Podemos fornecer um exemplo
ou vários exemplos. Ao analisar esses exemplos, o modelo pode aprender a
seguir novos padrões. A suposição é que o
modelo será capaz de extrair os padrões relevantes dos
exemplos que
estamos fornecendo e usá-los
para gerar a resposta Vamos ver algumas
demonstrações. Então, no primeiro exemplo, escreva
um poema engraçado sobre um gato, por exemplo, e depois
forneço um exemplo
desse texto Era uma vez um gato
com um rugido poderoso que
pensava que era rei, mas dormia no chão e assim
por diante Esse é um exemplo de
um estilo específico. Agora, o que acontecerá é
que, no modelo, usamos esse exemplo, extraímos
os padrões dele. Portanto, o exemplo fornece um estilo e um tema poéticos
específicos, orientando o modelo para
gerar um novo texto mais alinhado
com o seguir, escreva uma
carta formal de reclamação sobre uma bicicleta infantil nova de baixa qualidade enquanto reclama
do pedal solto, da roda dianteira
desequilibrada
e Use o exemplo a seguir. E então eu estou fornecendo
uma estrutura específica, o nome da empresa. Estou escrevendo para expressar minha mais profunda insatisfação com a recente compra do produto A qualidade do produto não
está alinhada com a descrição do
produto descrita e com a qualidade esperada
da empresa Gostaria de
receber um reembolso total O exemplo estabelece uma estrutura específica
para a carta, ajudando o modelo a
gerar uma resposta adequada ao contexto. No próximo exemplo, gere
uma lista de estratégias sobre marketing on-line de um novo curso on-line usando
a estrutura a seguir. Evite detalhes de cada um. A estrutura é a seguinte. Estratégia número um, marketing de
conteúdo,
prioridade, alto custo, baixo. E estou dando
outro exemplo da estratégia número dois, marketing de mídia
social,
prioridade média, custo alto. Eu não expliquei a estrutura
necessária. Acabei de fornecer exemplos. O modelo avaliará a estrutura
desses dois exemplos, identificará os padrões
e gerará a lista completa de estratégias
relevantes usando
a mesma estrutura. Tenho algumas dicas
relacionadas a exemplos. Quantos exemplos são necessários? Bem, provavelmente dois
a cinco exemplos bem escolhidos são suficientes para
guiar o modelo. Novamente, é uma situação caso
a caso. Diversidade, use uma variedade de exemplos que abrangem
diferentes cenários. Se você tiver alguns casos extremos, leve-os em consideração. Relevantes para a tarefa,
precisamos garantir que os exemplos estejam diretamente
relacionados à tarefa. Queremos que o modelo funcione. E, por fim, é
importante usar um formato consistente
para todos os exemplos Isso ajuda o modelo
a reconhecer os padrões que
precisam ser seguidos. Tudo bem, trata-se de
usar exemplos, passar para o próximo bloco de
construção
6. S02L05 #4 - Persona: Oi, bem vindo de volta. O
próximo componente útil em um Pompt é a persona Uma persona é um
personagem fictício que achamos que será a combinação perfeita para responder ou cumprir os requisitos
de uma proposta específica Tenho certeza de que você tem
um ou mais amigos que podem imitar pessoas famosas, imitar sua voz, expressão
facial, estilo de
comportamento e É engraçado, mas,
ao mesmo tempo, é incrível ver que desempenho
deles influencia a
forma como percebemos os dados. Está adicionando contexto
à situação. Podemos fazer o mesmo com os prompts. Podemos pedir ao modelo que responda a uma solicitação específica enquanto interpreta um
personagem ou identidade específica. Pode ser muito útil
em diferentes casos. Vamos ver alguns exemplos. Você é
gerente de contratação no Google. Crie uma descrição do cargo
de analista de dados. Como você pode ver, o resultado é estruturado da perspectiva de um gerente de contratação no Google. O modelo tem um
conhecimento abrangente sobre como os gerentes de
contratação do Google estruturarão a descrição de suas
funções. Também é ter
conhecimento sobre os requisitos mais relevantes
para contratar um analista de dados. Tudo o que precisamos fazer é
definir a persona. No próximo exemplo, vamos supor que eu gostaria de criar uma explicação leve e
engraçada sobre o
futuro da IA generativa Nesse caso, a persona
será uma professora divertida. A dica será:
você é um professor engraçado, explique o futuro da IA
generativa em um parágrafo Em seguida, como artista
criativo, como você usaria a
tecnologia para aprimorar seu trabalho e mostrar seu portfólio para
um público mais amplo A persona é uma artista
criativa. O modelo tentará gerar uma resposta a partir da
perspectiva dessa pessoa E o último, você é um estudante que luta para
equilibrar seus estudos, atividades e vida social. Como
a tecnologia pode ajudar você a se manter organizado, gerenciar seu tempo de forma eficaz
e reduzir o estresse? A persona é uma estudante. Usando uma persona,
podemos adaptar melhor o conteúdo para repercutir em nosso
público-alvo Também pode direcionar
o modelo a responder em comportamentos específicos esperados,
como ser
mais educado, mais formal ou
vice-versa Ao adicionar uma persona
aos prompts, podemos criar um conteúdo mais eficaz
e envolvente que gerará melhores
7. S02L06 #5 - formato: Olá e bem-vindo de volta. O próximo componente
em um prompt é sobre a estrutura e o
formato esperados da saída necessária. Podemos definir o formato
desejado e garantir que a resposta
siga uma estrutura específica. Isso é muito útil
para muitas coisas. Vamos mencionar alguns formatos
muito populares
que podemos usar. Então, no primeiro, liste cinco benefícios de aprender
matemática em tópicos O formato exigido é uma lista
de itens em marcadores. Em seguida, forneça um guia
passo a passo para
configurar um blog WordPress. Aqui, estou pedindo
um formato passo a passo. Crie uma tabela com
os filmes de ficção científica mais populares dos
últimos 20 anos. As colunas da tabela estarão aqui: título
do filme, diretor
e classificação do IMDB Nesse caso, o formato
necessário é uma tabela com
cabeçalhos específicos, colunas específicas Essa é uma estrutura muito útil
para organizar informações. Escreva um breve diálogo entre um cliente e um agente de suporte
resolvendo um problema de cobrança A saída é como uma sessão de diálogo de
pingue-pongue. Forneça cinco perguntas e respostas sobre os
benefícios dos carros elétricos. O formato exigido é uma
pergunta e uma resposta. Posso dar
um passo adiante e pedir para gerar cinco
respostas possíveis diferentes para cada pergunta. Forneça um código JavaScript, recorte essa string reversa Ao fornecer a linguagem de
programação, estou solicitando um formato
específico alinhado com o Javascript. Crie uma lista de verificação para bicar
itens para uma viagem de fim de semana. O próximo é muito
útil para muitos casos de uso. Forneça um esboço para um relatório sobre fontes de
energia renováveis Pedir um esboço
é uma ótima ferramenta para debater ideias para uma lista de subtópicos relacionados
a um Nós o usaremos muitas vezes. Estou usando isso para
muitos casos de uso. O último exemplo
é sobre Imoges, será o seguinte Você receberá
um texto e sua tarefa é
traduzi-lo para Imoges Não use nenhum texto normal. Faça o seu melhor apenas com emojis. O texto será que a inteligência
artificial é uma tecnologia
muito promissora. Estamos recebendo uma sequência
engraçada de imagens relacionadas a esse texto. Provavelmente existem
pessoas que podem facilmente traduzir
isso de volta para o texto. Tudo bem. Isso é sobre
formato e estrutura. Vamos passar para o
último bloco de construção.
8. S02L07 #6 - Tom: Oi, e bem vindo de volta. O
último componente opcional em um prompt é definir
o tom certo. Essa opção pode ajudar a
orientar o estilo de resposta, seja ele formal, casual, informativo,
persuasivo Ao definir um tom específico, podemos aprimorar e ajustar
o conteúdo gerado ao nosso público e torná-lo uma experiência
mais agradável Se eles esperam obter uma resposta
informal e casual, é mais provável
que estruturar o conteúdo gerado de
uma forma mais amigável o
torne mais eficaz Vamos ver alguns exemplos. Forneça uma explicação
detalhada dos principais benefícios
da IA generativa Esse é um tom formal
dentro do próprio bombeado e se refletirá
no conteúdo gerado Essa é uma longa lista de
itens que estamos recebendo. Cada um é baseado em um formato muito estruturado e detalhado. Vamos tentar algo menos formal. Ei, você poderia me falar um pouco sobre os principais benefícios
da IA generativa Como você pode ver, é
uma versão mais leve porque o modelo está tentando entender o tom geral exigido
do próprio texto. Por outro lado,
podemos
mencionar especificamente o que estamos procurando. Então, por exemplo, posso dizer que crie uma postagem envolvente
e divertida sobre os principais benefícios da engenharia
rápida para a criação de conteúdo de IA. Ao adicionar as palavras
envolvente e divertido, estamos definindo o tom necessário para sermos mais amigáveis e descontraídos. E no último exemplo,
revise o texto fornecido, corrija os erros gramaticais e torne-o mais formal negrito todas as alterações
que estão sendo feitas, e aqui tenho um
texto com uma seta. O texto será corrigido e o modelo o
ajustará para ser mais formal, porque é isso que
precisávamos obter. Esse é o
alicerce de
tom que podemos usar dentro do prompt.
9. S02L08, algumas dicas: Oi, e bem vindo de volta. a lista completa de blocos de
construção para uso imediato. É como uma fórmula simples,
rápida, igual e, em seguida,
o sexto componente, instrução, contexto ,
exemplos, personalidade,
formato e tom Os dois primeiros blocos de construção, instrução e contexto, devem
ser incluídos no prompt, e todos os outros são opcionais
com base em um caso de uso específico. Agora, gostaria de revisar
algumas dicas úteis. O primeiro é combinar
os blocos de construção relevantes. Às vezes, precisamos usar apenas a instrução com
contexto e, em outros casos, a lista completa de blocos de
construção. Como etapa prévia antes de
criar um prompt, considere por um minuto quais blocos de
construção são necessários. Preciso configurar
uma persona específica? Preciso especificar
o formato necessário? Preciso fornecer
alguns exemplos? Qual deve ser
o contexto suficiente para essa tarefa específica? Essas perguntas
ajudarão você a estruturar e considerar sua estratégia e gerar pontos mais eficazes. A próxima dica é
iterar e refinar. Não tente fazer disso uma dica perfeita quando você está apenas
começando a desenvolver suas habilidades. É preciso tempo e
muita prática para torná-lo altamente eficaz
no primeiro bombeado Portanto, considere começar
com um prompt mais genérico e refiná-lo gradualmente com
base na resposta do modelo, como uma sessão de pingue-pongue Se a resposta inicial não atender às suas
necessidades, tudo bem. Reformule sua bomba
e adicione mais detalhes. Mude a mistura de blocos de
construção, refine o bombeado
até obtê-lo Outra dica útil é
adiar a resposta. Às vezes, você quer dividir
o processo em duas etapas. Na etapa número um,
forneça uma lista de regras ou requisitos para o modelo e
evite obter qualquer resposta. Você não quer
receber nenhuma resposta. Na etapa número dois, forneça
uma sequência de entradas
e, para cada entrada, você deseja que o modelo aplique as regras que você já forneceu no primeiro prompt É como adiar a resposta.
Como podemos fazer isso? Bem, podemos conseguir isso
adicionando no final
do bombeado uma solicitação para
solicitar a próxima entrada Isso está forçando o modelo a
esperar pela nossa próxima bomba. Vamos ver um exemplo simples. O bombeado será:
vou fornecer um bloco de
código, verificar se há erros na
sintaxe do código e
otimizar o Peça-me o código. Essa é a solicitação adicional que estou colocando
no final do prompt. Agora, o LLMs está
basicamente suspenso
até esperar
pela minha próxima Agora vou copiar e colar
o código em si. Obviamente, ele gerará um novo código com base em uma
lista de recomendações. Trata-se de adiar a resposta do LLM
. Na próxima palestra, vamos
resumir tudo.
10. Resumo do S02L09: Oi, e bem vindo de volta.
Obrigado por assistir até agora. Nesta seção,
conseguimos revisar
a estrutura simples para
criar prompts eficazes Eu gostaria de
revisar rapidamente esses tópicos. A instrução é o primeiro alicerce
principal. Precisamos ser claros
e específicos. Comece com um
verbo de ação direta, como gerar, analisar, classificar e indicar
claramente o que você deseja Qual é o seu objetivo final. Além disso, é importante
limitar e enquadrar a saída necessária
definindo o escopo. contexto é o próximo alicerce
essencial de quase qualquer prompt. Precisamos fornecer informações
básicas relevantes
suficientes para estruturar a resposta. Ao fornecer o contexto, considere a necessidade e o
bom de ter informações. Tente fornecê-lo em camadas, começando pelas informações do
navegador
e, se
forem necessários mais detalhes, adicione-os passo a passo Os exemplos são uma ótima maneira de ensinar um modelo sobre novos
padrões a serem seguidos. O modelo pode extrair padrões relacionados à estrutura
e ao estilo esperados enquanto
gera a resposta. Podemos fornecer um exemplo
ou vários exemplos. Certifique-se de que a estrutura
dos exemplos seja consistente. Será mais fácil para o modelo entender
os padrões necessários. Adicionar uma persona é uma ótima
maneira de pedir à modelo que desempenhe um papel específico
e adapte melhor o conteúdo para que ressoe
com nosso Podemos criar conteúdo mais eficaz
e envolvente. Definir o formato desejado para garantir que a resposta
siga uma estrutura específica. Isso é muito útil
para muitas coisas
e são formatos muito
práticos, e são formatos muito
práticos como marcadores, guia passo a
passo, guia passo a
passo, uma tabela com cabeçalho específico, um diálogo curto, uma pergunta
e resposta e muito mais E o último alicerce
é definir o tom certo. Podemos aprimorar e ajustar o conteúdo gerado e torná-lo uma experiência mais
agradável Ajustar o
estilo de resposta para ser formal, casual, informativo,
persuasivo Também mencionei algumas dicas úteis na palestra
anterior Ao criar um prompt, tente considerar a melhor combinação de blocos de construção como parte
do prompt de entrada. Suponho que
cerca de 70 a 80% de todos os casos de uso que você
experimentará possam ser tratados muito bem usando
essa estrutura simples Agora, à medida que você ganhará mais e mais
experiência, eventualmente, desejará passar para o próximo nível
usando métodos adicionais, lidando com a interessante
camada de 20%, lidando com situações mais complexas, projetos
mais complexos. Isso é o que faremos na próxima seção. Obrigado por assistir
e nos vemos novamente.
11. S03L01 - métodos de engenharia rápidos: Oi, bem vindo de volta. Se você acabou começar a usar ferramentas como o
ChagPT ou o Google Gemini, provavelmente a estrutura de
engenharia rápida, que aprendemos na
seção anterior, será
mais do seção anterior, será
mais Você precisará se
acostumar com isso praticando e usando-o cada vez
mais como parte de seu fluxo de trabalho
diário Eventualmente, essa
estrutura será incorporada sem sequer
pensar nisso. Agora, mais cedo ou mais tarde, você começará a usar essas
ferramentas para tarefas mais complexas. É parte da jornada de
aprendizado ao explorar novas opções. Por exemplo, quando
comecei a usar ferramentas como o HGPT para desenvolvimento de código, acabei tentando ultrapassar
os limites dessas
ferramentas e, em alguns casos, não as usando de forma correta ou
eficiente ou sem considerar
suas Portanto, como parte da experiência
contínua do mercado
com engenharia de bombeamento, métodos
adicionais foram criados para lidar com situações mais
complexas Esse é o tópico
desta seção. Vamos revisar
os principais métodos práticos de
engenharia de bombeamento Talvez você não os use
no primeiro dia, mas, como eu disse, mais cedo ou mais tarde,
um deles será útil para um
projeto futuro que você realizará. Tudo bem. Vamos começar.
12. S03L02 #1 Dividindo tarefas complexas: Acho que essa palestra
é provavelmente a mais
importante desta seção, e é por isso que
é a primeira Deixe-me enfatizar algo. A maioria das soluções de GAI
não será capaz de digerir, entender e
gerar boas respostas para uma tarefa muito complexa Os LLMs só podem receber uma quantidade limitada de
informações por vez Qualquer modelo terá limitações
no tamanho do prompt de entrada, no tamanho da saída e no quanto ele consegue se lembrar em uma
longa conversa. Eventualmente, esses modelos
ficarão melhores e mais fortes, mas
sempre haverá alguma limitação. Agora, qual é o
significado de tarefa complexa? Se eu pedir a um serviço
como o Chachi PT que resuma um livro de dez
páginas, tudo bem No entanto, se eu tentar injetar um livro didático com 1.000 páginas, ele poderá atingir É muito complexo e
muito longo para ser digerido. Preciso quebrar e dividir
o tamanho da entrada pedaços
menores e, em seguida, alimentar cada peça em um prompt dedicado. Pego uma entrada complexa e a
dividi em partes
menores. O mesmo vale para
a tarefa em si. Se a tarefa for altamente complexa, faz sentido
dividi-la em partes menores. Vamos dar um exemplo do domínio da
engenharia de software, mesmo que você não seja um desenvolvedor
de software. É só um exemplo. Um
aplicativo de software típico é uma combinação de vários módulos,
componentes e camadas. Todos esses elementos são
integrados para estabelecer uma variedade de
fluxos de trabalho de ponta a ponta dentro desse aplicativo
de software Se eu tentar usar
uma solução GII para gerar um aplicativo de
software completo, precisarei de centenas
ou talvez milhares de linhas de texto para descrever todos
os requisitos e
recursos desse aplicativo É uma tarefa muito complexa. Agora, pelo menos hoje, não
faz sentido esperar esse nível de sofisticação do sistema
de IA Provavelmente, obterei uma produção
genérica incompleta com muitas setas
que reduzirão minha produtividade em vez de me
ajudar a acelerar as coisas Em segundo lugar, muitas soluções de GAI,
como o HGPT, terão limitações na entrada
e saída imediatas com
base nos modelos de preços Mais serviços premium
terão menos limitações, é claro. Como podemos superar
essas limitações? Bem, dividindo uma
peça grande em partes menores, pegue uma
tarefa complexa e considere como podemos
dividi-la em uma lista de subtarefas Em seguida, pegaremos cada subtarefa e a encaixaremos em um prompt
dedicado, obteremos a saída e passaremos
para a próxima subtarefa, trabalhando em uma sequência de etapas A vantagem dessa abordagem
é manter o foco de cada solicitação em uma tarefa com escopo
limitado e, eventualmente,
obter resultados muito melhores. Vamos dar um exemplo. Supondo
que eu queira desenvolver um chatbot de suporte ao cliente usando o Chachi PTAPI Parece assustador, mas é apenas um exemplo para
ilustrar o conceito Em vez de colocar
esse projeto complexo em um único prompt
como uma grande tarefa, estou dividindo-o em componentes
menores,
como miniprojetos A propósito, se você
não tiver certeza de como
dividir seu projeto em subtarefas
menores, faça essa
pergunta específica usando um prompt É como criar um
esboço para seu projeto. Ele
fornecerá algumas instruções
e, em seguida, você poderá
adaptá-lo ao seu projeto. Voltando ao nosso exemplo, aqui está uma lista de miniprojetos relacionados
a essa tarefa de alto nível
e, para cada um deles,
um prompt dedicado. A primeira dica é sobre como
definir o ambiente de
desenvolvimento necessário Portanto, a ideia pode
ser: como faço para configurar
um ambiente de desenvolvimento para
criar um barco de bate-papo baseado em HGPT, incluindo a instalação das
bibliotecas e da estrutura necessárias O próximo resumo será sobre o
uso do HAGPTAPI. Como posso integrar o
chatbat da Open API ao meu aplicativo
para lidar com conversas Em seguida, um aviso sobre a
interface desse aplicativo. Como faço para criar uma interface de bate-papo
amigável usando HTML, CSS e JavaScript Além disso, está dividindo um projeto complexo
em partes menores. Em alguns casos, podemos
até mesmo continuar dividindo cada miniprojeto individual
em partes ainda menores. Portanto, o escopo de cada solicitação será, vamos dar
outro exemplo. Supondo que eu esteja planejando lançar
um novo site de comércio eletrônico e precise de uma campanha de marketing Na maioria dos casos, o marketing de
um novo site pode ser um projeto muito complexo que envolve muitas
coisas, muitas etapas. É um ótimo exemplo de
como dividi-la várias subtarefas e cada
uma terá seu próprio prompt Por exemplo, a primeira
etapa ou miniprojeto é
identificar o público-alvo
e criar biopersonas Esse é o primeiro aviso. Em seguida, será sobre o desenvolvimento uma proposta de valor exclusiva para diferenciar o novo
site, etc. Acho que você entendeu. Trata-se de dividir tarefas
complexas. Vamos passar para
o próximo método.
13. S03L03 #2 Compartilhando as etapas de raciocínio: Oi, e bem vindo de volta. se lembra de preencher um
exame de matemática no ensino médio? Acho que sim, mesmo
que tenha sido há muito tempo. Uma opção é fornecer
a resposta final para uma pergunta, como se
a resposta fosse 256. Outra opção é mostrar as etapas que levam
a essa resposta. Muitos professores dirão: mostre-me suas
pausas como parte
da resposta e não
apenas como resposta final Portanto, mesmo que a resposta esteja errada, talvez você possa obter alguns
pontos
me mostrando as etapas usadas para
obter essa solução. É como perguntar, mostre-me
suas pausas de raciocínio. Além disso, quando resolvemos
um problema em pequenos passos, a chance de cometer erros é menor do que apenas
fornecer rapidamente a resposta final. Você ficará surpreso que
também seja aplicável ao sistema GAI Essa abordagem de analisar
o processo de pensamento como etapas também pode ser útil como
um método de engenharia rápido. Entregue-se à cadeia de
ideias. Ao usar uma cadeia de
pensamento estimulante, o objetivo principal é incentivar o modelo a compartilhar
as etapas de raciocínio, articular seu processo
de pensamento maneira sequencial lógica,
como um raciocínio passo a passo Como parte da solicitação, pediremos diretamente que
nos mostre o processo de pensamento, gere uma cadeia de pensamento. Então, dentro do prompt, podemos pedir que descreva seu
raciocínio passo a passo Explique-me um processo
passo a passo. Conseguir que um
modelo de linguagem grande explique seu raciocínio por trás de algo , na verdade, pode melhorar o desempenho do
modelo Isso aumentará a chance de
obter melhores resultados e, em segundo lugar, nos
ajudará a ver o
raciocínio por trás da resposta, fornecendo não apenas
a resposta final do que gostaríamos de obter, mas também as
etapas intermediárias para chegar a essa resposta Isso está tornando o processo
mais transparente. Vamos ver alguns exemplos. Alice deixou um copo de água do lado de fora durante a noite quando a temperatura
estava abaixo de zero Na manhã seguinte, ela
encontrou o vidro rachado. Explique passo a passo
por que o vidro rachou. O modelo gerará uma
sequência de eventos que eventualmente alcançarão
o resultado final. Vamos dar uma olhada em outro exemplo. Uma sala de aula tem duas cadeiras azuis para cada três cadeiras vermelhas. Se houver um total de 30
cadeiras na sala de aula, quantas cadeiras azuis existem? Descreva seu raciocínio
passo a passo. Novamente, estamos perguntando isso especificamente ao modelo
como parte do bombeado Agora, podemos dar
mais um passo à frente. Em vez de apenas
pedir, como parte do bombeamento, que explique o
processo de raciocínio passo a passo, podemos
pedir especificamente ao modelo GEI que siga uma lista de etapas
predefinidas de acordo com Vamos ver um exemplo. Portanto,
o problema pode ser como as mudanças
climáticas influenciam
o aumento do nível do mar. Use as
etapas a seguir para explicar isso. Então, passo número um, emissões de
gases de efeito estufa. Etapa número dois, derretimento
do gelo nas regiões polares, etapa número três,
expansão térmica da água do mar Está bem? Portanto, estamos fornecendo as etapas que o
modelo seguirá. Trata-se de pedir ao modelo que compartilhe
o processo de raciocínio ou a
definição do modelo,
o processo de pensamento e as etapas Vamos passar para o próximo método.
14. S03L04 #3 usando comandos interativos: Acabamos de falar
sobre o
método de estimulação da cadeia de pensamento, em que pedimos ao modelo que descreva o processo
de raciocínio que ele está usando para obter a saída como uma estrutura passo a passo Podemos até mesmo
aprimorá-lo fornecendo L etapas necessárias que
o modelo deve seguir. De qualquer forma, a entrada é um único prompt em que pedimos
ao modelo que faça alguma coisa, e a saída é uma sequência de etapas, como uma cadeia de pensamento. Etapa número um, etapa
número dois, etc. Nosso próximo método, chamado de
encadeamento bombeado, tem um nome muito semelhante ao usar a
mesma palavra encadeamento, mas é usado para casos de uso completamente
diferentes encadeamento bombeado tem tudo a ver com iteração
dinâmica
e interatividade ao usar uma É como conversar com
um bom amigo sobre algum tópico e desenvolver
ideias sobre ele em uma
abordagem passo a passo, enquanto pega a saída da última
bomba e a usa para refinar ou ajustar a
próxima janela de entrada criando uma cadeia
de Esse é o nome de encadeamento de solicitações, que cria uma lista
interativa de solicitações É um ótimo método para gerar mais conteúdo
criativo, debater ideias
e explorar ideias selecionadas em
diferentes direções Vamos usar um exemplo simples e
direto de encadeamento rápido, usando a tarefa de planejar
uma festa de aniversário Essa é a tarefa principal.
Então, como primeiro passo, estou pedindo identidades. Gere uma lista de ideias para um tema de festa de aniversário
para um menino de 6 anos Estou recebendo uma resposta
com uma lista de temas. Depois de revisar essa lista, decidi ir com
a equipe de super-heróis A propósito, tenho
um filho dessa idade, então tenho certeza de que
é a direção certa. Em seguida, estou usando esse tema
selecionado e pedindo ideias sobre como
criar o convite para a festa. Então, será o seguinte. Eu vou com a equipe de
super-heróis. O que devo incluir no convite
para a festa? Em seguida, pedir ao
convidado que
venha vestido como seu
super-herói favorito é uma ótima ideia Quais são os cinco melhores jogos
ou atividades divertidas para essa equipe? Como você pode ver, estou trabalhando
em um modo interativo, então continuo atualizando o modelo sobre minhas decisões ou conclusões. E então estou recebendo
uma nova solicitação com base na decisão anterior. Então, número quatro, vou usar a estação
de artesanato de super-heróis, recomendar uma lista
de materiais e quantidades para cerca de
20 crianças, e assim por diante Vamos analisar outro
exemplo ao desenvolver um conto. Então, a primeira pompa será escrever um conto
sobre um robô chamado Mikey Robot que sonha
em se tornar mais humano Isso é genérico, mas
vamos direcionar o
modelo no modo interativo. Portanto, a próxima dica
será descrever o dia normal de Mikey Robot enquanto trabalhava em uma fábrica
para Ele está confinado às
paredes da fábrica, mas seus pensamentos estão focados
nas atividades humanas A mãe adotará essa pompa e continuará
desenvolvendo a história E então eu estou adicionando
como a próxima bomba. Um dia, uma criancinha
curiosa encontrou o Mickey Robot e eles se tornaram O que aconteceu a seguir? Está bem? Ao unir essas
instruções, podemos moldar a direção
da história geral Está bem? Isso é sobre o
encadeamento bombeado Vamos passar para o próximo
método. Até a próxima.
15. S03L05 #4 Gerando conhecimento: Olá e bem-vindo de volta. E o LLM tem um grande conjunto de conhecimentos
sobre uma ampla variedade de tópicos Esse conhecimento foi
criado como parte
do processo
de pré-treinamento desses modelos. É como uma enorme área
de armazenamento com muitos contêineres em cada
contêiner, muitas caixas pequenas. Quando pedimos que esse modelo
execute uma tarefa específica, o modelo tentará encontrar
o conhecimento relevante armazenado nessa enorme área de armazenamento
e,
em seguida, gerar
a saída necessária. É usar um processo interno de
duas etapas, encontrar o
conhecimento necessário e gerar uma resposta
com base nesse conhecimento. Às vezes, será útil controlar manualmente esse processo de
duas etapas. Esse é o conceito de um método chamado estímulo ao
conhecimento gerado. Nessa abordagem, primeiro
solicitamos que o LLM gere conhecimento ou alguns
fatos sobre algum tópico
e, em seguida, inserimos essas
informações em outra etapa para realizar
a tarefa final necessária Esse método é usado para
direcionar o modelo em uma direção
específica Vamos ver um exemplo simples. Você é especialista em
pintar quadros nas paredes. Gere uma lista das melhores
práticas usadas para pintar imagens grandes nas paredes
externas da rua. Ok, estou recebendo a resposta, ou
seja, o modelo extraiu conhecimento
específico Se, nesse estágio, o conhecimento
não for bom o suficiente, posso identificar essa lacuna sem
passar para a próxima etapa. Supondo que a saída
seja boa o suficiente, agora
solicitarei
a tarefa real Agora vou escrever, use as informações
geradas para escrever uma postagem abrangente no
blog sobre como
pintar uma imagem nas paredes da rua
ALDO. Basicamente, dividi
isso em duas etapas. Etapa número um,
extraia o conhecimento, etapa número dois, faça a tarefa real usando
esse conhecimento. Vamos analisar outro exemplo. Suponha que queiramos que o LLM escreva um breve relatório sobre
mudanças climáticas Em vez de pedir que ele
execute essa tarefa diretamente, gostaríamos de controlar
as etapas e ver o conhecimento antes que ele seja usado para
gerar esse relatório. Assim, poderíamos criar
os seguintes prompts e executá-los sequencialmente. A primeira dica
será resumir as principais tendências do aquecimento global nos
últimos dez anos Estou recebendo uma lista das principais
tendências sobre o aquecimento global. Em seguida, na próxima solicitação,
escreverei, com base
nas tendências identificadas, listando os principais estudos
científicos que discutem as causas
dessas mudanças. Como você pode ver, estou
usando o conhecimento extraído no primeiro prompt como entrada para o próximo prompt Estou forçando o modelo a
se concentrar em pontos específicos, partes
específicas
do conhecimento Posso até pedir para filtrar
algumas tendências,
por exemplo, e pedir o modelo se
concentre em tendências específicas. seguir, escreverei um resumo das descobertas dos estudos
listados, com foco no
impacto dos humanos Novamente, isso está pedindo ao DM que
extraia conhecimento específico. Na última etapa, proponha
cinco estratégias principais para mitigar o impacto dos humanos mudanças climáticas com base nas descobertas
resumidas Trata-se de estimular o
conhecimento gerado. E a situação em que o conhecimento dentro do
modelo não é bom o suficiente? Não está mantendo o conhecimento
necessário. Esse é o tópico da
próxima palestra. Até a próxima.
16. S03L06 #5 Como adicionar conhecimento externo: Oi, e bem vindo de volta.
Até este ponto, nossa principal suposição é
que um LLM que estamos usando tem o conhecimento necessário para responder à nossa pergunta
sobre algum tópico Sabemos que esses
LLMs são treinados usando uma grande quantidade de
dados e seu conhecimento se expande horizontalmente
em vários domínios
e verticalmente em muitos domínios e Ainda assim, esses LLMs não
são perfeitos. Eles nunca serão perfeitos. O conhecimento é algo que está sendo
criado
constantemente enquanto falamos. Todos os dias, os humanos estão criando uma
quantidade incrível de Mesmo que os dados estejam disponíveis, você não pode treinar um modelo
com nenhum dado. O conhecimento de qualquer
modelo será limitado. Ele pode ser limitado por
alguns motivos. Informações específicas do domínio que
não estavam disponíveis quando o
modelo foi treinado, como um
conhecimento muito específico sobre um procedimento médico
, por exemplo. O segundo é chamado de corte de
conhecimento, o
que significa que o modelo
foi treinado até uma determinada data até
novembro de 2024 quaisquer dados criados após essa data não fazem parte
do conhecimento do A data limite não é um problema quando
lidamos com tópicos que não estão mudando tanto
quanto os métodos culinários. Mas se nossa pergunta
estiver relacionada a coisas que estão mudando muito rapidamente como informações
sobre tecnologias, talvez tenhamos um problema. E o terceiro
são dados privados. Pense em qualquer empresa
comercial com dados armazenados
em bancos de dados internos. Esses dados privados não fazem parte de serviços públicos
como o
HGPT ou o Google Giminy Então, como podemos preencher essa lacuna? Como podemos extrair o conhecimento que
falta de fontes de dados externas? Bem, existem duas opções principais manual ou automaticamente. Começarei com
a segunda opção adequada para desenvolvedores. Existe um método
chamado recuperação, geração
argumentada
ou com atraso curto Usando esse método,
os desenvolvedores estão criando um sistema que automatiza
o processo de ponta a ponta, significa que um componente mais flexível
receberá a solicitação de entrada, usará o conteúdo da
solicitação para identificar
o conhecimento necessário e seguida, extrairá esse conhecimento
de fontes externas Por fim, ele pegará o conhecimento
extraído e o
encaixará no modelo junto
com o prompt original É como um processo de enriquecimento. Ele está alimentando o LLM com dados externos
específicos. Ao usar esse método, as empresas podem aproveitar dados privados
internos como informações
adicionais
para aprimorar e personalizar o conteúdo
gerado Como você pode imaginar, podemos fazer
o mesmo processo manualmente. seja, caso
desejemos utilizar dados privados ou qualquer outro tipo de
dado armazenado em um documento, planilha, site
ou banco de dados, ou banco de dados, podemos adicionar esse conteúdo extra
como parte do prompt de entrada,
junto com a tarefa que como parte do prompt de entrada, gostaríamos de realizar, copiar e colar texto relevante
de documentos, artigos, sites no prompt
para fornecer mais informações específicas
para o LLM
usar ao gerar respostas O modelo usará esse conteúdo
extra junto com o conhecimento que já
possui para gerar uma resposta. Agora, se o
conteúdo extra for uma página, podemos simplesmente copiar e colar no prompt de entrada junto
com a tarefa necessária No entanto, se o
conteúdo extra
tiver 100 páginas, serão dez,
talvez não funcione. Vamos rapidamente atingir a
limitação do modelo. Precisamos identificar as informações mais relevantes necessárias para realizar
nossa tarefa específica. Então, a partir de 100 páginas, podemos ampliar duas ou
três páginas mais relevantes. Outra coisa a considerar
é compartilhar informações confidenciais
da sua empresa com serviços externos, como o
HAGPT ou o Google Gemini Não presuma que esses
serviços são seguros no sentido de que seus
dados privados não serão usados. É algo a ser
levado em consideração. E a última coisa
a lembrar é que esses dados extras que
você compartilhará em um prompt não estão alterando o conhecimento armazenado
em um modelo. É apenas parte de uma memória
temporária do modelo. Se você abrir o serviço
novamente em outra guia, esse conhecimento extra desaparecerá. Não faz parte do modelo e você precisará compartilhar essas informações novamente
para executar o mesmo prompt.
17. Resumo do S03L07: Oi, e bem vindo de volta. Abordamos vários métodos importantes
em engenharia rápida e agora eu gostaria de resumi-los
rapidamente Começamos com o método de dividir tarefas
complexas em partes menores Precisamos lembrar que
um modelo Generi típico terá limitações
e, hoje, eles não são
muito bons para lidar com
uma tarefa complexa que exige quantidade
substancial de
requisitos e informações Acho que a referência definir tarefas complexas
vai mudar Há uma tendência constante de
mercado para melhorar esses modelos,
portanto, uma tarefa complexa hoje pode
ser simples no futuro. De qualquer forma,
sempre podemos pegar algo complexo e tentar
dividi-lo em peças simples. Cada peça pode ser uma tarefa específica que
realizaremos com um prompt
dedicado. Em seguida, falamos sobre o
método de pedir
ao modelo que compartilhe as etapas de raciocínio usadas para obter
a resposta final É chamado de estímulo à cadeia de
pensamento. Como parte da solicitação, pedimos diretamente que
nos mostre o processo de pensamento, gere uma cadeia de pensamento como etapas intermediárias
para alcançar essa resposta. Usando esse método, podemos
avaliar melhor como o modelo
alcança essa resposta final. O método número três é o método de usar prompts
interativos, também chamado de encadeamento bombeado É como conversar com
um bom amigo sobre algum tópico e desenvolver
ideias em torno dele em uma abordagem passo a
passo , enquanto pega
a saída do último bombeado e a usa para refinar ou ajustar a
próxima entrada enviada, criando uma cadeia
de É um ótimo método para gerar mais conteúdo
criativo, debater ideias
e explorar ideias
selecionadas em
diferentes direções Método número quatro, gerando
conhecimento como uma pré-etapa. Usando esse modelo, primeiro
pedimos que o modelo gere
conhecimento sobre o tópico
e, na próxima solicitação, usamos esse conhecimento gerado ou um subconjunto desse conhecimento
para lidar com a tarefa necessária Isso está nos ajudando a controlar
manualmente o
conhecimento que o modelo está escolhendo em seu repositório
interno que é usado para realizar nossa tarefa Método número cinco, adicionando conhecimento
externo. Esse é um método bastante
simples. Há casos em que
gostaríamos de aproveitar dados privados
específicos ou dados
específicos de domínio que não
fazem parte do conhecimento do modelo. Existem duas opções principais
aqui: automatizadas ou manuais. A opção automatizada é
aplicável para desenvolvedores que gostariam de usar ferramentas GAI
em seus aplicativos A opção é
a capacidade de copiar e colar dados de texto diretamente no prompt juntamente com a tarefa que
gostaríamos de realizar Como você pode ver, todos esses
métodos não são complexos. É apenas uma questão
de experiência e consciência de que podemos
usá-los para diferentes casos de uso. Esse é um resumo rápido. Obrigado
por assistir esta seção.