Domine engenharia rápida para IA generativa com ChatGPT | Idan Gabrieli | Skillshare
Pesquisar

Velocidade de reprodução


1.0x


  • 0.5x
  • 0.75x
  • 1x (Normal)
  • 1.25x
  • 1.5x
  • 1.75x
  • 2x

Domine engenharia rápida para IA generativa com ChatGPT

teacher avatar Idan Gabrieli, Online Teacher | Cloud, Data, AI

Assista a este curso e milhares de outros

Tenha acesso ilimitado a todos os cursos
Oferecidos por líderes do setor e profissionais do mercado
Os temas incluem ilustração, design, fotografia e muito mais

Assista a este curso e milhares de outros

Tenha acesso ilimitado a todos os cursos
Oferecidos por líderes do setor e profissionais do mercado
Os temas incluem ilustração, design, fotografia e muito mais

Aulas neste curso

    • 1.

      S01L01 Bem-vindo

      2:05

    • 2.

      S02L01 - uma estrutura para construir comandos

      1:22

    • 3.

      Instrução S02L02

      7:27

    • 4.

      S02L03 #2 - Contexto

      3:56

    • 5.

      S02L04 #3 - Exemplos

      4:55

    • 6.

      S02L05 #4 - Persona

      2:57

    • 7.

      S02L06 #5 - formato

      2:55

    • 8.

      S02L07 #6 - Tom

      2:14

    • 9.

      S02L08, algumas dicas

      3:24

    • 10.

      Resumo do S02L09

      3:11

    • 11.

      S03L01 - métodos de engenharia rápidos

      1:29

    • 12.

      S03L02 #1 Dividindo tarefas complexas

      6:01

    • 13.

      S03L03 #2 Compartilhando as etapas de raciocínio

      3:54

    • 14.

      S03L04 #3 usando comandos interativos

    • 15.

      S03L05 #4 Gerando conhecimento

      4:06

    • 16.

      S03L06 #5 Como adicionar conhecimento externo

      5:02

    • 17.

      Resumo do S03L07

      3:14

  • --
  • Nível iniciante
  • Nível intermediário
  • Nível avançado
  • Todos os níveis

Gerado pela comunidade

O nível é determinado pela opinião da maioria dos estudantes que avaliaram este curso. Mostramos a recomendação do professor até que sejam coletadas as respostas de pelo menos 5 estudantes.

17

Estudantes

--

Sobre este curso

Libere o poder da IA generativa

No cenário de IA acelerado de hoje, a capacidade de interagir perfeitamente com sistemas de IA tornou-se uma habilidade que muda o jogo. Dominar a engenharia rápida é fundamental: é a conexão vital entre a criatividade humana e a inteligência artificial, permitindo que nós orientemos sistemas de IA para entregar resultados precisos, relevantes e impactantes. Com modelos avançados como ChatGPT e Google Gemini processando grandes quantidades de dados, a qualidade de sua saída depende da eficiência de nossos prompts.

Este curso interativo foi projetado para dar a você experiência prática na criação de prompts poderosos que desbloqueiam todo o potencial de modelos de grandes idiomas (LLMs).

Uma estrutura comprovada e simples

Descobrir uma estrutura simplificada, mas robusta para construir prompts altamente eficazes. Nossa abordagem se concentra em seis elementos principais: instrução, contexto, exemplos, persona, formato e tom. Esses blocos de construção vão permitir que você estruture prompts que aproveitam ao máximo a IA.

Técnicas práticas do mundo real

Na segunda parte do curso, vamos mergulhar nas técnicas de engenharia de ponta mais eficazes, personalizadas para ajudar você a resolver desafios complexos e realizar tarefas avançadas com IA.

Junte-se ao movimento de IA generativa

Você está pronto para fazer parte desta transformação impulsionada pela IA? Junte-se a mim na exploração das possibilidades ilimitadas da IA generativa e aprenda como aproveitar seu poder para sua vantagem.

Conheça seu professor

Teacher Profile Image

Idan Gabrieli

Online Teacher | Cloud, Data, AI

Professor
Level: Beginner

Nota do curso

As expectativas foram atingidas?
    Superou!
  • 0%
  • Sim
  • 0%
  • Um pouco
  • 0%
  • Não
  • 0%

Por que fazer parte da Skillshare?

Faça cursos premiados Skillshare Original

Cada curso possui aulas curtas e projetos práticos

Sua assinatura apoia os professores da Skillshare

Aprenda em qualquer lugar

Faça cursos em qualquer lugar com o aplicativo da Skillshare. Assista no avião, no metrô ou em qualquer lugar que funcione melhor para você, por streaming ou download.

Transcrições

1. S01L01 Bem-vindo: Olá, bem-vindo a este treinamento sobre engenharia de bombeamento para IA generativa Meu nome é Ian e eu serei professor. Está ficando muito claro que o GAI está em toda parte. É uma enorme onda disruptiva tecnológica que está remodelando É uma grande onda e muitas coisas vão mudar. Serviços como o HAGPT e o Google Gymini estão se incorporando ao trabalho diário e aos fluxos de trabalho de muitos empregos Agora, para poder servir com sucesso nessa onda e maximizar o potencial do uso do GAI para diferentes casos de uso , é importante ser capaz de se comunicar de forma eficaz com grandes modelos de linguagem ou, em resumo, LLMs Precisamos ser capazes de pensar, estruturar e otimizar nossos requisitos usando um texto bombeado Essa é a essência da otimização por bombeamento, também chamada de engenharia bombeada É a arte de fazer as perguntas certas para obter o melhor resultado de um LLM. É útil para qualquer pessoa que esteja usando um serviço como o HachPT com uma interface web ou indiretamente usando APIs como parte de um projeto de integração maior Neste treinamento, estabeleceremos uma estrutura simples para criar solicitações altamente eficazes e, em seguida, analisaremos os métodos de engenharia de solicitações mais populares Eu farei o meu melhor para mantê-lo simples, divertido e interessante. Obrigado por assistir e espero ver você lá dentro. 2. S02L01 - uma estrutura para construir comandos: Oi, e bem-vindo. Grandes modelos de linguagem são o principal alicerce das soluções generativas de IA Eles adicionaram os incríveis recursos de digerir texto como linguagem humana A entrada é chamada de bombeada e a saída é chamada de resposta engenharia bombeada é a arte e a ciência de fazer a pergunta certa para obter o melhor resultado de um LLM É tudo uma questão de otimizar o prompt de entrada para lidar com uma tarefa específica Nesta seção, exploraremos uma estrutura simples para criar solicitações muito mais eficazes Essa estrutura tem seis blocos de construção : instrução, contexto, exemplos, persona, formato e tom Cada um deles contribuirá com algo para a estrutura geral bombeada Podemos usar um único ou vários blocos de construção com base na saída necessária. A última coisa a considerar é que aprender a otimizar as instruções é como um músculo em nosso corpo Precisamos investir algum tempo para desenvolver esse músculo praticando e experimentando coisas diferentes de forma consistente Depois de algumas semanas usando essa estrutura, ela será incorporada ao nosso trabalho diário. Tudo bem, vamos começar com o primeiro bloco de construção. Até a próxima. 3. Instrução S02L02: Olá e bem-vindo. O primeiro componente ou componente básico de um prompt é a tarefa em si, também chamada de instrução. Essa é a diretriz principal do prompt. É dizer ao modelo o que queremos fazer. Esse é o alicerce mais importante. Agora, infelizmente, o modelo não consegue ler nossa mente e adivinhar o que estamos procurando. Talvez isso mude no futuro quando estabelecermos uma ligação direta entre computadores e nosso cérebro. Até lá, a instrução necessária deve ser articulada da forma mais clara possível Quanto menos o modelo precisar adivinhar, maior a probabilidade de conseguirmos o que estamos procurando. Portanto, a definição e escopo geral da instrução devem ser muito claros. Acho que a melhor maneira de entender esse conceito é revisar exemplos práticos. Para a demonstração, estou planejando usar serviços como o HachPT e o Google Você pode escolher o que quiser. O primeiro exemplo é sobre a classificação simples de Tweets. Eu gostaria de fornecer um texto de um tweet e saber o sentimento do texto No ChargPTPMPT que estou escrevendo, você receberá um tweet sobre um filme e sua tarefa é classificar o sentimento como O tweet em si é: eu amo o novo filme do Batman, mesmo que seja bastante assustador Esse é o texto que eu gostaria de classificar . Então, o que temos aqui? Eu articulei claramente a tarefa necessária, classifiquei um texto curto, que é um tweet com categorias específicas Estou fornecendo as categorias, seja, positivo, natural ou negativo. Tudo está claro, inclusive o objetivo da tarefa. O modelo usará seu próprio conhecimento para entender o texto e, em seguida, classificar o sentimento que melhor corresponde próximo exemplo está relacionado à geração de conteúdo, que é um caso de uso muito comum e prático do GNAI Nesse caso, a solicitação pode ser gerar um título de blog para um artigo sobre a eficácia dos planos de mergulho Estou começando a definição da tarefa usando um verbo de ação como gerar, escrever, explicar, analisar, classificar, etc O verbo de ação é um elemento importante como parte da instrução Então, estou tentando articular meu objetivo final, que é um título para um artigo de blog relacionado a um tópico específico Eu tenho uma sugestão, um título, vamos ajustá-lo um pouco. Gere dez títulos de blocos para um artigo sobre a eficácia dos planos de dieta. Nesse prompt, adicionei um escopo específico, ou seja, dez títulos. Eu posso ver que alguns deles são um pouco longos e outros são formulados como uma estrutura de perguntas Vamos ajustá-lo em um modo para definir melhor a tarefa necessária. Gere dez títulos de blocos para um artigo sobre a eficácia dos planos de dieta. Um título deve ter no máximo dez palavras e sem usar uma estrutura de perguntas. Como você pode ver, adicionei escopo e limites para a saída específica que estou procurando, como no máximo dez palavras e sem usar uma estrutura de perguntas. Em muitos casos, é importante limitar e enquadrar a saída necessária. Em seguida, escreva uma postagem no blog sobre a eficácia dos planos de dieta. Escrever um post completo é uma tarefa muito mais complexa, certo? Essa definição de tarefa é muito genérica e, portanto, obtemos conteúdo genérico. Devemos definir melhor os requisitos da tarefa e estabelecer alguns limites que possam ajudar a estruturar e orientar o modelo em direção à saída desejada. E essa? Escreva uma postagem no blog sobre a eficácia dos planos de dieta. O artigo deve ser dividido em quatro seções principais. Cada seção deve explorar um aspecto diferente do tópico e será limitada a uma página fornecendo evidências científicas e dicas práticas para aumentar a eficácia dos planos de dieta. Inclua uma breve introdução para definir o contexto e uma conclusão resumindo os pontos principais Agora, estamos obtendo um conteúdo em bloco mais otimizado para nossos requisitos específicos, incluindo informações sobre a extensão de cada seção, a estrutura geral e o tipo de conteúdo a ser incluído, como evidências científicas , dicas práticas etc próximo exemplo é gerar plano de aula para um tópico específico. Escreva um pequeno plano de aula para introdução à estatística. O plano de aula deve abranger tópicos como tipos de dados, estatísticas descritivas e base de probabilidade Invente alguns exemplos que mostrem que estudantes comuns não são. Temos um verbo de ação, o que é correto. O objetivo final é criar um plano de aula sobre estatística, e estamos fornecendo o escopo necessário. seguir, neste exemplo, gostaria de extrair palavras-chave de um texto usando o GenAI como um mecanismo de um texto usando o GenAI como um O aviso será você receberá um texto e sua tarefa será extrair uma lista dos dez principais métodos Aqui está um texto sobre a probabilidade. Vamos ver as palavras-chave identificadas. Observe que desta vez estamos fornecendo o conhecimento sobre o tópico e o LLM é usado como um mecanismo de raciocínio para identificar palavras-chave no texto que estamos Vamos ver um bombeamento um pouco mais complexo , que é uma solicitação multitarefa A bomba será a seguinte. Analise a seguinte lista de comentários de usuários sobre um jogo online. Classifique cada feedback como positivo, negativo ou natural. Resuma duas conclusões de cada feedback. Categorize qual departamento deve receber feedback, suporte ao produto, vendas de marketing e, finalmente, apresentá-lo em uma mesa Aqui está a lista de comentários dos usuários. Como você pode ver, são algumas tarefas sequenciais diferentes relacionadas aos dados brutos do feedback Estamos pedindo para classificar, resumir e depois O resultado é uma tabela organizada com quatro colunas, o feedback, a classificação, as conclusões e o departamento alvo Um bom exemplo que mostra o poder do GEI ao lidar com tarefas mais complexas Tudo bem, esse é o nosso primeiro alicerce principal de qualquer prompt. Devemos definir claramente a instrução necessária. Vamos passar para a próxima. 4. S02L03 #2 - Contexto: Oi, e bem vindo de volta. O segundo e mais importante alicerce de um prompt é o contexto. O contexto fornece as informações básicas ou o ambiente necessários que ajudam a esclarecer a intenção e o escopo da solicitação Se alguém me disser por telefone que está frio sem fornecer nenhum contexto, terei dificuldade em entender se ele está falando sobre o clima, temperatura ambiente, uma bebida nas mãos ou até mesmo o comportamento de alguém. Se eu souber que está do lado de fora em uma manhã de inverno, a afirmação faz todo o sentido, certo? Na vida cotidiana, o contexto é muito importante porque molda nossa compreensão das situações, conversas e ações ao nosso redor. Pode ser o tom da conversa que podemos ouvir, o contexto histórico de uma situação ou os detalhes de um evento. contexto preenche as lacunas e nos ajuda a visualizar a imagem completa Esse conceito é 100%, o mesmo quando se pede um modelo GAI que execute uma tarefa específica Ao fornecer informações básicas relevantes, podemos ajudar a IA a entender o contexto de nossa solicitação, levando a respostas mais otimizadas e precisas. Vamos analisar alguns exemplos. Gere um tutorial para iniciantes construírem uma cadeira simples de madeira. A tarefa consiste em gerar um tutorial sobre a construção de uma cadeira. O contexto aqui é o público-alvo, ou seja, especificar quem vai usar essas informações No próximo exemplo, gere um total para construir uma cadeira em madeira, incluindo uma lista de materiais como madeira, parafusos e ferramentas , como serra de mesa, remetente elétrico e furadeira elétrico O contexto agora é sobre os materiais e ferramentas necessários, mencionando os materiais e ferramentas específicos necessários para o projeto Gere um tutorial para construir uma cadeira de madeira simples que leva cerca de 3 horas e é adequada para marceneiros iniciantes O contexto agora é sobre o nível de habilidades e necessidade de tempo para concluir o projeto. Um dos principais desafios relacionados ao contexto é o nível de detalhes. Quanta informação de contexto devemos adicionar a uma bomba. Essa é uma ótima pergunta. Para resolver isso, precisamos pensar sobre quais informações são necessárias para entender a tarefa necessária e reduzir o número de possibilidades. É útil usar uma abordagem em camadas, construindo o contexto em camadas Comece com o contexto de alto nível e, em seguida, adicione mais detalhes conforme necessário. A primeira camada é a informação obrigatória. Devemos começar com as informações mais essenciais diretamente relevantes para a tarefa, problema ou pergunta. Isso normalmente significa mencionar as suposições, configurações, ferramentas, estrutura ou recursos que desempenham um papel fundamental na Devemos nos concentrar em coisas que são exclusivas de nossa situação ou que podem influenciar a solução de uma forma não padronizada. A próxima camada é a boa de ter informações. Esses são detalhes específicos que podem afetar a solução , mas não são essenciais. Tente evitar repetir as informações que já recebemos, pois isso pode confundir o modelo Tudo bem, essa é a melhor maneira de garantir que forneçamos informações de contexto suficientes em nossos bompts Vamos passar para o próximo bloco de construção. 5. S02L04 #3 - Exemplos: Oi, e bem vindo de volta. Até agora, abordamos os blocos de construção de instruções e de contexto, que são elementos fundamentais de quase qualquer prompt. Descreva a tarefa necessária e forneça informações suficientes sobre ela. O modelo está seguindo nossa solicitação, analisando-a e, com base no conhecimento existente do modelo, ele gerará uma resposta. No entanto, há casos em que o conhecimento pré-treinado do modelo não é suficiente. O resultado que estamos obtendo é muito genérico e não está atendendo aos nossos requisitos O modelo não está totalmente ajustado para atender à nossa solicitação específica ou é difícil explicar usando uma bomba de texto o que precisamos alcançar A solução para esses desafios é usar exemplos como parte do prompt. Há casos em que será mais fácil mostrar ao modelo o que queremos dizer usando exemplos. Esse método é chamado de bombeamento de poucos tiros. É a prática de passar uma bomba acoplada a um ou mais exemplos, também chamados de disparos, para mostrar ao modelo como responder a uma tarefa específica Um exemplo é basicamente um par de entrada e saída. Podemos fornecer um exemplo ou vários exemplos. Ao analisar esses exemplos, o modelo pode aprender a seguir novos padrões. A suposição é que o modelo será capaz de extrair os padrões relevantes dos exemplos que estamos fornecendo e usá-los para gerar a resposta Vamos ver algumas demonstrações. Então, no primeiro exemplo, escreva um poema engraçado sobre um gato, por exemplo, e depois forneço um exemplo desse texto Era uma vez um gato com um rugido poderoso que pensava que era rei, mas dormia no chão e assim por diante Esse é um exemplo de um estilo específico. Agora, o que acontecerá é que, no modelo, usamos esse exemplo, extraímos os padrões dele. Portanto, o exemplo fornece um estilo e um tema poéticos específicos, orientando o modelo para gerar um novo texto mais alinhado com o seguir, escreva uma carta formal de reclamação sobre uma bicicleta infantil nova de baixa qualidade enquanto reclama do pedal solto, da roda dianteira desequilibrada e Use o exemplo a seguir. E então eu estou fornecendo uma estrutura específica, o nome da empresa. Estou escrevendo para expressar minha mais profunda insatisfação com a recente compra do produto A qualidade do produto não está alinhada com a descrição do produto descrita e com a qualidade esperada da empresa Gostaria de receber um reembolso total O exemplo estabelece uma estrutura específica para a carta, ajudando o modelo a gerar uma resposta adequada ao contexto. No próximo exemplo, gere uma lista de estratégias sobre marketing on-line de um novo curso on-line usando a estrutura a seguir. Evite detalhes de cada um. A estrutura é a seguinte. Estratégia número um, marketing de conteúdo, prioridade, alto custo, baixo. E estou dando outro exemplo da estratégia número dois, marketing de mídia social, prioridade média, custo alto. Eu não expliquei a estrutura necessária. Acabei de fornecer exemplos. O modelo avaliará a estrutura desses dois exemplos, identificará os padrões e gerará a lista completa de estratégias relevantes usando a mesma estrutura. Tenho algumas dicas relacionadas a exemplos. Quantos exemplos são necessários? Bem, provavelmente dois a cinco exemplos bem escolhidos são suficientes para guiar o modelo. Novamente, é uma situação caso a caso. Diversidade, use uma variedade de exemplos que abrangem diferentes cenários. Se você tiver alguns casos extremos, leve-os em consideração. Relevantes para a tarefa, precisamos garantir que os exemplos estejam diretamente relacionados à tarefa. Queremos que o modelo funcione. E, por fim, é importante usar um formato consistente para todos os exemplos Isso ajuda o modelo a reconhecer os padrões que precisam ser seguidos. Tudo bem, trata-se de usar exemplos, passar para o próximo bloco de construção 6. S02L05 #4 - Persona: Oi, bem vindo de volta. O próximo componente útil em um Pompt é a persona Uma persona é um personagem fictício que achamos que será a combinação perfeita para responder ou cumprir os requisitos de uma proposta específica Tenho certeza de que você tem um ou mais amigos que podem imitar pessoas famosas, imitar sua voz, expressão facial, estilo de comportamento e É engraçado, mas, ao mesmo tempo, é incrível ver que desempenho deles influencia a forma como percebemos os dados. Está adicionando contexto à situação. Podemos fazer o mesmo com os prompts. Podemos pedir ao modelo que responda a uma solicitação específica enquanto interpreta um personagem ou identidade específica. Pode ser muito útil em diferentes casos. Vamos ver alguns exemplos. Você é gerente de contratação no Google. Crie uma descrição do cargo de analista de dados. Como você pode ver, o resultado é estruturado da perspectiva de um gerente de contratação no Google. O modelo tem um conhecimento abrangente sobre como os gerentes de contratação do Google estruturarão a descrição de suas funções. Também é ter conhecimento sobre os requisitos mais relevantes para contratar um analista de dados. Tudo o que precisamos fazer é definir a persona. No próximo exemplo, vamos supor que eu gostaria de criar uma explicação leve e engraçada sobre o futuro da IA generativa Nesse caso, a persona será uma professora divertida. A dica será: você é um professor engraçado, explique o futuro da IA generativa em um parágrafo Em seguida, como artista criativo, como você usaria a tecnologia para aprimorar seu trabalho e mostrar seu portfólio para um público mais amplo A persona é uma artista criativa. O modelo tentará gerar uma resposta a partir da perspectiva dessa pessoa E o último, você é um estudante que luta para equilibrar seus estudos, atividades e vida social. Como a tecnologia pode ajudar você a se manter organizado, gerenciar seu tempo de forma eficaz e reduzir o estresse? A persona é uma estudante. Usando uma persona, podemos adaptar melhor o conteúdo para repercutir em nosso público-alvo Também pode direcionar o modelo a responder em comportamentos específicos esperados, como ser mais educado, mais formal ou vice-versa Ao adicionar uma persona aos prompts, podemos criar um conteúdo mais eficaz e envolvente que gerará melhores 7. S02L06 #5 - formato: Olá e bem-vindo de volta. O próximo componente em um prompt é sobre a estrutura e o formato esperados da saída necessária. Podemos definir o formato desejado e garantir que a resposta siga uma estrutura específica. Isso é muito útil para muitas coisas. Vamos mencionar alguns formatos muito populares que podemos usar. Então, no primeiro, liste cinco benefícios de aprender matemática em tópicos O formato exigido é uma lista de itens em marcadores. Em seguida, forneça um guia passo a passo para configurar um blog WordPress. Aqui, estou pedindo um formato passo a passo. Crie uma tabela com os filmes de ficção científica mais populares dos últimos 20 anos. As colunas da tabela estarão aqui: título do filme, diretor e classificação do IMDB Nesse caso, o formato necessário é uma tabela com cabeçalhos específicos, colunas específicas Essa é uma estrutura muito útil para organizar informações. Escreva um breve diálogo entre um cliente e um agente de suporte resolvendo um problema de cobrança A saída é como uma sessão de diálogo de pingue-pongue. Forneça cinco perguntas e respostas sobre os benefícios dos carros elétricos. O formato exigido é uma pergunta e uma resposta. Posso dar um passo adiante e pedir para gerar cinco respostas possíveis diferentes para cada pergunta. Forneça um código JavaScript, recorte essa string reversa Ao fornecer a linguagem de programação, estou solicitando um formato específico alinhado com o Javascript. Crie uma lista de verificação para bicar itens para uma viagem de fim de semana. O próximo é muito útil para muitos casos de uso. Forneça um esboço para um relatório sobre fontes de energia renováveis Pedir um esboço é uma ótima ferramenta para debater ideias para uma lista de subtópicos relacionados a um Nós o usaremos muitas vezes. Estou usando isso para muitos casos de uso. O último exemplo é sobre Imoges, será o seguinte Você receberá um texto e sua tarefa é traduzi-lo para Imoges Não use nenhum texto normal. Faça o seu melhor apenas com emojis. O texto será que a inteligência artificial é uma tecnologia muito promissora. Estamos recebendo uma sequência engraçada de imagens relacionadas a esse texto. Provavelmente existem pessoas que podem facilmente traduzir isso de volta para o texto. Tudo bem. Isso é sobre formato e estrutura. Vamos passar para o último bloco de construção. 8. S02L07 #6 - Tom: Oi, e bem vindo de volta. O último componente opcional em um prompt é definir o tom certo. Essa opção pode ajudar a orientar o estilo de resposta, seja ele formal, casual, informativo, persuasivo Ao definir um tom específico, podemos aprimorar e ajustar o conteúdo gerado ao nosso público e torná-lo uma experiência mais agradável Se eles esperam obter uma resposta informal e casual, é mais provável que estruturar o conteúdo gerado de uma forma mais amigável o torne mais eficaz Vamos ver alguns exemplos. Forneça uma explicação detalhada dos principais benefícios da IA generativa Esse é um tom formal dentro do próprio bombeado e se refletirá no conteúdo gerado Essa é uma longa lista de itens que estamos recebendo. Cada um é baseado em um formato muito estruturado e detalhado. Vamos tentar algo menos formal. Ei, você poderia me falar um pouco sobre os principais benefícios da IA generativa Como você pode ver, é uma versão mais leve porque o modelo está tentando entender o tom geral exigido do próprio texto. Por outro lado, podemos mencionar especificamente o que estamos procurando. Então, por exemplo, posso dizer que crie uma postagem envolvente e divertida sobre os principais benefícios da engenharia rápida para a criação de conteúdo de IA. Ao adicionar as palavras envolvente e divertido, estamos definindo o tom necessário para sermos mais amigáveis e descontraídos. E no último exemplo, revise o texto fornecido, corrija os erros gramaticais e torne-o mais formal negrito todas as alterações que estão sendo feitas, e aqui tenho um texto com uma seta. O texto será corrigido e o modelo o ajustará para ser mais formal, porque é isso que precisávamos obter. Esse é o alicerce de tom que podemos usar dentro do prompt. 9. S02L08, algumas dicas: Oi, e bem vindo de volta. a lista completa de blocos de construção para uso imediato. É como uma fórmula simples, rápida, igual e, em seguida, o sexto componente, instrução, contexto , exemplos, personalidade, formato e tom Os dois primeiros blocos de construção, instrução e contexto, devem ser incluídos no prompt, e todos os outros são opcionais com base em um caso de uso específico. Agora, gostaria de revisar algumas dicas úteis. O primeiro é combinar os blocos de construção relevantes. Às vezes, precisamos usar apenas a instrução com contexto e, em outros casos, a lista completa de blocos de construção. Como etapa prévia antes de criar um prompt, considere por um minuto quais blocos de construção são necessários. Preciso configurar uma persona específica? Preciso especificar o formato necessário? Preciso fornecer alguns exemplos? Qual deve ser o contexto suficiente para essa tarefa específica? Essas perguntas ajudarão você a estruturar e considerar sua estratégia e gerar pontos mais eficazes. A próxima dica é iterar e refinar. Não tente fazer disso uma dica perfeita quando você está apenas começando a desenvolver suas habilidades. É preciso tempo e muita prática para torná-lo altamente eficaz no primeiro bombeado Portanto, considere começar com um prompt mais genérico e refiná-lo gradualmente com base na resposta do modelo, como uma sessão de pingue-pongue Se a resposta inicial não atender às suas necessidades, tudo bem. Reformule sua bomba e adicione mais detalhes. Mude a mistura de blocos de construção, refine o bombeado até obtê-lo Outra dica útil é adiar a resposta. Às vezes, você quer dividir o processo em duas etapas. Na etapa número um, forneça uma lista de regras ou requisitos para o modelo e evite obter qualquer resposta. Você não quer receber nenhuma resposta. Na etapa número dois, forneça uma sequência de entradas e, para cada entrada, você deseja que o modelo aplique as regras que você já forneceu no primeiro prompt É como adiar a resposta. Como podemos fazer isso? Bem, podemos conseguir isso adicionando no final do bombeado uma solicitação para solicitar a próxima entrada Isso está forçando o modelo a esperar pela nossa próxima bomba. Vamos ver um exemplo simples. O bombeado será: vou fornecer um bloco de código, verificar se há erros na sintaxe do código e otimizar o Peça-me o código. Essa é a solicitação adicional que estou colocando no final do prompt. Agora, o LLMs está basicamente suspenso até esperar pela minha próxima Agora vou copiar e colar o código em si. Obviamente, ele gerará um novo código com base em uma lista de recomendações. Trata-se de adiar a resposta do LLM . Na próxima palestra, vamos resumir tudo. 10. Resumo do S02L09: Oi, e bem vindo de volta. Obrigado por assistir até agora. Nesta seção, conseguimos revisar a estrutura simples para criar prompts eficazes Eu gostaria de revisar rapidamente esses tópicos. A instrução é o primeiro alicerce principal. Precisamos ser claros e específicos. Comece com um verbo de ação direta, como gerar, analisar, classificar e indicar claramente o que você deseja Qual é o seu objetivo final. Além disso, é importante limitar e enquadrar a saída necessária definindo o escopo. contexto é o próximo alicerce essencial de quase qualquer prompt. Precisamos fornecer informações básicas relevantes suficientes para estruturar a resposta. Ao fornecer o contexto, considere a necessidade e o bom de ter informações. Tente fornecê-lo em camadas, começando pelas informações do navegador e, se forem necessários mais detalhes, adicione-os passo a passo Os exemplos são uma ótima maneira de ensinar um modelo sobre novos padrões a serem seguidos. O modelo pode extrair padrões relacionados à estrutura e ao estilo esperados enquanto gera a resposta. Podemos fornecer um exemplo ou vários exemplos. Certifique-se de que a estrutura dos exemplos seja consistente. Será mais fácil para o modelo entender os padrões necessários. Adicionar uma persona é uma ótima maneira de pedir à modelo que desempenhe um papel específico e adapte melhor o conteúdo para que ressoe com nosso Podemos criar conteúdo mais eficaz e envolvente. Definir o formato desejado para garantir que a resposta siga uma estrutura específica. Isso é muito útil para muitas coisas e são formatos muito práticos, e são formatos muito práticos como marcadores, guia passo a passo, guia passo a passo, uma tabela com cabeçalho específico, um diálogo curto, uma pergunta e resposta e muito mais E o último alicerce é definir o tom certo. Podemos aprimorar e ajustar o conteúdo gerado e torná-lo uma experiência mais agradável Ajustar o estilo de resposta para ser formal, casual, informativo, persuasivo Também mencionei algumas dicas úteis na palestra anterior Ao criar um prompt, tente considerar a melhor combinação de blocos de construção como parte do prompt de entrada. Suponho que cerca de 70 a 80% de todos os casos de uso que você experimentará possam ser tratados muito bem usando essa estrutura simples Agora, à medida que você ganhará mais e mais experiência, eventualmente, desejará passar para o próximo nível usando métodos adicionais, lidando com a interessante camada de 20%, lidando com situações mais complexas, projetos mais complexos. Isso é o que faremos na próxima seção. Obrigado por assistir e nos vemos novamente. 11. S03L01 - métodos de engenharia rápidos: Oi, bem vindo de volta. Se você acabou começar a usar ferramentas como o ChagPT ou o Google Gemini, provavelmente a estrutura de engenharia rápida, que aprendemos na seção anterior, será mais do seção anterior, será mais Você precisará se acostumar com isso praticando e usando-o cada vez mais como parte de seu fluxo de trabalho diário Eventualmente, essa estrutura será incorporada sem sequer pensar nisso. Agora, mais cedo ou mais tarde, você começará a usar essas ferramentas para tarefas mais complexas. É parte da jornada de aprendizado ao explorar novas opções. Por exemplo, quando comecei a usar ferramentas como o HGPT para desenvolvimento de código, acabei tentando ultrapassar os limites dessas ferramentas e, em alguns casos, não as usando de forma correta ou eficiente ou sem considerar suas Portanto, como parte da experiência contínua do mercado com engenharia de bombeamento, métodos adicionais foram criados para lidar com situações mais complexas Esse é o tópico desta seção. Vamos revisar os principais métodos práticos de engenharia de bombeamento Talvez você não os use no primeiro dia, mas, como eu disse, mais cedo ou mais tarde, um deles será útil para um projeto futuro que você realizará. Tudo bem. Vamos começar. 12. S03L02 #1 Dividindo tarefas complexas: Acho que essa palestra é provavelmente a mais importante desta seção, e é por isso que é a primeira Deixe-me enfatizar algo. A maioria das soluções de GAI não será capaz de digerir, entender e gerar boas respostas para uma tarefa muito complexa Os LLMs só podem receber uma quantidade limitada de informações por vez Qualquer modelo terá limitações no tamanho do prompt de entrada, no tamanho da saída e no quanto ele consegue se lembrar em uma longa conversa. Eventualmente, esses modelos ficarão melhores e mais fortes, mas sempre haverá alguma limitação. Agora, qual é o significado de tarefa complexa? Se eu pedir a um serviço como o Chachi PT que resuma um livro de dez páginas, tudo bem No entanto, se eu tentar injetar um livro didático com 1.000 páginas, ele poderá atingir É muito complexo e muito longo para ser digerido. Preciso quebrar e dividir o tamanho da entrada pedaços menores e, em seguida, alimentar cada peça em um prompt dedicado. Pego uma entrada complexa e a dividi em partes menores. O mesmo vale para a tarefa em si. Se a tarefa for altamente complexa, faz sentido dividi-la em partes menores. Vamos dar um exemplo do domínio da engenharia de software, mesmo que você não seja um desenvolvedor de software. É só um exemplo. Um aplicativo de software típico é uma combinação de vários módulos, componentes e camadas. Todos esses elementos são integrados para estabelecer uma variedade de fluxos de trabalho de ponta a ponta dentro desse aplicativo de software Se eu tentar usar uma solução GII para gerar um aplicativo de software completo, precisarei de centenas ou talvez milhares de linhas de texto para descrever todos os requisitos e recursos desse aplicativo É uma tarefa muito complexa. Agora, pelo menos hoje, não faz sentido esperar esse nível de sofisticação do sistema de IA Provavelmente, obterei uma produção genérica incompleta com muitas setas que reduzirão minha produtividade em vez de me ajudar a acelerar as coisas Em segundo lugar, muitas soluções de GAI, como o HGPT, terão limitações na entrada e saída imediatas com base nos modelos de preços Mais serviços premium terão menos limitações, é claro. Como podemos superar essas limitações? Bem, dividindo uma peça grande em partes menores, pegue uma tarefa complexa e considere como podemos dividi-la em uma lista de subtarefas Em seguida, pegaremos cada subtarefa e a encaixaremos em um prompt dedicado, obteremos a saída e passaremos para a próxima subtarefa, trabalhando em uma sequência de etapas A vantagem dessa abordagem é manter o foco de cada solicitação em uma tarefa com escopo limitado e, eventualmente, obter resultados muito melhores. Vamos dar um exemplo. Supondo que eu queira desenvolver um chatbot de suporte ao cliente usando o Chachi PTAPI Parece assustador, mas é apenas um exemplo para ilustrar o conceito Em vez de colocar esse projeto complexo em um único prompt como uma grande tarefa, estou dividindo-o em componentes menores, como miniprojetos A propósito, se você não tiver certeza de como dividir seu projeto em subtarefas menores, faça essa pergunta específica usando um prompt É como criar um esboço para seu projeto. Ele fornecerá algumas instruções e, em seguida, você poderá adaptá-lo ao seu projeto. Voltando ao nosso exemplo, aqui está uma lista de miniprojetos relacionados a essa tarefa de alto nível e, para cada um deles, um prompt dedicado. A primeira dica é sobre como definir o ambiente de desenvolvimento necessário Portanto, a ideia pode ser: como faço para configurar um ambiente de desenvolvimento para criar um barco de bate-papo baseado em HGPT, incluindo a instalação das bibliotecas e da estrutura necessárias O próximo resumo será sobre o uso do HAGPTAPI. Como posso integrar o chatbat da Open API ao meu aplicativo para lidar com conversas Em seguida, um aviso sobre a interface desse aplicativo. Como faço para criar uma interface de bate-papo amigável usando HTML, CSS e JavaScript Além disso, está dividindo um projeto complexo em partes menores. Em alguns casos, podemos até mesmo continuar dividindo cada miniprojeto individual em partes ainda menores. Portanto, o escopo de cada solicitação será, vamos dar outro exemplo. Supondo que eu esteja planejando lançar um novo site de comércio eletrônico e precise de uma campanha de marketing Na maioria dos casos, o marketing de um novo site pode ser um projeto muito complexo que envolve muitas coisas, muitas etapas. É um ótimo exemplo de como dividi-la várias subtarefas e cada uma terá seu próprio prompt Por exemplo, a primeira etapa ou miniprojeto é identificar o público-alvo e criar biopersonas Esse é o primeiro aviso. Em seguida, será sobre o desenvolvimento uma proposta de valor exclusiva para diferenciar o novo site, etc. Acho que você entendeu. Trata-se de dividir tarefas complexas. Vamos passar para o próximo método. 13. S03L03 #2 Compartilhando as etapas de raciocínio: Oi, e bem vindo de volta. se lembra de preencher um exame de matemática no ensino médio? Acho que sim, mesmo que tenha sido há muito tempo. Uma opção é fornecer a resposta final para uma pergunta, como se a resposta fosse 256. Outra opção é mostrar as etapas que levam a essa resposta. Muitos professores dirão: mostre-me suas pausas como parte da resposta e não apenas como resposta final Portanto, mesmo que a resposta esteja errada, talvez você possa obter alguns pontos me mostrando as etapas usadas para obter essa solução. É como perguntar, mostre-me suas pausas de raciocínio. Além disso, quando resolvemos um problema em pequenos passos, a chance de cometer erros é menor do que apenas fornecer rapidamente a resposta final. Você ficará surpreso que também seja aplicável ao sistema GAI Essa abordagem de analisar o processo de pensamento como etapas também pode ser útil como um método de engenharia rápido. Entregue-se à cadeia de ideias. Ao usar uma cadeia de pensamento estimulante, o objetivo principal é incentivar o modelo a compartilhar as etapas de raciocínio, articular seu processo de pensamento maneira sequencial lógica, como um raciocínio passo a passo Como parte da solicitação, pediremos diretamente que nos mostre o processo de pensamento, gere uma cadeia de pensamento. Então, dentro do prompt, podemos pedir que descreva seu raciocínio passo a passo Explique-me um processo passo a passo. Conseguir que um modelo de linguagem grande explique seu raciocínio por trás de algo , na verdade, pode melhorar o desempenho do modelo Isso aumentará a chance de obter melhores resultados e, em segundo lugar, nos ajudará a ver o raciocínio por trás da resposta, fornecendo não apenas a resposta final do que gostaríamos de obter, mas também as etapas intermediárias para chegar a essa resposta Isso está tornando o processo mais transparente. Vamos ver alguns exemplos. Alice deixou um copo de água do lado de fora durante a noite quando a temperatura estava abaixo de zero Na manhã seguinte, ela encontrou o vidro rachado. Explique passo a passo por que o vidro rachou. O modelo gerará uma sequência de eventos que eventualmente alcançarão o resultado final. Vamos dar uma olhada em outro exemplo. Uma sala de aula tem duas cadeiras azuis para cada três cadeiras vermelhas. Se houver um total de 30 cadeiras na sala de aula, quantas cadeiras azuis existem? Descreva seu raciocínio passo a passo. Novamente, estamos perguntando isso especificamente ao modelo como parte do bombeado Agora, podemos dar mais um passo à frente. Em vez de apenas pedir, como parte do bombeamento, que explique o processo de raciocínio passo a passo, podemos pedir especificamente ao modelo GEI que siga uma lista de etapas predefinidas de acordo com Vamos ver um exemplo. Portanto, o problema pode ser como as mudanças climáticas influenciam o aumento do nível do mar. Use as etapas a seguir para explicar isso. Então, passo número um, emissões de gases de efeito estufa. Etapa número dois, derretimento do gelo nas regiões polares, etapa número três, expansão térmica da água do mar Está bem? Portanto, estamos fornecendo as etapas que o modelo seguirá. Trata-se de pedir ao modelo que compartilhe o processo de raciocínio ou a definição do modelo, o processo de pensamento e as etapas Vamos passar para o próximo método. 14. S03L04 #3 usando comandos interativos: Acabamos de falar sobre o método de estimulação da cadeia de pensamento, em que pedimos ao modelo que descreva o processo de raciocínio que ele está usando para obter a saída como uma estrutura passo a passo Podemos até mesmo aprimorá-lo fornecendo L etapas necessárias que o modelo deve seguir. De qualquer forma, a entrada é um único prompt em que pedimos ao modelo que faça alguma coisa, e a saída é uma sequência de etapas, como uma cadeia de pensamento. Etapa número um, etapa número dois, etc. Nosso próximo método, chamado de encadeamento bombeado, tem um nome muito semelhante ao usar a mesma palavra encadeamento, mas é usado para casos de uso completamente diferentes encadeamento bombeado tem tudo a ver com iteração dinâmica e interatividade ao usar uma É como conversar com um bom amigo sobre algum tópico e desenvolver ideias sobre ele em uma abordagem passo a passo, enquanto pega a saída da última bomba e a usa para refinar ou ajustar a próxima janela de entrada criando uma cadeia de Esse é o nome de encadeamento de solicitações, que cria uma lista interativa de solicitações É um ótimo método para gerar mais conteúdo criativo, debater ideias e explorar ideias selecionadas em diferentes direções Vamos usar um exemplo simples e direto de encadeamento rápido, usando a tarefa de planejar uma festa de aniversário Essa é a tarefa principal. Então, como primeiro passo, estou pedindo identidades. Gere uma lista de ideias para um tema de festa de aniversário para um menino de 6 anos Estou recebendo uma resposta com uma lista de temas. Depois de revisar essa lista, decidi ir com a equipe de super-heróis A propósito, tenho um filho dessa idade, então tenho certeza de que é a direção certa. Em seguida, estou usando esse tema selecionado e pedindo ideias sobre como criar o convite para a festa. Então, será o seguinte. Eu vou com a equipe de super-heróis. O que devo incluir no convite para a festa? Em seguida, pedir ao convidado que venha vestido como seu super-herói favorito é uma ótima ideia Quais são os cinco melhores jogos ou atividades divertidas para essa equipe? Como você pode ver, estou trabalhando em um modo interativo, então continuo atualizando o modelo sobre minhas decisões ou conclusões. E então estou recebendo uma nova solicitação com base na decisão anterior. Então, número quatro, vou usar a estação de artesanato de super-heróis, recomendar uma lista de materiais e quantidades para cerca de 20 crianças, e assim por diante Vamos analisar outro exemplo ao desenvolver um conto. Então, a primeira pompa será escrever um conto sobre um robô chamado Mikey Robot que sonha em se tornar mais humano Isso é genérico, mas vamos direcionar o modelo no modo interativo. Portanto, a próxima dica será descrever o dia normal de Mikey Robot enquanto trabalhava em uma fábrica para Ele está confinado às paredes da fábrica, mas seus pensamentos estão focados nas atividades humanas A mãe adotará essa pompa e continuará desenvolvendo a história E então eu estou adicionando como a próxima bomba. Um dia, uma criancinha curiosa encontrou o Mickey Robot e eles se tornaram O que aconteceu a seguir? Está bem? Ao unir essas instruções, podemos moldar a direção da história geral Está bem? Isso é sobre o encadeamento bombeado Vamos passar para o próximo método. Até a próxima. 15. S03L05 #4 Gerando conhecimento: Olá e bem-vindo de volta. E o LLM tem um grande conjunto de conhecimentos sobre uma ampla variedade de tópicos Esse conhecimento foi criado como parte do processo de pré-treinamento desses modelos. É como uma enorme área de armazenamento com muitos contêineres em cada contêiner, muitas caixas pequenas. Quando pedimos que esse modelo execute uma tarefa específica, o modelo tentará encontrar o conhecimento relevante armazenado nessa enorme área de armazenamento e, em seguida, gerar a saída necessária. É usar um processo interno de duas etapas, encontrar o conhecimento necessário e gerar uma resposta com base nesse conhecimento. Às vezes, será útil controlar manualmente esse processo de duas etapas. Esse é o conceito de um método chamado estímulo ao conhecimento gerado. Nessa abordagem, primeiro solicitamos que o LLM gere conhecimento ou alguns fatos sobre algum tópico e, em seguida, inserimos essas informações em outra etapa para realizar a tarefa final necessária Esse método é usado para direcionar o modelo em uma direção específica Vamos ver um exemplo simples. Você é especialista em pintar quadros nas paredes. Gere uma lista das melhores práticas usadas para pintar imagens grandes nas paredes externas da rua. Ok, estou recebendo a resposta, ou seja, o modelo extraiu conhecimento específico Se, nesse estágio, o conhecimento não for bom o suficiente, posso identificar essa lacuna sem passar para a próxima etapa. Supondo que a saída seja boa o suficiente, agora solicitarei a tarefa real Agora vou escrever, use as informações geradas para escrever uma postagem abrangente no blog sobre como pintar uma imagem nas paredes da rua ALDO. Basicamente, dividi isso em duas etapas. Etapa número um, extraia o conhecimento, etapa número dois, faça a tarefa real usando esse conhecimento. Vamos analisar outro exemplo. Suponha que queiramos que o LLM escreva um breve relatório sobre mudanças climáticas Em vez de pedir que ele execute essa tarefa diretamente, gostaríamos de controlar as etapas e ver o conhecimento antes que ele seja usado para gerar esse relatório. Assim, poderíamos criar os seguintes prompts e executá-los sequencialmente. A primeira dica será resumir as principais tendências do aquecimento global nos últimos dez anos Estou recebendo uma lista das principais tendências sobre o aquecimento global. Em seguida, na próxima solicitação, escreverei, com base nas tendências identificadas, listando os principais estudos científicos que discutem as causas dessas mudanças. Como você pode ver, estou usando o conhecimento extraído no primeiro prompt como entrada para o próximo prompt Estou forçando o modelo a se concentrar em pontos específicos, partes específicas do conhecimento Posso até pedir para filtrar algumas tendências, por exemplo, e pedir o modelo se concentre em tendências específicas. seguir, escreverei um resumo das descobertas dos estudos listados, com foco no impacto dos humanos Novamente, isso está pedindo ao DM que extraia conhecimento específico. Na última etapa, proponha cinco estratégias principais para mitigar o impacto dos humanos mudanças climáticas com base nas descobertas resumidas Trata-se de estimular o conhecimento gerado. E a situação em que o conhecimento dentro do modelo não é bom o suficiente? Não está mantendo o conhecimento necessário. Esse é o tópico da próxima palestra. Até a próxima. 16. S03L06 #5 Como adicionar conhecimento externo: Oi, e bem vindo de volta. Até este ponto, nossa principal suposição é que um LLM que estamos usando tem o conhecimento necessário para responder à nossa pergunta sobre algum tópico Sabemos que esses LLMs são treinados usando uma grande quantidade de dados e seu conhecimento se expande horizontalmente em vários domínios e verticalmente em muitos domínios e Ainda assim, esses LLMs não são perfeitos. Eles nunca serão perfeitos. O conhecimento é algo que está sendo criado constantemente enquanto falamos. Todos os dias, os humanos estão criando uma quantidade incrível de Mesmo que os dados estejam disponíveis, você não pode treinar um modelo com nenhum dado. O conhecimento de qualquer modelo será limitado. Ele pode ser limitado por alguns motivos. Informações específicas do domínio que não estavam disponíveis quando o modelo foi treinado, como um conhecimento muito específico sobre um procedimento médico , por exemplo. O segundo é chamado de corte de conhecimento, o que significa que o modelo foi treinado até uma determinada data até novembro de 2024 quaisquer dados criados após essa data não fazem parte do conhecimento do A data limite não é um problema quando lidamos com tópicos que não estão mudando tanto quanto os métodos culinários. Mas se nossa pergunta estiver relacionada a coisas que estão mudando muito rapidamente como informações sobre tecnologias, talvez tenhamos um problema. E o terceiro são dados privados. Pense em qualquer empresa comercial com dados armazenados em bancos de dados internos. Esses dados privados não fazem parte de serviços públicos como o HGPT ou o Google Giminy Então, como podemos preencher essa lacuna? Como podemos extrair o conhecimento que falta de fontes de dados externas? Bem, existem duas opções principais manual ou automaticamente. Começarei com a segunda opção adequada para desenvolvedores. Existe um método chamado recuperação, geração argumentada ou com atraso curto Usando esse método, os desenvolvedores estão criando um sistema que automatiza o processo de ponta a ponta, significa que um componente mais flexível receberá a solicitação de entrada, usará o conteúdo da solicitação para identificar o conhecimento necessário e seguida, extrairá esse conhecimento de fontes externas Por fim, ele pegará o conhecimento extraído e o encaixará no modelo junto com o prompt original É como um processo de enriquecimento. Ele está alimentando o LLM com dados externos específicos. Ao usar esse método, as empresas podem aproveitar dados privados internos como informações adicionais para aprimorar e personalizar o conteúdo gerado Como você pode imaginar, podemos fazer o mesmo processo manualmente. seja, caso desejemos utilizar dados privados ou qualquer outro tipo de dado armazenado em um documento, planilha, site ou banco de dados, ou banco de dados, podemos adicionar esse conteúdo extra como parte do prompt de entrada, junto com a tarefa que como parte do prompt de entrada, gostaríamos de realizar, copiar e colar texto relevante de documentos, artigos, sites no prompt para fornecer mais informações específicas para o LLM usar ao gerar respostas O modelo usará esse conteúdo extra junto com o conhecimento que já possui para gerar uma resposta. Agora, se o conteúdo extra for uma página, podemos simplesmente copiar e colar no prompt de entrada junto com a tarefa necessária No entanto, se o conteúdo extra tiver 100 páginas, serão dez, talvez não funcione. Vamos rapidamente atingir a limitação do modelo. Precisamos identificar as informações mais relevantes necessárias para realizar nossa tarefa específica. Então, a partir de 100 páginas, podemos ampliar duas ou três páginas mais relevantes. Outra coisa a considerar é compartilhar informações confidenciais da sua empresa com serviços externos, como o HAGPT ou o Google Gemini Não presuma que esses serviços são seguros no sentido de que seus dados privados não serão usados. É algo a ser levado em consideração. E a última coisa a lembrar é que esses dados extras que você compartilhará em um prompt não estão alterando o conhecimento armazenado em um modelo. É apenas parte de uma memória temporária do modelo. Se você abrir o serviço novamente em outra guia, esse conhecimento extra desaparecerá. Não faz parte do modelo e você precisará compartilhar essas informações novamente para executar o mesmo prompt. 17. Resumo do S03L07: Oi, e bem vindo de volta. Abordamos vários métodos importantes em engenharia rápida e agora eu gostaria de resumi-los rapidamente Começamos com o método de dividir tarefas complexas em partes menores Precisamos lembrar que um modelo Generi típico terá limitações e, hoje, eles não são muito bons para lidar com uma tarefa complexa que exige quantidade substancial de requisitos e informações Acho que a referência definir tarefas complexas vai mudar Há uma tendência constante de mercado para melhorar esses modelos, portanto, uma tarefa complexa hoje pode ser simples no futuro. De qualquer forma, sempre podemos pegar algo complexo e tentar dividi-lo em peças simples. Cada peça pode ser uma tarefa específica que realizaremos com um prompt dedicado. Em seguida, falamos sobre o método de pedir ao modelo que compartilhe as etapas de raciocínio usadas para obter a resposta final É chamado de estímulo à cadeia de pensamento. Como parte da solicitação, pedimos diretamente que nos mostre o processo de pensamento, gere uma cadeia de pensamento como etapas intermediárias para alcançar essa resposta. Usando esse método, podemos avaliar melhor como o modelo alcança essa resposta final. O método número três é o método de usar prompts interativos, também chamado de encadeamento bombeado É como conversar com um bom amigo sobre algum tópico e desenvolver ideias em torno dele em uma abordagem passo a passo , enquanto pega a saída do último bombeado e a usa para refinar ou ajustar a próxima entrada enviada, criando uma cadeia de É um ótimo método para gerar mais conteúdo criativo, debater ideias e explorar ideias selecionadas em diferentes direções Método número quatro, gerando conhecimento como uma pré-etapa. Usando esse modelo, primeiro pedimos que o modelo gere conhecimento sobre o tópico e, na próxima solicitação, usamos esse conhecimento gerado ou um subconjunto desse conhecimento para lidar com a tarefa necessária Isso está nos ajudando a controlar manualmente o conhecimento que o modelo está escolhendo em seu repositório interno que é usado para realizar nossa tarefa Método número cinco, adicionando conhecimento externo. Esse é um método bastante simples. Há casos em que gostaríamos de aproveitar dados privados específicos ou dados específicos de domínio que não fazem parte do conhecimento do modelo. Existem duas opções principais aqui: automatizadas ou manuais. A opção automatizada é aplicável para desenvolvedores que gostariam de usar ferramentas GAI em seus aplicativos A opção é a capacidade de copiar e colar dados de texto diretamente no prompt juntamente com a tarefa que gostaríamos de realizar Como você pode ver, todos esses métodos não são complexos. É apenas uma questão de experiência e consciência de que podemos usá-los para diferentes casos de uso. Esse é um resumo rápido. Obrigado por assistir esta seção.