Transcrições
1. Trailer: Olá a todos. Sou Mark meu. Eu sou um retrato e um boudoir fotógrafo e um editor de fotos profissional. Hoje eu vou te ensinar tudo o que você precisa saber sobre a geração de AR usando difusão estável Estou confiante em dizer isso isso é o mais aprofundado curso sobre tudo relacionado à arte de IA disponível na Internet hoje. Assim como eu faço em meus outros cursos. Vou começar com o suposição de que você tem sem experiência anterior com geração AIR. Quebrando o noções básicas primeiro e lentamente aumentando o nível de complexidade à medida que o curso avança. Durante todo o curso, Eu vou te presentear com um sem pedra sobre pedra orientação abrangente, garantindo que até o final você terá crescido a partir de um iniciante absoluto em um usuário experiente. Ao final deste curso, você saberá como configurar você é totalmente gratuito Software de arte de IA da instalação até várias extensões disponível na Internet. Você se familiarizará com todas as ferramentas e técnicas necessárias para básico e casos de uso avançados. Você aprenderá como para se comunicar de forma eficaz com seu computador, um processo conhecido como solicitação. E como gerar imagens usando tanto de texto para imagem quanto métodos de imagem para imagem. Eu também vou te mostrar vários nas técnicas de pintura usadas para corrigir e recriar partes do imagens geradas anteriormente. E, finalmente, como aprimore seus resultados usando uma variedade de. O que diferencia este curso de a maioria dos cursos relacionados à IA na Internet é a análise aprofundada e visão geral de cada um e cada configuração e controle deslizante do Automatic 11, 11. A IA mais avançada gerador disponível até o momento, incluindo vários exemplos, comparações entre configurações diferentes e muito mais. Tudo com o objetivo de ajudar você a encontrar seu próprio estilo e método preferido. Isso fornecerá a você uma compreensão abrangente de os parâmetros que você pode usar para orientar a geração de IA de acordo com sua visão. Além disso, vamos cubra ambas as fotos realista e animado modelos de difusão estáveis Onde encontrar e instalar eles ao lado inversões textuais luras e arquivos que usamos para ensine nosso favorito modela novos conceitos. Fiz um grande esforço para simplifique e ajude você navegue no às vezes confuso interface de difusão estável. Incluindo vários termos e técnicas usadas pela comunidade. Com o objetivo de apresentar eles de uma forma que é compreensível, mesmo se você tiver não tive contato prévio com a IA. Este curso é seu destino de parada para dominando a geração de arte de IA com difusão estável Eu ficaria muito feliz em ter você a bordo como meu aluno embarcando nisso jornada criativa para o mundo de Geração de arte de IA. Vamos desbloquear sua criatividade potencial juntos. Eu sou Mark e eu serei feliz em ser seu professor.
2. Prólogo do capítulo 1: Bem-vindo ao primeiro capítulo deste tutorial. Antes de prosseguirmos, Eu quero responder uma pergunta que provavelmente é na mente de muitos de vocês. Por que não no meio da viagem, um já popular Gerador de arte AI. Por que não usamos o pirilampo da Adobe Eu posso lhe fornecer dois tipos de respostas. Uma curta, eu diria você é como eu e você não gosta de ser restrito quando chega a experimentar ideias diferentes e ter para pagar por isso em cima, tudo isso enquanto está severamente limitado quando se trata de tomar controle sobre sua imagem. Uma viagem mais longa no meio da viagem é serviço baseado em assinatura, dando-lhe uma série de gerações para usá-lo. Você precisa de uma conexão com a internet e todos os seus resultados são públicos. Os custos do uso no meio da viagem são aumentando enormemente em caso que você deseja manter seus resultados são privados ou obtidos gerações adicionais fora do plano básico. É uma história semelhante com o Firefly da Adobe seu preenchimento generativo exigindo tanto a conexão com a Internet e uma assinatura paga. A Adobe provavelmente cobrará extra para o generativo recurso de preenchimento dentro Photoshop dois que está em desenvolvimento no momento de criação deste curso. Ao contrário de Mid Journeys e as soluções da Adobe, difusão estável é ambas grátis e funcionando localmente no seu PC. Com um simples ajuste, você pode executar é completamente off-line para quando você quer sair da rede ou quando em uma viagem sem Conexão com a Internet. A segunda razão importante pela qual difusão estável é melhor escolha é o fato de que resultados gerados por Mid Journey ou A Adobe é baseada em seus possui grandes modelos treinados. Embora estes sejam grandes os modelos são flexíveis e capaz de gerar um ampla gama de saídas eles são limitados em termos de a qualidade dessas saídas. Agora vamos nos aprofundar no razão mais crucial. Tanto a Adobe quanto a Mid Journey operam como empresas. O que significa que eles precisa aderir a padrões rígidos e tendências ser muito restritivo. Em termos do avisos que você pode usar no meio da viagem, em particular, adiciona continuamente a sua lista de palavras da banda. Como fotógrafo de boudoir, você pode imaginar o quanto das minhas instruções típicas são já está na lista negra ou estará provavelmente será adicionado no futuro. Outra vantagem significativa do difusão estável é que você tenha a liberdade de treine seus modelos no conteúdo que você deseja, ou baixe modelos pré-treinados compartilhado por vários Usuários da Internet. As possibilidades são ilimitadas em termos do que você pode criar, e não há restrições na sua criatividade. Falando sobre as vantagens do interfaces de difusão estáveis sobre outras soluções generativas de IA, aqui estão alguns deles que você pode experiência no uso de software como como Automatic 11 11 que nós baseará esta lição em. Um número generoso de palavras permitido na janela de prompt. A capacidade de usar avisos negativos. Lendo instruções de conteúdo existente ou ter a IA procure por avisos, gerando conteúdo original guiado por outras imagens. Controle extensivo sobre o processo de criação de IA com vários parâmetros, controle preciso sobre Sementes de geração de IA. Nós os abordaremos em detalhes. Processamento e criação em lote A IA funciona com eficiência. Uma ampla seleção de amostradores, uma variedade de métodos de aumento de escala e upscalers para escolher. A capacidade de instalar modelos da Internet, preenchendo modelos usando arquivos. Nós nos familiarizaremos com Laura inversões e outros. O potencial de modificação seu software para ganhar ainda mais controle, treinamento, difusão estável Para reconstruir seu próprio rosto ou qualquer outro conteúdo desejado. Mesclando vários modelos para alcance os resultados desejados. Explorando diferentes tipos de pintura, que também abordaremos. Carregando máscaras precisas criadas no Photoshop e muito mais. A única desvantagem do difusão estável é que sua velocidade de geração depende na placa gráfica do seu PC, com gráficos mais recentes oferta de cartões velocidades mais altas para mais experiência agradável. Se você não tiver o requisitos de hardware para difusão estável, você também pode usá-lo de forma barata alugando tempo de processamento gráfico a partir de Google usando o Google Colab Em conclusão, enquanto difusão estável pode inicialmente aparecer mais complexo para entrar, é, em última análise vale a pena o esforço, pois não inibe sua criatividade e permite que você crie de acordo com às suas preferências e visão.
3. Capítulo 2 Configurando: Neste capítulo, vamos aborda os tópicos a seguir. Especificações do PC necessário para executar Programas de arte em IA ou como estão muitas vezes referido como interfaces de usuário. Interfaces de usuário para criar Arte de IA, incluindo NMKD e outros Automático 11, 11, my interface de usuário preferida, e como configurá-lo para uso local e uso off-line em seu PC. O processo de instalação, Especificações de PC necessárias 16 gigabytes de RAM, Nvidia, GPU, GTX, Série 700 ou mais recente Com pelo menos 2 gigabytes de V, RAM, Linux ou Windows 7810, ou 11 pelo menos 10 gigabytes de espaço em disco Conforme mencionado anteriormente, Eu estarei mostrando você como rodar de forma estável difusão gratuita No entanto, se o seu PC não atenda ao exigido especificações, você ainda pode correr modelos de difusão estáveis usando um Google Colab notebook por $10 por mês. A partir de julho de 2023. Vou adicionar um link explicando configurando uma difusão estável por meio do Google Colab em o arquivo de texto no materiais do curso. Interfaces de usuário, os programas usado para executar difusão estável modela e gera A arte da IA também pode ser aplicativos autônomos interfaces de usuário acessadas por meio de do seu computador navegador de internet. Aqui estão alguns dos opções mais populares. Interface gráfica de usuário Kd e off-line autônomo aplicativo. Um pouco lento com as atualizações, mas amigável para iniciantes parque infantil, fácil de usar, e oferecendo 1.000 grátis gerações de imagens por dia. É intuitivo e divertido para mergulhar os dedos no AI Art Dream Studio, semelhante ao playground, mas com alguns recursos ausentes. Além disso, não é gratuito invocar AI stable embora não seja tão rico em recursos. Ele fornece um poderoso interface de usuário, espaço feito oferece um interface simples e permite uso gratuito limitado com funcionalidade completa disponível por meio de um plano pago Chegada mais recente do Comf Ui apresentando um nó interface de usuário baseada. Bastante poderoso, mas também é bastante complexo para difusores embalados com recursos avançados. Tem uma interface de usuário limpa e é conhecido por sua velocidade e estabilidade. Para obter uma lista de mais sites gratuitos, você pode conferir o curso arquivo de texto de materiais. Se você ainda não experimentou com arte gerada por IA antes, você pode começar com opções mais simples como a IA do playground para tenha uma ideia disso. Nesse caso, você também pode pule para o segundo capítulo do este tutorial onde eu vou ensinar você a comunique-se com seu PC. No entanto, uma vez que isso a lição cobre tudo de um iniciante a um nível profissional usa, Eu recomendo fortemente mergulhando no Automatic 11, 11 comigo Algumas palavras em Automatic 11, 11. Automatic 11 11 está aberto fonte e é a mais poderoso e rico em recursos interface de usuário disponível, oferecendo atualizações frequentes, um fluxo contínuo de novos recursos, e inúmeras extensões para usuários avançados. Você pode gerar usando instruções de texto ou use outras imagens para guiar o processo de criação. Você também pode gerar uma parte do a imagem somente em vez disso de um inteiro. E faça upload de máscaras criadas em Photoshop e muito mais Todas as novidades em o mundo da arte de IA que você pode tente primeiro usar Automático 11 11. Esta é a razão pela qual estará cobrindo e criando nossa arte de IA dentro essa interface de usuário. No curso arquivo de texto de materiais, você encontrará um link que vai para esta página da web. Este é o Automatic 11 11 páginas no Github. Você também pode usar o Google Automatic 11 11 e encontre o primeiro link no Github. Não deixe que algo seja um tanto técnico o processo de instalação dissuade você. É simples procedimento passo a passo. Mesmo que envolva entrar alguns prompts de comando Você só vai role para baixo até você encontre a instalação e seção de corrida. Aqui você pode ver o automático instalação no Windows. Existem literalmente três etapas apenas para instalar. Difusão estável, ou Automático 11 11, que é uma interface de usuário para difusão estável Primeiro você precisa baixar Python três pontos 10.6 Você precisa pressionar este link e desça até aqui onde você vai encontrar o instalador do Windows 64 faça o download desse, em seguida, voltaremos para o instruções de instalação. Na etapa dois, nós baixará o Git. Agora, não temos já instalei o Python mas faremos isso em um segundo. Vamos baixar o Git, que usará o instalador autônomo Git de 64 bits para Windows. Configure, baixe esse arquivo. Depois de fazer o download esses arquivos, você os verá em sua pasta de downloads. Comece com o dobro clicando no Python Certifique-se de que você marque esta caixa. Adicione Python ao caminho, isso é muito importante. Em seguida, pressione instalar. Agora, o Python está sendo instalado. Isso não deve demorar mais mais do que alguns minutos. Agora você pode fechar isso. Agora precisamos instalar o Git. Clique duas vezes aqui, vamos pressionar, você pode deixar tudo aqui, Padrão e apenas pressione Avançar novamente. Pressione Avançar, como faremos não estar usando o Git para qualquer coisa mais do que um ou talvez dois comandos simples. Você não precisa se preocupar com o editor, apenas deixe isso de novo. Padrão e pressione próximo. Deixe o Git decidir Pressione Avançar novamente, saia tudo padrão e basta pressionar Avançar. Depois de pressionar Avançar com todas as configurações padrão, O Git agora está sendo instalado no seu computador. Git é o aplicativo que nós vamos use para baixar arquivos do Github e é aí que Automático 11 11 é armazenado, desenvolvido e atualizado. Clique em visualizar, notas de lançamento e basta pressionar Concluir. Agora instalamos os pré-requisitos para Automático 11 11 e difusão estável Agora podemos voltar para as instruções de instalação e vamos copiar e colar esta linha aqui. Agora, abra a janela do Explorer, crie uma pasta onde você quero seu estábulo difusão para ser Estou criando uma pasta aqui chamado de 11 11. Estou entrando nessa pasta agora eu vou pressionar aqui em cima e eu vou digitar CMD para abrir um prompt de comando. Você também pode abrir um comando prompt do seu menu Iniciar. Mas então você não será neste diretório aqui. Você vai copiar cole o texto do git Clone Git é o programa que instalamos. O clone copiará o arquivos para o seu computador. Pressione Enter. Agora seus arquivos estão sendo copiados para o seu computador. Isso deve ser bem rápido. dependendo do seu Conexão com a Internet. Para mim, demorou cerca de 5 segundos. Automático 11. 11 está agora instalado no seu computador. Agora você pode começar sua difusão estável usando o arquivo de usuário da interface do usuário da web. No entanto, eu recomendo que façamos algumas mudanças. Primeiro, vamos para abrir o Bloco de notas vamos arrastar este arquivo no Bloco de notas Isso melhorará muito o seu Experiência de geração de IA. Nós vamos adicionar um espaço, dois traços e escreva x formers. Isso vai acelerar sua difusão estável Gerações também digite lançamento automático. Isso será iniciado automaticamente uma janela do navegador quando você inicie o Automatic 11, 11. Agora, se você estiver em uma GPU de digamos que talvez quatro a seis, talvez 8 gigabytes de RAM, você poderia adicionar med Am. Isso diminuirá seu uso do Am e fará uma difusão estável mais fácil de usar no seu computador. Vou usar o antigo X e comandos de inicialização automática. Tudo o que precisamos fazer agora é salvar o arquivo. Com o software instalado e pronto, é hora de passar para o primeira parte criativa deste curso.
4. Prompting no capítulo 3: Bem-vindo ao primeiro criativo capítulo deste curso. Agora que você tem instalado com sucesso a interface de usuário que seremos usando para criar arte de IA, é hora de mergulhar os fundamentos do Criação de arte com IA. Se você pretende para usar Automático 11 11 para aprimorar partes de suas imagens, criar ativos ou criar arte de IA totalmente original. Tudo começa com um aviso. Você pode ter vindo em todo o conceito de avisa ou já ouviu falar sobre a arte de inspirar. Neste capítulo, fornecerei um abrangente compreensão do que as instruções são e orientam você como criar de forma eficaz solicita da maneira certa O que exatamente são avisa se isso é seu primeiro encontro com o termo? Deixe-me explicar. Os prompts são os palavras que você dá para a IA para contar isso o que gerar. É assim que nos comunicamos nossas intenções criativas em uma forma de o computador pode compreender Como o processo depende de palavras em vez de complexo linguagens de programação. Também é intuitivo para nós humanos e, na prática, muito mais simples do que parece. Esta janela aqui é onde digitamos nossas instruções, esses são nossos comandos textuais. E essa área aqui é uma janela de avisos negativos É aqui que você conte uma difusão estável o que queremos ver em nossa imagem gerada. Aqui é onde nós escreva os elementos queremos excluir do resultado. Pense nas instruções como a receita para a imagem que queremos criar. Isso é o mais crucial aspecto da geração de imagens de IA. Quando você está se preparando para criar um prompt, comece perguntando a si mesmo perguntas sobre a imagem você deseja criar. Qual é o assunto da sua imagem? Quais são as características e detalhes do seu assunto? Quais detalhes adicionais você tem? quero adicionar ao tema da sua arte? Qual meio seu resultado deve ser? Tente recriar uma pintura a óleo ilustração ou foto. Deveria ser um retrato de perto, retrato de corpo inteiro, ou uma grande foto de paisagem? Qual estilo de arte deve seu imagem na qual se inspirar? Qual artista e estética? Descreva o entorno meio ambiente. Como devem ser a luz e o ambiente da aparência da sua imagem? Descreva a cor esquema do seu tiro, como azul-petróleo e laranja. Muitos modelos respondem bem como etiquetas de qualidade. Essas são as palavras e frases em sua solicitação, tal como obra-prima melhor qualidade, detalhes intrincados, alta resolução, etc. Certifique-se de que o modelo a janela está mostrando V 1.5 EMA podado somente se não, consulte com o arquivo do Word Eu dei a aula. Antes de darmos nosso primeiro Geração de inteligência artificial de uma só vez, é importante não conseguir decepcionado com sua primeira corrida Estamos usando uma base modelo que está chegando ao lado do Automatic 11 11. Simplesmente para que você possa ter uma sensação ou como a solicitação funciona Eu prometo que você vai veja seus resultados ficando muito melhores à medida que nós progresso no curso. Uma coisa a mencionar é que você provavelmente obterá resultados diferentes até mesmo dos meus se estiver usando exatamente as mesmas instruções. E isso depende de muitos fatores como a placa gráfica, você tem uma versão do seu software e assim por diante. Com isso resolvido, vamos experimentem a inspiração juntos. Como mencionado anteriormente, vamos resposta a essas perguntas estabelecido anteriormente. Assunto, assunto descrição e detalhes. Digamos que um cachorro golden retriever com preto grande olhos e orelhas grandes, meio da nossa imagem gerada. Eu vou com o ilustração no estilo de tipo ou ângulo de foto de desenho animado. Que seja uma foto de perto desenho animado infantil de estilo. Talvez ao redor elementos em uma cor de parque. Cores vivas, coloridas iluminação em um dia ensolarado, manhã, luz brilhando as árvores ao redor meio ambiente, pássaros voando ao fundo. Vamos apertar o botão Gerar. Esse é o meu resultado. Claro, você pode tentar suas próprias instruções em vez dos que eu escolhi. Continue gerando um algumas vezes até você chegar a algo parecido um resultado que você gosta. Você pode obtê-lo no primeira corrida ou talvez não. É um pouco como loteria. A primeira vez que você faz isso, quando você chega a algo que você goste, bloqueie a semente digitando uma a janela de sementes para bloqueie frouxamente a composição elementos na imagem. Não se preocupe, eu vou contar você tudo sobre sementes mais tarde. Isso nos servirá bem, a fim de compare os próximos resultados com o nosso primeiro. Voltando ao resultado da minha primeira geração, foi um bom começo, mas nem ótimo nem terrível. Vamos ver como podemos melhorá-lo ainda mais. Uma boa ideia seria seja para adicionar alguns dos as instruções de qualidade, como obra-prima melhor qualidade, detalhes intrincados, alta resolução que eu mencionei anteriormente. Vamos clicar em Gerar novamente. Isso é definitivamente melhor. Agora, eu não tenho tanta certeza sobre aquelas árvores cor-de-rosa ou vermelhas em segundo plano. Como vamos tomar cuide deles e faça para que eles não apareçam em nossas gerações futuras. É hora de aprender sobre os avisos negativos. Usamos avisos negativos para descreva o que não queremos para aparecer na imagem. Também podemos usá-los para alterar o estilo. Por exemplo, minimizando resultados animados no caso de estarmos indo realismo em nosso trabalho. Ou para excluir certos recursos, como pelos faciais em pessoas, etc Usando as instruções positivas da nossa geração anterior, vamos testar alguns avisos negativos. Árvores roxas, cores de árvores vermelhas. Vamos clicar no botão Gerar novamente e muito melhor. Como você pode ver, avisos negativos pode impactar fortemente o resultado. Lembre-se do universal avisos de qualidade. Há também alguns sinais negativos de que pode afetar a qualidade dos seus resultados. Como você pode use-os com a maioria dos suas gerações também. Você pode encontrar todas as instruções no arquivo word fornecido em os materiais do curso onde eu tenho digitou todas as instruções para sua conveniência. Agora vamos voltar à imagem do nosso cachorro e tente ir mais longe melhore nossos resultados. Nós faremos isso por adicionando um monte de essas qualidades avisos negativos para aqueles poucos avisos negativos digitamos mais cedo Vamos pressionar Gerar botão novamente, supondo que tenhamos apenas não começou nada mal. Algumas dicas adicionais de solicitação. Nós, há um inteligente truque que pode ajude-nos a enfatizar um determinado palavra em nosso prompt. Colocar uma palavra entre colchetes aumenta a ênfase em essa palavra-chave específica. A comunidade chama isso dando peso a uma palavra-chave. Você pode ver um exemplo usando a imagem com nosso cachorro. Eu enfatizaria os pássaros voando o plano de fundo parte do nosso prompt escrevendo a frase entre colchetes como este Vamos gerar. Novamente, é não é o pássaro mais bonito, mas há um mais em nossa imagem. Vamos continuar aumentando os pesos em adicionando um segundo conjunto de colchetes como esse Existem significativamente mais pássaro como animais em nossa foto atual. Cada colchete representa 1,1 vezes aumentam de peso. Em outras palavras, ciência. Por enquanto, não fique obcecado sobre as imperfeições em nosso resultado. Como o capítulo de pintura lida com isso, isso é simplesmente um demonstração de quão inspirador afeta o resultado. Você deve ser cauteloso quando adicionando peso às suas palavras-chave, pois adicionar muitos poderia levam a vários artefatos Isso geralmente acontece quando o processo de geração se torna confuso sobre o que enfatizar. Nesses casos, é melhor para reestruturar o prompt Também podemos reestruturar nosso aviso e uso em vez disso, um bando de pássaros de pássaros voando o plano de fundo. Você pode ver que também funciona. Lembre-se, você pode fazer a otimização do peso na janela de aviso negativo. Ou você pode usar um tipo diferente de suporte para suprimir a força de objetos em seu prompt por usando esses colchetes. Aqui está uma dica para economizar tempo. Digitando colchetes por a mão pode ser entediante Existe um truque bacana você pode empregar aqui. Se você quiser aumentar ou diminuir o peso de uma palavra-chave ou de algumas de palavras-chave de uma só vez, selecione a palavra ou palavras com aperte o mouse e pressione o controle mais combinação de teclas de seta para cima para aumentar o Or, Controle mais tecla de seta para baixo combinação para diminuir Clique em Reordenar palavras-chave. Mesmo se decidirmos não altere as palavras-chave em nosso prompt, seu pedido em um prompt também desempenha um papel importante. Vou demonstrar isso por apenas movendo a palavra-chave, foto de perto do início do prompt. A foto de perto que Eu usei como parte do o prompt também carrega associações fortes com fotografia. Movendo a palavra-chave para o início da minha solicitação, Parece se comunicar para a IA que meu desejo é colocar um maior ênfase nisso, mesmo que minha intenção não era para alcançar realismo fotográfico que eu tenho acabou conseguindo. Isso demonstra quão sensível e suscetível a mudanças o resultado final pode ser. Este caso, se eu quisesse um moldura de close-up muito apertada, Eu poderia ter conseguido isso por colocando mais ênfase em a frase de perto ou omitindo a captura de palavra-chave Ou reestruturação minha solicitação para dizer, perspectiva macro do nariz de um cachorro enquanto deixa outras partes do prompt inalterado Muito sobre arte em IA geração é sobre ter uma sensação simplesmente brincando com isso e experimentando. Em nossos exemplos abordados anteriormente, usamos um padrão modelo de difusão estável não é usado para muito além disso para fins de demonstração ainda. Isso nos ajudou a melhorar compreensão do processo. Você ficará surpreso com quanto mais você pode alcance com um modelo personalizado nos próximos capítulos. Agora você pode desbloquear a semente digitando menos um no janela de alerta de sementes. Isso será randomizado a cada geração novamente, caso você queira gerar imagens de aparência diferente usando o mesmo prompt em vez de aderindo ao composição que tínhamos antes. Lembre-se, nós vamos cubra as sementes em detalhes adicionais ativado no curso. Além disso, há outro importante aspecto que você deve conhecer quando a construção solicita dois diferentes tipos de solicitação Você pode experimentar com o principal que é usado pelo maioria dos usuários e outro que é um pouco menos rígido e reminiscente do natural linguagem e como falamos. Tomando nosso mais cedo exemplo imediato, você pode tentar escrever a gramaticalmente frase correta em a janela de prompt, como uma ilustração de um cão golden retriever com grandes olhos negros e orelhas grandes em um parque em um dia ensolarado, com a luz da manhã brilhando as árvores e os pássaros voando ao fundo, desenhado em uma obra-prima estilo colorido de um desenho animado infantil vívido, na melhor qualidade, com detalhes intrincados e de alta resolução. Como você pode ver, o método também funciona muito bem. Então, qual é o maneira correta de fazer isso? Infelizmente, a resposta é: depende do modelo que você está usando. Eu recomendaria seguir o estilo fragmentado explicado mais cedo porque isso é o estilo de solicitação que mais modelos são treinados para entender. Combinando duas palavras-chave, Você está interessado em combinando duas palavras-chave ou combinando faces em sua geração de IA? Para fazer isso, use isso sintaxe em seu prompt O número permite você para controlar como grande parte da mistura é deveria ter sido feito. 0,1 reduz a força da primeira palavra. 0.5 mistura as duas palavras em medidas iguais. 0,75 coloca mais ênfase em a primeira palavra na sintaxe Por exemplo, você pode use Emma Watson Harry Potter seguiu pela palavra-chave numérica. A troca é uma técnica adaptado para esse fim. Essencialmente, ele serve como um método valioso para criar looks frescos e exclusivos da mesclando dois existentes. Mencionar o nome de uma celebridade em seu prompt pode ter um impacto significativo em seu resultado como o dados de treinamento usados para o modelo provavelmente inclui muitos imagens dessa celebridade. No entanto, se você deseja ter uma face consistente uma variedade de gerações, mas não é facilmente reconhecível, incorporando os nomes de atores e atrizes conhecidos, e misturando-os permite que você mescle dois distintos reconhecíveis rostos para criar uma nova cepa. Esta dica não é direta relacionado à inspiração, mas isso pode ajudar evitar o cansaço visual. Especialmente ao usar um monitor grande onde o prompt o texto fica minúsculo. Você pode segurar o tecla de controle ao usar a roda de rolagem do seu mouse para ampliar a interface. Isso permite que você veja o texto e digite com mais conforto. Salvando avisos como estilos utilizando o lápis ícone localizado aqui. Você pode salvar uma coleção de avisos positivos e negativos para usar junto com aqueles você entrou a janela de prompt. Por exemplo, se você tiver criou um conjunto de instruções fotorealistas de que você gostaria de se inscrever em vários assuntos, você pode simplesmente digitar o assunto importando o prompt restante do seu modelo salvo. Uma coisa para guardar a mente é que somos todos primeiros adotantes de essa tecnologia e você deve tomar orgulho desse fato. A tecnologia ainda está em sua infância e pode ser um pouco complexo para iniciantes com muito terreno para cobrir. Por mais divertido que seja, o todo o processo é propenso a artefatos, erros e imperfeições No entanto, isso não deve desencorajar você, de se aprofundar nisso, já que a comunidade está trabalhando duro para encontrar uma variedade de formas de reduzir esses erros e treinamento os modelos são melhores, encontrando inspiração. Quando se trata de solicitar, existem vários lugares na Internet onde você pode encontrar inspiração e veja como outros as pessoas criam suas instruções. Você pode visitar Civet I.com Explore a página ou o meio Página de apresentação do Journeys onde você pode ver imagens criado pelos membros da comunidade usando diferentes modelos e instruções usado para gerar essas imagens. Clicar em uma imagem geralmente exibir o prompt e o modelo usado. Falando em inspiração, Eu pessoalmente gosto se divertindo com Geração de arte de IA porque isso me permite ser criativo em vários campos em que Eu não tenho experiência em, como desenhar ou pintar. Também me permite imagine minhas sessões de fotos com antecedência, como fotografia é o que eu faça como minha profissão principal ou use A IA gerou elementos que eu pode incorporar em minha própria fotografia. A manipulação de fotos costumava ser algo que eu nunca tinha sido tão bom em e nunca foi foi tão agradável quanto é Agora eu tenho uma paixão profunda para tecnologia e descoberta é intrigante testemunhar como um computador pensa e cria arte. É gratificante utilizar uma máquina principalmente composto por processadores, fios e cálculos para produzir algo como linda como arte. Como fotógrafo de boudoir, Eu não ensino apenas pele retoque e gradação de cores mas também oferecem cursos sobre integrando imagens de IA com fotografia. Com a geração de arte de IA, Eu tenho a capacidade de criar conceitos que têm nunca foi visto antes. Explore a história fictícia cenários e estilos de arte e crie imagens inspiradas em as pinturas do meu favorito artistas do passado. Entre outras coisas, é é um prazer estar ao lado vocês, meus alunos, na vanguarda de algo novo onde a criatividade não conhece limites permitindo-nos expandir nosso potencial criativo. Estou totalmente comprometido para essa jornada e espero que você goste do próximos capítulos.
5. Modelos do capítulo 4: Neste capítulo, estamos vai cobrir um dos os elementos mais importantes da criação de imagens de IA. Mencionamos a difusão estável modelos algumas vezes antes. O que são e o que nós os usamos para? Interfaces de usuário como o 11 automático, 11 não são nada mais do que ferramentas poderosas que permita-nos executar de forma diferente modelos de difusão estáveis Para simplificar, ou para encontre uma analogia da vida real nossa interface gráfica, Automática 11 11 nos fornece apenas com a tela em branco. O modelo que usamos é nossa paleta e prompts representam o que somos vou pintar. Modelos, a parte mais importante do a geração de imagens contém todas as informações necessário para gerar imagens. E os assuntos estilo e qualidade do as imagens que geramos depende completamente de o modelo que usamos. Devido aos dados usados para treinar esse modelo, Não seremos capazes de gerar uma imagem de um gato, se houver nunca houve imagens de gatos em os dados de treinamento dos modelos. Da mesma forma, se apenas treinarmos ou use um modelo com imagens de gatos, não seremos capazes de gerar imagens de carros. Logo após o lançamento do o primeiro modelo público, a comunidade começou para construir em cima disso, criando modelos especializados que tenha um desempenho muito melhor do que o básico. Esses modelos são geralmente focado em um assunto de estilo específico, humor, etc como crianças animação, arte de cartazes imagens não seguras para o trabalho, fotorrealismo, carros, anime e muito mais. Muitos desses modelos mantêm muita flexibilidade, além disso. Agora existe um grande número de vários modelos disponíveis em a Internet, tudo de graça, para que você nunca possa esgotar todas as possibilidades quando trata de suas ideias criativas. Até agora, estávamos usando o modelo chamado Difusão estável versão 1.5 É um modelo base padrão que pode ser usado para determine se nosso software funciona bem com nosso hardware. É flexível. Não como bom quando chega para estilos específicos. Você conhece aquele ditado “macaco”? de todas as negociações é um mestre de ninguém. Agora é hora de cobrir a parte emocionante, difusão estável personalizada modelos criados por a comunidade que está longe superior ao que o o modelo básico pode funcionar. Onde encontramos todos esses modelos? Eu ouço você perguntar. Como mencionado anteriormente, um site chamado Civet é um grande repositório de todos coisas relacionadas à arte da IA, onde você pode encontrar modelos, exemplos de fotos, ao lado avisos para cada modelo Muitos novos modelos estão aparecendo diariamente com exemplos de imagens, descrições de parâmetros, avisos e muito mais Estaremos nos concentrando nesta plataforma para toda a nossa arte de IA necessidades de geração. Antes de usar o Civet AI, você deve criar seu conta e, se desejar, habilitar não seguro para obter resultados de trabalho. Porque mesmo que você não está planejando sobre o uso desses recursos, muitos bons modelos podem ser filtrado da sua pesquisa Além disso, você pode ativar modo escuro aqui. À medida que navega uma página em branco, analisando as instruções e as imagens podem se tornar cansativas seus olhos quando gerando imagens. Você pode facilmente mitigar qualquer não é seguro para o trabalho, resultados em suas instruções de ficando longe de essas palavras-chave são positivas solicitar e adicionar palavras-chave, nu, nudez, mamilos, nu, et cetera, em seu alerta negativo. Como medida adicional de segurança, existem alguns outros lugares que você pode encontrar modelos abraçando o rosto. É outro grande repositório de vários modelos de IA usados para tudo da ciência aplicativos para arte generativa que com os quais estamos preocupados. A interface está bastante seca muitas vezes sem fotos para chan, lugar arriscado para encontrar modelos que podem ter vírus e ransomware embalado dentro. Eu desaconselharia procurando modelos aqui. O maior benefício do usando difusão estável isso é diferente de Mid Journey e Adobe Firefly, que são ambos muito restritivo termos de quais ideias você pode brincar com, não há limite para o que qualquer um em a comunidade pode treinar um modelo de difusão estável para fazer Modelos de difusão estáveis vêm em dois formatos diferentes, Tensores KPT e Safe. Baixe a versão segura do tensor do modelo sempre está disponível. Caso contrário, certifique-se de baixar os arquivos CKPT de um fonte confiável Como os arquivos tensores seguros não podem ser repleto de códigos maliciosos, você deve estar livre de preocupações usando modelos encontrados na IA. Como você verá, a maioria dos modelos foram treinados em arte animada com variações níveis de fotorrealismo No entanto, alguns foram treinados ou mesclado para ser tão fotorrealista conforme possível atualmente. Falando em fotorrealismo, um novo tipo de modelo atualmente em desenvolvimento ativo é chamado de SDxl Com o objetivo de alcançar ainda mais resolução de geração, texto legível e resultados fotorrealistas E esses são os modelos treinados em imagens maiores que 512 por 512 pixels e 768 por 768 pixels qual a maioria dos outros modelos são treinados com. Difusão estável, Os modelos de células levam significativamente mais longo para produzir uma imagem, mas os resultados não são necessariamente duas vezes melhor que o a resolução faz parecer. Gerando imagens dessa maneira requer um secundário modelo refinador isso também leva tempo adicional para seja carregado durante o processo de geração. Por enquanto, por praticidade e propósitos de velocidade de geração, vamos ficar com o modelos de pontos de verificação regulares Eu vou te mostrar o SDxL modelos mais tarde, quando lidar com o tamanho da imagem e as configurações e os parâmetros capítulo deste curso. Às vezes, um modelo feito pelo criador cujo trabalho você gosta pode têm várias variantes, fique atento a eles. Normalmente, diferentes variantes de os modelos serão mostrados aqui. O mesmo criador pode às vezes publicam o mesmo modelo em dois versões estilísticas Ou pode ser um modelo usado principalmente para geração de imagem ou um modelo com dados adicionais, não podado, adequado para treinamento adicional. Como nosso plano aqui é criar arte em vez de treine nossos modelos. Tudo o que você deveria estar procurando pois são os modelos podados Eles contêm apenas os dados necessário para geração de imagens, economizando muito espaço em disco. E confie em mim, com modelos sendo 5 gigabytes em média, eles podem engolir muito do seu espaço em disco. Falando rapidamente em espaço em disco, o mesmo vale para FP 16 versus modelos FP 32 Quando dada a escolha, escolha o FP 16 os modelos FP 32 contêm muito de dados que você não precisará para geração de imagens. Um criador pode atualize seus modelos com um mais novo, adicionalmente versão treinada. Enquanto isso, se você quiser uma verificação de modelo específica de de tempos em tempos, o página de modelos no Civet Muitas vezes será na descrição seção você encontrará o que faz uma versão mais recente único e diferente do que o anterior. Obviamente, nem todos os modelos vêm em uma variedade de versões. Mas alguns populares criadores de modelos são atualizando e retreinando seus modelos para um melhor desempenho. E muitas vezes estão publicando os resultados dentro a mesma página. Agora vamos fazer um pausa muito necessária de toda a tecnologia fale e teste como um costume diferente o modelo funciona em comparação com o padrão modelo que estávamos usando antes. Eu desenvolvi um modelo fotorrealista que eu tenho extensivamente testado durante a criação deste e minha outra fotografia de IA curso de composição Eu descobri que é muito capaz de fornecer uma grande variedade de resultados fotorrealistas Ainda sendo perfeito capaz de entregar ilustrações e outros resultados não realistas também. Você encontrará esse modelo em os materiais do curso onde eu vou fornecer a você um link para download. Todos os modelos baixados são instalados da mesma forma forma que é feito por colocando-os no Pasta de difusão estável Encontrado na difusão estável web é uma pasta de modelos. Depois de colocar o modelo, não se esqueça de atualizar o modelo menu suspenso encontrado aqui. Ao clicar na atualização ícone para esta geração, Vou usar meu próprio modelo fornecido com a aula. Agora vamos voltar uma vez novamente para os prompts usados mais cedo e nosso bom e velho amigo, o golden retriever. Se você estiver usando instruções diferentes do que eu, está perfeitamente bem. Você deve reutilizá-los novamente com este exemplo. Eu só quero mostrar você quanto é um modelo, mesmo quando usado com o mesmo configurações e avisos de alterações A aparência final, pague atenção a isso, como pode economiza muito tempo. Em vez de digitar o prompt completo novamente ou copie e cole seu solicitação de um arquivo de texto, você pode reutilizar um prompt de uma imagem já criada. É assim que você pode chegar rapidamente a suas imagens geradas por pressionando o ícone da pasta. Navegue até o PNG Aba de informações mostrada aqui, Navegue pelo Four ou entre Imagem na janela. E então simplesmente transfira o aviso e parâmetros de geração por clicando em Enviar para TXT dois EMG. Essa ferramenta fornece dados, incluindo solicitações, avisos negativos, sementes, modelos, usado, extensões, usado e muito mais. Está aqui para nossa conveniência, permitindo-nos ver a receita criativa que levou ao imagem que estamos examinando. Às vezes, o criador será usando seu próprio modelo misto, ou um arquivo de expansão de modelo, como um arquivo Loro que você pode não ter a si mesmo ou ele poderia estar usando outro Software de geração de imagens AI. Nesses casos, você não será capaz de replicar exatamente o mesmo resultado, mas às vezes você pode chegue bem perto disso. As informações do PNG também podem ajudar a ganhar uma visão mais profunda sobre o processo de geração de imagens. Ou como um modelo está respondendo para vários prompts e parâmetros. Se uma imagem for criada por outra pessoa possui dados que você é ainda não estou familiarizado com, não se preocupe como estamos vai passar várias extensões e arquivos adicionais no próximo capítulo. Com isso resolvido, vamos carregar nosso modelo personalizado. O carregamento de um modelo leva algum tempo. Agora que está pronto, vamos reutilize o prompt como discutido anteriormente e clique em Gerar botão novamente. Muito bom. Agora vamos comparar o resultado com as imagens que nós criado usando o modelo padrão. Nós estamos indo para algum lugar com tudo isso. Vamos tentar levar nosso cachorro para vida tentando gerar um resultado fotorrealista em vez dos inspirado em desenhos animados. Eu mudei meu prompt para dizer de perto fotografia bruta de cão golden retriever com preto grande olhos e orelhas grandes. Fotografia de câmera em um estilo de Imagens de Annie Lebowitz Getty. Cannon 60 é 135 F 3.5 em um parque. Cores vivas, coloridas em um dia ensolarado, manhã, luz brilhando através das árvores, pássaros voando ao fundo. Obra-prima. Melhor qualidade, detalhes intrincados, força de alta resolução. Vamos pressionar Gerar botão novamente. Vamos destrancar o assento, como Provavelmente foi trancado. Quando nos transferimos os dados da imagem de a janela de informações do PNG e experimente mais algumas gerações, quatro das minhas não cerejas resultados escolhidos são comparados ao que eu era ficando com um modelo padrão. É muito superior com muito menos artefatos e ainda capaz de entregar ambos animados e resultados realistas. Depois de cobrir alguns dicas adicionais sobre encontrar e experimentando modelos Eu vou te mostrar mais maneiras de avançar melhorar e ampliar seus resultados. Procurando modelos, os modelos que você pode encontre no Civet AI will ou ser treinado por um criador do modelo ou eles serão um chamado modelo mesclado contendo vários outros modelos. Usando o método Eu vou te ensinar mais ou menos no final deste capítulo. Às vezes você os encontrará sob o nome ponto de verificação mesclado Você encontrará modelos no CiviTai sob a classificação posto de controle O tamanho do modelo arquivos, em média, são serão de 2 a 7 gigabytes. Para procurar modelos somente sem outro conteúdo de IA que vamos estarei cobrindo mais tarde. Ative a pesquisa filtro que é localizado aqui clicando na opção de checkpoint Tenha em mente que a localização do filtro e a aparência pode mudar nos próximos meses como o site mantém evoluindo mensalmente Quando se trata do geral estilo ou sensação do modelo, como você verá enquanto navegando pelo CivTai todos os modelos podem ser aproximadamente dividido em dois categorias principais, fotorrealista e orientado para ilustração, também conhecidos como modelos de anime. A maioria dos modelos, independentemente de suas inclinações estilísticas ainda são treinados em um grande variedade de estilos. E, até certo ponto, capaz de entregar ambos fotorrealistas e estilos animados. Como você viu com o modelo que eu forneci com a lição No entanto, você será capaz de identificar facilmente o estilo principal do modelo por navegando pelas imagens. Um modelo pode gravitar em direção a uma etnia específica No entanto, você pode usar os dois avisos positivos e negativos, como caucasiano, asiático, pele branca, preta pele, etc para navegar melhor na IA rumo ao resultado desejado. Alguns modelos poderiam ter suas próprias palavras-chave especiais que o modelo foi treinado para entender. As palavras-chave existem para acionar o estilo de um modelo é especializado em. A maioria deles será listado na descrição. Depois de clicar no modelo, seria bom pagar atenção às palavras um criador de modelos é usando no prompt. No exemplo fornecido ao lado do modelo, às vezes as palavras-gatilho vão ser mostrado na lateral. A escolha do modelo não depende de nada mais do que o seu preferências estéticas ao lado de instruções dados nos exemplos. Muitos modelos são vai fazer anotações sobre como o criador usa seu modelo, incluindo parâmetros, palavras de gatilho, e outras dicas que parecem faça com que o modelo funcione melhor. Meu melhor conselho é verificar ambas as imagens de pré-visualização e suas instruções, ao lado do autor notas, se disponíveis, como eles vão dar você tem as melhores chances de obtendo ótimos resultados com um modelo que você escolheu, ou pelo menos uma aparência semelhante a as imagens de pré-visualização do o autor forneceu. Às vezes você vai observe um sinal, estes são os Laura adições estão lá para ensinar o modelar um novo conceito. Eles fornecem mais flexibilidade para o modelo e nós estaremos cobrindo eles no próximo capítulo. Lembre-se de que não importa o modelo que buscamos, podemos usar o negativo janela de aviso para suprimir certos aspectos usando prompts como ilustração, desenho animado de anime, fotorrealista, etc., modelos fotorrealistas O modelo que eu misturei e desde que você seja capaz de criar excelentes resultados ilustrados Mas onde se destaca está no fotorrealismo No entanto, é de longe não é o único. A fim de melhorar ainda mais o fotorrealismo em nossos resultados, deveríamos usar a fotografia palavras-gatilho orientadas. Em nosso prompt, fornecerei você com todas essas instruções em os materiais do curso para que você pode copiá-los ou salvar eles como estilos usando o ícone da caneta que eu mostrei no capítulo inspirador Lembre-se de que alguns modelos poderiam ter seu especial único palavras-chave que o modelo foi treinado para entender também, modelos de anime, como lá é uma grande quantidade de artistas desenhando ou pintando estilos diferentes e todos eles de forma significativa diferindo um do outro Seria difícil chegar com algumas instruções universais. Modelos animados, o que normalmente funciona seria seja o assunto no estilo do nome do artista. Vou te dar um exemplo usando um estilo de anime muito popular, esse é o estilo de Hayao Miyazaki quem dirige um famoso anime estúdio chamado Studio Gibe Vou executar um prompt no estilo anime usando o modelo que eu tenho forneceu a você. Mais uma vez, uma imagem do nosso cachorro. Vou desenvolver a partir do prompt que usado no início da nossa aula, mas adicionando alguns novos e específicos instruções orientadas para anime, Esta será minha primeira vez executando esse prompt usando um modelo que eu misturei especificamente para resultados fotorrealistas Não tenho certeza de como bom que funcionará. Vamos clicar em Gerar, nada mal. Isso também mostra como alguns modelos são flexíveis. Em vez de sobrecarregar seu disco rígido com gigabytes de vários modelos, você definitivamente deveria experimente o que seu modelo favorito é capaz de. Se você acabar gostando um determinado modelo que parece incapaz de entregar um resultado que você está procurando. Espere até ouvir sobre As inversões textuais de Laura e muito mais que lhe permitirá ensine rapidamente seu modelar coisas novas. Algumas instruções relacionadas ao anime que você pode desenhar inspiração de. Vamos tentar algo completamente diferente. Uma versão futurista de um cachorro em um estilo de um atualmente popular jogo, Cyberpunk 2077. Talvez você queira aumentar o resolução um pouco para que você possa ver os elementos mais complicados do nosso brilho imediato. Eu vou te mostrar o implicação da resolução outros parâmetros em um dos os próximos capítulos deste tutorial. Por enquanto, vamos definir o resolução de 840 por 840 pixels Eu usei o aviso original para cães e mudou alguns das palavras-chave para reflita melhor o estilo neon futurista do Cyberpunk 2077. Vamos apertar o botão Gerar novamente. Esses são alguns bons resultados. Se você está cansado de nosso bom e velho amigo, você pode experimentar mais usando suas próprias instruções, experimentando tudo que você aprendeu até agora. Se em seus experimentos você criaram um imagem de um humano, às vezes você pode notar o além disso, o rosto é dentro da moldura, quanto mais ele pode ficar distorcido. No próximo capítulo, eu estará te ensinando como ensinar seu modelar novos conceitos. Como criar rostos de pessoas, adicione elementos que o modelo é lutando com, e muito mais. Os modelos são divertidos não há dúvida sobre isso. Mas o que vem a seguir é o que torna estável difusão incrível
6. Capítulo 5 expandindo seus modelos: Bem-vindo a outro emocionante capítulo deste curso. Espero que você esteja se divertindo até agora aprendendo sobre difusão estável. Este vai seja empolgante como eu vou te mostrar muitas maneiras de ensinar seu modelo preferido: alguns novos truques ou ajuda gera melhor o ideia que você tinha em mente. Antes. Nós passamos para novos tipos de arquivos nós Não tenho lidado com. É hora de te mostrar outro truque legal para você pode fazer com o checkpoint mesclagem de modelos Outra coisa fantástica sobre o 11 automático, 11 interface de usuário é que usando isso, você pode mesclar dois ou até três modelos você mesmo em um novo modelo. Ao mesclar vários modelos, você está dando seu mesclado modelar as habilidades de todos os modelos que você tem incluído no processo. Cada modelo de difusão estável tem seus próprios pontos fortes e fraquezas. E fundindo-os pode ajudar a mitigar suas limitações e aprimorar seus pontos fortes. Digamos que você goste um modelo que pode crie gatos em um estilo de arte interessante, mas foi treinado para crie nada além de gatos, e você realmente gostaria de ver um cachorro gerado em um estilo de arte similar. É aqui que o modelo a fusão é útil Ao mesclar esses dois modelos, você criaria um novo capaz de gerar os dois. Além disso, é bom ver quais prompts estão sendo acionados o estilo de arte que você gosta para que você possa colocar mais ênfase nisso. O novo modelo não será entregando apenas a arte estilo do primeiro modelo, mas o estilo de arte do o segundo também, que você pode querer para suprimir o uso avisos negativos para mescle os modelos Navegue até o ponto de verificação Aba de fusão, onde você está bem Menus suspensos que serão permitem que você escolha até três modelos. E o controle deslizante do multiplicador. Quanto mais para o à esquerda, o controle deslizante é quanto mais o modelo final é ponderado para modelo A para o modelo certo. Se você definir o ponderação até zero então o resultado final será seja idêntico ao modelo A. Se para um, então idêntico ao modelo B. Depois de decidir para misturar os modelos, meu conselho é escolher a soma ponderada defina o valor do multiplicador de acordo com seus desejos. Clicar em Merge será leve algum tempo e um novo modelo será adicionado ao diretório. Para usá-lo, você deve atualizar os modelos na parte superior primeiro no canto esquerdo. Agora que temos cobriu tudo o que é para ser conhecido sobre modelos de pontos de verificação é hora de contar você um pouco mais sobre os outros tipos de arquivos usado para geração de IA. Você pode encontrar no Civet, AI, e outras plataformas além modelos de difusão estáveis ou os modelos de checkpoint que não necessitam de arquivos adicionais. Para gerar arte de IA, você pode encontrar um número de arquivos que podem expanda e ensine seu modelar novos conceitos. Todos eles devem ser usados ao lado de um modelo. Alguns dos novos conceitos a o modelo poderia ser expandido incluir assuntos e personagens, estilos de arte, itens de vestuário, faciais expressões, adereços posiciona objetos, estilos de fotografia, vários interiores e exteriores e muito mais Essas adições ao seu arquivos de ponto de verificação também podem ser treinado para afetar não apenas o assunto ou estilo gerado, mas também nitidez, nível de detalhe, contraste, quão escuro os tons pretos são ou qualquer outro equilíbrio de cor e luz. Qualidade geral do seu gerações de imagens. Detalhe da pele ou nível da pele imperfeições ajudam você a manter um detalhe de geração igual em vários gerações de imagens. É difícil explicar essas adições de modelo em detalhes sem ficando muito técnico. Mas para manter as coisas simples, você pode entendê-los como um submodelo ou uma infusão de modelo. Existem alguns tipos de arquivo desse tipo e eles são, em média, muito menor do que os arquivos de modelo, variando de 14 kilobytes a 250 megabytes em média, e flexível o suficiente para pode ser usado com qualquer modelo. Eles podem ser úteis quando tentando alcançar um resultado. O modelo em si não é treinado para entender e gerar. E eles são mais rápidos e muitas vezes uma solução melhor do que, digamos, fusão de modelos abordamos anteriormente. Colocado dentro de seu pasta correspondente, dentro do Automatic 11 11 diretório de instalação. O arquivo recebe instalado automaticamente. Tudo o que você precisa para o seu Automático 11 11 para reconhecer eles e inclua-os em Generations deve clicar em Refresh. Então você precisa se referir para eles digitando uma palavra-chave acionadora relacionada a o arquivo em si em a janela de prompt que ativará os efeitos da edição modelo, nós acabou de instalar inversões textuais também chamados de incorporações são o menor do grupo, normalmente de dez a 100 kilobytes, e são muito práticos devido ao seu tamanho. As pessoas costumam usá-los para introduza um novo caráter do modelo, embora eles também possam ser usados ensinar um modelo conceitos diferentes. Uma grande coisa sobre uma inversão textual é que você pode criá-los você mesmo usando um treinamento processo em Automatic 11 11. Esse processo permite você para criar uma inversão textual treinada em imagens de você mesmo, seu amigo, uma família membros, etc A maioria dos criadores no Civit A IA está fazendo o upload inversões textuais treinadas em rostos de várias figuras públicas, atrizes, Instagram modelos, etc Esse é o método de instalação. Lembre-se, você deve usá-los com um modelo de posto de controle Tudo textual inversões e qualquer o modelo futuro de infusões nós vamos aprender sobre ou são treinados em um modelo básico de difusão estável ou usando um modelo específico. A vontade, é claro, fornecerá resultados um pouco diferentes com base nos modelos. Eles são usados ao lado com todos os seus incorporações instaladas O outro nome para inversões textuais serão mostrados aqui. Tudo que você precisa fazer é clique no que você desejo da lista, e será automaticamente adicionado ao seu prompt. Então você pode usá-lo como qualquer outra palavra-chave em seu prompt e mova seu posição dentro do prompt. No CivitaI, eu encontrei uma ótima inversão textual que pode introduzir o conceito de luz nebulosa para mim geração de imagens. Aqui está um resultado de geração sem o textual inversão usada Aqui está um resultado de geração com uma luz de neblina de inversão textual usado no início do meu prompt enquanto o resto do o prompt permaneceu inalterado Um desenvolvimento interessante são as incorporações negativas E esses arquivos são treinados em imagens de baixa qualidade por colocando seus ativação correspondente palavra-chave em seu prompt negativo. Com alguns modelos, você obterá melhores gerações de imagens. Certo negativo incorporações podem ajudar a reduzir artefatos de imagem de baixa qualidade ou reduzir a chance de mal membros ou mãos renderizados que geralmente são problemas comuns com geração de imagens de IA. Neste momento, vamos tente gerar um imagem de uma pessoa, qual é o uso principal de inversões textuais Vamos retirar nosso ouro recupere e experimente algo novo. Eu quero criar uma imagem de uma pessoa em uma foto estilo realista. Vou mudar minha resolução até 512 por 768 pixels o que permite um pouco mais de o fotorrealista elementos a serem superados. Lembre-se de que vamos lidar com a resolução e todas as outras automáticas 11, 11 parâmetros. Nos próximos capítulos, Vou começar com um prompt focado no fotorrealismo mas sem um texto inversão primeiro Agora vou incluir uma inversão textual treinado em um rosto específico. Observe que alguns dos menores os elementos também mudaram, mas o mais significativo a diferença é aparente em face de a dama que geramos. Agora vou utilizar um extensão automática 11 11 ligaram para o detalhista, o que me permite modifique somente a face. Vou explicar isso no capítulo de extensões deste tutorial. Vou usar um novo inversão textual, Desta vez treinou em um rosto diferente. Mesmo que seja tão pequeno, 14 KB. Somente o impacto de uma inversão textual em nossa geração de imagens pode ser significativo. Que você já tentou e experimentou um pouco com inversões textuais, é hora de mostrar você e ainda mais modelo poderoso infusão chamada Laura Laura é abreviada de adaptação de baixa classificação. Estes são os meus favoritos arquivos de infusão de modelos. Tudo o que eu contei você, uma infusão de modelo pode fazer. Os arquivos Laura são capazes de, eles são maiores e mais poderoso do que inversões textuais são normalmente entre dez, 200 megabytes de tamanho. Eles podem introduzir virtualmente qualquer coisa em seu modelo, Alguma qualidade melhoria: Lauras já popular em a comunidade de IA, como ajustador de detalhes, ruído, filme offset, grão, página, controle deslizante, etc Como eles trabalham com quase todos os modelos, não esqueça. O mesmo que acontece com as inversões textuais. Você deve usá-los com um modelo de posto de controle Para instalá-los, eles precisa ser colocado sua pasta correspondente na pasta Web Ui Laura. Uma vez colocado lá, tudo o que você precisa fazer é clicar em Refresh Laura's. Use um método similar de ativação como inversão textual Tudo que você precisa fazer é navegue até a guia Laura e clique no de a lista que você deseja usar, e será automaticamente adicionado ao seu prompt. Alguns LAs podem ser colocados em pé sozinho no prompt, exigindo nada mais do que selecionando-os de a lista de Laura enquanto outros têm um desempenho melhor. Se você incluir um necessário palavra-chave de ativação, você pode inspecionar suas luras para as palavras-chave de ativação e quais palavras específicas são usado para acionar efeitos dentro de uma Laura Vamos dar um exemplo. Uma Laura inspirado no estilo artístico de um pintor polonês Zuzizlobixinski, uma vez selecionado da lista e adicionado ao prompt, ele ficará assim. Esses colchetes são usados para diferenciar de outras palavras em seu prompt e ative uma Laura A palavra interior é de Laura nome dado pelo criador. Enquanto o valor numérico representa força, normalmente vai de 0,1 a um, e excedendo esses valores não são recomendados. Vamos trazer de volta nosso bem velho amigo, o cachorro. Vou usar o modelo que tenho forneci a você junto com a aula, aquele que eu tenho usado para todos nossas gerações anteriores de imagens. E eu vou reutilizar a solicitação de o começo do nosso aula sem a Laura Primeiro, vamos ler o dados das informações PNG, transferi-lo para o guia de imagem de texto. Clicando no botão Gerar, somos recebidos com um resultado familiar. Agora vou usar esses solicita novamente adicionando um alguns dos relacionados com Bosinski avisos que você pode veja na tela. Eu vou fazer isso sem Eu sou Basinski Laura Posso verificar se meu modelo foi treinado em qualquer um dos Besinski pinturas, em absoluto. Como você pode ver, isso o modelo não foi treinado usando qualquer imagens desse artista É aqui que Laurs poderia ser de grande ajuda. Agora vamos aumentar o tamanho da imagem um pouco, 840 por 840 pixels. Então, podemos permitir que o detalhes característicos de O trabalho de Besinski para brilhar por meio e inclua um Arquivo Laura em nosso prompt Enquanto deixa o resto do prompt é o mesmo. Tenho 99% de certeza que os resultados que somos vou conseguir dessa vez serão um mudança drástica de o fofo animado estilo com o qual começamos. Mesmo que não haja mudanças no prompt, isso está muito mais perto de aquelas cenas apocalípticas apresentado no trabalho de Besinski. Vamos tentar limpar suba nosso prompt e remova as crianças palavras-chave relacionadas à ilustração, substituindo-as por novas palavras-chave mais adequado para imagens, cor, paleta e motivos encontrado na arte de Besinski. Eu não vou mudar o força da laura e concentre-se apenas no palavras-chave no prompt. Muito mais perto das cenas no trabalho de Beksinski Agora, e se quisermos usar várias Lauras em nosso prompt Uma regra geral quando chega a usar dois Para mais leis em seu aviso é que o quantidade de força combinada não deve exceder um valor de um. Você ainda pode ultrapassar esse valor e um modelo vai gere muito bem. Mas na maioria dos casos, ficaria confuso, produzindo resultados com vários artefatos no caso de se perder o que Laura deveria dar a prioridade no Civit AI Normalmente você pode ver o recomendado configurações da autora da Laura. Algumas Lauras produzirão um efeito desejado em um valor mais baixo do que outros, pois existem muitos métodos de treinamento e tantos Last out lá, considerando uma variedade de modelos e instruções para ser usado ao lado. A melhor maneira é testar você mesmo usando um Modelo SD que você gosta. Vamos usar nosso habitual avise e tente aumentar um valor de Laura muito além um e veja o que acontece. Vou começar sem Laura. Um valor Laura de um e um valor de Laura de três Como você pode ver, mais nem sempre é melhor. Com o valor de três começando para aumentar os artefatos na nossa geração resultado e fazendo o resultado fique mais longe de o aviso original, Vamos tentar adicionar duas Lauras e excedendo o valores recomendados. É assim que nosso ilustração usual de um cachorro em um parque, avisado com espelho quebrado Laura adicionou looks como se esse fosse o mesmo prompt, um espelho quebrado que Laura definiu a força de um ao lado um ajuste detalhado. Laura de um exemplo anterior definido com a mesma força. Você já pode ver alguns coisas estranhas aqui. Perda de composição, cães de fadas voadores duplicação, artefatos e muito mais. Agora que você tem obteve alguns insights sobre o trabalho de Laura, é hora de fazer um cover do refrão. Esses arquivos pertencem ao mesma família da Laura. Eles são um desenvolvimento mais recente mas não necessariamente melhor. Digamos que Lechorus seja um pouco mais mais expressivo do que Laura mas isso não acontece importam demais para um usuário final como esse também depende de muitos fatores. Eles são usados em um forma muito semelhante a Laura e às vezes exija uma palavra-gatilho para a geração processo para extrair de um licorus, tudo que é capaz de fazer. Eu tentei testá-los sem palavras-gatilho, e é um sucesso ou um fracasso procure-os para ativar o filtro de alcaçuz Depois de encontrar um Licorus, você gostaria de experimentar o download como de costume e coloque a pasta Laura para até se eles forem chamados Licorus e não Laura Para simplificar, você pode instalá-los em a mesma pasta que eles pertencem à mesma família. Para usá-los, basta selecione-os de a lista de Laurea e uma vez adicionado ao prompt, eles vão se parecer com uma Laura. Por qualquer motivo que você quiser separe seu Licorus arquivos da Laura, você pode instalar uma extensão usando o método I vai te mostrar em o automático 11 11 capítulo de extensões de este tutorial e coloque tudo seus arquivos de alcaçuz estão lá. Nesse caso, você selecione-os de uma aba Liqorus sem diferença em seu uso real. Como sempre, depois de instalar um, clique em atualizar para que será exibido na lista. Antes de usar um Licorus, você pode inspecionar as palavras-gatilho aqui clicando no ícone de informações. Você também pode procurar as palavras-gatilho aqui. Assim como com a de Laura, você pode escolher da lista e ajuste a força. Colocando a palavra-gatilho mais perto ou mais longe do início do prompt também pode afetar o resultado até certo ponto, que é um general regra sobre solicitação. Só por diversão, vou usar nosso cachorro para mostrar a vocês dois o uso do alcaçuz e a importância de uma ordem de palavra-chave de uma só vez. Usaremos um Liicorus treinado para produzir imagens de caminhões. Eu só adicionei o Lichorus ajustado para a força de um para o prompt usual já usamos antes. Vamos fazer o mesmo prompt novamente com o único a diferença é a ordem das palavras, para variar. Aqui está um uso adequado de Alchorus treinado moda inspirada no pássaros com asas douradas de textos budistas. Além das inversões textuais, Lauras e lycurus você pode encontrar um casal de arquivos adicionais em Civet Doi usado para similares propósitos. Hiperredes As hiperredes representam módulos de rede adicionais adicionado aos modelos de checkpoint. Eles estão em média cerca de 80 megabytes para explicá-los em um nível técnico mais profundo. Depois que uma imagem foi parcialmente renderizado por meio do modelo, a hiper rede será distorcer todos os resultados o modelo em direção ao hiper dados de treinamento de rede, mudando efetivamente o modelo, em palavras mais simples, para um usuário final. Os resultados serão semelhante ao que poderíamos comece a usar o de Laura hiperredes Não precisa de palavras-gatilho. Basta adicionar a hiper rede em seu prompt é suficiente. Com os arquivos mencionados anteriormente, você deve usar hiperredes com um modelo de ponto de verificação para navegar através do hiper redes no Civet AI Vamos ativar o filtro primeiro. O método de instalação é semelhante à instalação tudo o que foi anteriormente arquivos mencionados com hiperredes sendo instaladas em sua própria pasta. Vou usar uma Hyper Network Trem vintage de Louisa para produzir fotos de rosto coloridas em estilo vintage com uma imagem que já usamos antes. Para usá-los em seu prompt, escolha de uma lista e defina a força, assim como você faz com uma Laura Resultados interessantes, mas definitivamente não é algo como os exemplos fornecido no Civet Essa hiperrede é treinada para produzir fotos na cabeça Vamos tentar algo isso é provavelmente mais perto do jeito que está foi imaginado para funcionar. Muito bom. Mais um arquivo tipo que você pode encontrar no Civet são a estética gradientes, uma vez que eles são mais uma extensão do que um arquivo como Laura Nós vamos cobri-los o capítulo de extensões deste tutorial. Diga-me, como você está? se você estiver com vontade de uma pausa ou experimentação com diferentes instruções e modelos Vá em frente. No próximo capítulo, vamos nos aprofundar na otimização nossas gerações, aumentando-os para tamanhos maiores, mantendo a essência de nossas gerações enquanto introduzindo variações e muito mais. Capítulos seguintes vão levar suas gerações de de bom a incrível. Agora que você sabe o básico, Eu vou te mostrar como mesclar suas criações de IA com suas fotos. Como gerar usando imagens. Como mesclar imagens. E como corrigir vários problemas de geração. Como bater resolução em detalhes. E como fazer corretamente aprimore suas imagens O próximo capítulo vai dar você é o máximo compreensão de processos de geração de imagens e te dão as chaves para a criação. Ainda temos muito de diversão à nossa frente, então prepare-se para a próxima capítulo da nossa aventura.
7. Parâmetros e controles deslizantes do Capítulo 6: Agora que temos avisos abordados e vários arquivos necessários para criar arte de IA, vamos abordar os parâmetros que orientar o processo da criação de arte com IA. As coisas que eu sou vou te ensinar neste capítulo são exatamente como importante e capaz de afetando fortemente nossos resultados finais. Não se deixe intimidar pela variedade de controles deslizantes em Automatic 11, 11. Com a maioria deles, você não precisará jogar por aí com muita frequência, ou você não vai mudar eles muito ou você esteja carregando-os automaticamente de outra imagem usando o método PNG Info Já te mostrei antes. A parte inferior do meu Interface automática 11 11 pode ser um pouco diferente do que você tem. Como eu adicionei bastante de extensões para a minha, Eu vou te contar tudo sobre eles no capítulo que trata de extensões que também vêm a forma de vários guias e controles deslizantes Dois, vamos começar com o opções mais importantes e parâmetros que são vai ser comum para qualquer usuário automático do 11 11. Começaremos com a maioria intuitivo que tem o maior efeito sobre nosso resultado, tamanho da imagem. O parâmetro de tamanho da imagem determina o tamanho do a imagem gerada. O tamanho padrão da imagem que versão de difusão estável 1.5 é treinado em é 512 por 512 pixels quais são os modelos resolução nativa. Alguns modelos mais novos são treinado em imagens com uma resolução de 768 por 768 pixels. E o mais novo SDX L os modelos são treinados em 1024 por 1024 pixels. No entanto, esses modelos maiores demora significativamente mais para gerar e exigir um modelo refinado, além disso para o geral. Ao usar o superior método fixo de solução ou vários escaladores ascendentes, o tamanho da imagem representará somente a etapa inicial o processo de geração, não é a dimensão final em pixels do resultado gerado. Nesse caso, uma parte do o processo gera um imagem em, por exemplo, 512 por 512 pixels, enquanto o resto do processo aumenta isso resolução adicional. No entanto, não vamos nos aprofundar muito profundamente envolvido nisso. Por enquanto, continuamos com o uso básico do tamanho da imagem. Mesmo uma pequena mudança pode alteram significativamente o resultado. Se você bloquear a semente para reter o composicional elementos da imagem, alterar o tamanho da imagem pode interrompa completamente o composição pretendida. Gerando resultados mais próximos para o modelo nativo. Aumento da resolução a probabilidade de imagem de sucesso geração e evita questões como dois corpos ou várias cabeças nos resultados. Enquanto 512 por 512 pixels é uma resolução pequena, é frequentemente usado como ponto de partida antes aumentando os resultados para o resolução maior desejada. Lembre-se de que alguns os modelos são treinados em resoluções mais altas ou diferentes proporções de tela do que uma imagem quadrada, e geralmente você pode descobrir que informações nas notas deixadas por o autor do modelo sobre a proporção da imagem. O pequeno sobe e desce setas apontadoras você pode trocar rapidamente a altura e dimensões de largura, facilitando uma rápida mudança entre retrato e paisagem orientações. Naturalmente, se você está procurando resultados orientados para retratos humanos uma proporção mais próxima de o aspecto usual proporção de um retrato. Dimensões verticais maiores que os horizontais podem fornecer você com um resultado melhor. O mesmo princípio se aplica a imagens de paisagens onde uma horizontal mais longa dimensão pode gerar um cenário muito melhor ou imagem de paisagem sem o uso de solução superior. A correção explicou o controle adicional net e vários métodos sofisticados. Tamanho da sua imagem não deve se desviar muito longe do nativo resolução do modelo. Você pode determinar as resoluções em que o modelo tem melhor desempenho. Diferentes GPUs serão geradas em velocidades diferentes. Então, em vez de gerar tudo em um resultado maior e um risco muito mal olhando gerações, é aconselhável gerar eles em uma resolução mais baixa. Também será mais rápido e depois aumente a escala ou repita a geração usando seus escaladores fix and up O modelo que eu lhe forneci gera o melhor analisando resultados em uma velocidade satisfatória em tamanhos de cerca de 85850 pixels Esta é a imagem gerada em proporção normal e nativo recomendado resolução do modelo. Agora deixe-me te mostrar o que acontece quando nós desviar muito de a resolução nativa. Este é um exemplo com um lado vertical excedendo em muito as dimensões o modelo foi treinado em. Esta geração artefato é conhecido como duplicação ou geminação está acontecendo devido a nosso modelo de repente ter que preencher um espaço muito maior mais do que aquele que é foi treinado para preencher. Duplicação e geminação refere-se a duplicação indesejada ou multiplicação de recursos em suas criações. Por exemplo, isso pode resultar em personagens com dois faces ou duas cabeças, membros extras, etc. Isso é o que acontece quando ambos os lados estão excedendo em grande parte a dimensão o modelo foi treinado em. Em resumo, fique por perto para a resolução nativa. Agora que você tem uma compreensão de modelos e dimensões da imagem, Vou te contar um pouco mais sobre os modelos SDxL. Conforme mencionado anteriormente, SDxL é um novo desenvolvimento com o objetivo para conseguir uma melhor nível de detalhe, realismo fotográfico muito aprimorado, e superior nativo modelos SDxL de resolução são treinados em 1024 por 1024 pixels E pode ser usado com ou sem um modelo refinador O modelo refinador é outro, modelo geralmente menor adicionado ao o modelo SDxL original refina os detalhes Quando baixando um modelo SDxL certifique-se de baixar um refinador se é adicionado ou sugerido sente-se ao lado dela. Os modelos Refiner são instalados em a mesma pasta que geral modelos de pontos de verificação Você pode escolhê-los em este menu suspenso. O valor recomendado para o o interruptor no controle deslizante está 0,7 a 0,8 e serve como o ponto em que a geração processo usando um geral Paradas e comutações do modelo DXL para o modelo refinador No momento de escrita automática 11 11 não é muito eficiente na execução Modelos SDX L de forma rápida e alternando entre o modelo e o modelo refinador pode ser lento. Além disso, os modelos SDxl usam muitos memória de computador para criar imagens agora usando Modelos SDXL e automáticos 11 11 pode não ser o melhor uso do seu tempo, pois os resultados podem não sempre valerá muito maior tempo de geração. Provavelmente o melhor atualmente e uma forma eficiente em termos de tempo é gerar imagens usando o modelo básico primeiro sem o refinador. Depois que isso for feito, você pode coletar um lote de imagens que você gosta para usar o refinador ligado, em seguida, faça o refinador passar o painel de imagem para imagem que vamos cobrir. Minimizando o tempo gasto em ativando o modelo o lado bom, a maioria dos modelos SDxcel sendo atualmente enviado para o Civet Sou treinado para produzir um ótimo nível de detalhes sem o uso de um refinador que os torna um pouco mais rápidos para usar modelos SD Xcel outra camada de complexidade e uma perda adicional de tempo sobre gerações de imagens. Portanto, vamos ficar com os modelos SD regulares. Aqui estão alguns dos os modelos personalizados em comparação com a base SD, Cel. Os modelos do Excel são espera-se que se torne fantástico no próximo futuro com mais reciclagem assim como era feito com regularidade, difusão estável modelos que foram otimizado em milhares de modelos da comunidade. É importante observar que em qualquer caso, o uso geral, solicitação e outras configurações são todos iguais entre modelos regulares e SDxL métodos de amostragem Antes de intimidar você com uma explicação, é importante sei que qualquer um dos suas escolhas de método de amostragem vai funcionar bem. Não há mal nem bom métodos de amostragem, apenas diferentes. A maneira mais fácil de entender métodos de amostragem samplers é pensar neles como diferentes artistas criando sua arte encomendada Todos eles podem fazer isso, eles só tenha uma maneira diferente de fazer isso. Guia de alguns métodos a IA para meticulosamente cada detalhe, enquanto outros solicitam que esboce rapidamente um conceito O que é legal sobre isso é que há nenhum tamanho serve todas as melhores configurações. Agora, para mais descrição técnica, métodos de amostragem representam a estratégia algorítmica A IA usa para traduzir um texto insira uma imagem exclusiva. Se você realmente deseja entrar profundidade e ciência em amostras, Eu vou te fornecer um link dentro do curso arquivo de materiais. Aqui é onde você pode escolher entre diferentes métodos de amostragem Eles são todos métodos diferentes de resolver equações de difusão. Não há escolha certa aqui. Na maioria das vezes, o que importa é se a imagem estiver boa, Euler, que é um opção padrão, é um amostrador rápido, mas você é também deu outras opções. Você pode baixar mais amostras da web No momento, provavelmente existem muitos samplers disponível no Automatic 11, 11 que você vai nunca tenho tempo para verifique e entenda exatamente como eles funcionam. Algumas pessoas preferem um amostrador sobre o outro Para seus modelos, você deve experimente-os por si mesmo e mude-os de de vez em quando para ver o efeito que eles têm em suas imagens. Aqui está uma comparação usando um aviso para uma laranja gato malhado ao ar livre Agora, se você procurar por isso variação em suas imagens, intencionalmente, não procure mais do que sementes e variações. Sementes explicadas mais adiante os amostradores também podem afetar o velocidade da sua geração. Aqui está um gráfico mostrando a velocidade de geração usando diferentes amostradores quando gerando oito imagens. Você verá na próxima parte do curso que quando se trata de amostradores e etapas de amostragem mais tempo investido na geração uma imagem não traduzir em qualidade. Na verdade, você pode já vejo isso na comparação imagem que usa um gato para mostrar como diferentes opções de amostragem afetam o resultado final. Meu conselho geral é teste alguns amostradores E se você gosta de alguns deles produzir o mesmo resultado, em seguida, basta escolher aquele que produz o resultado mais rápido. Agora vamos ver o que são etapas de amostragem As etapas de amostragem são um controle deslizante na interface que controla quantas iterações ou etapas modelo de difusão estável leva para criar sua obra de arte. É como o número de artista de pinceladas decide para colocar em sua pintura, ao contrário do que alguém poderia pensar. Maior nem sempre é melhor. Com etapas de amostragem Ativando o número das etapas de amostragem não necessariamente resultam em uma imagem melhor. É tudo uma questão de encontrar esse equilíbrio entre um tempo de computação de alta qualidade. Quanto maior o número das etapas de amostragem quanto mais tempo demora para gerar um resultado. Normalmente, 20 etapas com o amostrador de óleo é suficiente para alcance uma alta qualidade imagem nítida. Embora a imagem ainda mudará sutilmente ao pisar até valores mais altos, o resultado será um pouco diferente, mas não necessariamente de maior qualidade. Quanto menor o número das etapas de amostragem quanto mais rápida a imagem será gerado. Encontrando um meio termo chão entre velocidade e qualidade são recomendadas. Eu costumo ficar de 20 a 40 amostrando degraus e ajuste para mais alto. Se você suspeitar que a qualidade é baixa, demora três vezes o tempo que chega 25-75 etapas sem nenhum benefício em termos de qualidade. Escala Cfg ou o Classificador Escala de orientação gratuita, escala CFG é uma parâmetro para controlar quanto custa o processo de geração deve seguir seu aviso. Você pode imaginar o CFG como um escala deslizante que controla a atenção do seu guia para suas instruções ou como criatividade versus literalidade imediata Veja como o CFG valores geralmente são vistos como um a três. Na maioria das vezes, ignore sua solicitação. Dando rédea solta ao SD. Três a seis, ainda relativamente livre, mas ficando um pouco mais sobre o prompt. Seis, brincalhão e ambiente criativo, mais adequado para menores avisos. Sete a dez. Um bom equilíbrio entre seguir a prontidão e a liberdade 15. Adira mais para otimizar a solicitação. Quando você está confiante sua solicitação é detalhada, 20 valores de 20 e mais são raramente é útil e tende a resultar em resultados menos satisfatórios. O típico e o padrão o valor é sete. Aqui está um exemplo comparando escala CFG variando de 5 a 30 etapas de amostragem 10-50 valor da semente. Todas as gerações de IA começam com ruído construído a partir de um padrão de ruído. O valor da semente determina o padrão de ruído. O processo de geração começa com grande afeição o resultado final. Você também pode pensar da semente como um identificador exclusivo para aquela imagem em particular. É assim que toda IA a geração parece, partindo do ruído e resultando em sua imagem. Você não precisa inventar o número da semente você mesmo, porque é gerado aleatoriamente. No entanto, controlando o a semente pode ajudá-lo a gerar imagens reproduzíveis ou imagens semelhantes a aquele que você gosta. Não fique muito assustado. Com essa descrição vaga, a semente controla o elementos da sua imagem determinando onde e como eles estão posicionados em relação entre si. O valor padrão é menos um e significa o valor aleatório, que significa Automático 11. 11 gerará um imagem diferente a cada vez botão Gerar é pressionado usando o prompt especificado. Normalmente, você deseja que esse valor seja seja menos um, a menos que você está tentando bloqueie a composição e varie o aviso é um pouco para ver o que mais você pode obter. Mesmo prompt, digitação aleatória de sementes, um vai bloquear a semente. Então você pode experimentar um pouco com a variação de suas instruções Mesmo prompt com um diferença de palavras-chave. No entanto, preste atenção ao esse mesmo prompt e a mesma semente. Isso geralmente pode acontecem por engano, resulta no mesmo imagem exata a cada hora de clicar nos dados o ícone randomiza a semente desbloqueando-os para que você possa obter imagens totalmente diferentes. Novamente, cada gerado o resultado terá informações sobre o número da semente salvo em seus dados que você pode inspecionar. Usando a guia Informações PNG, você pode reutilizar o número da semente da imagem que você gosta em caso que você deseja mudar algo pequeno dentro de seu prompt, mas ainda mantenha o imagem geral semelhante. Observe que se o seu mudanças imediatas, o número de velocidade reutilizado não é será tão eficaz. Para resumir, se você quiser explore e obtenha uma variedade de imagens diferentes, use um valor de menos um. Se você quiser multar ajuste sua geração, fixe a semente em um número específico e varie um pouco o prompt até que você esteja satisfeito. Outra opção que permite para ajustar seu gerações e variações seu resultado um pouco enquanto mantém a semente geral bloqueada é esta pequena caixa de seleção extra Isso revela o menu extra de sementes com ainda mais opções. Semente de variação. Este é um adicional semente com a qual você pode jogar. Pense nisso como uma semente dentro de sua semente. Você vai usar isso quando estiver bastante feliz com sua imagem, mas ainda quero mude um pouco. Força de variação, você pode controlar a quantidade de sua semente e variação originais semente que você quer na mistura. Uma configuração de zero usos somente sua semente original, enquanto uma configuração de um usa a semente de variação. Se você quiser variar seus resultados um pouco, qual é a ideia por trás dessa opção, bloqueie a semente principal, randomize a semente de variação, e defina a variação força até 0,1 This produz resultados semelhantes para sua semente principal com pequenas variações entre gerações diferentes. Redimensionamento de sementes. Nós temos abordado anteriormente como alterando a resolução, mesmo ao usar o mesma semente exata, produz inteiramente resultados diferentes. função de redimensionamento de sementes está aqui para nos permitir gerar imagens em resoluções diferentes preservando a aparência geral da imagem estamos tentando recriar. Esta função permite que você para gerar imagens de sementes conhecidas ou fixas em resoluções diferentes Mesmo em uma semente fixa, a imagem muda completamente uma vez que mudamos a resolução. Como a resolução faz parte do algoritmo de geração. Se você realmente gosta da imagem obtido usando uma determinada semente, mas queria uma resolução maior, é aqui que a semente o tamanho se torna útil. Você pode ver a sensação geral de uma imagem inicial permaneça o mesmo. A resolução é aumentada da esquerda para a direita você colocará o novo tamanho da imagem em controles deslizantes de largura e altura. E a largura e a altura do a imagem original você está tentando recrie aqui, contagem de lotes. Agora, este é o longo momento esperado em que pode parar de pressionar o Gere o botão repetidamente. Se você definir a contagem de lotes até três e pressione Gerar, o sistema será gerar três imagens, tudo usando um prompt que você definiu e uma semente aleatória diferente. A menos que você tenha bloqueou essa opção, conselho é sempre gerar pelo menos quatro a cinco imagens com o aviso anterior mudando para que você pode ter uma ideia de como fechar o prompt é para o que você desejou o primeiro lugar. Ou você deveria mudar ou sua solicitação, um determinado parâmetro ou simplesmente gerar mais tamanho de lote. Refere-se ao número de imagens para gerar de uma só vez um único lote enquanto aumenta o tamanho do lote pode ser significativamente impulsionar a geração desempenho. Esteja ciente de que isso ocorre em o custo do mais alto uso de RAM de vídeo. Estou mantendo o lote tamanho de uma só vez usando a contagem de lotes para diga ao Automatic 11, 11 quantas imagens eu quero. Você pode aumentar esse número se você tiver uma GPU poderosa o número total de imagens geradas são iguais a contagem de lotes vezes o restauração facial em tamanho de lote. É um fato que estável a difusão não é fantástica gerando faces como modelos estão sendo treinados melhor e com vários 11 automáticos, 11 extensões sendo lançadas frequentemente com o objetivo de resolva esse problema. Isso não é tanto um problema como costumava ser, no entanto, existem situações estáticas onde podemos ver esses problemas. Um exemplo é quando gerando imagens onde o o assunto está longe do quadro. Restaurar faces tem como objetivo: resolva isso e muitos problemas semelhantes por aplicando um adicional modelo de pós-processamento perto do final da geração, treinado para restaurar defeitos nos rostos. Ativar a restauração tentará renderize um rosto com aparência natural. Nem todo modelo se beneficiará desse processo e frequentemente o estilo de restauração facial não é coerente com o estilo geral de um modelo que você está usando. Além disso, com o surgimento do algumas extensões, como como depois do detalhista, o uso do rosto a restauração diminuiu. E, portanto, passou de o painel principal em o painel de configurações, um controle deslizante que lida com restauração facial e é ainda na página principal, embora isso possa mudar em as versões futuras do automático 11. 11 é o GFP Gan controle deslizante de visibilidade Quando definido como zero GFP restauração facial gana está desligado, mas nos meus testes, quando maior que zero ou um, ele será ativado os efeitos do ganho de GFP mesmo que restaure faces está desligado. No menu, há dois a restauração facial modela você pode ser usado em Automatic 11 11 encontrado no menu de configurações. Ao clicar no rosto restauração no painel lateral o formador de código produz um resultado mais realista em todos os níveis de força. Isso pode ser bom ou ruim, dependendo de o contexto e frequentemente resulta em um totalmente fase diferente. Gfp Gan retém muito mais do original estrutura do rosto. É macio em geral e às vezes quase pictórica, que poderia ser qualquer desejado ou indesejado. Se o realismo fotográfico é nosso único objetivo, no entanto, ele retém o rosto apresenta melhores características. Já vi muitos comentaristas recomendo usar formador de código especificamente para obter os olhos, em seguida, misturando o resultado com o original no Photoshop Esta é uma solução viável, mas também consome muito tempo. Como minha segunda IA o curso oferece exatamente com a fusão da IA gerada arte com fotografia. É aqui que o Photoshop a técnica pode ser útil. Você pode gostar da forma como o aparência dos resultados da restauração facial, e você definitivamente deveria experimente os dois modelos. Você pode até mesmo misturar eles selecionando o código antigo no menu e ajustando seu peso E fazendo o mesmo com o GFP Gan controle deslizante na página principal. Eu geralmente mantenho os dois essas configurações desativadas como também retarda a geração hora de ter rostos melhores, Eu costumo usar o depois extensões detalhadas I will em breve vou te contar mais sobre. Aqui estão alguns exemplos, código original, Um ex-GFP ganhou escaladores. Como estabelecemos anteriormente, o tamanho padrão usado para treinar a maioria dos modelos é 512 por 512 pixels Alguma versão de difusão estável dois modelos colidiram a resolução é maior, enquanto modelos SDxL estão indo tão alto quanto 1024 por 1024 pixels como seus resolução nativa de pixels. Claro, nem todo mundo tem o melhor e mais recente placas gráficas, e muitas pessoas estão presas a modelos treinados em resoluções mais baixas Isso é, no entanto, não tem problema algum, porque os upscalers estão aqui para ajuda com o atual estado das coisas. Os upscalers são a ferramenta ideal para alcançando alta gerações de resolução. Agora deixe-me te dizer uma coisa ou dois sobre aumento de escala aumento de escala da IA funciona diferente de os métodos de aumento de escala usado no passado. escala tradicional uso de métodos apenas os pixels de a imagem original, misturando esses existentes pixels usando operações matemáticas para ampliar a imagem Aqui você pode ver os dois tradicionais métodos de aprimoramento no trabalho. escala tradicional sempre resulta em resultados embaçados e não é muito uma melhoria em relação ao imagem com a qual começamos. No caso de uma imagem que está distorcido ou corrompido de certa forma, esses algoritmos não podem preencha o que falta informações com precisão. Em contraste, o aumento de escala da IA funciona de forma inteiramente maneira diferente. Aqui está uma pequena comparação entre um par de IA métodos de aumento de escala e seus contrapartes tradicionais upscalers de IA são treinados em uma grande quantidade de dados para poder recriar informações Esses upscalers tentam reconhecer padrões em imagens e vídeos, e sofisticado por adivinhando novos detalhes isso seria contextualmente cabem nos novos pixels. A forma como o modelo é treinado é por degradando imagens de boa qualidade, e treinando uma rede neural para recuperar a imagem original. Usando o 11 11 automático, você pode aprimorar seus resultados em duas maneiras como parte de o processo de geração e mais tarde por enviando imagens para você gosto da aba extra onde o aumento de escala é feito Você também pode correr processos de aumento de escala em um grande lote de imagens, que eu vou te mostrar também no Automatic 11 11. Você também tem a opção de trabalhando com dois escaladores de uma só vez Aumenta a escala 1.2 Usando o escalar ascendente dois controle deslizante de visibilidade permite que você misture dois resultados sofisticados O sofisticado padrão fator é quatro, mas você pode configurá-lo para um valor mais baixo valor se você não precisar a imagem deve ser quatro vezes tão grande quanto o resolução original. Você pode definir o fator de alto nível arrastando a escala pelo controle deslizante. Uma boa IA up de uso geral escalar é o órgão RS Four X Plus. Quando se trata do resultados produzidos que são muito parecidas com a fotografia, meu favorito é Maker, Um escalador ascendente personalizado não instalado por padrão com automático 11 11 instalação, imagens de anime exigem mais escaladores especificamente treinado nessa arte. Eu lhe fornecerei um link. Como sempre no curso arquivo de texto de materiais. Não deixe isso confundir você. Mesmo quando a escala é de o controle deslizante é definido como um valor não terá nenhum efeito, a menos que um ou dois upscalers escolhido na lista suspensa menus abaixo do número quatro, onde o controle deslizante vai estar em na maioria das vezes quando você execute o Automatic 11, 11, apenas o valor padrão. Alguns dos populares escaladores ascendentes usado para diferentes propósitos são os dois primeiros escalares ascendentes na lista estão os escalares ascendentes tradicionais não são capazes de gerar novos detalhes como o resto. Aqui você pode escolher entre um variedade de 11 automáticos, 11 upscalers ou baixe-os da Internet e instale-os se você quiser se aprofundar mais fundo nisso. Eu vou te fornecer com meus exemplos de teste, junto com os materiais do curso em caso os resultados não sejam claro do vídeo. Junto com links para os sites oferecendo escalares ascendentes personalizados que você pode experimentar, Lembre-se de atualizar o interface de usuário após instalando um escalar ascendente personalizado em seu 11 automático, 11 dicas para economizar tempo. A guia extra mostrada aqui é seu hub geral de aumento de escala. Conforme mencionado anteriormente, o aumento de escala pode ser feito como do processo de geração ou separadamente em imagens que você gosta. Se você preferir economizar tempo em gerações de imagens e somente imagens sofisticadas, você está feliz com. A guia de extras é a lugar para você aqui você pode inserir uma imagem defina o fator de alto nível escolha o escalar ascendente, e até mesmo adicionar um segundo no topo. Você pode ajustar a visibilidade do segundo escalar ascendente usando o controle deslizante de visibilidade ao lado módulo de restauração facial configurações mostradas abaixo. Depois de gerar um imagem de outras guias, você também pode enviá-lo rapidamente para a guia de extras para um um toque de magia sofisticada. Se você quiser processar em lote um grande número de arquivos durante o seu computador pausa ou almoço, você pode usar o lote da guia do diretório. Defina o diretório de entrada onde os arquivos originais são e o diretório de saída onde seus resultados devem ser gerado. Para copiar o diretório destinos, abra uma pasta, navegue até o diretório, clique com o botão direito e copie, em seguida, passei para o diretório de entrada. Faça o mesmo com o diretório de saída. O resto da taça configurações escalares dentro da guia extra já deveria ser familiar para você. Aqui está um pequeno bônus. Além de usar os escaladores ascendentes encontrado em Automatic 11 11. Para minha fotografia e resultados orientados para a fotografia, Costumo usar outro pedaço de software chamado Topaz Giga Pixel I. Tem uma interface muito fácil de usar e interface intuitiva, permitindo que você escolha o fator sofisticado Assim como o Automatic 11, 11 ao lado de um tipo de imagem. A opção padrão é muito bom, mas você pode tentar vários outros tipos de imagem dependendo das imagens você está aumentando a escala Você também pode deixá-lo ligado automaticamente, permitindo que o aplicativo analise seu configurações de imagem e sugestão. Eu o testei extensivamente para minhas duas fotografias e gerações de IA, e funciona muito bem. É particularmente útil ao tentar restaurar a família antiga ou fotografias de infância. Você pode processar em lote uma variedade de imagens que você pode coletar em uma pasta e deixe funcionar enquanto você está tendo seu café da manhã ou almoço. Agora que você compreende o funcionamento de upscalers vamos mergulhar no alto opção de correção de resolução projetado para usar upscalers em conjunto com etapa adicional de pós-processamento para gerar imagens detalhadas em resoluções superiores a o padrão 512 por 512 Esse processo incorpora uma camada adicional de detalhamento para aprimorar o resultado final. A alta resolução procedimento de correção envolve a geração inicial uma imagem menor, mais próximo da resolução nativa. Aumentando a escala dessa imagem inicial à resolução da imagem você especificou. E, posteriormente, aplicando etapas extras de pós-processamento para aumentar os detalhes e alcançar o resultado desejado. Esta etapa suplementar aumenta significativamente o nível de detalhe comparado para um nível simples e sofisticado. E também tem o potencial de alteração a aparência visual do imagem gerada de forma eficaz. Utilizando o alto função de correção de resolução se mostra benéfico em mitigando problemas como geminação ou duplicação anterior mencionado em relação com o tamanho da imagem. E ajuda a manter o integridade da composição de suas imagens aprimoradas. Vamos considerar definindo uma resolução maior do que os modelos resolução de treinamento, tanto sem quanto com a correção de alta resolução conforme ilustrado neste exemplo. Trabalhando com modelos que não são do Excel pode produzir resultados impressionantes, produzindo imagens que superam o Tamanho padrão de 512 por 512 pixels. Isso é conseguido sem uma etapa adicional de aumento do volume que pode ser aplicado na guia extra. É essencial observar que trabalhando com a alta resolução fixo vem com uma troca desligado em termos de tempo de geração. Seus passos fixos representam um número de seus passos fixos. Hagen, além de as etapas de amostragem usado durante a primeira passagem do processo de geração, se definido como zero, ele emprega o mesmo número das etapas de amostragem conforme usado para a imagem original. Se definido para um número específico, esse número designado serão utilizados. Eu recomendo 15 de altura etapas de resolução pois atinge um bom equilíbrio entre velocidade e qualidade. Semelhante a outros aspectos no reino da IA envolve uma delicada dança entre alcançar qualidade ideal e minimizando o tempo de processamento. Força de ruído. Você posso pensar nesse controle deslizante como a força do upscaler durante as etapas de aumento de escala, ou quanta liberdade você tem dando à difusão estável durante esse processo nos valores mais baixos. Este controle deslizante nos permite preservar a essência da nossa imagem durante o processo de aprimoramento enquanto com valores mais altos, o processo será provavelmente introduzirá mudanças adicionais na sua imagem. Vou mostrar exemplos usando o mesmo prompt e as mesmas configurações, com a única diferença sendo a força de eliminação de ruído Vou começar com o imagem original gerada em 568 por 832 pixels sem sua solução. Agora vou me regenerar esta imagem com duas escalas ascendentes em força de redução de ruído ajustada 0.250 pontos 5.0 0.8 Para o primeiro conjunto de exemplos, Vou usar o escalar ascendente latente. Com um estilo sofisticado controle deslizante definido para 1,5 x. Isso produzirá uma imagem tamanho de 880 por 12 88 pixels Os escaladores ascendentes latentes trabalhar um pouco diferente dos outros, aumento de escala em um ponto diferente no processo de geração. Eles geralmente precisam de mais etapas em uma maior resistência à redução de ruído como 0,5 e superior. Observe a diferença entre latente versus RSR Aumentou o escalar com força de 0,25, especialmente no nível zero, sua imagem não mudará no valor de um. Os resultados são dificilmente como a imagem olhou antes do aumento de escala o processo foi iniciado. A redução de ruído ideal força, vontade depende do upscaler você está usando. Você precisará de valores de cerca de 0,5 para os upscalers latentes, enquanto outros upscalers o farão fique bem de 0,3 a 0.5 Se você deseja dar alta resolução fixa mais liberdade para reinterpretar sua ideia, você pode almejar valores mais altos. Espero que você esteja bem lá. Agora abordamos o básico de gerações de imagens de IA. Nossos capítulos seguintes vão trazer tudo juntos e serão muito menos intenso do que este.
8. Capítulo 7 Imagem para imagem: Bem-vindo a outra empolgante capítulo deste tutorial. Tenho certeza que isso é vai ser o um que você vai gostar. O painel imagem para imagem é o segundo mais importante painel do Automatic 11 11. Agora que você entende como o Hires Fix funciona você terá um melhor compreensão de imagem para imagem. Como estabelecemos durante todo o curso, texto para imagem é o padrão forma de geração de imagens de IA. No entanto, além de criar imagens de um prompt de texto, apenas outro popular e forma interessante é gerar, usando outra imagem como referência. Chamamos esse método imagem a imagem. Isso nos permite transformar uma imagem existente, sua IA anterior geração, sua foto, ou um esboço, ou qualquer coisa de a Internet em uma nova imagem. O processo de usando outra imagem como referência é simples. Tudo o que precisamos fazer é digite nosso prompt. Como de costume, coloque uma imagem nesta janela aqui, determine as dimensões da imagem gerada. E, finalmente, quanta liberdade queremos dar 11 automático, 11 na reinterpretação a imagem de origem. Para fazer isso, usamos o controle deslizante de resistência à redução de ruído assim como fizemos com sua dose. A força de eliminação de ruído o controle deslizante nos permite ajuste a extensão de a transformação aplicado às nossas imagens. Valores mais baixos retêm mais as imagens originais características, enquanto valores mais altos permitem mais dramático e transformações criativas Lembre-se de que o menor valores de resistência à redução de ruído também criará uma imagem gerada fique mais perto do imagem de referência e muitas vezes resultam em algo gerações embaçadas. Embora seja maior a redução de ruído valores do controle deslizante permitir que o modelo expressa-se livremente. Aqui estão alguns exemplos com as mesmas instruções e configurações, com diferentes valores de redução de ruído. Pense na imagem de entrada como nada mais do que um guia. A imagem também faz não precisa ser bonita ou em alta resolução ou tenha algum detalhe. A parte importante é a cor e composição. Então você pode usar o de uma criança desenho, por exemplo, e veja como é estável difusão seu prompt e um modelo interpreta a entrada Uma coisa que eu tenho Eu também notei que quanto mais forte o contraste e linhas em seu referência original, quanto mais fortes forem imprimem-se no seu resultado. Não há um bom valor quando se trata da força de redução de ruído. Se tudo que você quer é um resultado vagamente baseado em uma referência você pode aumentar os valores além 0.6 Se você quiser dar alguma qualidade pictórica a uma imagem fotográfica você pode obter resultados satisfatórios mesmo com valores tão baixos quanto 0.15 Quanto custará a imagem mudança na comparação para a referência depende do modelo usado, vários poros, inversões textuais sua amostragem imediata etapas, etc Da imagem à imagem o painel nos fornece muitas opções familiares que tínhamos no texto ao painel de imagens que nós estavam cobrindo mais cedo. No entanto, há um algumas adições. O primeiro é o modo de redimensionamento, que nos permite determinar vários tamanhos de imagem parâmetros relacionados. Basta redimensionar, isso será redimensionado sua imagem para conhecer o largura e altura definidas. Se sua altura e largura forem diferentes daquelas da imagem original, sua imagem será esticado, recortado e redimensionado Isso cortará o imagem original para os valores de resolução aqui primeiro e depois execute a geração da imagem. Isso é semelhante a você recortando a imagem original você mesmo antes de colocar é no 11 automático, 11. Redimensionar e preencher Redimensiona a imagem para sua resolução especificada e preenche o espaço vazio com cores presentes no imagem, apenas sofisticação latente Esta opção é muito semelhante ao primeiro, a única diferença sendo que ele usa uma latente diferente método de aumento de escala. A escala por e a escala até opções que você pode usar para ou redimensionar por um fator ou redimensionar para um específico dimensões por digitando-os no caso de você escolheram o escalar ascendente O painel de aviso de imagem para imagem também entende as instruções, para que você possa dizer coisas como faça a pessoa usar um chapéu. E se você eliminar o ruído a força é alta o suficiente a pessoa que você gerou a imagem será renderizada usando um chapéu ao lado mencionado anteriormente configurações e parâmetros. O painel de imagem para imagem nos fornece um par de novas guias, como esboço em pintura em Paint, esboço na pintura, upload e lote. Eu vou te mostrar o guias de esboço e lote agora e deixe a entrada guias relacionadas à pintura para o próximo capítulo que trata de na pintura, esboço específico Agora que você está familiarizado com imagem a imagem, é hora de cobrir a opção de esboço Isso introduz um adição interessante à geração de imagem para imagem. Você pode pensar no esboço como um criativo e tranquilo ferramenta de coloração útil, mesclado com uma imagem para o módulo de imagem. À primeira vista, esboce e aparência de imagem para imagem completamente o mesmo. Mas se você olhar mais de perto, depois de soltar uma imagem nesta área aqui, você notará um casal de opções que você não tem visto no básico imagem para painel de imagem. Essas ferramentas são as ferramentas de pintura rudimentares. Desfazer o pincel e o tamanho do pincel paleta clara e de cores No lado esquerdo, passando o mouse sobre o pequeno ícone de informações mostra algumas coisas que pode ajudá-lo a desenhar. A forma como o esboço funciona é que ele renderizará a nova imagem de forma semelhante de como funcionará imagem a imagem, mas também prestando muita atenção às cores que você tem pintado sobre a imagem. Seu resultado final será uma nova imagem isso pode estar muito próximo ao que você tinha inicialmente. Quão próximo será o resultado seja para a imagem de referência. Novamente, depende principalmente em um controle deslizante de redução de ruído Vamos tentar um exemplo usando a imagem de uma garota que usamos anteriormente. É assim que meu esboço pareciam máscaras. Aqui você pode ver o resultado. Eu mudei meu prompt para contêm menos vermelho palavras-chave relacionadas e reduziu alguns dos pesos na palavra vermelho que meu prompt inicial tinha. Vamos clicar em Gerar e veja o resultado que obtive. Agora, a regra geral é que quando você usa o Sketch, você quer usar o mesmo tão rápido quanto você fez inicialmente. Você pode ajudar a imagem geração um pouco por usando palavras relacionadas para sua nova cor. Dois, como eu fiz aqui. Se sua mensagem estiver vermelha fundo de estúdio e você está tentando pintar o plano de fundo amarelo usando esboço, haverá um um pouco de conflito entre suas intenções. Mais uma coisa que eu queria show you é a guia do lote. Se você se lembra a guia de lote que eu tenho te mostrei quando éramos discutindo escaladores ascendentes, isso é basicamente o mesma coisa desta vez. A única diferença é isso em vez de lote aumentando a escala do lote aba dentro da imagem a imagem permite que você processe um grande número de fotos usando automaticamente, claro, a imagem para o painel de imagens. Copiando o diretório destino de seu Explorer na entrada e diretórios de saída diz Automatic 11 11 para onde levar fotos de e de qual pasta para gerar os resultados em. Agora que você tem entendeu o processo de geração de imagens, várias upscalers, parâmetros, funções adicionais e geração de imagem para imagem, é hora de te mostrar pintando uma ótima maneira de corrija suas gerações de imagens e introduza novos elementos para eles. Vamos continuar com a pintura.
9. Capítulo 8 Inpainting: Bem-vindo a mais uma diversão capítulo deste curso, Como você está até agora? Espero que você esteja fazendo pausas e deixando tudo de novo as coisas se acomodam. Nós cobrimos bastante muito juntos, mas eu ainda tenho alguns truques legais para te mostrar. Na verdade, muitos outros truques novos. Existem outras técnicas e um total de mudanças de jogo que nos aguardam nas extensões capítulo deste curso. Mas antes de mergulharmos, vamos familiarize-se com a pintura. Em vez de gerar a imagem inteira, que é o que estávamos fazendo até este ponto na pintura, é uma técnica usada quando queremos para gerar apenas um parte de uma imagem, fixar uma parte do anterior imagem gerada, ou gerar tudo em torno de uma determinada área. Você pode usar na pintura para regenerar parte uma imagem gerada por IA ou parte de uma imagem real. Isso é semelhante ao do Photoshop nova função de preenchimento generativo, mas irrestrito quando se trata de conteúdo. O conteúdo que será gerado dentro da área mascarada depende no modelo e arquivos adicionais que pode expandir nosso modelo, como Laura, textual inversões e muito mais Lembre-se do caminho usamos esboços. Agora imagine isso, mas em vez de cores, vamos adicionar conteúdo real em nossa imagem, regenerando partes das imagens, ou remover elementos indesejados. O método funciona assim. Nós fornecemos uma imagem, em seguida, desenhe uma área de a imagem que teríamos gostaria de gerar usando tipo de difusão estável em a solicitação para o redesenho e clique em Gerar. Depois de clicarmos em Gerar, a área será gerado com base em nossa prontidão na pintura é uma parte da imagem para o painel de imagens e a área que nós desenhar é chamado de máscara. Assim como com o esboço guia que estávamos usando antes, você encontrará todos os ferramentas de desenho familiares e o painel de informações no lado esquerdo. Algumas diferenças entre o esboço e na pintura os painéis são a ausência da cor paleta e algumas novas opções Vou explicar o desfoque da máscara. Esse controle deslizante afeta o suavidade do pincel de pintura Se definido muito baixo, o conteúdo pintado pode olhe colado na foto. Ao mesmo tempo em que aumenta isso o controle deslizante resultará melhor mistura entre os conteúdo original e gerado. O preenchimento afeta a quantidade de a área ao redor da máscara deve ser usado como referência quando se trata para gerar o conteúdo dentro da máscara. Este controle deslizante depende de o que você está tentando fazer. Eu costumo ir com mais alto valores para este como Eu gostaria do resultado gerado para misturar da melhor maneira possível. O modo de máscara apresenta duas opções em máscara de pintura que gera conteúdo dentro da máscara e na máscara de tinta faz exatamente o oposto, muda tudo sobre o imagem, exceto a área desenhada. conteúdo mascarado use com vários modos para saber como o conteúdo contido a máscara será criada. Novamente, sua escolha deve depende do que você é tentando alcançar. E alguns modos são melhores ou pior para tarefas específicas. Phil usa o cores vizinhas uma base para pintar o original. Usado quando você não quer grandes mudanças e principalmente ao consertar outras coisas em vez de adicionar novos elementos. Ruído latente ou latentes, nada é bom quando você está tentando adicione algo em uma imagem. Diferente do que a imagem já contém, ruído latente preenche o área com ruído de qual imagem de toda a IA a geração começa basicamente gerando do seu prompt sem muito da imagem usada como referência latente, Nada é comparável com apagamento a área da máscara com uma borracha. Pense nisso como o escolha entre preenchimento com estática ou preta. Eu recomendaria escolher ruído latente na área de pintura. Nas tintas apenas a área mascarada, a imagem inteira pode ser boa. Somente ao trabalhar em resultados já pequenos. Ainda estará em pinte a área da máscara, mas pode levar em conta o resto da foto. Melhor desvantagem do esse método é que redimensiona uma imagem com base nos parâmetros de tamanho. Então eu ficaria longe de é quando eu quero reter o tamanho da imagem Eu coloquei na pintura. Assim como com o general geração de imagens, pode ser difícil conseguir o resultado que queremos na primeira tentativa. Portanto, devemos definir o tamanho do lote para cerca de cinco. De acordo com os resultados, nós poderíamos mudar alguns parâmetros, como a eliminação de ruído, resolução de força, etc. até começarmos a receber mais perto do que queremos. Aqui estão alguns dos meus resultados ao corrigir pequenas mutações nas mãos ou elementos similares usando a solicitação original para entrada a pintura funciona 90% das vezes. No entanto, se você estiver tentando para adicionar algo novo, você pode manter a estilística palavras-chave do seu prompt ao descrever o que é que você quero adicionar na pintura. Agora é hora de cobrir os outros dois em modos de pintura no upload de pintura. A ferramenta de pintura é poderoso, mas carece de muitos as opções de ajuste fino que alguns usuários podem estar acostumado a programas como o Photoshop Desenhando máscaras assuntos podem ser entediantes especialmente quando se lida com detalhes intrincados, como cabelos Se você não estiver satisfeito com o nível de controle sobre o mascaramento e têm metas mais ambiciosas. Automatic 11 11 permite que você para criar sua máscara em outro software e importação ele usando a tinta recurso de upload. A parte superior é onde você precisa colocar sua imagem, enquanto o inferior é destinado à máscara. Você pode ir com um máscara em preto e branco. Eu vou te mostrar um casal gerações e as máscaras Eu criei no Photoshop para ajuda em minhas gerações de IA. Meu segundo curso negócios específicos com o tópico de IA e fotografia. Então, se isso é algo que lhe interessa, Eu ficarei feliz em ter você como meu aluno novamente em pintura. Esboço. Na pintura, o esboço combina a funcionalidade do in pintura e controle de cores do painel de esboço Ao contrário do esboço original, ele só renderizará a zona mascarada não tocar no resto da imagem. Ao contrário do desenho normal. Você pode escrever um aviso não relacionado a tinta tentará renderize seu prompt em a área mascarada usando a cor da máscara como um elemento adicional no processo generativo. Agora que temos imagem coberta para geração de imagens e em pintura como uma das suas partes integrantes, o que nos espera é um capítulo empolgante que trará tudo nós aprendemos isso Juntos e desbloqueie algumas novas opções e ideias que você talvez não soubesse de você pode fazer com Automatic 11, 11.
10. Extensões do Capítulo 9 para difusão estável: Eu tenho algumas coisas incríveis para mostrar a você neste capítulo. Não sobrou muito antes de eu sair você para usar tudo você aprendeu até agora. Extensões são minhas favoritas parte da difusão estável pois eles nos permitem tomar controle adicional sobre nossas gerações de imagem e aprimorar tudo o que aprendemos anteriormente com algumas habilidades adicionais. Algumas dessas extensões pode ser usado para adicionar um elemento extra de controle às suas gerações de imagem, como o super popular Extensão Control Net. Enquanto outros, como o deforum, permitem que você crie vídeos da sua imagem. Gerações desenvolvidas continuamente por a comunidade global da Internet e usuários em todo o mundo. Automático 11 11 é enriquecido diariamente pela comunidade extensões desenvolvidas diferenciando-o de outros geradores de IA e aprimorando sua funcionalidade e facilidade de uso. Alguns dos populares os são Rede de controle, gráfico xyz após detalhador, Civet, tela auxiliar de IA, zoom, gradiente estético clipe de interrogação, SD definitivo, aberta e sofisticada editor e deforum O método de instalação para todas essas extensões é bem simples. Tudo o que você precisa fazer é copiar um link. Navegue até as extensões guia encontrada aqui, em seguida, clique em Instalar a partir do URL. Cole o link à direita aqui e clique em Instalar. Tudo o que você precisa fazer a seguir é clique no instalado extensões aqui, e pressione o botão Aplicar e reinicie o botão UI. Vamos falar sobre o primeira extensão, a fantástica rede de controle. Esta extensão foi alterada difusão estável para sempre. Você verá muito em breve por que é meu estábulo favorito extensão de difusão Entre outras coisas, ele permite que você copie ou especificar poses humanas de uma imagem de referência, copiar composição de outra imagem de analisando qualquer uma das bordas ou profundidade, e assim por diante. Ele pode replicar o paleta de cores uma imagem de referência ou curva um rabisco em um resultado de ótima aparência. E muito mais Pode ser usado em qualquer uma das gerações de imagens painéis ao lado deles. Mas quando usado em em conjunto com a imagem para o recurso de imagem se torna incrivelmente tão poderoso quanto lhe dá um nível granular de controle sobre suas criações, pavimentando o caminho para criatividade sem limites Você se lembra do caminho geração de imagem para imagem funciona usando uma imagem de referência para guiar nossa geração. Agora imagine essa ferramenta se tornando dez vezes mais poderoso e rico em recursos. Isso é o que é a rede de controle. Quando ativado por meio de verificação esta caixa de seleção aqui. rede de controle se torna uma etapa adicional de controle que sua imagem a geração aderirá. O que você vê aqui são uma infinidade de vários elementos que poderiam ser extraído do imagem de referência e usado para guiar sua imagem A rede de controle de geração pode analise o difícil linhas de contraste de a imagem e use-as para guiar a geração. Analise a profundidade de a imagem de referência e use isso para guiar o processo de geração. Extraia a pose de a imagem de referência, fazendo com que seja o única coisa trancada enquanto interpreta livremente todo o resto. Com base na sua solicitação, converta uma imagem de referência em um desenhando analisando linhas. Extraia, por exemplo, somente linhas rígidas ignorando outros elementos presentes na imagem de referência. Analise a orientação do superfícies e use isso como método de controle. Use a opção shuffle para transferir o esquema de cores da imagem de referência. Permita um controle ainda melhor de na pintura e muito mais. Certifique-se de que você tenha os vários modelos instalado necessário para rede de controle para trabalhar. Aqui você pode ver alguns dos maneiras pelas quais usei a rede de controle. A rede de controle também pode funcionar com uma extensão de pose aberta permitindo um direto transferência da pose você criou usando uma figura de homem de pau ser transferido como um método de controle e rede de controle. Algumas coisas isso seria bom para sei que a opção Love Ram é experimental e é para GPUs com menos de 8 gigabytes de V Permitir pré-visualização, marque isso para habilitar uma janela de visualização em seguida para a imagem de referência. Eu recomendo você selecione essa opção. Use o ícone de explosão ao lado do pré-processador menu suspenso para visualizar o efeito do pré-processador. O ícone de explosão permite que você veja a prévia do a imagem analisada. O apontar para cima transferências de setas as dimensões do imagem que você colocou rede de controle para o dimensões do tamanho da imagem para a imagem que é prestes a ser gerado. Aqui você pode ver como eu usei imagem a imagem ao lado da rede de controle para bloquear completamente o conteúdo e composicional elementos da imagem. Eu uso extensivamente Rede de controle para todas as minhas manipulações fotográficas sobre os quais estou ensinando mais. No meu segundo curso sobre IA além da edição do Photoshop certifique-se de clicar em a caixa de seleção de ativação antes de iniciar a IA processo de geração. Você incorpora rede de controle nela. É algo que eu sou muitas vezes esquecendo como método de instalação pode mudar um pouco com o tempo. Preste atenção ao instruções de instalação na página da web da Control Nets. Eu vou te fornecer o link ao lado de alguns adicionais instruções em materiais do curso. Arquivo de texto após detalhe depois que o detalhista é outro favorito da comunidade. Isso serve para ajudar gere rostos melhores, partes do corpo e mãos. Está entre os meus extensões favoritas, não só porque age como um recurso de pintura automática que detecta e corrige potencialmente áreas problemáticas mas também porque fornece resultados de alta qualidade. Muitas vezes melhor do que o que a geração de IA faz por padrão Quando instalado e ativado. Depois de pressionar o botão gerado, a imagem será gere como de costume. Então, depois que o detalhista assume o controle, procurando rostos e mãos na imagem e tentando pinte automaticamente aqueles áreas usando seu modelo personalizado, especialmente treinado para corrigir esses possíveis erros. Também pode melhorar ainda mais a qualidade das áreas geradas. Depois que o detalhador contiver tanto positivo quanto avisos negativos, permitindo uma etapa adicional de controle sobre o na pintura é fazendo ao usar inversões textuais treinado nos rostos das pessoas. Depois que o detalhista pode ser usado para aumentar a probabilidade de um gerado rosto parecido com a pessoa. Tanto como sua solicitação geral e após uma solicitação mais detalhada conter a inversão textual trabalhando na replicação a semelhança de alguém Outra coisa incrível sobre após o detalhador é que permite prompts personalizados para ambas as faces das mãos, etc., tudo isso enquanto deixa você usa os dois na pintura modelos em uníssono Eu vou te mostrar um par de gerações com e sem detalhador posterior. Os resultados falam para si mesmos. Abaixo, os detalhes posteriores seleções de modelo e rapidez você pode encontrar três menus suspensos. Detecção, máscara, pré processamento e na pintura, permitindo que você faça isso muito mais controle sobre como depois do detalhista deve ser aplicado. Você pode deixar o primeiro dois nas configurações padrão, no entanto, você deve preste atenção a o último que permite que você execute após o uso detalhado redução de ruído diferente e configurações de desfoque da máscara. Ou usando outro modelo que não o que a imagem tem foi criado com. Você também pode especificar o número do amostrador de etapas e escala CFG Quão louco é isso? Auxiliar Civet AI Essa é muito útil. É uma extensão que ajuda você manuseie seus modelos com muito mais facilidade. Aqui estão alguns dos coisas que ele pode fazer. Ele pode digitalizar tudo modelos e download informações do modelo e pré-visualização de imagens do Civet I. Ele pode verificar todos os seus locais modelos, nova versão e atualizá-los automaticamente com informações e uma prévia. Ele adiciona alguns novos ícones ao o ícone do globo redondo abre o URL desse modelo. Em uma nova guia, você pode usar o ícone da lâmpada a ser adicionada gatilho deste modelo palavras a serem solicitadas. Enquanto este aqui está o ícone da tag usa esses modelos aviso de pré-visualização de imagens. Uma coisa a observar é isso toda vez você instala ou atualiza essa extensão, você precisa desligar Interface de usuário da web e reinicie-a. Basta recarregar a opção de interface do usuário do. As configurações não funcionarão para isso extensão, zoom do Canvas. Esta extensão permite você para ampliar o esboço na pintura e em pintura, painéis de esboço Isso não muda nada sobre a geração de imagens em si. Mas isso faz com que seja mais confortável de fazer todo o desenho coisas relacionadas dentro a interface do usuário. Gradiente estético Gradiente estético é uma extensão um pouco semelhante em funcionalidade para a de Laura. Basicamente, em vez de usar somente o peso imediato, permite um pouco mais controle sobre a implementação da estética baixada arquivo de gradiente do Civet AI Alguns dizem que estão prestes a receber eliminado gradualmente. Alguns dizem que são bons. Eu não os usei muito pessoalmente, com o ser de Laura por mais poderosos que sejam, Não vejo gradiente estético como parte do meu fluxo de trabalho. Mas pode ser ótimo para, você definitivamente deveria dê uma olhada neles. Você pode encontrá-los usando o opções de filtro aqui. interrogação e interrogue Deep Buru É uma extensão embutida para automático 11, 11. Tanto em clipe quanto em profundidade buru estão acostumados extrair avisos de imagens colocadas em a guia imagem para imagem usando alguns gigabytes modelo grande que receberá baixado automaticamente depois de executar essas opções. O clipe de interrogação é usado para imagens gerais e sondagem profunda deve ser usado para anime. Eles usam muita RAM de vídeo. Eles não podem ser usados com uma GPU de baixa especificação Usando essas ferramentas é um grande sucesso e cenário errado e muitas vezes engraçado. Então, meu conselho é que é melhor você explorar as capacidades de seus modelos exercitando seu criatividade própria. Em vez disso, o melhor nível de SD, um ótimo módulo sofisticado que permite que você aumente suas imagens sem apresentando o clássico Artefatos sofisticados de IA como mais afiação de tons de pele, etc. A maneira definitiva obras de luxo quebrando uma imagem em ladrilhos menores, em seguida, trabalhando e aumentando a escala ladrilho por ladrilho, e, finalmente, mesclando todos esses azulejos em uma imagem aprimorada com resultados superiores aos o aumento de escala usual métodos feitos em automático 11 11 abra o editor de pose. Esta é uma pequena extensão que permite que você adicionar uma pessoa ou mais pessoas na imagem e crie suas poses usando uma representação simplificada de um corpo humano. Você pode então enviar seu criações para controlar extensão de rede para usar como guia. Durante a geração da imagem, Eu vou te mostrar um exemplo simples, realmente um pouco interessante extensão, gráfico X, Y, Z. Não é tanto uma extensão, por mais que seja um roteiro, mas eu decidi cubra-o aqui como está é quase invisível quando usando a interface do usuário, X, Y Z. Plot é um script que cria grades de imagens com parâmetros variados que pode ser encontrado no script menu suspenso conforme mostrado abaixo. Eu os usei anteriormente para mostrar quão diferente é a escala CFG e amostragem afetam o resultado, mas eu vou te mostrar mais alguns exemplos. Deforum. Você deve ter visto aqueles vídeos triviais uma moldura se mistura em outro com uma câmera panorâmica dentro do vídeo e animações do tipo fractal, mudando de formas e fundindo-se um com o outro Tudo isso é feito no deforum. Deforum é provavelmente a extensão com o maior número de opções que permitem que você controlar numerosos parâmetros de geração, movimentos da câmera e muito mais. Tem tantos características que seria faça uma aula inteira para cobrir todos eles. Para os fins deste capítulo, Vou tentar simplificar um pouco. A guia Executar oferece as escolhas clássicas de etapas de amostragem do amostrador dimensões e sementes, coisas que você deveria esteja familiarizado com. Abaixo você pode ver um opção para restaurar rostos, que aumentará tempo de geração, mas pode resultar em rostos mais bonitos A guia de quadros-chave fornece uma infinidade de parâmetros que lidam com como a imagem muda com o tempo, incluindo movimentos da câmera e parâmetros de geração como sementes. Os quadros-chave permitem que você selecione a duração do a animação usando o valor máximo de quadros. Na guia prompt insira as instruções você deseja usar o diferença em comparação com a sugestão usual é que aqui você pode definir em qual apontar um conjunto de solicitações e alterações em outro conjunto de prompts. A guia da rede de controle permite você deve incorporar a rede de controle, que cobrimos mais cedo, um guia durante a geração de quadros. Vídeo híbrido, entre outras coisas, permite que você use outro vídeo como guia para os movimentos da câmera de sua geração de deforum Na guia de saída, você pode selecionar os parâmetros de exportação e se deve combinar imagens geradas em um vídeo ou basta deixá-los como imagens para sua manipulação adicional Dessa forma, você pode importar eles no Premier Pro, adicione uma trilha sonora, várias efeitos e muito mais. Com tudo o que nós exploraram hoje, o que resta é para você liberte sua criatividade. Parabéns por terminando o curso. Foi um privilégio. Fazer parte da sua experiência de aprendizado. Sinta-se à vontade para entrar em contato a qualquer momento, se você tem perguntas ou quer mostrar suas criações exclusivas aqui para apoiá-lo em toda a sua IA e empreendimentos do Photoshop E por falar em Photoshop, se você sentir que está na hora para elevar suas habilidades considere participar do meu próximo curso, mergulhando na fusão de Arte e fotografia com IA. Ou se você é apaixonado por fotografia e interessados no retoque da pele Eu ficarei feliz em te ensinar minhas dicas e segredos ao longo de um 3 horas de duração em profundidade retrato e boudoir curso de retoque. Estou ansioso de te ver de novo. Estou te desejando inspiração infinita e sucesso sem limites. Meu nome é Mark e nos vemos novamente.