Beherrsche generative KI mit Comfy UI und Flux , KI-Kunst | Karan Rathore | Skillshare
Suchen

Playback-Geschwindigkeit


1.0x


  • 0.5x
  • 0.75x
  • 1x (normal)
  • 1.25x
  • 1.5x
  • 1.75x
  • 2x

Beherrsche generative KI mit Comfy UI und Flux , KI-Kunst

teacher avatar Karan Rathore, 10+ yrs Exp : AI artist/Video Editor

Schau dir diesen Kurs und Tausende anderer Kurse an

Erhalte unbegrenzten Zugang zu allen Kursen
Lerne von Branchenführern, Ikonen und erfahrenen Experten
Wähle aus einer Vielzahl von Themen, wie Illustration, Design, Fotografie, Animation und mehr

Schau dir diesen Kurs und Tausende anderer Kurse an

Erhalte unbegrenzten Zugang zu allen Kursen
Lerne von Branchenführern, Ikonen und erfahrenen Experten
Wähle aus einer Vielzahl von Themen, wie Illustration, Design, Fotografie, Animation und mehr

Einheiten dieses Kurses

    • 1.

      Einführung

      2:38

    • 2.

      So installiert man comfyUI

      3:36

    • 3.

      Wichtige Hinweise zum ersten Abschnitt

      0:36

    • 4.

      So verwendest du eine komfortable Benutzeroberfläche

      2:31

    • 5.

      Grundlegender Workflow und Verständnis des Knotensystems in ComfyUI

      8:04

    • 6.

      Bequeme Benutzeroberfläche und Gruppengenerierung

      3:31

    • 7.

      Knoten als Vorlage speichern

      0:35

    • 8.

      Änderung der Arbeitsflächenoberfläche

      1:28

    • 9.

      Komfortabler UI-Manager

      2:26

    • 10.

      Installiere einen benutzerdefinierten Knoten

      0:33

    • 11.

      Workflow in Comfy UI

      2:05

    • 12.

      Letztes Update in der komfortablen Benutzeroberfläche

      0:30

    • 13.

      Checkpunkte und Trigger-Wörter laden

      5:51

    • 14.

      Lerne ausführlich über einige Begriffe

      3:57

    • 15.

      Ksampler SEED

      1:36

    • 16.

      Erkunden der Warteschlangenaufforderung

      2:29

    • 17.

      Auswirkungen von Schritten auf das Ergebnis

      0:15

    • 18.

      Kostenlose Anleitung zum Addign-Effekt für CFG Classifier

      1:25

    • 19.

      So ändert man alle Werte in Ksampler automatisch mit Primitive Node

      2:32

    • 20.

      Stapelgenerierung von Bildern und Benennung

      2:06

    • 21.

      Erstelle eine Gruppe und Verwendung von Gruppe alle Informationen für die Gruppe

      4:54

    • 22.

      So übergibst du Knoten in Comfyui

      1:36

    • 23.

      Wir kommen jetzt in den Abschnitt „Vorab“.

      0:51

    • 24.

      So aktualisierst du Informationen zu comfyUI und Workflow

      2:25

    • 25.

      Neuestes Update der Benutzeroberfläche von ComfyUI und eine Einführung

      2:58

    • 26.

      Verbessern Sie Ihren Workflow in der Übersicht über den ComfyUI-Flow

      3:08

    • 27.

      Erweitertes Prompt- und Diffusionsmodell und Loras und Workflow

      14:02

    • 28.

      Unterschied zwischen Flux Dev und Schnell und kommerzieller Nutzungslizenz

      5:00

    • 29.

      Lade Richtige Dateien herunter, um sie im richtigen Pfad für das Flux Diffusion Modell und den Checkpoint zu verwenden

      4:47

    • 30.

      Workflow für Flux Schnell und Flux Dev Checkpoints

      7:28

    • 31.

      Erweiterte Workflows für die Bildgenerierung mit Flux 100+ Stilen

      4:05

    • 32.

      WAS über 100 Stilen Workflow-Setup

      5:38

    • 33.

      Hintergrund aus Stickern entfernen

      8:00

    • 34.

      Erstelle 30 Sticker mit 1 Klick

      1:51

    • 35.

      Erstelle hochwertige Sticker oder Bilder mit etwa 6000 Pixeln

      7:19

    • 36.

      ControlNet und verschiedene Vorprozessoren verstehen

      2:45

    • 37.

      ControlNet Aux Preprocessors Verschiedene Prozessoren-Ausgabe von Bildern

      7:27

    • 38.

      Vergleich zwischen ControlNet und Flow Output

      1:18

    • 39.

      ComfyUI Advance Workflow für Control Net – Manipulation deiner Bilder

      8:29

    • 40.

      Fortgeschrittene ComfyUI-Techniken Hochwertige Ausgaben mit mehr Kontrolle über das Tiefenkarten-Steuernetz

      10:24

    • 41.

      Überblick über die Erstellung unserer eigenen LORA

      3:07

    • 42.

      Erweiterter ControlNet-Workflow in einer Tiefenkarte

      12:56

    • 43.

      Lade die richtige Datei herunter, um deine eigene Lora für Flux zu erstellen

      2:35

    • 44.

      Schritte zur Erstellung der Geschichten – wie man richtig läuft

      5:45

    • 45.

      So verwendest du die von dir erstellte Lora

      3:21

    • 46.

      Installieren von Rastern zu Vektorknoten und grundlegenden Informationen

      2:15

    • 47.

      Erstellen von Schwarzweiß-Bildern in SVG-Dateien – einfacher Workflow

      3:29

    • 48.

      Auf Vektor und andere Einstellung wiederherstellen, um bessere Ergebnisse zu erzielen

      1:24

    • 49.

      Frage ChatGPT auf den richtigen Weg nach Prompt

      4:26

  • --
  • Anfänger-Niveau
  • Fortgeschrittenes Niveau
  • Fortgeschrittenes Niveau
  • Jedes Niveau

Von der Community generiert

Das Niveau wird anhand der mehrheitlichen Meinung der Teilnehmer:innen bestimmt, die diesen Kurs bewertet haben. Bis das Feedback von mindestens 5 Teilnehmer:innen eingegangen ist, wird die Empfehlung der Kursleiter:innen angezeigt.

171

Teilnehmer:innen

2

Projekte

Über diesen Kurs

Entfessle dein kreatives Potenzial mit ComfyUI, einem leistungsstarken Tool für KI-generierte Kunst. In diesem Kurs lernst du alles, vom Herunterladen und Einrichten von ComfyUI bis hin zur Beherrschung der Benutzeroberfläche, Tools und Funktionen. Wir führen dich durch die Erstellung deines ersten digitalen Kunstwerks, erkunden Voreinstellungen und Stile und kombinieren Elemente, um einzigartige, auffällige Designs zu schaffen.

Im Laufe der Arbeit tauchen wir in fortgeschrittene Techniken ein, mit denen du deine Kreationen anpassen, künstlerische Stile anwenden und Bilder mit Präzision verbessern kannst. Außerdem erfährst du, wie du deine Arbeit speichern und exportieren und sie für das Online-Teilen oder den Verkauf vorbereitest. Außerdem enthält dieser Kurs wichtige Tipps zur Monetarisierung deiner KI-Kunst, damit du deine Leidenschaft in eine profitable Fähigkeit verwandeln kannst.

Übersicht über Mid Journey, wie sich Imagine Art von Midjourney und Stable Diffusion unterscheidet

Ganz gleich, ob du Anfänger:in bist und KI-Kunst erkunden möchtest oder erfahrene:r Künstler:in bist, die ihr digitales Toolkit erweitern möchte, dieser Kurs ist so konzipiert, dass das Lernen einfach, unterhaltsam und praktisch ist. Am Ende des Kurses verfügst du über die Kenntnisse und Fähigkeiten, um Kunst in professioneller Qualität zu schaffen, und hast das Selbstvertrauen, deine KI-generierten Meisterwerke zu teilen oder zu verkaufen. Begleite uns und beginne noch heute deine Reise mit ComfyUI! : Folgende Hauptthemen werden du lernen: KI-Bilder | KI-Videos | Chat-GPT | stabile Verbreitung | Automatisches 11 | Prompt-Engineering | Comfy UI | Fooocus | ComfyUI Wir sehen uns im Kurs

Triff deine:n Kursleiter:in

Teacher Profile Image

Karan Rathore

10+ yrs Exp : AI artist/Video Editor

Kursleiter:in
Level: All Levels

Kursbewertung

Erwartungen erfüllt?
    Voll und ganz!
  • 0%
  • Ja
  • 0%
  • Teils teils
  • 0%
  • Eher nicht
  • 0%

Warum lohnt sich eine Mitgliedschaft bei Skillshare?

Nimm an prämierten Skillshare Original-Kursen teil

Jeder Kurs setzt sich aus kurzen Einheiten und praktischen Übungsprojekten zusammen

Mit deiner Mitgliedschaft unterstützt du die Kursleiter:innen auf Skillshare

Lerne von überall aus

Ob auf dem Weg zur Arbeit, zur Uni oder im Flieger - streame oder lade Kurse herunter mit der Skillshare-App und lerne, wo auch immer du möchtest.

Transkripte

1. Einführung: Wollten Sie schon immer atemberaubende digitale Kunstwerke, T-Karten, Bilder und Videos erstellen , ohne dafür fortgeschrittene Designkenntnisse zu benötigen , dann ist dieser Kurs genau das Richtige für Sie Vielleicht haben Sie Photoshop, Illustrator, CoralokVapCreate ausprobiert , aber der Prozess ist zu komplex und wirklich zeitaufwändig, oder Oder vielleicht sind Sie ein Künstler, Designer. Oder ein Unternehmer , der Ihre Kreativität monetarisieren möchte, indem er Aufkleber auf ETS oder auf Rad Bubble verkauft Nun, was wäre, wenn ich Ihnen sagen würde, dass Sie mit nur einem Klick all diese Bilder und Videos für sich selbst und für Ihr Unternehmen und sogar für Influencer erstellen können mit nur einem Klick all diese Bilder und Videos für sich selbst und für Ihr Unternehmen und sogar für , die vollständig KI-generativ A mit der Leistungsfähigkeit dieses als CofiUI bekannten Tools , das auf Ihrem Computer völlig kostenlos ist Willkommen bei CofuInflux Advance In diesem Kurs bringe ich dir immer bei, wie du Compui installierst, indem du den Arbeitsablauf verstehst, die Benutzeroberfläche verstehst und atemberaubende digitale Kunstwerke und Sticker generierst atemberaubende Das sind hochwertige, hochwertige Vektorgrafiken und sogar Air-Influencer Und viele weitere Dinge in diesem CompuI-Tool. Hallo, ich bin derzeit Acadi-Spezialist mit zehn Jahren Erfahrung im Grafikdesign Ich habe mit Unternehmensplänen gearbeitet und freiberuflich als Content Creator für große Marken tätig, um ihnen zu helfen, den kreativen Prozess zu optimieren Als ich anfing, mich mit KI-generierter Kunst zu beschäftigen, stellte ich fest, dass viele Menschen Schwierigkeiten hatten , qualitativ hochwertige Bilder zu bekommen Entweder sehen KI-Bilder unordentlich aus oder es war zu schwierig , das endgültige Aussehen zu bekommen Zu diesem Zeitpunkt habe ich die PUI entdeckt. Jetzt bin ich hier, um Ihnen beizubringen, wie Sie I like A P verwenden können . Es ist ein projektbasierter Kurs, in dem Sie lernen, wie Sie Ihren eigenen Workflow erstellen Verwenden Sie diesen Workflow, um qualitativ hochwertige Bilder, hochwertige Vektorgrafiken und hochwertige Sticker zu erstellen . bereit sind, ein Projekt zu verwenden oder zu verkaufen, können Sie ein Kontrollnetz verwenden, um das Aussehen Ihres Bildes zu kontrollieren und Ihre eigene Laura darin zu schulen, einen konsistenten Charakter zu kreieren. Am Ende dieses Kurses haben Sie Ihren eigenen Port für sich, den Sie verkaufen und für Ihre eigene Marke verwenden können und für Ihre eigene Marke verwenden Dieser Kurs richtet sich an digitale Künstler, Designer, Freelancer und Unternehmer, Inhaltsersteller und Vermarkter, für Freelancer und Unternehmer, Inhaltsersteller und die keine Vorkenntnisse im Bereich KI-Design erforderlich sind. Ich brauche nur Ihre Neugier, um dieses erstaunliche Tool kennenzulernen Es ist also für jeden geeignet, vom Anfänger bis zum Fortgeschrittenen. Dieser Kurs wird regelmäßig aktualisiert. Sie können Ihr Projekt in der Projektgalerie mit mir teilen . Ich werde dir immer ein Feedback und einen Tipp geben. Sind Sie bereit, Ihre AIR-Fähigkeiten zu verbessern und mit der Erstellung eines hochwertigen digitalen Assets zu beginnen? Lassen Sie uns eintauchen, sehen Sie sich den Kurs an. 2. Installation von comfyUI: Zum ersten Mal werde ich dir beibringen, wie man Comp UI installiert. Gehen Sie also zur Google-Suche nach Compi Install. Das ist alles, was Sie eingeben müssen. Suchen Sie nach dem CUI, dem leistungsstärksten, klicken Sie darauf. Ich werde dich auf die Github-Seite weiterleiten. Du kannst sie herunterladen, indem du nach unten scrollst und Download-Button, den du hier siehst, direkt herunterladen Klicken Sie darauf, es wird automatisch für Sie heruntergeladen, und jetzt müssen Sie es herunterladen Ich habe es bereits heruntergeladen, sodass ich es nicht erneut herunterladen muss, aber ich zeige Ihnen Schritt für Schritt, wie es aussehen wird und wie Sie es richtig installieren Das Erste, was Sie verstehen müssen und was Sie haben müssen, ist die NVDA-Grafikkarte Wenn Sie keine NVDA-Grafikkarte haben, läuft sie auf Ihrer CPU, was viel mehr Zeit in Anspruch nimmt und Sie werden jegliches Interesse daran verlieren , ComfUI zu verwenden, Sie werden das gesamte Interesse verlieren Und es ist ein ZIP 75, also musst du es entpacken bevor du auf dein System triffst. Du musst es zuerst von Zip 7 herunterladen, für deinen Computer herunterladen Nach dem Herunterladen müssen Sie diese Datei extrahieren. Ich werde dir zeigen, wie wir das machen können. Wie Sie auf Ihrer Haut sehen können, wird die Datei so aussehen. Dies ist die Datei, die wir aus diesem Ordner heruntergeladen haben . Es handelt sich um eine 1,5-GB-Datei, und Sie müssen mit der rechten Maustaste klicken, aber bevor Sie Seven Zip installieren müssen, wie ich Ihnen gesagt habe, klicken Sie mit der rechten Maustaste auf Seven Zip, Archivieren oder Extrahieren von Dateien oder Extrahieren Sie hier. Ich wähle Extract to Cf portable NVDA, damit es einen Ordner für Sie generiert und automatisch alle Dateien in diesem Ordner entpackt Doppelklicken Sie also auf diesen Ordner und Sie müssen nur die NVDA-GPU ausführen. Doppelklicken Sie Okay. Wenn Sie also beim ersten Klick doppelklicken, wird ein Fensterbefehlsfenster geöffnet, in dem alle Informationen zuerst heruntergeladen werden. Das Herunterladen dauert also etwa ein bis zwei Stunden. Sie müssen eine schnelle Internetverbindung haben, dann sparen Sie so viel Zeit. Dieser Vorgang ist nur zum ersten Mal. Danach öffnet es ein direktes Fenster für Sie. Das ist ein Komm, mach dir über diese Sache keine Sorgen. Es ist wie ein Cluster oder ein Web, sodass Sie sich keine Sorgen machen und Angst davor haben müssen. Mach dir keine Sorgen. Ich bin hier, um jeden Teil davon zu erklären. Zunächst wird es keine CUI-Schnittstelle geben. Was Sie also tun müssen, ist diese Ladung. Standard laden, Sie müssen Load Default auswählen, und es wird automatisch ein Standard-Knotensystem für Sie geladen. Und Sie können das Laden, den Checkpoint und das latente Bild, den Clip-Text, den Clip-Encode, den K-Sampler, die VAE-Dekodierung Im Moment verwenden wir nur ein Standardsystem für Sie. Zuerst muss ich dir alles von Sketch aus erklären. Danach werden Sie alle Knoten verstehen, was Checkpoint ist, was Flux ist, was Clip ist, was so umfangreich ist, was DAV ist, all die Dinge, die ich Ihnen in diesem speziellen Kurs erklären werde Natürlich werde ich Ihnen beibringen, wie man Eingabeaufforderungen durchführt. Im Moment geben wir einfach eine einfache Eingabeaufforderung ein: Garten und schönes Stehen Sie müssen auf Eingabeaufforderung klicken, sodass es kaum Sekunden dauert, bis Sie arbeiten Comfy hat also ein grundlegendes Bild für uns generiert. Lassen Sie uns die Breite unseres Bildes ändern. Es ist derzeit 152 x 152, was von sehr geringer Qualität ist. Und jetzt werde ich 102-41-0204 verwenden. Okay. Und wieder auffordern. Wie Sie sehen können, haben wir das Bild, das es mit dem Basiswerkzeug generiert hat , richtig 3. Wichtige Informationen zum ersten Abschnitt: Hallo, alle zusammen. Willkommen zum Kurs. Ich freue mich sehr, dass du hier bist, um zu lernen, Kunst mit Kofi UI zu kreieren In diesem ersten Abschnitt müssen Sie nur zuschauen Dieser Teil soll Ihnen helfen, sich mit den Kofi UI-Tools vertraut zu machen und zu sehen, wie die Dinge funktionieren Entspann dich einfach und sieh es dir wie einen Film an. Sie müssen noch keine praktische Arbeit verrichten. Dieser erste Abschnitt dauert etwa 30 Minuten, um ihn anzusehen Lehnen Sie sich zurück und machen Sie sich mit allem vertraut. Wenn wir zum zweiten Abschnitt kommen , werden Sie anfangen, Dinge selbst auszuprobieren und Ihre eigene kreative KI-Kunst zu schaffen. Lassen Sie uns also damit beginnen, uns diesen ersten Teil gemeinsam anzusehen. 4. So verwenden Sie Comfy Ui: Also fangen wir mit der CPUI an. In dem frommen Vortrag haben wir also gelernt, wie man die Comp-Benutzeroberfläche installiert In diesem Video werden wir also die CPUI so verwenden, wie wir Und wir werden über die wichtigen Hinweise Copy und ihre Arbeit Da wir CompuI bereits heruntergeladen haben, haben wir all diese Dateien, die CPI bereits installiert hat Was ist das nächste Mal passiert , wenn Sie die CFUI öffnen? Wenn Sie also das nächste Mal die CPUI öffnen , gibt es Führen Sie zuerst CPU oder NVD aus. Wie ich in diesem Kurs bereits erwähnt habe , benötigen Sie eine NVDA-Grafikkarte , da dies Ihre Arbeit erheblich erleichtert. Sie müssen also nur auf die Run NVD-GPU doppelklicken, darauf doppelklicken, und die Befehlszeile wird für Sie geöffnet Und dieses Mal wird es nicht so viel Zeit in Anspruch nehmen. Es überprüft die grundlegenden Informationen zu dem von uns verwendeten Computer und öffnet automatisch Ihren Standardbrowser mit einer URL, etwa dieser. Und es funktioniert lokal auf Ihrem Computer. Habe schon gelernt, CompuI zu installieren und komme zu diesem Fenster. Jetzt ist es an der Zeit, Ihre Ideen in die Realität umzusetzen. Also, wie habe ich dieses Fenster bekommen? Da Sie CompuI bereits mit dieser Aufforderung installiert haben, müssen Sie nur noch einmal darauf doppelklicken, und Cf I wird in Ihrem Standardbrowser ein neues Fenster für Sie öffnen in Ihrem Standardbrowser ein neues Fenster für Sie Es könnte Google Chrome oder Windows sein. Es funktioniert also zu 100% lokal, wird derzeit kein Internet verwendet, da Sie in Ihrer Suchleiste keine Webadresse sehen können, und es gibt zwei Arten von Fenstern, die Sie beim ersten Versuch, die CofiUI zu öffnen, sehen können beim ersten Versuch, die CofiUI zu öffnen, Zuerst sehen Sie einen leeren Bildschirm oder Sie sehen einen Standardladebildschirm Wenn Sie hier kein Skin haben, müssen Sie hier einfach auf ein Standardmenü zum Laden klicken. Im Standard-Lademenü öffnet Fui eine wunderschöne Landschaft, öffnet Fui Natur, Gras, Portallandschaft Das Pure Galaxy-Portal wird für dich geöffnet. Klicken Sie einfach auf den Q-Abschlussball. Cofi funktioniert automatisch für das erste Bild, das Sie gerade generiert haben Dies ist Ihr erstes Bild, die CPUIO. Die Kreativen, die CofUI verwenden, haben mit CofUI ein wunderbares Bild erstellt Immer wenn Sie erneut klicken, wird erneut die CPUIO. Die Kreativen, die CofUI verwenden, haben mit CofUI ein wunderbares Bild erstellt. Immer wenn Sie erneut klicken, wird erneut ein Bild generiert. Aber dieses Mal wird es aufgrund der Natur des Samens anders sein anders Wir haben hier Saatgut, randomisiertes Dokument, randomisierte Lösung. Wenn Sie es reparieren, wird es immer wieder dasselbe Bild für Sie generieren dasselbe Bild für Sie Sie müssen es nur randomisieren, wenn Sie jedes Mal andere Ergebnisse erzielen möchten 5. Grundlegende Workflows und das Verständnis des Knotensystems in ComfyUI erstellen: Kehren Sie zur leeren Leinwand zurück und klicken Sie jetzt einfach auf Löschen Okay. Und jetzt haben wir wieder eine leere Leinwand und wissen nicht, was wir tun sollen. Sie müssen nur doppelklicken. Es öffnet sich ein Fenster oder Sie müssen nur auf Sampler klicken, oder Sie müssen hier nach K-Sampler suchen Komm und hol dir den UI-Code. Sie klicken darauf und es wurde ein Knoten generiert. Jetzt können Sie sehen, dass es eine Art Gehirn ist, oder Sie können sehen, dass es eine Art Herz eines CompuI-Knotensystems ist Art Herz eines CompuI-Knotensystems Sie müssen nur ein Modell generieren, Bild laden doppelklicken und dann auf Lod Checkpoint Es wird wie ein Modell funktionieren. Sie müssen nur auf das Modellmenü klicken. Es wird eine Verbindung zum Modell hergestellt. Jetzt müssen Sie erneut doppelklicken, Clip-Encoder. Dies wird der Text sein, der unserer Benutzeroberfläche hinzugefügt werden soll. Doppelklicken Sie erneut. Oder Sie können einfach C und V drücken, es einfügen, es hier herausbringen oder Sie können es an eine beliebige Stelle auf der Leinwand bringen. Es liegt einfach an Ihnen, ob Sie den Zustand ändern Klicken Sie auf Verbinden Sie es mit dem negativen Menü. Wenn du die Größe eines Knotens ändern möchtest, musst du ihn nur so ziehen Und wenn Sie ihn löschen möchten, klicken Sie mit der rechten Maustaste auf Verschieben Wenn Sie versehentlich Ihren Knoten löschen, müssen Sie nur das Set kontrollieren Ich werde wiederkommen. Und jetzt gibt es eine andere Möglichkeit, einen Knoten hinzuzufügen. Sie müssen nur mit der rechten Maustaste auf Node-Sampling-Sampler hinzufügen klicken Node-Sampling-Sampler hinzufügen Sie müssen nur in dieser Vielzahl von Knoten suchen. Oder wenn Sie eine andere Methode hinzufügen möchten, dies ist meine Lieblingsmethode oder es ist wirklich einfach, sie hinzuzufügen, müssen Sie diesen Knoten nur herausziehen und auf der leeren Leinwand loslassen. Es zeigt Ihnen die Option, welchen Knoten Sie mit diesem Knotensystem verbinden möchten. Sie müssen hier also nur ein ampitlatentes Bild hinzufügen. Es wird automatisch für Sie verbunden und es wird ein weiterer Knoten für Sie hinzugefügt unser Herz betrifft, so hatten wir bereits Was unser Herz betrifft, so hatten wir bereits ein Gehirn, das handelt, was wir Checkpoint oder Modell nennen, und Blut-Hirn-Augen, die unsere Maschine unseren Text durchschaut, und es ist ein latentes Bild Später werden wir es als Referenzbild verwenden oder wir können ein Referenzbild hinzufügen, um unserem Prompt oder K-Sampler zu verstehen, welche Art von Bildern wir möchten oder welche Art von Referenzbildern wir mit Checkpoint verbinden möchten, um uns das gewünschte Ergebnis zu liefern. Im Moment haben wir also auf der anderen Seite von Ks Empler ein Latein, ziehen Sie es heraus und Sie können sehen, ziehen Sie es heraus und Sie können sehen Es gibt eine weitere Ausgabe für die VAE-Dekodierung. Lassen Sie uns zunächst diesen Sampler minimieren. Sie müssen nur auf diesen Punkt klicken und er wird automatisch minimiert oder er sein Fenster automatisch Oder wenn Sie ihn wieder öffnen möchten, müssen Sie nur erneut auf Punkt klicken, diesmal haben wir ein anderes Bild, es wird also ein Vorschaubild sein Also dieses Mal werden wir hier ein Vorschaubild sehen. Fügen wir also ein Vorschaubild hinzu, dasselbe Vorschaubild. Im Moment ist es also ein vollständiger Workflow. Sie müssen nur Text hinzufügen. Mal sehen, ob wir ein Bild bekommen können. Machen wir es zu Portal und OT. Für das positive Produkt habe ich Portal und für das negative Wasserzeichen hinzugefügt und für das negative Wasserzeichen Lassen Sie uns Q auffordern. Lassen Sie uns sehen, ob wir hier eine Anfrage haben. Es ist wichtig, dass Sie verstehen, ob wir ein Problem in unserem Workflow haben. Die CUI erkennt dieses , ob wir ein Problem in unserem Workflow Problem automatisch und teilt Ihnen dass wir einen weiteren Knoten hinzufügen müssen , um den Workflow abzuschließen Oder wenn es ein Problem gibt, wird es Ihnen sofort sagen, was das Problem ist Sie müssen also nur lesen, was das Problem ist , und dieses Problem beheben Prompte Ausgabe fallen sehr ordentlicher Clip-Encoder aus. Also müssen wir einen Clip-Text-Encoder hinzufügen , die erforderliche Eingabe fehlt Also jetzt musst du hier die Farbe überprüfen. Wir haben hier eine VAE-Farbe, die mit der VAE-Dekodierung übereinstimmt, und alle Knoten, die gerade andere Farben haben, werden grau Also müssen wir es mit dem VAE-Encoder verbinden und schon wieder, das Problem, mit dem wir hier gerade konfrontiert waren, ich habe ein Problem hier behoben und ein anderes Problem ist Wir haben also zwei Probleme, bei denen Eingaben fehlen müssen. Klammer. Also müssen wir den Clip überprüfen und prüfen, wo er hinzugefügt wird und er wird hier sein. Und hier. Also lassen Sie uns zuerst noch einmal fragen. Herzlichen Glückwunsch an alle. Jetzt haben Sie Master Tap, um die Größe dieses Bildes zu ändern 210-24-1024. Eine Aufforderung. Lassen Sie uns darauf klicken und es herausziehen. Jetzt können Sie die Klarheit dieses Bildes erkennen Es hat eine Größe von 1024 Pixeln bis 1024 Pixeln, was quadratisch ist, und Sie können es jetzt in sozialen Medien veröffentlichen. Es ist ein vollständiger Workflow, den Sie gerade generiert haben. Drücken Sie die Strg-Taste und halten Sie sie gedrückt, indem Sie mit der linken Maustaste klicken und sie auf die Leinwand ziehen. Sie können hier alle Knoten auswählen oder sie löschen. Im Moment werde ich es nicht löschen, indem ich nach oben und unten scrolle oder auf die Scroll-Schaltfläche klicke Sie können die Leinwand nach Ihren Wünschen ziehen. Sie müssen nur auf Control-Click, Control-Klick , Control-Click, Control-Klick klicken. Die Oberfläche ist wirklich, wirklich einfach. Und wenn Sie wissen, wie man ein einfaches Photoshop benutzt, können Sie verstehen, wie wir den Knoten verwenden können. Oder anders, wenn Sie Photoshop noch nie benutzt haben, wird es kein Problem geben, denn Ihr Freund hier wird Ihnen alles über Compi erzählen Du musst also nirgendwo anders hingehen. Du musst dir nur den Kurs ansehen. Und noch eine Anfrage, bitte poste mir dein erstes Projektbild. Ich weiß, dass du sehr kreativ bist, und ich möchte, dass du ein erstes Bild generierst, das allererste Bild, das du mit CFI generiert hast, und es auf Project oder, wenn du es direkt mit mir teilen möchtest , auch dort postest direkt mit mir teilen möchtest , auch dort Es wird mich motivieren, mehr Videos für Sie zu machen. Lassen Sie uns jetzt Lion generieren. Baby, süßes Löwe. Süßer Abschlussball. Mal sehen, was wir hier haben. Hier ist eine löwensüße Linie, die wir hier generiert haben. Drücken Sie die Taste Control, wählen Sie diese drei Knoten aus, Control PlusCopy und Control plus Sift plus V fügen Sie Wo auch immer der Cursor hingegangen ist, er wird automatisch hier eingefügt, und die Knoten verbinden ihn automatisch Wenn Sie nur Strg und V ohne SIFT drücken , werden Ihre Notizen eingefügt Die drei Knoten, die wir ausgewählt haben , werden ohne Verbindung eingefügt Warum wir das getan haben, werden Sie besser verstehen, wenn wir CPI verwenden 6. Bequeme Ui-Schnittstelle und Gruppengenerierung: Wenn Sie sie nun verschieben möchten, können Sie sie verschieben, indem Sie die Sift-Taste drücken, und Sie können sie als Gruppe verschieben Jetzt können Sie sie als Gruppe erstellen auch auswählen, indem Sie die Strg-Taste drücken, Ihren Knoten auswählen und mit der rechten Maustaste auf eine beliebige Stelle auf der Leinwand klicken . Das ist für die Chrome-Nutzer wirklich irritierend Wenn Sie nicht möchten, dass dieses Ding jedem Klick angezeigt wird, sollten Sie den Standardbrowser Ihres Browsers verwenden, dem es sich um unseren Internet Explorer oder Microsoft Explorer handelt also mit der rechten Maustaste darauf klicken, müssen Sie eine Gruppe hinzufügen. Gruppenname, Beispiel für Gruppe A. Jetzt haben Sie hier eine Gruppe erstellt. Wie Sie sehen können, habe ich hier eine Gruppe erstellt. Wenn Sie nun die Gruppe verschieben, alle Knoten innerhalb der Gruppe werden alle Knoten innerhalb der Gruppe zusammen mit der Gruppe platziert. Sie müssen sie jetzt also nicht einzeln verschieben. Kommen wir nun zu einem anderen Teil. Jetzt fügen wir hier ein latentes Bild hinzu, so wie wir ein leeres latentes Bild für den Fall Empler hinzugefügt haben , den wir Für diesen Fall benötigen wir ein latentes Bild, und das latente Bild wird sein, lassen Sie uns hier doppelklicken und ein latentes Bild hinzufügen, hochskalieren, latent vergrößern, es hier hinzufügen, und jetzt fügen wir diese Skala hier hinzu und dann hier und Jetzt haben wir hier ein hochskaliertes latentes Bild hinzugefügt, und jetzt werden wir es hochskalieren, und wir werden es bis auf 1024 bis Das ist okay. Und eine letzte Sache, die wir noch hinzufügen müssen, ist, das Rauschen auf 0,2 zu reduzieren , denn jedes Mal, wenn es unser Bild hochskaliert , erzeugt es eine weitere Variation für uns in diesem Bild, aber wir wollen nicht, dass das passiert Also müssen wir hier einfach die Rauschunterbrechung reduzieren, um das erste Bild zu erzeugen. wenn wir unser Bild hochskalieren, wird es unser Bild nicht wesentlich verändern Nur ein kleiner Zweig reicht für uns, nachdem wir die Rauschunterbrechung reduziert Versuchen Sie jetzt erneut, unsere Aufforderung hier in die Warteschlange zu stellen. Nach der ersten Generation arbeitet es jetzt unserem Bild auf unserem latenten Bild Vergleichen wir beide Bilder , die wir mit Jagannautbn safenu generiert haben mit Jagannautbn safenu , als C 1.5. Okay. 7. Knoten als Vorlage speichern: Sie möchten diesen Knoten als Vorlage speichern. Sie müssen diesen Knoten nur auswählen, indem Sie die Strg-Taste drücken und ihn auswählen. Klicken Sie mit der rechten Maustaste, klicken Sie mit der rechten Maustaste auf die Leinwand. Sie müssen Speichern auswählen und es als Vorlagenname, Bild und Maßstab auswählen. Und jetzt möchten Sie diese Vorlage verwenden, Sie müssen nur noch mit der rechten Maustaste klicken und zu Node Template Image Scale wechseln . Wir haben es beendet. Das hier ist unsere Vorlage. 8. Canvas-Benutzeroberfläche ändern: Wie Sie sehen können, haben wir hier keinen Platz mehr und wie wir unsere Leinwand bewegen können. Sie müssen nur die Leertaste gedrückt halten und Ihren Curson bewegen. Jetzt können Sie Ihre Leinwand an eine beliebige Stelle bewegen, Leertaste belassen und unser Cursor funktioniert automatisch wie gewohnt Jetzt drücken Sie die Leertaste, Leertaste gedrückt, und jetzt können Sie sehen, dass es sich um eine wirklich einfache Oberfläche handelt , die Sie erlernen können. Sie müssen also kein Leerzeichen suchen , wenn Ihre Leinwand voller Notizen ist. Sie drücken einfach, um die Leertaste gedrückt zu halten. Ja, ps. Sie können sehen, dass es wirklich unordentlich aussieht, also müssen Sie nur auf diese Einstellung hier klicken, Sie können Ihren dunklen Modus in den hellen Modus ändern Und du kannst die Aufmerksamkeit bei der Bearbeitung ändern. Sie können den Modus „Ziehen“ und „ Freihandrendern“ auf „Linear“ oder „ Spiralförmig“ ändern und dann auf „Gerade“ wechseln. Jetzt können Sie sehen, dass alle Linien auf Status geändert wurden, und es sieht wirklich gut und benutzerfreundlich aus. Milchweiß, man sieht, es sieht sehr gut aus. 9. Comfy UI-Manager: Lassen Sie uns über Comp UR Manager sprechen. Wann immer Sie CompUR in der vorherigen Version installieren, gibt es hier keinen Manager, der automatisch installiert wird Sie müssen es vorher manuell installieren. Jetzt wird bei allen kommenden Updates in der neuesten Version von CompuI automatisch ein Compi-Manager für Sie installiert ein Compi-Manager für Sie neuesten Version von CompuI Sie müssen also Manager auswählen und Sie können innerhalb von CompuI sehen, welchen Node und welchen Node wir an- und abwählen wollen oder in welchem Node wir an- und abwählen wollen oder in welchem Node wir automatisch installieren wollen Es wird Ihnen helfen, alle Knoten hier zu verwalten. Immer wenn Sie einen Workflow installieren oder verwenden, wird ein rosafarbener Knoten angezeigt, was bedeutet, dass der Knoten nicht verfügbar ist oder Knoten nicht in Ihrem System installiert ist. Sie müssen sie mit dem Manager installieren, und wie Sie ihn installieren können, Sie müssen lediglich fehlende benutzerdefinierte Knoten installieren. klicken hier und es werden Ihnen alle Ergebnisse angezeigt , die in der anderen Farbe oder in dieser hellrosa Farbe auf der MPIUI-Leinwand Und alle Knoten, die nicht installiert sind, werden hier angezeigt, und Sie müssen sie auswählen und manuell installieren, oder es wird Ihnen angezeigt, dass Sie alle Knoten hier oder hier irgendwo im Fenster installieren müssen, Sie müssen sie installieren, indem Sie alle Knoten hier auswählen Und wenn es einen Workflow gibt, Sie in Ihrer CopiUI installiert haben, Knoten fehlen und die fehlenden Knoten hier nicht erschienen sind, dann müssen Sie diesen Knoten auf Github oder der Hugging Pace-Website finden . Wie ich Ihnen bereits gesagt habe, wird jedes Mal, wenn Sie versuchen, eine Eingabeaufforderung in die Warteschlange zu stellen, eine Fehlermeldung angezeigt, und Sie müssen diese Nachricht kopieren und in Google einfügen, damit Google versucht, Sie zu diesem fehlenden Knoten weiterzuleiten Sobald Sie die Erfahrung mit der Installation des ersten Knotens gesammelt haben, werden Sie automatisch verstehen, wie Sie andere Knoten installieren , die in der CPU nicht verfügbar sind. Oder wir können sagen, dies sind Erweiterungen, die Sie in der CPUI installieren müssen In den kommenden Vorlesungen werde ich sie vorstellen. Nach der Installation der Knoten , die in der CPUI fehlen, müssen Sie Ihre CPI neu starten, und das ist sehr einfach Im Bereich Manager müssen Sie Ihre CPUI neu starten, das ist alles, und das neue Fenster Kommen wir nun zu einem anderen Teil. 10. Installieren von Custome Node: Kommen wir zu einem anderen Teil, wählen Sie Manager und installieren Sie den benutzerdefinierten Knoten Und Sie werden sehen, dass innerhalb der CFUI Tausende von Knoten verfügbar sind Derzeit sind innerhalb der CFUI 1404 benutzerdefinierte Notizen verfügbar Lassen Sie uns versuchen, einen der Knoten zu installieren, versuchen Sie ihn zu installieren und ein Neustart ist erforderlich, und Sie müssen das CompuI einfach neu starten Und wenn Sie mehr als eine Notiz installieren möchten , klicken Sie hier auf Ihren Knoten Sie wählen sie einfach aus und installieren sie sofort und starten 11. Workflow in der bequemen Benutzeroberfläche: Sie können hier Ihre benutzerdefinierten Farben ändern Klicken Sie mit der rechten Maustaste auf die Farben im engeren Modus und geben Sie ihnen die richtige Farbe Und Sie können sehen, dass die Farbe hier hervorgehoben wurde. Sie können Ihre eigene Farbe angeben. Geben wir ihm eine grüne Farbe. Sie können hier die Form in Bezug auf Box, Standard, Karte, Standardfarben und benutzerdefinierte Farben ändern Karte, . Sie können eine beliebige Farbe auswählen. Hallo. Diese rosafarbene Farbe erscheint immer dann, wenn ein Knoten fehlt, wenn Sie versuchen, einen Workflow zu installieren oder zu verwenden, der von einer anderen Person erstellt wurde. Klicken Sie auf Farben Alles klar Farben helfen mir zu erkennen, wo ich grüne Farbe in unseren Textbesen eingeben muss und sie helfen mir, zu unterscheiden, meinen Arbeitsablauf zu beschleunigen, wo ich meine Notizen finde wie ich meine Notizen unterscheiden Weil das momentan wirklich, wirklich einfache Notizen sind momentan wirklich, wirklich einfache Notizen Und wann immer wir eine Gruppe von Notizen haben, müssen wir sie als Gruppe und auch als Farben identifizieren Das wird dir bei deinen zukünftigen Projekten helfen. Wenn du eine Radimi-Vorlage von einem anderen Creator verwenden möchtest, findest du sie bei Open AirT oder bei Cit Sie müssen nur einen ausgewählten Workflow laden , der von anderen Personen gespeichert wurde, und Sie können ihn verwenden, indem Sie Öffnen auswählen und erstellen Dies ist ein Workflow, von dem Sie sehen können, dass er von einer anderen Person erstellt wurde, und Sie können ihn verwenden und Sie können diesen Workflow für sich selbst verwenden . 12. Kürzliches Update in der bequemen Benutzeroberfläche: Es gibt ein aktuelles Update in der Comp-Benutzeroberfläche. Es wird Sie regelmäßig auf dem Laufenden halten. Und es gibt ein Navigationsmenü, das Sie hier sehen können. Sie können es vergrößern, verkleinern, die Ansicht zurücksetzen, Bereich auswählen und die gesamte Link-Sichtbarkeit anzeigen, um Ihr Knotensystem zu entfernen Hier gibt es ein kleines Update, sodass wir uns um nichts kümmern müssen Ich muss dir nur die Updates zeigen. 13. Lade-Checkpunkte und Triggerwörter: Gehen wir also zu civitai.com. Es ist wichtig zu wissen, dass die Nutzung dieser Website für Sie tatsächlich sicher ist Und wann immer Sie diese Website öffnen, werden Sie viele Bilder mit Check Point, Laura, mit Voreinstellungen sehen mit Check Point, Laura, mit Voreinstellungen Es gibt so viele voreingestellte Laura und Checkpoints sind auf der CiviTI-Website verfügbar Süß wie ich es hier sehen kann, und in der Mitte des Bildes ist eine Aufforderung zu sehen, ein kleiner Asteroid läuft auf einen riesigen Wildbändiger zu Sie bringen TD dazu, ihr Q zu rendern. Nun, das ist eine Aufforderung , die jemand gegeben und auf die Website hochgeladen hat. Okay, jetzt haben wir einen Workflow. Welche Art von Notizen sie haben, welche Art von Anleitung sie verwendet haben, welche Art von wie vielen Schritten sie verwendet haben, auch Sampler- und STS-Informationen Um genau das gleiche Ergebnis zu erhalten, benötigen Sie all diese Informationen für die CFUI Lassen Sie uns zunächst verstehen, was Workflow ist. Das ist unser Arbeitsablauf. Alle Informationen, wie ich Ihnen gesagt habe, Lip Amping K Sampler, Gehirn, VAE-Decodierung und Bildprobe Das ist unser Checkpoint, Dream Shape, SD 1.5 und Flux, viele Checkpoints hier, und ich werde einen neuen Checkpoint aktualisieren, falls ihr hier eine rote Markierung gesehen habt, so wie wir eine Q-Eingabeaufforderung haben, und ihr könnt die grüne Markierung hier sehen Und diese Verstärkungsmarke wird zu diesem und diesem und diesem und dem und dem und das, und das Bild wird hier und das Bild wird Immer wenn Sie eine rote oder rosafarbene Markierung sehen, besteht die Möglichkeit dass der Checkpoint nicht verfügbar ist Möglicherweise hat CovUI einen Fehler behoben, und Sie müssen diesen Fehler beheben . Wechseln wir zu Dave Flux, Safe Tensor, Wie Sie sehen können, roter Punkt, rosa Linie, und es wurde bereits ein Fehler ausgewählt , dass wir unseren Fehler in unserem Arbeitsablauf haben Und wir müssen diesen Fehler beheben. Lassen Sie uns wechseln, um CheckPoint erneut zu laden. Und ich werde einen weiteren Checkpoint CofiUI Wildcard Fantasy Extreme Sd Excel, Checkpoint Wildcard Fantasy herunterladen einen weiteren Checkpoint CofiUI Wildcard Fantasy Extreme Sd Excel, Checkpoint Wildcard Fantasy . Wir haben Laura, Extreme Detail Laura und einen Checkpoint hier. Hier ist der Checkpoint. Ich habe das Bild geöffnet und versucht, den Checkpoint in unserem Workflow zu verwenden Wie Sie sehen können, steckt in diesem Checkpoint Fantasy-Kunst. Wenn Sie jedoch einen anderen Checkpoint nach Ihren Wünschen herunterladen möchten , finden Sie ihn hier: Modelle, Checkpoints Fantasy Wizard, das heißt, lassen Sie uns diesen Checkpoint öffnen Es ist tatsächlich ein A und es hat das Basismodell Flux eins D, und ich suche nach SDSL mit der höchsten Bewertung Sie müssen nach den am besten bewerteten oder am häufigsten heruntergeladenen Dateien suchen , da diese sicher heruntergeladen werden können und stabiler Gehen wir zur Liste mit der höchsten Bewertung oder den meisten herunterladbaren Dateien über. Wählen Sie SDSL 1.5 Checkpoint mit der höchsten Bewertung 1.5 Lassen Sie uns es herausfiltern. Nach Kategorie filtern. Kommen wir zu den Bekleidungsobjekten von Vical. Es liegt an dir Lass uns das herunterladen, Laura, Checkpoint. Und das musst du im CopuiFolder herunterladen. Gehen Sie zu dem Ordner, in den Sie die CPUIOpen CompuI-Modelle heruntergeladen haben CPUIOpen CompuI-Modelle , Laura Animate Checkpoint. Und den CPI Model Checkpoint , den Sie hier heruntergeladen haben. Es wird es für Sie herunterladen, und alle Checkpoints haben unterschiedliche Größen wie fünf GV, sechs GV und es sind ungefähr Und eines sollten Sie sich merken Es hat ein ausgelöstes Wort, das Sie Ihrem Arbeitsablauf im Textbereich hinzufügen sollten Kopieren Sie diese Informationen und lassen Sie uns versuchen, eine CUI-Hundeformation zu erstellen Okay, also wir werden diese Informationen verwenden. Sie erhalten diesen Link in Ihrer Videobeschreibung. Lass uns all diese Informationen kopieren. 14. Lerne einige Begriffe in der Tiefe kennen: Die Informationen, die wir kopiert haben , und der Checkpoint bereits in den Ordner heruntergeladen, wie wir es im Cf-UI-Modell und im CheckPoint-Ordner angegeben haben Cf-UI-Modell und im CheckPoint-Ordner Gehen wir nun zu unserem Cf-UI-Fenster und aktualisieren es. Lassen Sie uns jetzt nachschauen. Hier ist eine weitere Checkpoint-Ladung. Sie können es jetzt sehen, auswählen, die Informationen kopieren und kopieren, und das sind die Triggerwörter, die Ihrer CUI-Software oder Ihrem maschinellen Lernen helfen, zu verstehen, dass dieser Checkpoint diese Ihrer CUI-Software oder Ihrem maschinellen Lernen helfen, zu verstehen, dass speziellen Informationen hatte und dass Sie diese speziellen Informationen laden müssen, indem Sie diesen Textball verwenden Iron Man. Poster gegen Batman Ich hoffe, das wird etwas Tolles hervorbringen. Mm. Und lass uns die Dimension ändern. Und wieder Schritt 40. Noch eine einzelne Zahl, die Sie erneut eingeben. Okay, es ist also tatsächlich Iron Man zu kreieren, ein Filmplakat, und nicht gegen Batman zu kämpfen, sondern Ironman gemischt mit Batman Es ist irgendwie so, lass uns das Bild benutzen. Lassen Sie uns diese Aufforderung direkt in unserem Bild sehen und diese negative Aufforderung in unserem Negativ verwenden. Schritt 99 und in der negativen Eingabeaufforderung. Im Negativen im Positiven und Schritt, den wir gegeben haben, ist 99 Generieren Sie jetzt, Q Prompt. Es kommt irgendwohin, nicht zu 100% so, aber ja, es kommt irgendwohin. Ich hoffe, du verstehst, wie dieser Ladekontrollpunkt funktioniert. Ich lade es einfach als Ladekontrollpunkt herunter. Jeder Checkpoint, ich habe ihn heruntergeladen, lege ihn in diesen Ordner, wie ich es angegeben habe Fügen Sie positive Eingaben, Eingabeaufforderung, negative Eingabeaufforderung und ein aufmerksames Bild hinzu, wie wir es in den vorherigen Vorlesungen besprochen haben Es gibt einen K-Sampler und ein VA- und Speicherbild Dies ist ein Basismodell, das CPUI bereits standardmäßig hat In der kommenden Vorlesung werden wir unseren Horizont erweitern und sehen, wie all diese Dinge nacheinander funktionieren Im Moment haben wir nachgesehen oder gerade haben wir die Ladung am Checkpoint Es ist wichtig, dass Sie die Website civiti.com besuchen und überprüfen, ob diese Anzeigen unterschiedlich funktionieren und welche Art von Abschlussball sie verwenden, um den Ladekontrollpunkt zu identifizieren Welche Art von Tigger-Wort sie verwenden, erstellen Sie ein Dokument, damit Sie sich nicht verirren Nächstes Mal wirst du Tiggerd Word oder Abschlussball verwenden, und du musst dieses innere Dokument für deine zukünftige Afferenz gespeichert haben dieses innere Dokument für deine Und glauben Sie mir, es wird Ihnen helfen dieses zu mögen. Lassen Sie uns es noch einmal öffnen, und sie haben das Flux Dave-Modell, Luminous Shadow Scape Neon Retro Wave von Crononit, verwendet Luminous Shadow Scape Neon Retro Wir werden diese Art von Bildern verwenden und diese Art von Bildern für Fortgeschrittene in unseren kommenden Vorlesungen generieren Fortgeschrittene in unseren kommenden Vorlesungen 15. Ksampler SEED: In der letzten Folge haben wir also so viele Dinge gelernt, in denen wir ein Bild erstellt und voreingestellt haben ein Bild erstellt und Und im vorherigen Abschnitt haben wir etwas über Load Checkpoint, Clip Encoder, Text Encoder, Ampit Latent Image, Sampler gelernt Clip Encoder, Text Encoder, Ampit Latent Image, . Laden Sie das Ampity Latent Image und erstellen Sie ein Bild, das für uns sichtbar ist, und der Case Sampler ist hier das und Der Case Ampler kocht also alles zusammen und zeigt uns ein sichtbares Bild. Und es wird für uns nach der AE-Decodierung sichtbar sein. Im Fall Ampler haben wir hier Samen. Dies ist Seed, und Seed ist der Wert. In diesem Fall verwendet Sampler den Startpunkt und den Endpunkt der Generierung des Bildes vom Load-Checkpoint oder Wenn wir den Ausgangswert unverändert lassen, wenn wir den Ausgangswert unverändert lassen, wird jedes Mal, wenn wir den Wert des Ausgangswerts ändern, immer das gleiche Ergebnis erzeugt , wenn wir den Wert des Ausgangswerts ändern, wird ein anderes Bild erzeugt Jedes Mal, wenn wir den Wert des Samens ändern. Sie können den Startwert nach dem Zufallsprinzip randomisieren, indem Sie nach dem Generieren des Zufallsgenerators eine feste Erhöhung oder Verringerung festlegen. Es gibt nur wenige Optionen, die Sie im Bedienfeld für den Startwert sehen können Bedienfeld für den Startwert Der Mindestwert des Startwerts ist Null und der große Wert ist sehr groß. Mit diesem großen Wert können Sie unendlich viele Bilder mit demselben Modell oder derselben Eingabeaufforderung und denselben Zutaten erzeugen . Kann die Startnummer zur Erhöhung senden. Immer wenn du zum Ball gehst, wird ein Bild erzeugt, und es vergrößert sich um 16. Warteschlangen-Aufforderung erkunden: Sie können mehrere Q angeben, genauso wie Sie dem Drucker mehrere Befehle geben. Sie können Q auch mehrere Befehle geben. Wenn ich darauf klicke, eins, zwei, drei Ich habe ihm dreimal gesagt, dass er etwas erschaffen soll. Es wurde dreimal generiert. Wie Sie sehen können, wurden drei Bilder für mich generiert. Wenn Sie einen Job stornieren möchten, können Sie VQ sehen Der gesamte Prozess läuft oder steht noch aus Klicken Sie einfach auf Que-Aufforderung und Sie können ihn abbrechen, indem Sie auf die Schaltfläche Abbrechen klicken und Sie können dieses Fenster wieder schließen Sie können die zusätzlichen Optionen hier sehen. Sobald Sie AutoQE überprüft und darauf geklickt haben, werden automatisch Bilder für Sie generiert Und es wird nicht aufhören, bis Sie es beenden. Wir haben hier eine Erlassnummer. Wenn Sie ein Bild generieren, wird es um eins reduziert Wenn Sie es nach dem Zufallsprinzip sortieren, wird es eine Zufallszahl für Sie generieren, und die Wahrscheinlichkeit , dasselbe Bild zu erhalten, ist aufgrund des großen Unterschieds in der Zahl tatsächlich sehr, sehr gering Lassen Sie uns nun den Startwert auf Abb. belassen und erneut generieren. Wenn Sie nun nach dem Fixieren des Startwerts die Warteschlange einschalten, wird jedes Mal, wenn wir darauf klicken, dasselbe Bild generiert. Lassen Sie uns nun eine Eingabeaufforderung ändern. Violett Ich habe Violett auf Rot geändert. Jetzt wollen wir mal sehen. Jetzt hat es eine rote Galaxie erzeugt. Es hat irgendwie versucht, jedes Mal, wenn wir auf den Q-Abschlussball klicken, dasselbe Bild zu erstellen Mal, wenn wir auf den Q-Abschlussball klicken weil wir dieselbe Startnummer haben. Wenn wir versuchen, den Abschlussball zu ändern, wird er versuchen, dasselbe Bild zu erstellen. Jedes Mal, wenn wir versuchen, den Text hinzuzufügen, aber jeder Text hat einen anderen Wert in der Computersprache, oder wir können sagen, dass jedes Wort eine andere Gewichtung hat , sodass ein entsprechendes Bild entsteht Aber irgendwie wird es versuchen, jedes Mal dasselbe Bild zu erzeugen , wenn wir versuchen, den Schritt auf 19 oder 20 oder Aga-Wert zu ändern , wird es ein anderes Bild erzeugen Schritt auf 19 oder 20 oder Aga-Wert zu ändern , Lassen Sie uns erneut generieren. Sie können sehen, dass es einen Unterschied in den Schritten gibt. Machen wir 30 Schritte daraus. Es wird versuchen, die Bilder auf etwas Ähnliches zu ändern, aber Sie können sehen, dass hier ein Farbunterschied besteht. Es gibt immer eine subtile Variation im Ausgang 17. Auswirkungen von Schritten im Ergebnis: Behalte es im Hinterkopf. Je länger der Schritt, desto länger dauert das Bild je nach Schritt. Machen wir es in fünf Schritten. Eine Aufforderung. Sie können das Timing hier sehen, es dauert nur Sekunden oder 1 Sekunde. 18. Addign-Effekt zur Abbildung eines CFG-Klassifikators kostenlose Anleitung: Muss nach dem CFG-Wert suchen. Wenn Sie den CFG-Wert auf eins ändern, gefallen Ihnen die Ergebnisse möglicherweise nicht Wenn Sie den Wert auf zehn ändern, gefällt Ihnen das Ergebnis vielleicht etwas besser Der CFG-Wert steht jedoch nicht in direktem Zusammenhang mit dem Kontrast Wie Sie sehen können, ändert sich der Kontrast in beiden Bildern. Sie müssen jedoch nach dem CFG-Wert suchen , bei dem das Bild bequem für Sie erstellt wird Wenn Sie den CFG-Wert auf 15 erhöhen, schauen wir mal, was ich bekommen werde , da sich der Kontrastwert des CFGs ändert CFG verändert den Kontrast des Bildes nicht direkt. Ich gebe den Effekt tatsächlich dem Bild, in dem der Kontrast bereits zum Vorschein gekommen ist Die vollständige Form von CFG ist also eine Anleitung ohne Klassifikatoren. Wenn der CFG-Wert also niedrig ist, hat das Modell die Freiheit, Bilder entsprechend dem Ladepunkt oder a zu erzeugen . Es hat seine eigene Freiheit, Bilder nach dem Zufallsprinzip zu erzeugen Der CFG-Wert ist hoch. Das Modell hält sich an die Aufforderung, die wir gegeben haben, und versucht, strikt zu erstellen oder sich strikt an die Regel zu halten 19. So ändert man alle Werte in Ksampler mit Primitive Node automatisch: Sie klicken mit der rechten Maustaste auf den Case Sampler, er hat viele Optionen und Sie müssen überprüfen, ob der Konvertierungsvorgang zur Eingabe Hier gibt es viele Optionen, wie C zur Eingabe, Steuerung nach Generierung, Schritt Lassen Sie uns versuchen, CFG in einen Eingabewert umzuwandeln. Sie können sehen, dass die CFG gerade nicht da ist und ihre Position auf den Eingabewert von CFG geändert wurde ihre Position auf den Eingabewert von Lassen Sie uns diesen Knoten herausziehen und versuchen, hier einen Knoten hinzuzufügen, und er hat viele Suchen wir nach Primitiv. Und mit diesem primitiven Knoten können Sie dem CFG-Wert einen Mehrwert hinzufügen Sie können genau wie beim Startwert sehen, Sie können hier das Steuerelement nach dem Inkrement ändern Sie Q ein und der CFG-Wert wird automatisch erhöht Genau wie bei SD können wir hier den CFG-Wert nach Belieben steuern Dies hilft Ihnen bei größeren Arbeitsabläufen , in denen Sie Prompt mit verschiedenen Sets experimentieren möchten Wenn Sie die Einstellungen der einzelnen Werte bei jeder Generierung des Bilds ändern möchten einzelnen Werte bei jeder und wenn Sie nicht das gewünschte Ergebnis erzielen, müssen Sie die Einstellungen jeder Option manuell ändern, und wenn Sie faul sind, die Einstellungen von allem zu ändern, können Sie diesen Knotentyp verwenden, der die Einstellung automatisch für Sie ändert. Lassen Sie uns unseren Fallbeispielen wieder dahin bringen, wo er war. Jetzt müssen wir die Option auswählen, Eingabe in ein Widget konvertieren und wir haben hier nur eine Eingabe. Klicken wir und CFG kehrt an seinen ursprünglichen Platz zurück. Und wir haben hier einen Knoten , der ampithe ist, du kannst ihn löschen Lassen Sie uns versuchen, einen anderen umzuwandeln , nur um Ihnen eine Vorstellung zu geben, Visa in Eingaben umzuwandeln, und Sie können Mobilfunk-Entrauschung wählen , lassen Sie uns Entrauschen wählen, und Sie können die Entrauschung hier sehen und hinzufügen, versuchen Sie erneut, einen primitiven Knoten hinzuzufügen Visa in Eingaben umzuwandeln, und Sie können Mobilfunk-Entrauschung wählen, lassen Sie uns Entrauschen wählen, und Sie können die Entrauschung hier sehen und hinzufügen, versuchen Sie erneut, einen primitiven Knoten hinzuzufügen. Lassen Sie uns das konvertieren, und Sie können sehen, dass die Denoise einen primitiven Knoten sehen Lassen Sie uns nun unseren K-Sampler wieder an seinen ursprünglichen Platz konvertieren unseren K-Sampler wieder an seinen ursprünglichen und Sie können ihn löschen 20. Batch-Generierung von Bildern und Benennungen: Kann auch mit Sampler und Dular experimentieren. Die meiste Zeit verwende ich DPM PPM , also DPM plus zwei Sie müssen erläutern, was für einen bestimmten Typ eines Checkpoints oder einer Charge oder eines Presets funktioniert Checkpoints oder einer Charge oder eines und welches Modell am besten mit welcher Art von Probenehmer funktioniert? Es basiert alles auf Experimenten und Sie haben unendlich viele Optionen. Sie können überprüfen und auswählen, was für Sie am besten geeignet ist. Sie können die falsche Größe sehen und Sie können auf eins, zwei, drei klicken , und es werden ungefähr drei Bilder generiert. Lassen Sie uns von Q dazu auffordern. Und sobald alle Bilder generiert sind, wird es hier angezeigt. Lassen Sie sie generieren, sodass alle drei Bilder generiert wurden und Sie eins als drei sehen können. Das bedeutet, dass es drei Bilder sind und Sie sich die ersten Bilder ansehen. Lass uns darauf klicken. Jetzt können Sie das zweite Bild und das dritte Bild sehen. Sie können zwischen den Bildern wechseln und überprüfen, wie viele Bilder in einem Stapel generiert wurden , und müssen sich nicht dreimal in die Warteschlange stellen. Du musst nur hier klicken. Mach es nochmal eins. Wenn Sie alle Bilder auf einmal ansehen möchten, können Sie X auswählen. Jedes Bild, das Sie gleichzeitig sehen können. Sie können den Namen der Bilder ändern, da Sie sehen können, dass es ein Präfix gibt, das CofUI ist. Das bedeutet, dass im Namensbereich eine CUI oder eine Zahl zu Ihren Bildern hinzugefügt wird oder eine Zahl zu Ihren Bildern Sie können es also auf eine Flasche umstellen. Es macht mehr Sinn. Und wenn Sie alle generierten Bilder sehen möchten , können Sie nach dem Cofi-Ordner suchen Im CUI-Ordner können Sie nach der CfUI-Ausgabe suchen Wie Sie sehen können, lautet der Name Kofi UI. Bei der Generierung wird jetzt ein Portal zu Ihren Bildern hinzugefügt. So können Sie die generierten Bilder sehen. Dies sind alle Bilder, die wir bisher in diesem Kurs generiert haben. Dies sind einige qualitativ hochwertige Bilder, die ich auch für meinen Kurs generiert habe. Ich liebe diese Bilder am meisten. Deshalb habe ich für meinen Kurs Cover verwendet 21. Gruppe erstellen und alle Informationen für die Gruppe verwenden: Wählen wir nun mehrere Knoten aus. Drücken Sie die Umschalttaste, klicken Sie und Sie müssen die Umschalttaste gedrückt halten und klicken, klicken, klicken. Jetzt haben wir hier alle Knoten ausgewählt oder klicken mit der rechten Maustaste auf den Fall Empler oder einen beliebigen Knoten, und Sie können die Option „In Gruppenknoten konvertieren“ auswählen Gruppenknoten konvertieren Sobald Sie darauf geklickt haben, müssen Sie es Okay nennen. Jetzt wurden die von uns ausgewählten Knoten zu einem Knoten zusammengeführt, und Sie können sehen, dass es sich um eine Gruppe handelt, die alle Details, den Textbereich, den gesamten Sicherheitsnamen, die Breite und die Höhe enthält . Dies ist die Chargennummer, die wir verwendet haben, und es handelt sich um einen Ordner mit latenten Bildern und es handelt sich um ein Lademodell, und die Seeds- und Fallbeispieldetails wurden hier aktualisiert, Denois und Sie können die Flasche hier sehen, den festen Präfixnamen, den wir hier aktualisiert haben Und wir haben hier nicht das Speicherbild ausgewählt, aber wir können es erneut hinzufügen, Bild speichern. Ich weiß nicht, warum es entfernt wurde, aber irgendwie wurde es entfernt. Das ist also der Knoten, der generiert wurde, und Sie können ihn auswählen und zusammenführen. Aus diesem Grund habe ich das Speicherbild ausgewählt und Sie können sehen, dass wir hier jetzt einen Knoten hinzugefügt haben, und ich habe ihm den Namen Text gegeben. Jetzt können Sie den Knoten, den wir hier generiert haben , mit einem Workflow vergleichen , den wir zuvor generiert haben. Sie können es als Checkpoint markieren, es hat einen Textbereich Es hat ein latentes Bild mit einer schlechten Größe, Sie können die Details des latenten Ampithe-Bildes sehen, und es hat Details zum Fallbeispiel, SIDS-Kontrollband und VAE-Dekodierung . VAE-Dekodierung, generiert Jetzt können Sie das entfernen und hier einfügen. Jetzt gibt es hier einen Workflow und ich kann all diese Knoten löschen, ihn auswählen, die Strg-Taste drücken und den Knoten auswählen und einfach die Q-Eingabeaufforderung löschen. Endlich haben wir wieder ein Bild generiert. Mit dem neuen Gruppenknoten, wir generiert oder erstellt haben, können Sie den Gruppenknoten verwalten und auch die Reihenfolge ändern. Sobald Sie mit der rechten Maustaste auf Gruppenknoten klicken, können Sie alle Knoten, die wir hier generiert haben, in einer Gruppe sehen die wir hier generiert haben, in und Sie können die Position des Knotens, Checkpoint, Checkpointheckpoint, Checkpoint ändern und speichern Jetzt können Sie sehen, dass der Checkpoint an das Ende der Knoten verschoben wurde verschoben Es ist jetzt bequem für uns, ihn zu sehen und auszuwählen. Jetzt sieht es im Moment nicht so sperrig aus. Klicken Sie erneut mit der rechten Maustaste, um den Gruppenknoten zu verwalten. Jetzt können Sie die Sichtbarkeit des Samplers oder eines der Knoten festlegen des Samplers oder eines der Knoten Sobald Sie den K-Sampler ausgewählt haben und wir den Etular- oder Denoise nicht möchten, können Sie sehen, dass wir hier kein Denoise verwendet haben. Sobald Sie darauf klicken, speichern Sie ihn und Sie können sehen, dass die Denoise-Option Sobald Sie darauf klicken, speichern Sie ihn und Sie können sehen, sehen Es eignet sich am besten für den größeren Workflow, sobald Sie ihn erstellt haben. Wenn Sie das Gefühl haben, dass es zu viele Ablenkungen gibt, können Sie sie entfernen, und das ist am besten für Sie Und wenn Sie alle Knoten wieder haben möchten und wenn Sie die Knoten wieder sehen möchten, können Sie sie wieder in Knoten umwandeln Es sieht eigentlich überladen aus, ermöglicht es dir aber zumindest, alle Knoten zu beobachten Lass uns kontrollieren. Und ich habe das ausgewählt , löschen, löschen, löschen. Warum haben wir nicht dasselbe Bild im Gruppenbereich hinzugefügt ? Denn sobald Sie ein Bild generiert haben, gibt es hier ein Vorschaubild. Sobald Sie das Premium-Bild hier hinzugefügt haben, wird die Größe des Vorschaubilds nicht erhöht, da Sie die vergrößerte Größe hier sehen können. Jetzt habe ich die Knoten wieder an ihren ursprünglichen Platz zurückgebracht, und jetzt können Sie sehen, wie Sie die Strg-Taste drücken und alle Knoten auswählen. Kopieren und hier einfügen. Sie können sehen, dass alle Knoten jetzt kopiert wurden . Sobald Sie dazu aufgefordert werden, funktioniert der erste Workflow und danach der zweite Workflow. Sobald Sie alle Knoten ausgewählt haben, müssen Sie für den ausgewählten Knoten auf Gruppe hinzufügen klicken. Jetzt haben wir hier eine ausgewählte Gruppe, und jetzt können Sie die Position aller Knoten gleichzeitig ändern die Position aller Knoten gleichzeitig und dieser Gruppe auch einen Namen geben. Sie können mit der rechten Maustaste auf Gruppe und AddItGroup klicken. Sie können diese Gruppe benennen und ich kann die Gruppe in Bottle benennen und jetzt müssen Sie nicht mehr alle Knoten einzeln verschieben Wenn Sie die Gruppe entfernen möchten, können Sie auf Gruppe, Gruppe erstellt und Entfernen klicken . 22. Wie man Nodes in comfyui durchläuft: Doppelklicken wir nun auf Canvas und Sie können den Suchknoten sehen Wählen wir für Flasche das aus, jetzt können wir sehen, dass die Flaschengruppe im Gruppenbereich aktualisiert wurde Jetzt ist dies die Gruppe, für die wir zuvor einen Workflow generiert haben. Und jetzt haben wir gerade zwei Workflows. Einer ist Above und einer ist Blu. Lassen Sie uns jetzt fragen. Wir haben also zwei Workflows generiert, ein eigenes Bild ohne Text und es hat einwandfrei funktioniert. Und es gibt noch einen anderen Workflow , an dem wieder gearbeitet wurde. Also zwei Workflows, ein Cue, beide haben ihren Job perfekt gemacht. Nun, wenn wir wollen, dass es funktioniert, dass einer von ihnen funktioniert und einer von ihnen wird nicht funktionieren. Sie müssen lediglich Strg drücken, auswählen, rechten Maustaste auf den Gruppenbereich klicken und nach der Option Gruppenknoten umgehen suchen. Kann diesen Gruppenknoten umgehen, und jetzt ist dieser Workflow vor den Augen der Q-Eingabeaufforderung verborgen . Drücken Sie die Taste „Steuern“. Es gibt eine Tastenkombination, mit der es umgeht, wählen Sie Control M. Jetzt müssen Sie diesen Workflow ausblenden, und er wird nicht wieder funktionieren. Wie Sie sehen können, hat nur ein Workflow funktioniert. Im Gruppenbereich können Sie auswählen und steuern. Control M versteckt sie einfach oder wenn Sie sie umgehen möchten, können Sie sie umgehen, indem Sie die Bypass-Gruppe auswählen. 23. Wir kommen jetzt in den Vorabschnitt: können Singer Note auch mit demselben Verfahren aktivieren oder deaktivieren . Dies hilft Ihnen bei Ihrem größeren Arbeitsablauf. Lassen Sie uns nun die Gruppe bearbeiten, entfernen, auswählen, löschen und dann Control M auswählen . Ich habe zweimal die Strg-Taste gedrückt. Eins ist deaktiviert und ein anderes nicht. In dieser Vorlesung haben wir nun alle Grundlagen von ComfUI behandelt , sodass Sie die Arbeit mit dem Cf UI-Workflow verstehen können Jetzt werden wir qualitativ hochwertige Bilder mit unterschiedlichen Anzeigen und Voreinstellungen generieren qualitativ hochwertige Bilder mit unterschiedlichen Anzeigen und Nach diesem Vortrag wird dich alles umhauen. Wir sehen uns in der nächsten Vorlesung. Danke, dass Sie an diesem Kurs teilgenommen haben. Ich bin deine Freundin Karen. Wir sehen uns in der nächsten Vorlesung. 24. So aktualisierst du comfyUI und Workflow flies Informationen: Hallo, alle zusammen. Vielen Dank, dass Sie an diesem Kurs teilgenommen haben, dass Sie diesen Kurs besucht haben. Lassen Sie mich Ihnen eine Sache über Kofi UI sagen. Diese Kofi-Benutzeroberfläche oder dieses Knotensystem ist, glaube ich, quasi universal, denn wenn man nach Blender und auch nach DawnCRSolve sucht , dann ist DawnCrSolve eine Videobearbeitungssoftware und unser Blender ist eine Drei-D-Software und Sowohl diese Software als auch zukünftige Software , die dieses Knotensystem tatsächlich in ihrem Knotensystem anwendet , werden auch als Workflow bezeichnet. Wir werden also einen Workflow erstellen, der Flux verwendet. Lassen Sie mich Ihnen sagen, was Flux ist. Flux ist ein Modell, bei dem Bilder entsprechend Ihrem Abschlussball zusammengestellt werden und Sie das visuelle Ergebnis Ihrer Technik als Bild erhalten . Das ist in einer einfachen Sprache oder in einer für Laien verständlichen Sprache, nennt das Flux. Modell. Kontrollpunkt. Es ist nicht sehr schwierig, das zu tun. Sobald Sie das verstanden haben, können Sie Ihren eigenen Workflow erstellen . Lass mich dir eins sagen. Lassen Sie uns damit beginnen, auf den Manager zu klicken. Sobald Sie auf den Manager und dann auf Alle aktualisieren klicken. Sobald Sie alle aktualisiert haben, wird Ihr gesamtes System aktualisiert, da CompuI Open Source ist Entwickeln Sie auf der ganzen Welt, tragen Sie zu dieser Software für maschinelles Lernen bei dieser Software für maschinelles Lernen oder wir können sagen, in der Programmierung Deshalb wird sie täglich aktualisiert. Ich empfehle Ihnen daher, ab und zu Ihre CUI zu aktualisieren, um schnell die neuesten und aktualisierten Ergebnisse zu erhalten Sobald Sie es aktualisiert haben, müssen Sie einfach auf Neu starten klicken und es wird neu gestartet. Es wird erneut verbunden, und es wird erneut eine Verbindung hergestellt und ein weiterer Knoten wird Es tut uns leid, es ist kein Knoten. Es ist ein Fenster oder eine Registerkarte. Ein weiterer Tab wird geöffnet, also schließen wir ihn und warten, bis der einige Zeit in Anspruch nimmt. Wie Sie sehen können, wird alles aktualisiert. Lass uns direkt in die Zukunft springen. In der Zwischenzeit wird es aktualisiert. Lassen Sie mich den Workflow vorstellen, den ich aus dem Internet und nicht aus dem Internet generiert habe , sondern von der Person , die intelligente und geniale Menschen gemacht hat Ich respektiere sie alle, und ich habe viele Workflows heruntergeladen und in meiner Arbeit angewendet. Wie Sie sehen können, handelt es sich dabei Workflows und viele Workflows, die ich liebe. Ich liebe diese Flux- oder Comp-Anforderung von jcnflerClick Sie können sehen, dass dies ein Knotensystem sind, das Flux verwendet, und Sie können Ihr eigenes Knotensystem erstellen Oder Sie können Ihr eigenes Knotensystem speichern. 25. ComfyUI neuestes Schnittstellen-Update und Walk-Through: Lass mich dir eins sagen. Jedes Mal, wenn Sie die Comp-Benutzeroberfläche öffnen und aktualisieren sehen Sie eine neue Oberfläche, und das ist wirklich verwirrend für Sie Wie beim letzten Mal war alles unten rechts und rechts, und jetzt wurde alles geändert Aber es ist nicht so schwierig, wie Sie sehen können. Der Workflow, wie Sie sehen können, ist neu geöffnet. Wow. Es ist tatsächlich einfacher geworden, ComfUI und all diese Dinge zu verwenden Wie Sie sehen können, gibt es Q, History Q und es gibt Library Wow. Du kannst jetzt in der Konfua nach einer Bibliothek suchen in der Konfua nach einer Bibliothek Wow. Das ist wirklich aufregend. Sie können einen Knoten sehen. Okay, verstanden. Okay, okay, okay. Das sind Knoten. Ich dachte, wir könnten die Modelle hier direkt ändern, aber wir können die Knoten hier finden, Beispiel nach einem Diffusionsmodell suchen. Diffusion. Ja, kann. Und es funktioniert einwandfrei. Können wir hier suchen? Click funktioniert auch. Klicken Sie auf Okay, ja, das ist es, wovon ich spreche. Die sind alt, Wow. Können wir nach Träumen suchen? Okay. Nicht schlecht. Wir haben vier Checkpoint-Träume LV Lass uns Checkpoint sehen. Okay, Checkpoint und SDSL , ein Juggernaut, Lod Checkpoint. Haben wir Flux? Können wir Flux Checkpoint direkt verwenden? Ich weiß nicht, ob es funktionieren wird, weil ich denke, dass dies nicht der Fall ist Wir können nach dem Diffusionsmodell suchen Funktioniert es? Oh, äh, uh, das Diffusionsmodell funktioniert nicht. Okay, das Hinzufügen von Diffusion funktioniert also nicht direkt. Text-Encoder, wir können das überprüfen. Wir können nachschauen Nein, ich glaube nicht, dass es gut funktioniert, aber es funktioniert auf diese Weise, aber ich glaube nicht, dass es funktioniert. Lassen Sie uns nach einem nicht gespeicherten Workflow-Punkt suchen Okay, das ist ein nicht gespeicherter Workflow. Okay, und anspruchsvoll. Knotenkarte, gehobenes Design. Okay, das ist die Knotenkarte, und hier ist die gehobene Skala hoch Okay. Beispiel für einen benutzerdefinierten Advance-Knoten. Okay. Wie Sie sehen können, können Sie es direkt umgehen. Es ist sehr praktisch. Es ist wirklich sehr praktisch, diese Oberfläche von Cf zu verwenden , und ich habe sie wirklich geliebt. Wow. Sie können die Anzahl der Chargen überprüfen, wie wir bereits besprochen haben. Sie müssen im Grunde all diese Dinge ausprobieren um die Oberfläche der neuen CFUI zu verstehen Also lass uns nachsehen, okay, weiße Plakette. Sie können es direkt ändern. Wow. Lass mich dir eins sagen. Lassen Sie uns also an einem neuen Arbeitsablauf arbeiten, neu öffnen, speichern, exportieren, exportieren. 26. Workflow in ComfyUI-Fluss-Übersicht: Umfangreicher Arbeitsablauf. Das sind also so viele Workflows, die ich verwendet habe. Schauen wir uns also den Video-Workflow mit Bild zwei an. Lassen Sie mich überprüfen, ob das so ist. Das ist der Workflow, an dem ich schon einmal gearbeitet habe. Wie Sie sehen können, gibt es eine Aufforderung und es gibt eine Figur, die tanzt, wenn ich Ihnen das zeigen kann. Ich glaube, das ist momentan nicht geladen. Kein Problem, aber das ist nur ein Workflow für unser Video. Wir werden all diese Dinge in der kommenden Vorlesung ausführlich besprechen , also mach dir darüber keine Sorgen. Das sind also die Bilder, die ich generiert habe, und ich habe all diese Bilder verwendet, vier bis fünf Bilder, und sie generiert und verwendet, ich habe diesen wirklich, wirklich, wirklich erstaunlichen Übergangseffekt auf Bildern erzeugt wirklich erstaunlichen Übergangseffekt , wie Sie sehen können. Und sie sind von hoher Qualität. Sie können sie online veröffentlichen und aus all diesen Arbeitsabläufen ein Portfolio erstellen . Es gibt noch einen anderen Workflow, denselben Workflow, den ich bereits gezeigt habe. Aber ich habe versucht, etwas zu erstellen, aber ich habe es nicht sehr gut gefunden. Wie Sie sehen können, ist dies der, den ich liebe. Das ist nicht mein gewünschtes Ergebnis, aber ich habe es geliebt. Was ist also mit der Code-Image-Generierung, denke ich, kopieren? Okay, es ist wirklich erstaunlich, dass wir mit diesem Stecker alles machen können. Lassen Sie mich also zuerst eine Frage bevor ich weiß, dass einer der Knoten durch einen anderen ersetzt wurde, und wir müssen das beheben, falls das passieren sollte. Also haben wir zwei Lets Q und ich hoffe, dass es gut funktioniert. Ich springe einfach direkt in die Zukunft, damit du nicht auf all diese Prozentsätze warten musst. Ich springe einfach in die Zukunft, weil wir die Macht der Lebenskraft haben. Das ist ein Abschlussball, der bereits implantiert wurde. Visa-Berggipfel runter mit Lord Gansia. Lord Gansa und Lord Shiva, ich hoffe, ihr wisst es. Wenn Sie außerhalb Indiens sind, Sie es wahrscheinlich nicht Lord Shiva und Lord Ganesh respektieren Gott in der hinduistischen Religion wirklich Wir verehren Gott und wie Sie sehen können, Gott Ganesha Es funktioniert also einwandfrei. Das ist also der Arbeitsablauf. Ich werde diesen Workflow mit Ihnen teilen. Okay. Sie müssen sich also um nichts kümmern , wenn Sie diesen fantastischen Workflow erstellen, Sie müssen sich keine Sorgen machen und Sie müssen keinen zusätzlichen Knoten hinzufügen und nein, nein, keinen Knoten. Aber ich möchte nur, dass Sie verstehen, wie diese Knotensysteme funktionieren. 27. Erweitertes Prompt- und Diffusionsmodell und Loras und Workflow: Lassen Sie mich es eins nach dem anderen erklären, und ich werde diesen fantastischen Workflow mit Ihnen teilen . Mach dir keine Sorgen. Sie finden es in der Beschreibung irgendwo auf der Plattform im Download-Bereich. Lassen Sie mich das mit dem Flux Model Loader vorstellen. Es ist ein Flux-Modell der. Es ist eine Gruppe. Wie Sie sehen können, gibt es eine Gruppe, und wir haben diese Gruppe Flux Model Loader genannt. Lastdiffusionsmodell. Hier ist eine Lastverteilung. Sie können dies hinzufügen, indem Sie auf Load Diffusion Model, Advanced Loader, CUI Core, wie Sie sehen können, Lord-Diffusionsmodell doppelklicken Load Diffusion Model, Advanced Loader, CUI Core, wie Sie sehen können, Lord-Diffusionsmodell Wir haben das hinzugefügt, Sie können es hier sehen. Okay, also lass uns löschen. Und Dual Cap Loader und es hat eine Ladung VAE. Wie Sie sehen können, haben wir dieses Flux-Modell schon einmal heruntergeladen , und ich werde Ihnen erneut erklären, wie wir es herunterladen können. Sobald Sie auf Flux geklickt haben, können Sie nach CheckPoint und, wie Sie sehen, nach Flux one D suchen. Klicken Sie auf Herunterladen Es handelt sich tatsächlich um das vollständige Modell FPP mit Hughes-Datei, und ich empfehle Ihnen, dieses herunterzuladen Und nachdem ich dieses heruntergeladen habe, ist dies das Bild, das ich zufällig in Civit AI geöffnet habe zufällig in Civit AI geöffnet Es hat Laura und sie haben die Nummer geteilt und was bedeutet diese Nummer? Diese Zahl, wie viel Gewicht Sie beim Generieren eines Bildes verwenden. Abgesehen davon, lassen Sie uns nach Laura suchen. Klicken Sie darauf und klicken Sie darauf. Lass uns danach suchen. Und wenn Sie es öffnen, können Sie sehen, dass es eine Laura hat und ich lade diese Laura herunter. Haben wir dafür ein ausgelöstes Wort? Nein, wir haben kein ausgelöstes Wort. Und ich empfehle Ihnen , ein Dokument für all Ihre Las zu erstellen und all Ihre Flux, all Ihre Checkpoints, all Ihre Modelle, die Sie verwenden, haben alle ihren eigenen Trigger-Punkt Ja, es hat ein ausgelöstes Wort. Sie können diesen PG-Stil sehen. Das musst du kopieren. Wenn Sie dieses ausgelöste Wort nicht verwendet haben, wird unser Model oder unser CUI keine Vorstellung davon bekommen , wie wir dieses a verwenden werden . Wahrscheinlich werden die Compi diese Laura ignorieren Und ich weiß nicht, wie es reagieren wird wenn wir diese Art von Triggerwort nicht verwenden Höchstwahrscheinlich wird es es ignorieren. Sie müssen es also herunterladen, zu Ihrer CompI Windowsp-Tabelle gehen, CompuI nach Modellen suchen, und Sie können sehen, dass es einen Ordnernamen Laura hat, und es einen Ordnernamen Laura hat, und Nachdem Sie es gespeichert haben, kopieren Sie es jetzt und ich erstelle dafür einen Online-Hund Ja, der Hund, den wir schon einmal benutzt haben. Ich werde hier ein ausgelöstes Wort hinzufügen. Und du kannst es als ausgelöstes Wort speichern , das ausgelöste Wörter und dann immer wieder nach Lauras suchen. Du musst nach dieser Laura suchen. Speichern Sie dieses Wort „Nicht ausgelöst“. Und für diese Laura hast du ein ausgelöstes Wort. Und lassen Sie uns die Größe ändern Alle meine ausgelösten Wörter werden rot markiert, sodass ich sie direkt kopieren und sie darauf hinweisen kann, dass es sich um ein Triggerwort handelt Laden Sie eine weitere Laura herunter, die Sie sehen können, laden Sie diese Laura herunter Es hat zwei Dateien. Laden Sie eine davon herunter. Das Gleiche im selben Ordner und es wird heruntergeladen. Lass uns wieder in die Zukunft springen. Lassen Sie uns auffrischen. Aktualisieren Sie die Knotendefinitionen, es wurde ein Update angefordert, und ich hoffe, dass das aktualisiert wird. Ja, der Knoten wurde aktualisiert. Jetzt können Sie nach Laura suchen. Welchen Typ haben wir heruntergeladen? erste Rollenspiel, und das erste ist Flux-Realismus La und behalte das Gewicht 0,5, also ist es zwei, nichts, nenne RPG Loa und behalte Jetzt haben wir noch ein La. Jetzt fügen wir für den RPG-Stil und für diese Aufforderung kopieren wir diesen Abschlussball direkt und schauen uns an, welche Art von Ergebnis wir im RPG-Stil erhalten Und höchstwahrscheinlich ist bereits ein Tigerd-Wort in diese Eingabeaufforderung eingebettet Lassen Sie uns das überprüfen, ob wir ein Rollenspiel bekommen. Und wenn nicht, fügen wir dann eins hinzu. Das ist top. Wir haben Laura SD R-Stil, Offset, Save Tensor und RPG hinzugefügt Offset, Save Tensor und RPG Wie Sie sehen können, wurde es bereits hinzugefügt, und ich weiß nicht, ob das funktionieren wird Vielleicht kopiere ich es einfach im geschichteten Stil. Ich weiß nicht, ob das funktioniert oder nicht. Lass es uns einfach einbetten. Seiten. Ich werde Ihnen die Anregungen erklären, in den kommenden Vorlesungen werden wir alles besprechen Im Moment versuche ich nur, dir eine Vorstellung davon zu geben , wie dieses Ding funktioniert Okay? Also lassen Sie uns nachfragen, und ich hoffe, das wird umgehend funktionieren. Lassen Sie uns wieder in die Zukunft springen. Okay, wir haben also nicht das gewünschte Ergebnis erzielt. Wir haben ein Problem mit unseren, ich weiß nicht, vielleicht mit beiden 0,55 Okay. Und 0,5. Und lassen Sie uns das auf die 0,99 schicken. Lass es uns nochmal versuchen. Okay, ich sehe eine Veränderung. Wie Sie sehen können, können wir diese Art von Buch gerade sehen. Also, was ich geändert habe, lass mich dir eine Sache sagen. Bevor ich eine Rauschunterzeichnung geändert habe, war das 0,5, und momentan ist die Rauschunterzeichnung 0,99 Und das Gewicht des La betrug 0,5 und das Gewicht des Clips 0,5 Und das Gewicht des Modells beträgt 0,5. Das Gewicht des Clips beträgt 0,5. Also ich glaube, sie sind beide aufeinander gestoßen. Es gibt einen Konflikt zwischen ihnen, und jetzt Hmm. Es ist unglaublich. Das ist wirklich unglaublich. Lassen Sie uns nach dem gespeicherten Ordner suchen. Geben Sie PUI ein und suchen Sie nach dem Ausgabeordner. Komm PUI. Suchen Sie nach dem Ausgabeordner Wie Sie sehen können, ist dies das Bild, das wir mit Flux generiert haben. Das Ergebnis ist ziemlich erstaunlich. Lassen Sie uns das experimentieren, indem wir keine Laura verwenden. Und was wird das Ergebnis sein , wenn wir dabei keine Laura verwenden? Schauen wir uns das an, Q Prompt. Lass uns wieder in die Zukunft springen. Ja, die Ergebnisse sind fast identisch. Ich denke, wenn Sie überprüfen, ob Sie in beiden Bildern unterscheiden, gibt es einen Unterschied in der Textur dieser beiden Bilder. Diese ziemlich glatte Textur wird hier gezeigt. Und ja, sie haben so ziemlich keinen Realismus. Und ich kann sehen, dass in ihnen ein gewisser Realismus steckt. Ja, Sie können den Unterschied in der Textur sehen. Ja. Das sind unvollkommene Dinge Machen Sie dieses Bild realistisch , wie Sie sehen können. Und irgendwie habe ich das Gefühl, um ehrlich zu sein, sind diese beiden unglaublich. Ich schätze den Abschlussball, den sie haben, wirklich sehr. Es wurde uns gegeben. Tatsächlich ist Prompting kein Hit-and-Trial-Modus oder das Arbeiten mit der Benutzeroberfläche ist kein Hit-and-Trial-Ding Es ist so, dass Sie, wenn Sie einmal verstanden haben, wie Sie dem maschinellen Lernen vermitteln oder erklären müssen , die Aufforderung verstehen werden Das ist alles. Stellen Sie sich also ein uraltes mystisches Buch vor, das schwach auf einem verwitterten Holztisch geneigt auf einem verwitterten Holztisch ruht, in einer schwach beleuchteten, magischen Umgebung, den kantigen, rissigen Ledereinband des Buches Federn, eine lebendige Illustration eines dunklen und dunkelroten Waldes, Merkmale des Ledereinbands, okay? Federn, eine lebendige Illustration eines dunklen und dunkelroten Waldes, Merkmale des Ledereinbands, okay? Der Wald ist in blasses Mondlicht getaucht. Es sind vernottete, blattlose Bäume, ihre Wurzeln über den moosigen Waldboden ausstrecken windende Dampf kaskadiert durch die Szene und bildet einen kleinen Wasserfall, der im sterilen Licht glitzert die ihre Wurzeln über den moosigen Waldboden ausstrecken. Der sich windende Dampf kaskadiert durch die Szene und bildet einen kleinen Wasserfall, der im sterilen Licht glitzert. Das Kunstwerk scheint nahtlos in das Leder des Buches eingebettet zu sein, als ob es verzaubert wäre Das Buch ist von atmosphärischen Details umgeben. Ein paar geschmolzene Kerzen in verzierten Messinghaltern werfen einen warmen, flackernden Schein Ihr Licht erhellt eine ihr geweihte silberne Mondsichel, ein Amulett und einen trüben Vorhang in der Nähe. Eine Feder und Tintenfässer stehen neben einer Schriftrolle und verwittern Tom. verzierten Messinghaltern werfen einen warmen, flackernden Schein aus. Ihr Licht erhellt eine ihr geweihte silberne Mondsichel, ein Amulett und einen trüben Vorhang in der Nähe. Eine Feder und Tintenfässer stehen neben einer Schriftrolle und verwittern Tom. Sie sind aus gefiedertem Gold, beschriftet , angedeutet und sind die Sanchis des Wissens. Der Tisch ist reich an Texturen. Seine Oberfläche ist mit Staub und schwachen Kratzern übersät. Wie ihr sehen könnt, zeigt der Abschlussball, der das zeigt irgendwie all die Befehle, die wir der Cf-Benutzeroberfläche im Hintergrund gegeben haben , den weichen Fokus, die Stille anderer magischer Artefakte und einen Buchtipp im Arbeitsbereich von Scholar of Maze Die Farbplatte bringt mehr Grün- und Brauntöne mit einem warmen goldenen Kerzenschein und einer silbernen Mondlichtszene ins Gleichgewicht einem warmen goldenen Kerzenschein und einer silbernen Mondlichtszene Kerzenschein und einer silbernen Mondlichtszene Die Szene schließt Mysterien und zeitlosen Zauber aus und lädt die Zuschauer ein, sich das Geheimnis vorzustellen der Grabseite verborgen Und das ist der Kunststil , den wir gegeben haben. 28. Unterschied zwischen Flux Dev und Schnell- und kommerzieller Nutzungslizenz: Wir tauchen tief in Flux ein und verstehen ihn besser. Ich habe dir einen Überblick über den Flux gegeben, wie wir ihn verwenden können und über den Arbeitsablauf. Ich werde euch kurz etwas über den Flux erklären, ein neues Modell, das ich absolut liebe. Ich werde Ihnen zeigen, wie Sie eine andere Version wie die Version von Dave und Snell installieren und verwenden können, die in Bezug auf Qualität, Geschwindigkeit und Einstellung am besten funktioniert Bezug auf Qualität, Geschwindigkeit und Einstellung Lassen Sie uns also verstehen, was Flux ist. Was ist Flux? Flux wurde von Black Forest Lab entwickelt, einem Team intelligenter Forscher und Ingenieure, die früher mit Stabilitäts-KI gearbeitet haben. Jetzt haben sie die Flux-Version vorgestellt , eine Modellfamilie, die wirklich gut funktioniert, aber Vorsicht, dieses Modell benötigt einen guten Computer für eine reibungslose Leistung. Es gibt drei Versionen Persion, Day-Version und Schneckenversion Pro-Version, nur API, nicht herunterladbar, Day-Version, beste Qualität, aber ressourcenintensiv, Schneckenversion, schnellste, aber etwas Die Lizenzen für diese Versionen sind etwas anders. Dave-Version, keine kommerzielle Nutzung, Sie können das erzeugte Bild für kommerzielle Zwecke wie den Verkauf verwenden , aber nicht, um ein Computermodell zu trainieren. Es bedeutet einfach, dass Sie Flux nicht verwenden können, um ein anderes Modell so zu trainieren , dass es mit dem Flux konkurriert. Die Nail-Version ermöglicht kommerzielle Nutzung sowohl für das Modell als auch für dessen Leistung. Für die Schneckenversion gewähren sie dem Benutzer jedoch alle Rechte Es ist immer eine gute Idee , die Lizenzdateien selbst auf die genauesten Informationen zu überprüfen Lizenzdateien selbst auf die genauesten Informationen Auf der linken Seite haben sie sich Flux Pro in der Mitte geteilt, Flux Dave und Flux Nail auf der rechten Seite. Präzision beim Rendern von Text Beide Flux Pro zeichnen sich durch die exakte Wiedergabe von Text innerhalb von Bildern aus und machen sie für Designs unbrauchbar, die Beschriftungen oder Phrasen erfordern Ganz gleich, ob es sich um Buchumschläge oder Markeninhalte handelt, Flux Pro sorgt für eine klare und korrekte Textintegration Flux Dave macht jedoch einen ordentlichen Job. Snell-Strukturen, um Text effektiv zu rendern . Komplexe Komposition Alle Flux-Modelle zeichnen sich durch außergewöhnliche Fähigkeiten wenn es darum geht, komplexe Kompositionen zu verstehen und auszuführen. ob Sie sich ausgeklügelte Fantasien, Realismus oder präzise Produktvisualisierung ausdenken, Flux erwecken Sie mühelos Ihren aus mehreren Elementen bestehenden Abschlussball mit atemberaubender Genauigkeit zum Leben Wie Sie sehen können, liegt hier der Unterschied. Anatomische Genauigkeit. Alle Flux-Modelle weisen eine hohe anatomische Genauigkeit auf, insbesondere bei der Darstellung menschlicher Merkmale Diese Modelle übertreffen durchweg frühere Open-Source-Alternativen wie Stable Diffusion Three, SDxL usw. Schaffung realistischer und proportionaler Körperteile die Qualität des auf den Charakter ausgerichteten Bildes erheblich verbessert des auf den Charakter ausgerichteten Bildes Wie Sie sehen können, liegt hier der Unterschied. Es sieht eigentlich rein realistisch aus, ist aber eine Fälschung. Es sieht gut aus, aber wie Sie sehen können, der Unterschied in den Händen, hier und hier. Und jetzt hier. Ich sah aus, als ob ein Filter auf dieses Bild angewendet wurde, aber es sieht realistisch aus. Feinabstimmung der Farbe. Alle Modelle zeichnen Genauigkeit aus, die eine bestimmte Farbpalette wiedergeben, was sie zu einem unverzichtbaren Werkzeug macht, um die Markenkonsistenz aufrechtzuerhalten, bestimmte Stimmungen hervorzurufen oder kreative Visionen exakt zum Leben zu erwecken, egal ob es um die Erstellung von Marketingmaterialien oder um künstlerische Projekte geht bestimmte Stimmungen hervorzurufen oder kreative Visionen exakt zum Leben zu erwecken, egal ob es um die Erstellung von Marketingmaterialien oder um künstlerische Projekte sich durch die Genauigkeit aus, die eine bestimmte Farbpalette wiedergeben, was sie zu einem unverzichtbaren Werkzeug macht, um die Markenkonsistenz aufrechtzuerhalten, bestimmte Stimmungen hervorzurufen oder kreative Visionen exakt zum Leben zu erwecken, egal ob es um die Erstellung von Marketingmaterialien oder um künstlerische Projekte geht. Das Flux-Modell liefert das gewünschte Farbschema Präzision Okay. Ja. Hier ist ein Unterschied. Gleiche Eingabeaufforderung, drei Ausgaben. Ich mag diesen übrigens. Aber wie Sie sehen können, ist es realistischer. Es verändert sich also und ist ästhetisch. Alle drei Flux-Motoren erzeugen hochauflösende Bilder mit hoher Auflösung, die komplizierte Details einfangen und so für erstklassige Klarheit und Ästhetik sorgen Das ist ein echter. Es sieht so aus, als hätte jemand auf dieses Bild geklickt und sich diesen Dave und Snell angesehen Es sieht gut aus und es sieht auch gut aus. Aber dieser sieht realistisch und ästhetisch aus. Ja. Hier ist der Unterschied zwischen diesen drei Modellen. Wie Sie sehen können, haben diese drei Modelle den Unterschied oder ein ganz neues Niveau. Sie gehen einfach auf die ganz neue Ebene der Bilderzeugung über. 29. Lade die richtigen Dateien herunter, um sie im richtigen Pfad für das Flux-Diffusionsmodell und den Checkpoint zu verwenden: Herunterladen, du musst nur zu Flux Dap gehen. Sie finden die Gewichte des Flux Daf-Fusionsmodells hier im Ordner und müssen im CUI-Modelldiffusionsmodellordner speichern. Es enthält eine Datei mit 23,8 GB , die Sie einfach Laden Sie es einfach in Flux Snail Diffusion Model Wights herunter. Laden Sie diese Datei im Ordner CopUI Models Unit herunter. Gehen Sie also zu CfUI und öffnen Sie ComfUI Find Models. Hier sind die Modelle. Suchen Sie nach Einheit und speichern Sie es einfach hier. Wie Sie sehen können, habe ich es bereits heruntergeladen. Es hat ein Gewicht von 23,8 GV. Lass es uns herunterladen Kopieren Sie diesen Pfad und fügen Sie ihn hier ein. Laden wir also Flux Snail herunter. In der Zwischenzeit wird es heruntergeladen. Suchen wir nach einem anderen Dave-Ordner. Lassen Sie uns jetzt nach der regulären Version suchen. Es ist eine reguläre Vollversion. Für Flux Dave müssen Sie es also in die CUI, in die CUI-Modelle und in die Diffusionsmodelle einfügen CUI-Modelle und in die Diffusionsmodelle Du musst es hier herunterladen. Beim Diffusionsmodell klicken Sie einfach darauf, öffnen es und laden es herunter, suchen nach der Dateiversion und scrollen FAX Double nach unten. Flex One Dev Sefner hat es heruntergeladen. In diesem Ordner. Kopieren Sie einfach den Pfad und die Seite hierher und geben Sie hier einfach den Download ein. Warten wir auf den Download. Jetzt haben wir eine kleinere Version. Sie müssen es herunterladen , da wir sie in kommenden Videos verwenden werden. Also Flux Nail haben wir heruntergeladen, Flux Da haben wir heruntergeladen, reguläre Vollversion. Sie können dann das folgende Bild in Comfy laden oder ziehen , um den Workflow zu erhalten. Dieses Bild ist also selbst ein Workflow. Sie müssen es nur speichern, Bilddiffusionsmodelle speichern oder es im Workflow speichern. Beispiel für Flux Nail. Und es ist eine einfache Verwendung der FP Eight Checkpoint-Version. Das heißt, Flux Dave hat eine Load-Checkpoint-Version. Klicken Sie also mit der rechten Maustaste auf das Beispiel „Bild als Checkpoint speichern“, speichern Sie es im CI-Workflow-Ordner und speichern Sie Flux Snail, Rechtsklick, als Bild speichern, jetzt speichern, wir die einfachere Version von Flux Dave herunter Es hat eine Datei mit 17,2 GB und einen Namen Flux Dave Flux Dave, lass es einen Namen Flux Dave Flux Dave, lass Sie müssen diese Datei in das Checkpoint-Verzeichnis von ComfUI Models herunterladen in das Checkpoint-Verzeichnis von ComfUI Models Das heißt: Gehen Sie zu den CUI-Modellen, suchen Sie nach Checkpoints Laden Sie es herunter und fügen Sie es hier in den Checkpoint-Ordner ein. Laden wir jetzt die Flux SNL-Version herunter. SNL bedeutet einfach schnell. Klicken Sie einfach auf den Download und laden Sie ihn direkt von Checkpoint FP acht, Flux eins, Snell FP acht. Warten wir also auf die Downloads, und es wird einige Zeit dauern, bis Sie sie herunterladen Sie müssen über eine schnelle Internetverbindung oder ich empfehle Ihnen, sie einzeln herunterzuladen. Laden Sie es nicht herunter, wie ich es getan habe. Warten wir also auf den Download. 30. Workflow für Flux Schnell und Flux Dev-Checkpoints: Für die letzte Folge haben wir einen Sampler. Zuerst müssen wir K-Sampler hinzufügen, K-Sampler-Knoten hinzufügen, K-Sampler-Knoten hinzufügen zwei Clip-Node hinzufügen Einer ist negativ und einer ist positiv. Aber vor dem Positiven musste man eine Flux-Richtschnur hinzufügen. Eine Flussleitlinie. Für dieses latente Bild habe ich ein ziemlich latentes Bild hinzugefügt und gekauft, habe ich ein ziemlich latentes Bild hinzugefügt dass die Eingabeaufforderung mit einem Clip hinzugefügt wurde Jetzt haben wir einen Ladekontrollpunkt. Beides ist der Flux , den wir heruntergeladen haben. beiden handelt es sich um Flux, die wir im Checkpoint-Ordner heruntergeladen haben im Checkpoint-Ordner heruntergeladen Fügen Sie nach dem K-Sampler eine VAE-Dekodierung, latentes Bild mit den verbundenen Samples und VAE mit dem Load-Checkpoint VAE mit Porträt eines Mädchens mit Hut Harry Potter . Lassen Sie uns Q dazu auffordern. Die Prompt-Ausgabe schlägt fehl. Wir haben einen gültigen Checkpoint. Sie sollten am ersten Tag einen gültigen Checkpoint haben. Lassen Sie uns noch einmal danach fragen. Zu Übungszwecken werde ich diesen Arbeitsablauf in der Ressourcendatei veröffentlichen. Es könnte zunächst einige Zeit dauern. Wir bekommen kein Ergebnis. Also lass es uns stornieren. Warum wir es in einiger Zeit erfahren werden. Verstehen Sie also, was wir hier in diesem Workflow verpasst haben. Suchen Sie nach den Bildern , die wir heruntergeladen haben, und das sind die Bilder mit dem Workflow. Ziehen wir es hierher. Nachdem Sie es gezogen haben, können Sie sehen, wie dieses Bild einfach in einen Workflow umgewandelt wurde Sie können es sehen, ziehen und es ist konvertiert. Ziehe es konvertiert. Und ich verwende das Flux Snell-Beispiel, füge es hier hinzu. Und wir haben hier einen perfekten Arbeitsablauf. Aber bevor wir uns dem Diffusionsmodell zuwenden, schauen wir uns zunächst den Checkpoint an Dies ist der Checkpoint, und schauen wir uns an, was wir in unserem Workflow , den wir erstellt haben , übersehen haben Wir haben K Sampler verwendet. Wir haben Flux Guidance verwendet. Wir haben Clip und Coder verwendet. Ja, Clip und Code sind negativ. Negativer Clip-Code und drei latente SD-Bilder. Dieser ist ein anderer Knoten , den sie hier verwendet haben. Und jetzt ist alles gleich. Nur das latente Bild von Ampiti AD Drei ist hier anders. Schauen wir uns nun an, was in der Notiz hier steht. Beachten Sie, dass Flux Tav und Snell keine negative Eingabeaufforderung haben SFG sollte also auf eins gesetzt werden. Wenn CFG auf eins gesetzt wird, wird die negative Eingabeaufforderung ignoriert. Wir müssen also beachten, dass Flux tave und sNll keine negative Eingabeaufforderung haben Sie verwenden keine negative Eingabeaufforderung. Es. Sie fügen hier einfach eine negative Eingabeaufforderung hinzu, nur um weiter mit einem Sampler zu arbeiten , und sie behalten den CFG-Wert auf eins , sodass er ignoriert wird Die negative Eingabeaufforderung , die wir hier verwendet haben, der negative Knoten, wurde ignoriert. Also lass uns hinzufügen. Süße riesige Anime-Diskette. Lassen Sie uns jetzt hinzufügen. Lass uns Tiger, süße drei Zeichentrickfilme mit Filmhintergrund. Hollywood. Lassen Sie uns Q dazu auffordern. Es sieht gut aus und Sie können sehen, dass die Klarheit erstaunlich ist. Und wenn Sie eine negative Eingabeaufforderung hinzufügen, erhalten Sie ein Bild , das kein Ergebnis hat. Eine weitere Sache, die wir hinzugefügt haben ist das latente Bild von Ampit SD Three Dieser ist anders. Und innerhalb von 1 Minute haben wir dieses Bild bekommen. Wie Sie sehen können, dauerte es 52 Sekunden, 4 Sekunden, 2 Sekunden, 0,7 Sekunden. Diese ganze Zeit wurden von diesen Notizen aufgenommen Gehen Sie zurück zu unseren Bildern und suchen Sie einfach nach dem Flux Snell-Checkpoint Im Moment verwenden wir Flux Dave Checkpoint und Flux Tape Flux SNL Checkpoint Tape Flux SNL Jetzt wollen wir mal sehen. Dieser ist auch derselbe. Es hat sich hier nichts geändert. Und damit lasst uns lesen. Beachten Sie, dass Flux Tape und Snell keine negative Eingabeaufforderung haben. Es ist dasselbe Aber diese Zeile ist hier extra. Das Snail-Modell ist ein destilliertes Modell, das mit nur vier Schritten ein gutes Bild erzeugen kann Wir müssen also nach den Schritten suchen , die wir hier unternommen haben, und das besagt, dass das Schneckenmodell ein destilliertes Modell ist, das mit nur vier Schritten ein gutes Bild erzeugen kann mit nur vier Schritten ein gutes Bild erzeugen kann. Schauen wir es uns Tiger süß, drei D mit Rudelplatz Hollywood. Mal sehen, und dann werden wir gefragt. Ja, lass uns gut aussehen. Lassen Sie uns hier den Schritt erhöhen, wie wir es zuvor getan haben. Machen wir es auf 15 Schritte. Fordere es jetzt erneut auf. Der Grund dafür, dass SNL schnell ist, liegt darin, dass wir den Schritt auf nur vier reduziert haben , und Sie erhalten das Bild, und Sie erhalten einfach das Bild Und mit nur vier Schritten erhalten Sie dieses Bild. Nach dem Erhöhen einer Stufe kann es zu einem Unterschied in den Bildern kommen, aber mit nur vier Schritten erhalten Sie mit der SNL das Bild Deshalb ist es schnell. Wir kommen zum Beispiel Flux SNL mit dem Arbeitsablauf bei der Verwendung eines Diffusionsmodells. 31. Workflow für die Bilderzeugung in Flux Styles erstellen: Jetzt lade ich die Flux Nail-Version, weil sie schneller ist Fügen Sie nun einen Knoten hinzu und suchen Sie nach Stil. Suchen Sie nach einem Stil und suchen Sie nach Eingabeaufforderung für mehrere Stile. Wählen Sie ihn einfach aus und fügen Sie diesen Knoten hier hinzu. Danach ändern Sie als Nächstes diesen Rechtsklick und konvertieren Sie das Widget in Eingabe und konvertieren Sie Text in Eingabe und verringern Sie die Größe. Ja. Erhöhen Sie nun den Abstand zwischen den Knoten, nachdem Sie den Raum hinzugefügt haben, und fügen Sie nun einen weiteren Knoten hinzu, auf den Sie einfach hier doppelklicken. Suchen Sie nach Easy Space Positive, und Sie können diese einfache Benutzeraufforderung sehen. Wählen Sie sie aus. Nachdem Sie dies hinzugefügt haben, doppelklicken Sie erneut und wählen Sie Text aus. Verketten, lass es. Platzieren Sie es hier, fügen Sie nun positiv zu Text A und eine positive Zeichenfolge zu Text B hinzu, und fügen Sie diese Zeichenfolge nun zur Warum wir das gemacht haben, wir fügen dieses Tag einfach zu einem Besuch hinzu, sodass keine Eingabeaufforderung erforderlich ist. Es nimmt die Eingabeaufforderung von einem anderen Knoten entgegen und leitet sie einfach in den K-Sampler Wir fügen der Eingabeaufforderung eine zusätzliche Bedingung hinzu. Dies ist die Aufforderung, die wir hinzufügen werden, und es wird nur eine Eingabeaufforderung benötigt. Und das ist der Stil, den die Eingabeaufforderung entsprechend dem Stil verwendet, den wir in diesem Knoten auswählen werden. Danach werden sie einfach zu diesem Text kombiniert, und nach der Verkettung geben sie einfach diese Aufforderung an die Clip-Textkodierung weiter. Dadurch wird die gesamte Eingabeaufforderung , die wir gegeben haben, kodiert und in den und Und Ksampler wird seine Arbeit machen. Fügen wir nun Tiger drei D Hollywood Q Tiger drei D Jetzt habe ich hier eine Aufforderung hinzugefügt, süßer Tiger TD Hollywood und füge einen Stil hinzu. Wir haben hier die Datei, die ich aus dem Internet heruntergeladen habe. Sie müssen nicht das ganze Zeug durchgehen und danach suchen und es herunterladen. Du musst das einfach in den Style-Ordner in Cofi legen in den Style-Ordner in Cofi Legen Sie es auch in den Hauptordner von CofUI und suchen Sie nach dem Hauptpunkt Pi oder dem Nicken Punkt , damit Sie diesen Ordner lokalisieren können Du musst das einfach auch hier kopieren. Wie Sie sehen können, habe ich gerade die CPUI geöffnet und sie einfach hier eingefügt. Das sind Stile. Und im Style-Ordner habe ich Additive. Bevor wir mit dem Hauptworkflow beginnen, speichern wir ihn. Exportieren Sie diesen Workflow einfach mit Stils und bestätigen Sie und Sie können sehen, hier ist der Export, Jason, und Sie können ihn einfach ausschneiden und in diesem Workflow speichern Und jetzt fügen Sie ihn einfach ein und Sie erhalten den Workflow. Um mit dem Stil zu arbeiten , haben wir unseren Workflow so eingerichtet, dass wir später mit der Aufforderung arbeiten können. 32. Workflow-Setup von WAS 100+ Stilen: Gehen Sie jetzt zum CPI Manager und dann zum benutzerdefinierten Notes Manager. Suchen Sie nach WAS Und wie Sie sehen können, enthält es Testberichte von 1248 Versuchen Sie das Update, Neustart Und wenn Sie es nicht installiert haben, müssen Sie es nur WAS Node Suit installieren Einfach zu bedienen. Installiere es. Yolan. Sie können sehen, dass er der Autor ist und ich versuche nur, es zu aktualisieren Versuche zu aktualisieren. Sie können es einfach installieren. Habe es und starte es einfach neu. Erledigt. Warten Sie auf den Neustart und das neue Fenster wird geöffnet, nachdem Sie es kopiert haben Der Stil, Rechtsklick kopiert den Pfad. jetzt im Ordner Cofi Suchen Sie jetzt im Ordner Cofi nach benutzerdefinierten Notizen, benutzerdefinierten Notizen Doppelklicken Sie auf die Suche nach War Ich habe zu viele Dinge , die ich hier installiert habe Du musst es nicht durchmachen. Sie müssen nur nach As suchen, nach W als Node Suit und einfach darauf doppelklicken. Wenn Sie nun die Cf-Benutzeroberfläche nach der Installation des Nodes ausgeführt haben, sollten Sie diese Informationen diese Dateien haben, und wenn nicht, müssen Sie ConfUI ausführen. Öffnen Sie nun die Cf-Suit-Datei, öffnen Sie sie mit Notepad und suchen Sie einfach nach den Nun, hier der Stil, der Null ist. Und du siehst hier Null. Sie müssen nur den Teil, den Sie kopiert haben, einfügen und den Backslash hier verdoppeln Es ist wichtig. Verdoppele es einfach. Wie Sie sehen können, gibt es auch hier einen doppelten Backslash. Verdopple es hier einfach. Speichern Sie es jetzt einfach. Speichern Sie einfach die Datei und kehren Sie zur Cf-Benutzeroberfläche zurück. Klicken Sie jetzt mit der rechten Maustaste. Sie müssen nur CFUIRBooto neu starten. In meinem Fall weiß ich nicht, warum es einfach nicht es einfach Also lass einfach ComfUI öffnen und starte erneut. Lassen Sie uns das jetzt überprüfen. Sie sehen können , wurde der Stil, den wir im WS-Stylesheet angegeben haben Wie Sie sehen können , wurde der Stil, den wir im WS-Stylesheet angegeben haben, jetzt aktualisiert. Wenn Sie es korrekt installieren, wird es angezeigt. Wenn nicht, müssen Sie überprüfen, ob Sie einen oder einen Schritt dazwischen verpasst haben . Jetzt mit dem Lastpunkt-Checkpoint, Flux Nell, unserem gleichen positiven Prom, der hinzugekommen Und jetzt fügen wir hier einen Anime-Stil hinzu und fügen einfach Q mit der Aufforderung Das ist alles. Sehen Sie sich jetzt an, was wir hier gesehen haben , Wert, nicht im geringsten Stil. Es fragt mich nach dem Wert. Kein Stil, wähle keinen Stil, wähle keinen Stil. Ich habe den Wert hinzugefügt. Fordere es jetzt erneut auf. Und ich hoffe, wir bekommen den Anime-Stil. Jetzt haben wir einen Drei-D-Charakter im Anime-Stil. Ja, es handelt sich um drei D. Lassen Sie uns drei D entfernen es jetzt erneut an? Ja, es sieht gut aus. Fügen Sie jetzt einen anderen Stil hinzu. Malerei, Acryl, Fantasy, Illustration, Cartoon, Jamat, Mode, Aufkleber Versuchen wir es noch einmal mit Sticker Cute und Cube Prompt. Ja, es funktioniert. Vollkommen in Ordnung. Jetzt können wir auch Sticker erstellen. Es sieht toll aus. Versuchen Sie nun, Katze und Q hinzuzufügen. Absolut unglaublich. Ja, es funktioniert. Jetzt fügen wir hinzu. Jetzt können Sie diesen Workflow-Export mit bestätigten Stilen speichern . Ich werde das in den Ressourcendateien mit Ihnen teilen. Es funktioniert perfekt. 33. Hintergrund von Stickern entfernen: wünsche Ihnen und Ihrer Familie ein neues Jahr, und ich freue mich sehr darauf, Ihnen in diesen kommenden Vorlesungen erstaunliche, erstaunliche Dinge mitzuteilen erstaunliche, erstaunliche Dinge . Wir fangen wieder mit der Herstellung von Aufklebern an, aber es gibt einen kleinen Haken bei der Herstellung von Aufklebern. Wenn Sie qualitativ hochwertige Sticker erstellen möchten, wenn Sie Ihre Sticker teilen möchten, wie Sie sie teilen können. Sie können sie als JPACO, wir können sagen JPG-Datei, teilen. Bildformat, das wir überall im Internet verwenden , oder wir können ein PNG-Format verwenden, dem es sich um ein transparentes Hintergrundformat handelt Okay, also wie können wir den Hintergrund eines beliebigen Bildes entfernen . Wie können wir das entfernen? Aus diesem Grund müssen wir ein weiteres Knotensystem einrichten, damit wir eine automatische Maschine zur Herstellung von Aufklebern erstellen können , eine komplette Maschine zur Herstellung von Aufklebern, von der ich spreche. In den vorherigen Vorlesungen habe ich die Informationen über den Arbeitsablauf weitergegeben. Wie Sie sehen können, sind dies alle Workflows, die wir verwendet haben, und zwar die Snail-Version, die Flux-Day-Son-Version und die Flux-NL-Version Und ich weiß, dass Sie diese Version, die ich mit Ihnen geteilt habe, bereits verwendet haben , und Sie können eine SNL-Version, eine Flu DA-Version, Checkpoint und ohne Checkpoint sehen Flu DA-Version, Checkpoint , wie wir sie verwenden werden und wie wir Bilder damit erstellen werden Ich verwende derzeit eine Checkpoint-Version, sodass Sie, wenn Sie einen niedrigen VRM-Wert oder eine niedrigere Grafikkarte haben, diese weiterhin verwenden und gleichzeitig mit mir arbeiten können Und wenn Sie wie ich eine hochwertige Grafikkarte haben, ich habe 16 GB VRAM in meinem Computer, ich kann diese Flasche auch verwenden, in der ich ein Diffusionsmodell, einen dualen Clip-Loader und Load-VAE verwende dualen Clip-Loader und Load-VAE Wir werden später darüber sprechen, aber im Moment werden wir ein Sticker-PNG-Format erstellen Ich habe diese Version für Sie erstellt, damit Sie nicht von Anfang an arbeiten müssen Sie müssen diesen Workflow nur in die CFI-Oberfläche ziehen , wie Sie sehen können Wir haben also den gesamten Workflow , den ich für Sie erstellt habe, sodass Sie sich darüber keine Gedanken machen müssen Flux SNL Checkpoint mit Stilen. Dies ist die Style-Version, wie wir bereits über die Style-Version der FluxNL-Checkpoint-Version besprochen FluxNL-Checkpoint-Version Dies sind alle Informationen , die wir geprägt haben. Und lass uns nach dem süßen Mädchen suchen , Baby. Und lassen Sie uns nach dem Stil suchen. Und suche nach dem süßen Aufkleber. Und suchen Sie nach dem Aufkleber, den Aquarellaufklebern, Illustrationsaufklebern und geben Sie einfach eine Q-Aufforderung ein Und wir haben hier einen kleinen Fehler. Was wir verpasst haben, wir müssen den Stil wählen , der kein Stil ist. Und wieder nur eine Q-Aufforderung. Jetzt wird unser Checkpoint wieder geladen. Lass uns eine Weile warten. Wir haben also ein süßes Baby. Es wurde nur ein süßes Baby geboren. Wir haben also einen niedlichen Aufkleber, aber das Problem ist, dass, wie Sie sehen, das Bild gerade in Ihrem CUI-Ausgabeordner gespeichert Wie Sie sehen können, werde ich es Ihnen zeigen. Dies ist das CUI, das CI-Fenster und der Ausgabeordner. Es hat es gerade hier gespeichert Das Problem ist, dass es keinen Hintergrund oder transparenten Hintergrund gibt. Okay, es ist also nicht nur ein PNG-Format. Es ist ein PNG-Format, aber ohne Hintergrund brauchen wir ein Format ohne Hintergrund, okay? Wie können wir es also generieren und wie können wir eine Kopie davon erstellen und dafür einfach automatisch einen Automaten erstellen. Wie können wir das also machen? Verschwenden wir keine Zeit mehr und Sie können sich einen hochwertigen Sticker-Workflow ansehen: Sticker mit PNG und Upscale, Sticker mit Upscale inklusive Flux-Sticker und PNG-Konvertierung für Unternehmen Okay. Also das ist das, was ich für dich generiert habe und du musst es nur herausziehen. Und ich werde dir zeigen , was ich hier gemacht habe. Alles ist gleich. Alles ist gleich. Okay, süßes kleines Mädchen. Ich gebe es Illustrator ein. Ich Sticker, süß und Sticker-Illustration, kein Stil, kein Stil Ich hab's. Und jetzt gibt es ein kleines Fenster, das ich hier hinzugefügt habe. Dies sind zwei Notizen , die ich hier hinzugefügt habe. Wie du sie hinzufügen kannst, wenn du sie hinzufügen möchtest, kannst du das tun. Du musst nur zum Manager gehen. In der CFUI müssen Sie nur zu Manager gehen zu Manager gehen, nach benutzerdefiniertem Node Manager suchen und nach Remove PG suchen Und wie Sie sehen können, gibt es hier so viele Knoten, die verwendet wurden Aber wir werden Image Remove BG verwenden. Einfach zu verwendendes Image BG. Wir werden diesen hinzufügen. Sie müssen dies nur zu Ihrem Cofi hinzufügen . Nachdem Sie diesen Workflow in Ihre CI-Oberfläche gezogen diesen Workflow in Ihre CI-Oberfläche hier ein roter Knoten vorhanden ist, müssen Sie nur zum Manager gehen Und installiere fehlende benutzerdefinierte Knoten. Du musst nur dieses Ding machen. Installieren Sie den fehlenden Knoten und es wird Ihnen der fehlende Knoten angezeigt und Sie müssen ihn installieren. Okay. Es wird also kein Problem sein, dieses Modell zu verwenden. Ich habe einen zusätzlichen Knoten hinzugefügt, der das BG-Image entfernt, und ich werde ihn hier separat speichern. Wir haben also zwei Bilder, die wir hier und hier speichern werden. Eines ist mit Hintergrund und eines ohne Hintergrund. Beide sind PNG-Versionen. Lass es uns speichern. Und ich verwende RM BG 1.4. Warum? Weil ich damit tatsächlich bessere Ergebnisse erzielt habe. Lassen Sie uns danach fragen, und ich werde Ihnen zeigen, wie Sie tatsächlich einen Automaten generieren können . Hier ist ein Hinweis, Baby. Ein kleines Mädchen, ein kleines Mädchen wurde gerettet, ein perfekter Aufkleber, den du verwenden kannst, und hier ist ein perfekter Aufkleber ohne Hintergrund. Und ich werde dir zeigen, dass es dich umhauen wird. Ein Aufkleber ohne Hintergrund. Sie können ihn ausdrucken und einfach überall hin mitnehmen. Sie können es online ausverkaufen. Das ist alles. Sie haben gerade mit Ihrer Grafikkarte etwas Strom verbraucht und gerade tolle Aufkleber erstellt. Wow. Jetzt bist du der Grafikdesigner. KI-Grafikdesigner, ich 34. 30 Sticker in 1 Klick generieren: Bei einer Charge von drei und einer Q-Aufforderung zehn. Das bedeutet, dass es drei Bilder auf einmal generiert, wie in diesem Fall, und dass der gesamte Vorgang zehnmal ausgeführt wird. Das ist die Bedeutung von Q, und das ist die Bedeutung von Badge. Aus den Bildern eins, aus zehn, aus drei. Das sind 30 Bilder. Sie werden 30 Bilder erstellen. Ich hab's. Im Moment erstelle ich nur einen Q-Prompt und verwende einen Stapel mit einer Größe von drei. Sie können die Größe des Ausweises erhöhen, wenn Sie möchten. Im Moment verwende ich nur die Batch-Größe und frage einfach nach. Du musst etwas länger warten. Warum? Weil es tatsächlich drei Bilder auf einmal erstellt. Du musst darauf warten. Und dieser Knoten entfernt einfach den Hintergrund des Bildes. Das ist alles, was er tut. Wir werden es separat verwenden und mal sehen, wie wir das können Oh, wow. Es ist nett. Ja. Wir werden später darüber sprechen. Also hier sind drei Bilder, wie Sie sehen können, eins, zwei, drei, zwei und drei. Diese drei Bilder wurden generiert, und Sie können sie hier sehen. Klicken Sie einfach darauf und Sie können alle drei Bilder sehen. Du klickst einfach drauf, klickst drauf, klickst drauf. Und eigentlich liebe ich diese Aufkleber wirklich, wirklich, und du kannst sie online verkaufen. 35. Sticker oder Bilder in hoher Qualität mit ca. 6000 px erstellen: Sie können 1.000, 10.000 Lags von Aufklebern nach verschiedenen Charakteren und Genres erstellen 10.000 Lags von Aufklebern nach verschiedenen Charakteren und Genres Wenn wir jedoch fünf MB oder sechs MB oder die Größe der Bilder haben möchten , wie in der roten Blase, Sie beim Hochladen eines Aufklebers müssen Sie beim Hochladen eines Aufklebers mindestens 5.000 x 5.000 Pixel Bild oder PNG erstellen 5.000 x 5.000 Pixel Bild oder PNG Sie werden es also akzeptieren und sie hielten es für qualitativ hochwertiges PNG. Wie wir das machen können. Aus diesem Grund werden wir einen anderen Workflow verwenden, den ich bereits für Sie erstellt habe. Das ist Aufkleberherstellung mit gehobenem Preis. Lass es uns hierher ziehen. Hier ist wieder ein kleiner Fang. Alles ist gleich. Lot Checkpoint, Ostpanda Sticker mit rosafarbenem Hintergrund, gleiche Illustration, Kinderbuch, gleich, alles ist gleich, alles ist gleich Alles ist gleich. Was ist der Unterschied? Hier ist der Unterschied, den Sie sehen können. Es ist das ultimative SD-Upscale, das ich hinzugefügt habe. Und hier ist ein Lademodell. Wir werden dieses Vier-X-NMKD-Modell verwenden und wir werden den Clip-Encoder verwenden Du musst hier nichts schreiben. Und nachdem wir es hochskaliert haben, werden wir unseren Node wieder verwenden , um unser Bild ohne Hintergrund zu speichern Fangen wir also noch einmal an. Erstens ist dieser Workflow derselbe, wie Sie sehen können Dies ist derselbe Workflow , den wir immer wieder verwenden. In dieser Version werden wir dies jedoch als Bild mit etwa 1080, 1080 oder 51500 X speichern, 1.500 quadratische Bilder, die wir verwendet haben Aber im Moment verwenden wir hier eine gehobene Version, damit wir hochskalieren können Wie Sie sehen können, ist hier eine Hochskalierung mit drei, und wenn Sie diese drei mit 1024, 1024 multiplizieren wollen, lassen Sie uns das Ergebnis überprüfen Machen wir 1.515 hundert draus. Also habe ich gerade ein lateinisches Bild von 1.500 erstellt, und wenn wir das mit dieser Hochskalierung mit drei multiplizieren, erhalten wir das Also für die RAD-Blase Wenn Sie es auf die RD-Blase hochladen, verwenden wir, wir ändern die Dimension unseres latenten Bildes Und wieder, 2000, werden wir dieses latente Bild 2000 2000 verwenden Und mit der ultimativen SD-Hochskalierung werden wir um drei hochskalieren Aus 2000 werden drei, das sind 6.000. Es ist eine einfache Berechnung. Wenn Sie im Internet 6.000 x 6.000 Pixel verwenden, handelt es sich tatsächlich um 6.000 x 6.000 Pixel verwenden, ein Bild von wirklich hoher Qualität. Sie können dieses Bild überall im Internet sehen und verwenden . Sie können das hochladen. Du kannst es verkaufen. Sie können kleinere Versionen davon erstellen und sie je nach Größe verkaufen. Sie können hochwertige Aufkleber erstellen und diese auf Red Bubble oder As-Website verkaufen . Lassen Sie mich ein kleines, kleines, kleines Bild für Sie erstellen . Lass uns einen süßen InositPanta-Aufkleber mit rosafarbenem Hintergrund haben. Netter Aufkleber, kein Stil, kein Stil, kein Stil Und jetzt, warte einfach darauf. Du fragst es einfach. Und lass mich dir eins sagen. Es wird viel Zeit in Anspruch nehmen. Wenn es ein qualitativ hochwertiges Bild generiert , wird es einige Zeit dauern. Zunächst zeigt es uns also das Bild, das es generiert hat. Hier ist ein Panda. Darauf müssen Sie etwas länger warten, da das Hochskalieren des Bildes diesem Umfang viel Zeit in Anspruch nehmen wird Das Generieren des Bildes ist also nicht so sperrig. Hier ist ein Aufkleber, der generiert wurde. Der zweite Teil unseres Workflows ist die Aktion. So funktioniert es, es vergrößert einfach die Größe Ihrer Bildkacheln Kacheln, wie Sie sehen können, Kacheln. Dies sind die Breite der Kachel und die Höhe der Kachel. Dies sind einige komplexe Begriffe , die wir nicht verstehen müssen. Wir müssen nur abwarten, wie es funktioniert. Das ist alles. Wie Sie sehen können, funktioniert es Kachel für Kachel, und das hängt auch von der Komplexität der Bilder ab. Ich leite den Vorgang nur schnell weiter. Also hier ist die hohe Qualität, wie Sie sehen können. Was ist hier der Haken? Mal sehen, wie wir es aktualisieren. Wie Sie sehen können, hat es jetzt eine Größe von 5,83 MB Und wenn du es verkleinern willst. Deshalb haben wir qualitativ hochwertige Bilder erstellt , ohne Rs für Skizzen oder Bearbeitung auszugeben Und Sie können sehen dass es 500 KV hat und eine Größe von 5,8 MB Es hat tatsächlich eine große Größe. Und ich hoffe, du liebst diesen Vortrag. Wir sehen uns in der nächsten Vorlesung. Danke fürs Zuschauen. 36. ControlNet und verschiedene Präprozessoren verstehen: Wie es funktioniert. Wie Sie sehen können, gibt es ein stabiles Diffusionsmodell und hier ist ein Kontrollnetz. Und wie Sie sehen können, gibt es einen Zeitdecoder, einen Textdecoder, einen Encoder, einen Zeitcoder-Eingang, einen Encoder, einen Encoder, einen Encoder-Encoder . Es gibt einen Ausgang. Also geben wir einfach die Bildaufforderung und sie verarbeitet das mittlere Feld wie ein K-Sampler, wie wir bereits in unseren vorherigen Vorlesungen besprochen haben, und dazu gibt es eine Ausgabe Das sind also alles Informationen, die kodiert und dann dekodiert werden und dann haben wir Also jetzt kommt hier ein Kontrollnetz. Wenn Sie die Eingabe geben, verarbeitet es einfach, gehen Sie zum K-Sampler und mit dieser Mitte funktioniert ein Kontrollnetz, eine Bedingungstransformation, ist eine Bedingung, die generiert wurde Es kodiert einfach alle Bedingungen und danach gibt es seine eigene Ausgabe, es seine eigene Ausgabe die nach Nullfaltung dekodiert die nach Nullfaltung dekodiert wird und wir So funktionieren stabile Diffusion und Konton. Wir gehen nicht auf einen technischen Aspekt ein , weil wir nur das Ergebnis wollen Überlassen Sie all diese technischen Dinge den Ingenieuren, die dahinter arbeiten. Was sind also die Fortschritte des Modells? Verwenden Sie Bucket-Training wie neuartige KI, um hochauflösende Bilder aller zu erwartenden Daten zu erzeugen hochauflösende Bilder aller zu erwartenden oder große Mengen hochwertiger Daten zu verwenden. Die Daten decken die Vielfalt der Situationen ab. Verwenden Sie Zusammenfassungen und Eingabeaufforderungen wie bei Dali und generieren Sie Good. Sie können es nacheinander vorlesen und verstehen. Wir entwerfen neue Architekten und das unterstützt mehr als zehn Typen Tmage to Image, Text to Image Vielen Dank. Hg Informationen. Dies alles sind die Varianten , die generiert wurden, Validator, Tile de Tile Super Resolutions Man kann sehen, dass es einfach das Verhältnis des Bilds erhöht, offene Pausen, offene Pose, andere Art von Tiefe, offene Pause, CE, das ist bekannt als nE Das ist kluge Linienkunst Anime-Strichzeichnung, Scribble, PD, Soft Edge. All dies sind Fachbegriffe, offene Pause plus irgendwelche anderen Kontrolle bedeutet, dass wir unsere Bilderzeugung kontrollieren werden. Der Name selbst hat uns viel erklärt. Dies ist als Control Nt bekannt. Lassen Sie uns es jetzt praktisch verwenden. Wir sehen uns in der nächsten Vorlesung. Danke fürs Zuschauen. Danke für deine wirklich, wirklich abendlichen Kritiken. Ich liebe es wirklich 37. ControlNet Aux-Präprozessoren Bildausgabe mit unterschiedlichen Prozessoren: Verwenden Sie den Control Net-Knoten, wir benötigen einen Abschnitt mit benutzerdefinierten Notizen, und den werden wir installieren Gehen wir zunächst zum Manager und dann zum Custom Node Manager. Suchen Sie nun nach dem Begriff Venture. Suchen Sie nach SI PH E XYZ. Versuchen Sie es mit dem Update. Wenn Sie es nicht installiert haben, müssen Sie es installieren. Ich habe es gerade aktualisiert, neu gestartet und neu gestartet. Suchen Sie danach nach einem Präprozessor. Comfy Control Net-Hilfspräprozessor. Versuche es zu aktualisieren Ich habe es bereits installiert, ich habe es gerade aktualisiert, und wenn nicht, müssen Sie es installieren. Das ist alles. Gehen Sie jetzt zu Com f Roll und suchen Sie nach Cf Studio Szel versucht es zu installieren Also, nach der Installation all dieser Knoten, klicken Sie einfach Es könnte einige Zeit dauern. Gehen Sie jetzt in Ihrer CI-Oberfläche zu Bearbeiten, Arbeitsablauf löschen. Jetzt wurde der Workflow gelöscht. Jetzt fügen wir einen Knoten hinzu. Suchen Sie nach CtrolNTPre und Sie können den Control Net-Präprozessor sehen Hier ist der Name, Art Venture, Loader, klicken Sie darauf. Jetzt können Sie sehen, dass hier der Control-Präprozessor ist. Dieser Knoten hat also einen Bildeingang und einen Bildausgang Klicken Sie einfach, ziehen Sie den Punkt heraus und Sie können sehen dass Sie hier das Ladebild auswählen müssen. Sobald Sie das Bild geladen haben, laden Sie das Bild automatisch aus meinem CofiFolder und ziehen Sie es auf der rechten Seite Sie können entweder das Bild speichern oder das Vorschaubild verwenden. Ich verwende hier „Bild speichern“, sodass unser Bild automatisch gespeichert wird. Also lassen Sie uns jetzt Q dazu auffordern. Wenn Sie das Bild einfach bearbeiten, wie Sie sehen können, haben wir ein wirklich schönes, erstaunliches Ergebnis. Ich mache nur Spaß, es gibt kein Ergebnis. Es ist dasselbe Bild, das ich mit demselben Bild erstellt habe , das hier geladen wurde Es zieht dieses Bild einfach ohne Prozesse heraus Warum? Weil kein Präprozessor ausgewählt wurde Also müssen wir den Präprozessor auswählen. Sie können sehen, dass es viele, viele Dinge gibt Wie wir bereits erwähnt haben, gibt es ein Kritzelei in der Kunst, Tier in der Kunst, ein PD, MS-SD-Posen Wie Sie sehen können, wurden all diese Posen, all diese Prozesse hinzugefügt Es gibt also viele Prozesse , über die wir bereits ein wenig im Überblick gesprochen haben und über die wir in unserer vorherigen Vorlesung Canny Scribble, MLSDPoses, Open Pose Wir werden sie alle nacheinander verwenden . Lassen Sie uns nun für die Klugen entscheiden. Wir haben Canny Processor Overt, keinen und nur Jetzt können Sie sehen, dass hier die Eingabeaufforderung Ky ausgewählt, Cy Prey, Q ausgewählt ist. Es gibt einen Unterschied. Strichzeichnung, Q-Eingabeaufforderung, hier ist eine weitere Ausgabe, Scribble-Eingabeaufforderung, hier ist Scribble MLSD-Que-Eingabeaufforderung, hier ist mlsDoPut, Beitrag öffnen, Beitrag öffnen funktioniert Manche Präprozessoren funktionieren je nach Bild nicht . Sie müssen den richtigen Control Net-Präprozessor für dieses spezifische Bild auswählen für dieses spezifische Sie müssen damit experimentieren. Jetzt können Sie hier das Kenny-Ergebnis sehen, das wir haben, was der Präprozessor mit dem Bild gemacht hat Es nimmt die Informationen aus dem Bild heraus, wie das Bild aussieht, indem die Belichtung und die Schatten des Bildes Wie Sie sehen können, liegt eine Belichtung vor. Und es erzeugt einfach eine Exposition daraus. Das Objekt wurde in diesem Bild hervorgehoben und der Hintergrund ist getrennt. Es prüft also nur die Kanten, den Umriss und die Tiefe. Tiefe bedeutet Schatten, Belichtung und die Entfernung zwischen Objekt und Hintergrund. Wie weit der Hintergrund vom Bild entfernt ist oder wie weit er vom Bild entfernt ist, verarbeitet also einfach alle Informationen und gibt uns das Ergebnis, das wir in unseren kommenden Vorlesungen in unserer KI-Bilderzeugung verwenden werden in unseren kommenden Vorlesungen in unserer KI-Bilderzeugung verwenden . Sie müssen also auch mit der Auflösung experimentieren. Sobald Sie die Auflösung erhöhen und versuchen, sie erneut zu verarbeiten , erhalten Sie möglicherweise ein besseres Ergebnis oder in einigen Fällen auch kein besseres Ergebnis Kann er es sich ansehen? Es gibt also eine Grenze der Auflösung, die Sie für den Kenny verwendet haben. Sie müssen also überprüfen, welche Auflösung für Sie gut funktioniert. Jetzt haben wir verstanden, wie Sie sehen können, hier ist die Pose. Er ist die Pose, aber sie funktioniert nicht. Suchen wir nach einem anderen Bild. Nein. Nein. Lass uns hier nach der Pose suchen, CP, wie du siehst, hier ist die Pose. Die Pose ist also wie ein Strichmännchen. Es verwendet einfach die Pose des Bildes entsprechend dem Gesicht, es erkennt eine Phase. Und beim Gesicht schaut es einfach nach den Händen und Rändern des Bildes, als ob das die Ränder wären. Also Löte, es erkennt Lötstellen wie Grenzen. Er ist der Körperteil, das sind die Hände, und hier sind die Also musst du es ausprobieren. Du musst es selbst verstehen. Wählen Sie die gewünschte Tiefe und wir erhalten eine Tiefenkarte für das Bild Es könnte ihm also einen hellen und einen dunklen Bereich geben , sodass die KI die Objekte und die Helligkeit der Objekte verstehen Objekte und die Helligkeit der Objekte kann, also wie weit sie schauen In diesem Fall, wie Sie sehen können, die Helligkeit, der Kontrast, der Hintergrund und das Bild. Es funktioniert wirklich, sehr gut. Ich hoffe, Sie verstehen die Grundlagen dieses Kontrollnetzprozessors. In der nächsten Vorlesung werden wir diese Details in unserem Arbeitsablauf verwenden. Wir sehen uns in der nächsten Vorlesung. Vielen Dank fürs Zuschauen und bitte geben Sie ihm fünf Sterne. 38. ControlNet und Flow-Ausgabe im Vergleich: Nach dem Update war das Problem, mit dem ich in der CUI konfrontiert war , dass sie nicht mit SD Excel oder ST 1.5 funktioniert Ich weiß nicht warum, was der Grund dafür ist. Aber die Fallbeispielen zeigen während des Vorgangs immer einen Fehler Also habe ich angefangen, an Flux zu arbeiten, und es hat gut funktioniert Und die Ergebnisse sind wirklich gut besser als bei SD und ST Excel. Wir werden also über Flux sprechen und darüber, wie man Control Net mit Flux benutzt und wie man es benutzt. Wie Sie sehen können, können Sie auf der linken Seite sehen, dass es das Originalbild ist, das ich verwendet habe, und auf der rechten Seite, mit dem Flux-Modell, wirklich gute Ergebnisse erzielt, wie Sie sehen können. Ich habe mit diesem Bild mehr Ergebnisse erzielt und einige weitere Bilder, die ich mit Ihnen teile. Sie können es einfach überprüfen und verstehen, wie diese Dinge funktionieren. Ich werde in den nächsten Vorlesungen über den Arbeitsablauf und die Verwendung dieses Workflows berichten. Sie müssen sich nur ruhig hinsetzen und diesen Arbeitsablauf verstehen. In der Zwischenzeit können Sie die generierte Ausgabe überprüfen. All diese Dinge wurden mit unterschiedlichen Einstellungen erstellt, wir werden sie alle in der kommenden Vorlesung besprechen. 39. ComfyUI Advanced-Workflow für Control Net – Bilder manipulieren: Hallo, mein Freund. Willkommen zurück und danke, dass Sie diesen Kurs besucht haben. Ich weiß das wirklich zu schätzen. Und wenn möglich, bewerten Sie diesen Kurs bitte mit fünf Sternen. Es wird mir helfen. Im Moment ist das eine Art Netz und es fühlt sich beängstigend an, bis ich es erkläre. Zuerst müssen Sie zu Ihrer Ressourcendatei gehen und diese einfach wie folgt in Ihren CUI-Workflow ziehen Und das werden Sie sehen. Dies ist der Workflow, den ich für Sie generiert habe. Es handelt sich um eine einfache Flusskontrolle, mit der wir unsere Bildausgabe entsprechend dem Bild steuern können , das wir eingeben werden. Das ist Tazml aus Indien und gehört zu den Sieben Weltwundern Sobald Sie diesen Workflow geladen haben, werden Sie zwei Dinge sehen Erstens werden Sie hier und irgendwo hier eine hellrosa Farbe des Knotens sehen . Warum? Weil der Knoten , den ich hier verwendet habe , nicht in Ihrem System installiert ist, müssen Sie ihn also installieren. Also wie kannst du es installieren. Zuerst müssen Sie zum Manager gehen. Sie in Ihrem CFUI-Workflow zu Manager und Gehen Sie in Ihrem CFUI-Workflow zu Manager und klicken Sie auf Fehlenden benutzerdefinierten Knoten installieren Wenn Sie darauf klicken, werden die Knoten hier angezeigt. Im Moment wird es keinen Knoten , der hier erscheinen wird, da ich ihn bereits installiert habe. Aber im Moment wird nur überprüft, ob es einen Knoten gibt , den ich verpasst habe oder nicht. Sobald der Knoten hier erscheint, müssen Sie diesen Knoten installieren und Ihr System neu starten. Wenn es kein Neustart ist, müssen Sie ihn erneut so abschneiden und Ihre CUI hier erneut von Anfang an ausführen. Sie müssen sie erneut mit der NVDA-GPU ausführen, Sie müssen sie erneut mit der NVDA-GPU ausführen und wenn Sie eine CPU haben, müssen Sie von der CPU aus starten Nach der Installation müssen Sie benutzerdefinierte Knoten installieren Ich nehme ein Szenario und wenn Sie hier keinen fehlenden Knoten finden, müssen Sie zum Custom Node Manager gehen und nach X Lab Sampler suchen Suchen Sie nach xLab. Schauen wir es uns an. Benutzerdefinierter Knoten. Warten Sie einige Zeit und suchen Sie nach Xab. Hier ist der X-Lab-Knoten. Gemischte X-Lab-Knoten, wir haben X Flux CPI, Sie müssen ihn installieren Man muss Lab mischen, man muss es installieren. Sie müssen beide installieren, und der Knoten wird hier angezeigt. Und wenn nicht, müssen Sie nach der Installation dieses Nodes, falls er hier nicht angezeigt wird, auf Search for xlab doppelklicken, nach dem Knoten suchen, den ich hier verwendet habe, und Sie können sehen, dass dies der ist, den ich verwendet habe Sie können ihn sehen und einfach anklicken. Hier ist der Knoten. Übrigens musst du nicht so weit gehen. Dieser Workflow wird also perfekt funktionieren. Mach dir keine Sorgen. Ich habe es bereits getestet. Und danach, wann immer Sie die Aufforderung ausführen, was passieren wird, bleibt Ihre Aufforderung hier und hier hängen, was wir tun müssen. In diesem Fall, wie Sie sehen können, gibt es hier einen Flux One DEV quiveks dot Du musst danach suchen. Beispiel: Flux, ein Tag vier, unser Quartal oder Quartal. Alles, was du benutzen kannst. Das hat einen Wert von immer noch acht. Wenn Sie eine Karte mit höherem VRAM oder höherer Grafikkapazität haben, können Sie Qu 8 verwenden, was einige Zeit in Anspruch nehmen kann. Also lass uns danach suchen Sie können Quartal, Datum , drittes Quartal, vier acht sehen , klicken All unsere Werte wurden hier angezeigt und Sie können Wie können Sie es also herunterladen, wenn Sie zur Quelldatei Hugging past dot Man gehen und nach GGUF suchen, Sie können nach Quarter, odqterthquter, qQourQqar o qu richtig suchen, und im Moment verwenden wir Quarter Five . Wie sie auch hier schon erwähnt haben, wo du es herunterladen musst. Wie sie auch hier schon erwähnt haben, wo du es herunterladen musst. Sobald Sie auf Herunterladen geklickt haben, müssen Sie zur ComfUI Models Unit wechseln Lass es uns überprüfen. Gehe zu Cou Models. Suchen Sie nach UT. Hier ist eine Einheit. Wie Sie sehen können, habe ich es bereits heruntergeladen, und sobald Sie diesen Xllab-Sampler einmal ausführen und er Ihnen eine Fehlermeldung gibt, was er tun wird, wird ein Ordner mit dem Namen XLab Xllab-Sampler einmal ausführen und er Ihnen eine Fehlermeldung gibt, generiert ein Ordner mit dem Namen Aber zuerst müssen Sie es einmal ausführen. Selbst wenn es Ihnen einen Fehler gibt, müssen Sie es nur ausführen. Sobald Sie es ausgeführt haben, wird dieser Ordner automatisch im CPI-Modell generiert . Klicken Sie einfach darauf und Sie können sehen, dass es einen Control-Ordner hat Sie müssen nur doppelklicken und Sie können sehen, dass es eine Datei gibt Flux dap Control net V drei Safer Enter, und hier ist die Datei Laden Sie das Flux-Kontrollnetz ein. Hier ist eine Kontrollfluss-Dap-Steuerung. Wie wir bereits über den Hilfsprozess gesprochen haben, was er bewirken wird. Um es verarbeiten zu können, benötigen wir also ein Netz zur Kontrolle der Flusstiefe, das speziell mit dem Flussmittel arbeitet. Und lassen Sie uns das überprüfen und nach der Tiefe suchen und es ausführen. Mal sehen, was wir bekommen. Hier ist die verfügbare Nettoverschuldung der Kontrolle. Und auf dem gleichen Bild, was wir bekommen werden, warten wir eine Weile, und wir haben nichts, wie Sie sehen können. Hier ist nichts, was wir sehen können. Warum das hier passiert ist, wir müssen mit den Einstellungen von Control Net spielen. Lass uns sieben draus machen. Okay. Mach es auf Denise 0.8 und lauf nochmal. Also, wie du dieses Flux Deep Control Net herunterlädst, du musst zu Flux Depp Control Net gehen, du musst zu Flux Dp Control Net V drei gehen, danach suchen Sie können sehen, dass Hugging Face den ersten Link zum XLLab hat den ersten Link zum XLLab Hier ist die Demo, die sie gezeigt haben. Hier ist die Datei und lade sie herunter. Wo du runterladen musst, habe ich schon erwähnt. Du musst es im X-Flux im Kontrollnetz herunterladen. Siehst du, wir bekommen ein Ergebnis. Gehen wir nun zur Stärke 0,4 des Bildes und zur Rauschunterzeichnung von 0,5 und schauen wir uns an, ob es funktioniert oder nicht Wow. Nun, das ist die Bildgenerierung, die wir haben. Aber dafür müssen wir bis fünf gehen und prüfen, ob es mit dem gewünschten Bild funktioniert. Und ich habe den Wert hier erhöht, die Stärke des Bildes erhöht, um es zu kontrollieren. Wie Sie sehen können, kommen wir irgendwo hin, wie Sie sehen können, im Wald, ein Gebäude, das mit Gras bedeckt ist, und hier ist die Kraft , die es verbraucht. Erhöhen wir die Stärke weiter um 0,7. Und Q hat dazu aufgefordert. Ja, wir kommen weiter, und im Moment werden 0,8, eins, sechs und Q gefragt. Du verstehst die Idee, oder? Dies ist der grundlegende Arbeitsablauf für das Kontrollnetz, das Flux verwendet. 40. Fortgeschrittene ComfyUI-Techniken Hochwertige Ausgaben mit mehr Kontrolle auf Depth Map Control Net: Und wenn Sie auf Band zu XAV Control N wechseln, können Sie sich hier einen weiteren Arbeitsablauf ansehen Hier ist ein weiterer Workflow, laden Sie ihn einfach herunter. Und sobald Sie ihn heruntergeladen haben, lade ich ihn einfach in meinen Workflow-Ordner, Control Tab, Band drei, herunter und gehe einfach zu Ihrer Oberfläche, drücken Sie die Plus-Taste, klicken Sie, gehen Sie zum Control Net Tab-Workflow und fügen ihn hier ein. Und hier ist der bereits vorbereitete Workflow, den Sie verwenden können. Und wenn Sie einen der Knoten in der hellrosa Farbe sehen, müssen Sie nur zum Manager gehen und den fehlenden Knoten installieren. Sie müssen nur hier klicken und einfach ein Bild hochladen. Lassen Sie uns dieses Bild öffnen. Hier ist das Bild, und jetzt fordern Sie es einfach mit Q auf. Es erstellt eine DAP-Map des Bildes. Midas Tap-Karte. Während dieses Vorgangs habe ich diese Art von Fehler Hier ist der Fehler, den ich bekommen habe. Also hier ist das Diffusionsmodell. Also müssen wir hier für das Diffusionsmodell auswählen. Wählen wir Plug Tav. Hier ist der Fehler. Lassen Sie uns es erneut aufrufen. Außerdem Dave Sapner Es wird das Modell geladen. Es funktioniert jetzt Ich ändere hier nur das Diffusionsmodell. Das ist alles. Das ist der Flux. Und im Moment leistet xAB seinen Teil dazu. Und jetzt funktioniert xLB. Warte eine Weile. Dies war das Bild , das wir verwendet haben. Und das ist das Bild, das wir bekommen haben. Und ich habe es geliebt. Ich habe es wirklich geliebt. Die Art und Weise, wie dieses Bild detailliert beschrieben wurde, ist wirklich unglaublich, wirklich erstaunlich. Wie du sehen kannst, Wow. Jetzt lass uns BEA sein, wunderschön. Frau, warte, schöne Frau im schnellen roten Kleidungsstil, Mode, Arbeitsbild. Jetzt habe ich unsere schöne Frau für den Abschlussball im roten Kleidungsstil benutzt . Ich hab's. Lassen Sie uns es jetzt mit dieser Aufforderung erneut aufrufen. Ich speichere diesen Workflow für Sie. Arbeitsablauf exportieren. Natürlich. Sie finden es in der Ressourcendatei. Ich werde diesen Workflow speichern und in der Ressourcendatei mit Ihnen teilen , damit Sie sich keine Gedanken über den Workflow machen müssen. Wir erzielen ein Ergebnis. Ich weiß nicht, ob die Hände okay sind oder nicht. Das ist der Arbeitsablauf. Kannst du das verstehen? Ich gehe von diesem Sampler Wie beim K-Sampler gibt es einen X-Lab-Sampler von einem Drittanbieter, und Sie können sehen, dass wir ein verbundenes Modell haben Wir haben miteinander verbundene Bedingungen. Hier ist ein Clip, und wir haben latentes Bild miteinander verbunden , wie wir es bereits in unserem Basismodell getan haben Und damit haben wir den Zustand des Kontrollnetzes verbunden. Er ist ein Kontrollnetz-Zustand. Bei dieser Bedingung gibt es ein Kontrollnetz, das die Tiefe des Bildes kontrolliert. Hier ist das Bild, und hier ist das Bild , das mit zusätzlichem Dapmp generiert wurde Hier ist das Bildbild. Das ist das Bild, das hierher gehört. Hier ist das Kontrollnetz des Bildes, und hier ist das Modell, das das Kontrollnetz verwendet, um diese Tab-Map hier zu erstellen. Und um ein Diffusionsmodell zu verwenden, müssen wir einen dualen Clip-Coder Hier ist der zusätzliche Clip-Encoder , der einen Prompt, einen negativen Prompt, einen positiven Prompt hat, und hier ist die Bildvorschau und hier ist die Bildvorschau für die DAP-Map, die erstellt wurde, und hier ist ein Vorschaubild, hier ist das gespeicherte Bild der Tap-Map. Und hier ist das Diffusionsmodell. Dual-Clip-Encoder, Diffusionsmodell. Und hier ist ein reichlich latentes Bild. Wenn Sie den gesamten Arbeitsablauf gründlich überprüfen, werden Sie feststellen, dass all diese Notizen auf eine gemeinsame Weise verwendet werden Die Ergebnisse sind gut, Hände jedoch nicht. Lassen Sie uns erneut Q dazu auffordern und einige Zeit warten. Ich springe einfach in die Zukunft. Sobald Q dazu aufgefordert wurde, funktioniert der Workflow nicht. Warum? Weil wir ein Geräusch oder eine Störung haben, die behoben ist. Also mache ich es einfach nach dem Zufallsprinzip und jetzt wird Q gefragt, warte eine Weile, und jetzt springe ich einfach wieder in die Zukunft Wir haben das Ergebnis. Und jetzt sind die Ergebnisse gut, aber die Hände sind nicht gut. Ich liebe das Ergebnis. Sie können das Bild sehen. Schauen wir uns jetzt ein anderes Bild an. Ich schaue es mir einfach hier an. Ich rufe es nochmal an, das ist eine wunderschöne Frau mit plüschem, magischem Hintergrund Einfach draufklicken. Und ich glaube, es gibt einen Hinweis, und ich weiß nicht, ob es funktioniert oder nicht. Und hier ist eine wunderschöne Frau mit magischem Flash-Hintergrund. Und ob es funktioniert oder nicht, warten wir darauf. Warte auf das Ergebnis. Ich denke, es wird nicht das Ergebnis erzielt. Und ich glaube, wegen der Aufforderung, die ich benutzt habe. Also lassen Sie uns es erneut auffordern. Jetzt habe ich eine wunderschöne Frau in blauer Mode mit magischem Hintergrund verwendet . Und mal sehen, ob wir das Ergebnis bekommen oder nicht. Es wurde versucht, es zu erstellen oder neu zu erstellen. Und es hat eine dritte Hand. Gruselig. Aber ja, es ist ein Versuch, das zu erstellen, wie Sie sehen können, es wurde versucht, das zu erstellen, aber ich denke es ist ein bisschen schwierig, das zu generieren Versuchen wir also noch einmal, ein Porträt zu verwenden. Versuchen wir, dieses Bild zu porträtieren. Also mache ich einfach wieder ein Porträt, ein gut definiertes Porträt unseres Bildes, und klicke jetzt auf die Aufforderung. Und ich hoffe, dass wir dieses Mal etwas bekommen. Sie können mit der Image-Dap-Map herumspielen, wenn Sie möchten. Den Dual-Clip-Coder müssen Sie für den Flux auswählen Das ist der wichtige Teil. Sobald Sie die Einstellungen verstanden haben und wissen, wie diese Werte funktionieren, werden Sie wissen wie Sie Ihre Ausgabe jedes Mal steuern können. Ich habe das Gefühl, etwas verpasst zu haben. Warum? Ich habe das Gefühl, ich muss einfach auf dem Tisch sitzen, auf dem Tisch sitzen, Stift halten, lila, im Moment ist das Ergebnis gut, aber nicht so viel. Lassen Sie uns das jetzt mit einer anderen Aufforderung überprüfen. Ich nehme so viele Beispiele , damit Sie es richtig verstehen können. Und Sie werden die Idee kennenlernen, wie man mit den Werten herumspielt, wie man mit einer Eingabeaufforderung herumspielt, wie man mit dem Bild herumspielt. Deshalb verwende ich so viele Beispiele, um es Ihnen zu erklären. Im Moment funktioniert es nur mit der Tap-Map, und in der nächsten Vorlesung werden wir einen anderen Map-Typ verwenden, Kenny-Kanten und viele weitere Steuerungen, die wir in unserer nächsten Vorlesung verwenden werden. Verstehe sie eins nach dem anderen. Kannst du sehen, dass die Hände gleich sind, fast gleich. Die Ergebnisse sind einigermaßen ja, gleich, aber das Ergebnis gefällt mir wirklich nicht besonders. Also ja, die Ergebnisse sind einigermaßen identisch, ja, wie Sie sehen können, erzeugt die DAP-Map ein wirklich gutes Bild, aber es ist kein Hingucker. Lassen Sie uns versuchen, uns zu regenerieren, und ich ändere einfach den magischen Waldhintergrund in einen magischen Waldhintergrund Und ich hoffe, dass es uns dieses Mal gefällt. Ich hoffe, dass Sie mit diesem Ergebnis eine Vorstellung davon bekommen, wie diese Aufforderung funktioniert und wie dieser Workflow funktioniert. Lassen Sie uns nun in einen anderen Teil dieses Kontrollnetzmoduls eintauchen . 41. Übersicht über die Erstellung unserer eigenen LORA: Bevor wir weitermachen, möchten wir uns daran erinnern , dass wir dies in unserer letzten Vorlesung erstellt haben Und danach habe ich einfach geschaffen: Oh, das bin ich. Ich komme gerade aus dem Weltraum und gerade trage ich nur den Astronauten und ich möchte mein persönliches Projekt hier nicht teilen, aber es kommt einfach vor dir raus, also muss ich das mit dir teilen Im nächsten Modul erfahren Sie also, wie wir unsere eigene Laura erstellen und diese für den persönlichen und beruflichen Gebrauch verwenden können , und Sie können Ihre eigene Laura erstellen, indem Sie andere Art von Image-Patch verwenden Das bin ich, und Sie werden im kommenden Modul erfahren , wie wir diese Laura verwenden werden. Ich habe es gerade an mir selbst ausprobiert . Siehst du, wie gut ich aussehe Das bin ich im Krieg. Das bin ich. Wow. Ich fliege nur. Und das ist mein Nebengeschäft. Das ist mein Nebengeschäft und ich bin auch Superman Das ist auch mein Nebengeschäft, und ich bin gerade Iron Man Das bin ich in der Tose-Welt und hinter mir ist Nebula Das bin ich, mein hübsches Ich. Das bin ich. Kannst du sehen, wie gut ich aussehe? Und ich habe ein Sixpack. Ja. Das bin ich, meine Muskeln und meine Achseln. Das bin auch ich, ich, ich, ich, ich. Das bin ich, mein hübsches Ich, ich bin wunderschön. Das bin ich. Sohn, das bin ich. Das bin ich. Das bin ich. Das bin ich. Das bin ich. Das bin ich. Das bin ich. Das bin ich, ich, ich. Und es sieht wirklich echt aus. Die Leiche, kannst du die Leiche sehen? Wie es einfach alles zusammenführt. Das bin ich. Das bin nicht ich, nicht ich. Und das bin nicht ich. Das ist wunderschön für mich. Kannst du sehen, wie schön ich bin? Das bin ich. Das ist ich habe einfach irgendwas geschaffen. Kannst du Das bin ich, ich, ich, ich, ich, ich, und kannst du es sehen? Ja, du kannst dein eigenes Bild verwenden, deinen eigenen Flux, deine eigene Laura. Und benutze sie für jede Art von Dingen. Im nächsten Modul werden wir also lernen, wie wir unser eigenes A erstellen können und wie wir diese Laura mit Flux verwenden werden, um unsere Bilder zu erstellen. Sie können also selbst mit diesen Bildern herumspielen. Darüber werden wir in der kommenden Vorlesung sprechen. Dies ist nur ein Überblick. In einer Vorlesung werden wir etwas über CNET lernen . Ich werde Ihnen einen Arbeitsablauf vorstellen , der sehr praktisch sein wird Und in der nächsten Vorlesung werden wir lernen, wie man all diese Las benutzt Okay? Also in der Lx-Vorlesung. Danke fürs Zuschauen 42. Erweiterter ControlNet-Workflow in einer Tiefenkarte: Das ist also der Arbeitsablauf , den ich mit Ihnen teilen werde , und Sie können ihn aus Ihrem Ressourcenbereich herunterladen Sie müssen es nur so ziehen und es wird hier angezeigt. Es gibt eine Reihe von Knoten , die Sie installieren müssen. Keine Sorge, das werden wir lernen. Das ist der Arbeitsablauf und schrecken Sie nicht davor zurück. Okay. Das ist wirklich einfach zu benutzen. Also zuerst musst du verstehen, wie diese Dinge funktionieren. Es lädt einfach das Bild. Es verarbeitet es einfach, verarbeitet es, verarbeitet es, verarbeitet es, verarbeitet es, und dann kommt jetzt Clip-Textcode, in den wir unsere magische Aufforderung einfügen. Danach gibt es nur noch das Kontrollnetz, wie das Bild aussehen wird. Man holt sich einfach den Überblick oder die Skizze des Bildes. Danach hat es einfach das Bild hier erstellt. Danach wird das Bild einfach hochskaliert, um eine höhere Qualität zu Also lass es uns jetzt nicht benutzen. Dies ist der Teil, der nicht verfügbar und deaktiviert ist. Sie müssen nur auf Unfähig oder Deaktivieren klicken. Du kannst es mit allem machen. Okay? Dieser Workflow ist also wirklich einfach zu verwenden. Es wird so viele Knoten geben, dass es installiert werden kann. Sobald Sie also auf den Hinweis Manager, Install Missing klicken werden Sie sich so viele Nodes ansehen und Sie müssen nur hier klicken und einen nach dem anderen installieren oder hier installieren. Installieren Sie es und starten Sie Ihre Comp-Benutzeroberfläche neu. Das ist alles Danach werden wir also das Gufflux-Modell laden. Wo Sie das bekommen, um es zu installieren, müssen Sie nur zum Manager gehen, Sie müssen nur zu Model Manager gehen Sie müssen nur nach qu five suchen und Sie können sehen, dass Sie nur einen von ihnen installieren müssen Verwenden Sie nicht die Version von Flux One Snail. Sie müssen Flux GGF verwenden. Du musst nur diesem Namen entsprechen. Wie Sie sehen können, ist dies der Flux D Quarks Dot GGF. Sie müssen nur zu Manager gehen, diesen Namen zuordnen, Go to Modern Manager und Flux Q Quarter installieren Dies ist der Name, der korrekt übereinstimmt, und Sie müssen ihn nur installieren . Das ist alles was du tun musst. Je nach Größe der Datei kann es einige Zeit dauern. Im Moment ist es eine Datei mit acht GB. Sie müssen es nur installieren. Einfach und sehr benutzerfreundlich. Okay? Das hat eine Spanne von Viertel bis acht Ir Qu 8 ist das beste. Wenn Sie einen höheren VRAM haben, können Sie O Qu Eight verwenden Und wenn Sie einen niedrigeren VRAM haben, habe ich 16 Gigabyte VRAM, also verwende ich Okay. Und wenn Sie eine niedrigere Version von VM haben, können Sie eine niedrigere Version des GGUF-Modells verwenden Danach wirst du ein rotes Streifenhaar, einen roten Strich oder ein rotes Randhaar sehen Strich oder ein rotes Randhaar Sie müssen diesen Namen nur erneut kopieren. Suchen Sie nach Flux Slashaedt SafNer Manager, gehen Sie zu Model Manager und suchen Sie können sehen, das ist das, das ich installiert habe, Flux One VAE Modell 335 MB, VEE-Modell, VEE-Modell Und lass mich dir eins sagen. Bitte installieren Sie nicht einfach etwas von Cf UI. In der Cf-Benutzeroberfläche laufen gerade einige Hacks. Du musst dich also nur vor Cf UI retten . Hacking-Software geht nur auf Malvey PC. Sie müssen nur sichergehen, dass Sie genau den gleichen Dateinamen kopieren, den ich Ihnen zeige Die sind sicher zu benutzen, okay? Okay, du musst das nur installieren. Also geh wieder zurück. Und das gilt auch für diese Datei. Sie müssen nur zum Manager gehen. Model Manager, suche nach dem Namen oder kopiere ihn einfach. Überprüfe einfach den Namen und installiere ihn einfach. Es ist sehr einfach zu benutzen. Und danach sind da Laura, Laura und da ist Prompt. Nun, das Gleiche gilt auch für diesen Clip L. Und wenn Sie die Laura hier aktivieren möchten , können Sie das tun. Sie müssen nur dieses Steuerelement plus M auswählen. Das ist alles. Sie können es aktivieren oder deaktivieren oder einfach mit der rechten Maustaste auf Bypass klicken, rechten Maustaste auf Bypass klicken. Das ist alles, was Sie tun können. Eine andere Sache, du klickst einfach drauf und drückst B, du siehst, ganz einfach. Und es ist nur optional, wie Sie hier sehen können. Es ist nur ein Optal, du kannst es laden. Und wenn du es nicht willst, kannst du es laden. Okay. Und stellen Sie sicher, dass hier Flux ausgewählt ist. Typ ist Flux. Du musst wählen. Wie Sie sehen können, gibt es noch viel mehr Dinge, die Sie hier sehen werden. Und sobald Sie es aktiviert und deaktiviert haben, müssen Sie nur noch eines auswählen Sie müssen nur diesen auswählen. Wenn Sie Flaggen auf der Saka Lab Controller Unit Pro Diffusion, Picho M sehen Lab Controller Unit Pro Diffusion, , müssen Sie nur ein Controlt Load Control-Netzmodell herunterladen Es gibt so viele Steuerungen, die wir hier sehen werden. Und Sie können den Flux SECA Lab Controle Unit Pro Diffusionsteil finden Unit Pro Diffusionsteil und Sie müssen nur zum Manager gehen Kopieren Sie diesen Namen SECA f Control Net Union Pro. Sie müssen nur danach suchen. Nochmals, Mode Manager. Saka Lev Control bei Union P. Ich habe es bereits installiert. Du musst es installieren Das ist alles. Wie Sie sehen, ist es bereits installiert und Sie können wieder zurückkehren und es schließen. Und wenn Sie das nicht finden können, müssen Sie einfach zu Ihrem Workflow gehen und ihn einfach umformulieren. Das ist alles. Und wenn Sie nicht wissen, wie Sie es unterdrücken können , aktualisieren Sie die Notes-Definition Das ist alles, was du gehen musst. A, auffrischen. Und jetzt haben wir schon alles eingerichtet. Du kannst dir das ansehen, schau dir das an. Wir haben einfach alles eingerichtet. Und jetzt das schnelle Model Girl hübsch mit magischem Hintergrund. Kein BeautyFllGirl, in der magischen Welt des Schmetterlings in der magischen Welt des Schmetterlings. Lassen Sie uns jetzt Q auffordern. Ohne dich benutzen wir. Und im Moment habe ich den Upscale-Faktor einfach umgangen , sodass du nicht lange warten musst Und wenn Sie es hochskalieren möchten, können Sie es erneut hochskalieren. Warten wir eine Weile. Der Lader wird geladen. Lass mich dir eins sagen. Wie werden wir das Bild erreichen , das wir verwendet haben? Wie wir einen ähnlichen Effekt erzielen können, besteht darin, diesen Stärke-, Start- und Endprozentsatz zu verwenden . Wie Sie sehen können, ist die Stärke, die ich gerade verwende, 0,7. Der Startprozentsatz ist Null und der Endprozentsatz ist fünf. Sie müssen alle drei Werte mit Ihrem Bild experimentieren. Sobald Sie den Dreh raus haben, sobald Sie die Grundlagen von Stand, Start- und Endprozentsatz verstanden haben, werden Sie lernen, wie man es benutzt. Sobald Sie mit diesem Wert herumgespielt haben, werden Sie sich selbst kennenlernen. Und das ist die Sache, die dir niemand leicht erklären kann. Du musst es nur ausprobieren und du musst es verstehen. Sobald Sie etwa zehn oder 15 Bilder mit diesem Wert und unterschiedlichen Werten erstellt haben, werden Sie erfahren, wie all diese Dinge funktionieren, und Sie werden wissen, wie und was sie für Sie tun werden. Okay? Lass uns eine Weile warten. Du wirst dieses Bild lieben. Wie Sie sehen können, ist dies das Ergebnis, das ich erzielt habe. Mit diesem Bild habe ich das Ergebnis erhalten. Kannst du das sehen? Es ist wirklich unglaublich. Und jetzt danach, wenn Sie diese Art von Control N verwenden, können Sie sie einfach deaktivieren und die zweite Nummer des Kontrollnetzes deaktivieren , und Sie können wieder mit dem Wert herumspielen. Und im Moment verwende ich nur eine Prozentzahl von 0,5, Stärke 0,9. Lassen Sie uns das Q noch einmal aufrufen. Du nimmst einfach eine Zeile aus meinem Bild und wartest auf das Bild. Was wird als Nächstes passieren? Das ist das Bild. Das ist das Bild, und das ist das Bild. Lass uns sie vergleichen. Und das ist die gesamte Ausgabe, die ich verwendet habe. Das ist das Bild. Das ist das Bild. Kannst du sehen, dass die Pose dieselbe ist? Und jetzt danach habe ich ein anderes Bild verwendet. Ausgabe. Das ist das Bild. Das ist das Bild. Das ist das Bild, das ich gerade mit dieser Bildreferenz erstellt habe. Das ist das Bild und hier ist die Referenz. Hier ist die Referenz. Hier ist die Referenz. Hier ist das Bild, und das ist das Bild, das es gerade erstellt hat. Neu erstellt, das ist ein Bild. Bild neu erstellt, hier ist das Bild. Dieses ist ein neu erstelltes Bild. Dieses ist das Bild. Das, Tiss. Dieser. Das ist das Bild. Es wurde gerade mit diesem Bild neu erstellt. Sie können sehen, dass dies das Tasml ist, das gerade das Tasmlimage, das wir zuvor verwendet haben, neu erstellt, neu erstellt, neu erstellt, neu erstellt, neu erstellt Dies ist das Bild, das ich verwendet habe. Dieses Bild habe ich verwendet. Dieser, dieser, dieser, dieser, dieser, dieser, dieser, dieser, dieser, dieser, dieser, dieser, dieser, dieser. Wir haben all diese Dinge auch schon einmal besprochen. Lassen Sie uns jetzt nach unserem Bild suchen, und jetzt wurde gerade ein weiteres Bild mit dieser Struktur erstellt . Sie können mit all diesen Dingen experimentieren. Du musst nur das Häkchen entfernen, das Häkchen setzen und einfach La benutzen Und lass uns nach der Laura suchen. Lassen Sie uns das umgehen. Lassen Sie uns es jetzt erneut aufrufen und erneut auf unser Ergebnis warten. Warte darauf. Wir werden irgendwann reinkommen, lassen Sie uns wieder in die Zukunft springen. Also hier ist das Ergebnis. Es sieht etwas ähnlich aus, aber nicht so sehr. Aber lasst uns die Grundstruktur verstehen und daraus ein Bild erstellen, das dem Liner entspricht , den sie erzeugt hat wir Kenny Control N nennen 43. Lade die richtige Datei herunter, um deine eigene Lora für Flux zu erstellen: Erstelle deinen eigenen Flux. Zuerst musst du zu Pinocchio gehen Ich werde den Link im Ressourcen-Panel teilen. Jim, oder du kannst es einfach googeln. Pinocchio Flux Jim. Das ist alles. Danach müssen Sie zuerst Pinochio herunterladen. Sobald Sie darauf klicken, öffnet sich ein neues Fenster und Sie müssen hier nur noch auf die Download-Schaltfläche klicken Danach wird es geladen und nach unten gescrollt . Laden Sie vier Windows herunter. Es wird heruntergeladen, und es sind ungefähr 100 AmboFle, also ist es heruntergeladen. Ich öffne es einfach, öffne es und starte Doppelklicken Sie einfach auf Colligate und Windows fordert Sie auf, Ihren PC zu schützen Sie müssen nur zu weiteren Informationen gehen. Danach mehr Informationen. Lauf trotzdem. Es wird einige Zeit dauern. Jetzt öffnet sich ein Fenster und Sie müssen Pinocchio nur noch erlauben , die Änderungen an Ihrem System vorzunehmen . Windows wird geöffnet. Sie können Ihr Thema hell oder dunkel auswählen Fenster Als speichern wird geöffnet. Nachdem Sie die Entdeckungsseite besucht haben, können Sie hier alle Informationen überprüfen und je nach Bedarf mit dem Herunterladen beginnen. Aber im Moment brauchen wir nur Flux Jim. Sie können es auf Flux Jim, FluxgyJim suchen. Das ist das Programm, das wir brauchten . Klicken Sie darauf und starten Sie den Download. Scrollen Sie danach im neuen Fenster nach unten und installieren Sie es. Es wird einige Zeit dauern, nicht irgendwann. Es wird viel Zeit in Anspruch nehmen. EQT lädt größere Dateien herunter , wie wir sie zuvor heruntergeladen haben Es sind also etwa 2021 GB Datei. Du musst warten. Der gesamte Vorgang, den Sie hier sehen können, wie Sie sehen können, wird heruntergeladen. Sobald der Download abgeschlossen ist, öffnet sich ein neues Fenster und Sie müssen nur noch als fluxjym dot speichern Es fragt dich nur, wo du deine Dateien herunterladen kannst. Das ist alles. Sie können es unter Get speichern und herunterladen. Auch hier öffnet sich ein neues Fenster, Flux Jim und die Installation beginnt. Jetzt werden wieder viele Dateien für Sie heruntergeladen , warten Sie auf einige 44. Schritte zur Erstellung einer Geschichte – so läuft man richtig: Nach dem Herunterladen sehen Sie diesen Bildschirm. Sie müssen also zuerst nur diese Größe anzeigen, und wenn Sie es danach beenden möchten, können Sie es einfach hier beenden. Lass es uns im Web öffnen, WebUI öffnen, ausklappen, klonen. Wenn Sie auf Wop O klicken, wird es einfach in Ihrem Webbrowser wie in der Benutzeroberfläche geöffnet Es hat also eine eigene Benutzerphase. Also in Jim und Publish, hier ist die Laura und hier ist die Laura-Info. Wie lautet der Name der Laura? Nennen wir es Karen. Transkript. Okay, ich arbeite gerade Es ist Transkriptionsarbeit, also musst du dir keine Sorgen um deine Ausgelöstes Wort. Wort oder Satz. Machen wir es aktuell. Nun, Basismodell, ich verwende Flux, Snell oder Dev. Es funktioniert nicht gut mit Snell, also verwenden wir Flux Also lassen Sie uns nach suchen. Also für den VRAM verwende ich nur 16 Gigabyte VRAM, also überprüfe ich es nur Ich habe 16 Gigabyte oder wenn Sie 12 GBO-Gigabyte haben, können Sie Wiederholt die Züge pro Bild. Mach es einfach, einfach, überprüfe es nicht. Du kannst einfach mit diesen Dingen experimentieren und Trainingsschritte erwarten. Du kannst Nichts. Lass es einfach leer. Einfache Bildaufforderung, mit neuen Zeilen trennen, aktuell. Nehmen Sie nun bei jedem neuen N-Schritt ein Bild ab und ändern Sie die Größe der Datengröße des Bilds. Bleiben wir bei fünf, eins, zwei, Y, wegen der Größe des Bildes. Lass uns jetzt deine Bilder hochladen. Sie müssen einfach nur Ihre Bilder auswählen. Jetzt haben Sie Ihre Bilder ausgewählt Sie müssen nur noch nach Schritt drei suchen und mit dem Training beginnen. Das ist alles. Wenn du willst, kannst du noch einen Schritt machen. Aber bevor Sie mit dem Training beginnen, müssen Sie auch bei Florence nur auf die AI-Überschrift der Anzeige klicken . Sie müssen nur darauf klicken, es installieren und schon wird eine Bildunterschrift für alle Bilder generiert , die Sie verwendet haben. Danach müssen Sie nur noch auf Training starten klicken. Es wird einige Zeit dauern, nicht einige Zeit, es dauert etwa drei bis 4 Stunden abhängig von der Leistung Ihres Geräts und abhängig von den Bildern, wie viele Bilder Sie verwendet haben Es wird viel Zeit in Anspruch nehmen, aber die Zeit, die Sie investieren, wird es wert sein Wenn Sie nun die sichere Datei oder die Laura überprüfen möchten , die vom Training Use Influx Gym erstellt wurde, müssen Sie nur noch zur Veröffentlichung gehen Und im veröffentlichten Bereich sehen Sie einen Link Trainierte La Link. Sie müssen nur diesen Pfad kopieren und zu diesem Teil gehen und hier ist der Ausgabeordner. Sobald das Training abgeschlossen ist, werden Sie sehen, dass hier viele Dateien angezeigt werden. Wie Sie im Datensatz sehen können, ist es der Flux Gym-Datensatz. Im aktuellen Abschnitt können Sie sehen, dass das gesamte Training generiert wurde und die Datei AMB zehn MB, 15 MB. Sie müssen nur warten, bis das Training abgeschlossen sobald das Training abgeschlossen ist Sie müssen nur auf das Beispiel klicken. In meinem Fall funktionierte die Probe nicht. Wenn es in deinem Fall funktioniert, ist es gut. Aber im Moment funktioniert es in meinem Fall nicht. Das Training ist also abgeschlossen. Schauen wir uns nun unser La an , das wir erstellt haben. Also habe ich in meinem Laufwerk C den Ordner Pinocchio erstellt Ich doppelklicke darauf, um es zu öffnen. Suchen Sie jetzt nach API, Flux Git, doppelklicken Sie auf die Ausgabe. Dies ist der Ordner mit dem Namen Current, der gemäß OA generiert wurde . Doppelklicken Sie jetzt darauf. Und im Ausgabeordner des aktuellen Ordners können Sie den aktuellen Safe Third sehen. Das ist also das Loa , das erstellt wurde. Ich kopiere einfach dieses Loa , das ich erstellt habe, und füge es in den Download-Ordner im tragbaren CUI Window Gehe im CUI zu Modellen, wähle Laura aus und füge es einfach Wie Sie sehen können, habe ich die Laura bereits hier eingefügt und führe einfach die Cf-Benutzeroberfläche aus und verwende und verwende den gesamten Workflow , den ich Sie haben bereits die Workflows. Jetzt können Sie Ihre eigenen verwenden. 45. So verwendest du die von dir erstellte Lora: Das ist also der Workflow. Sie finden diesen Workflow in dem Download-Link, den ich Ihnen zuvor zur Verfügung gestellt habe, und Sie finden ihn auch im Ressourcenbereich. Sie müssen sich also keine Gedanken über diesen Workflow machen. Und ich finde, dieser Workflow ist wirklich unglaublich. Also musst du zuerst nach der Laura suchen, wie du hier in der CR Laura Itech sehen kannst. Sie müssen hier die Laura auswählen, die aktuelle Laura, die wir generiert haben. Und was diese aktuelle Laura angeht, du kannst diese Laura herunterladen und Bilder von mir erstellen, und du kannst sie mit mir teilen, und ich werde erst lachen, wenn du dieses Bild von mir erstellt hast. Und ich kann es kaum erwarten, all das Bild zu sehen, das du mit meinen Gesichtswitzen gemacht hast . Jetzt müssen Sie nur noch, wie Sie normalerweise Laura auswählen, Sie müssen diese Laura erneut auswählen. Okay. Also führe die Eingabeaufforderung hier nach der Aufforderung aus, du musst nur auf Q klicken, das ist verkauft Und all die Bilder, die Sie hier sehen werden, es wird einfach laufen. Schauen wir es Was es mir geben wird. Ja, ich bin Astronaut geworden. Und danach füge ich einfach die Eingabeaufforderung ein. Ich kopiere einfach die Eingabeaufforderung aus dem Hut GPT und bitte JA GPT, im Wald etwas Tolles für mich zu kreieren . Das ist die Aufforderung Sie können diese Aufforderung einfach kopieren. Und hier stehe ich alleine. Danach habe ich es so oft versucht und mir dieses Konfui ins Gesicht geschrieben Also hier, wie Sie sehen können, hier sind die Bilder, die generiert wurden So viele Bilder, die ich geschaffen habe, Iron Man, Superman, so viele Und das bin ich, mein Körper. Das ist in der Buddha-Phase. Eigentlich habe ich versucht, etwas Künstlerisches zu schaffen , aber damit funktioniert es nicht gut. Aber nach einigen Testversionen habe ich endlich meine weibliche Version bekommen und du siehst, sie wird immer besser. Während du versuchst. Hier dreht sich alles um Versuch und Irrtum und das auf Epanion basierende Ding Aber eines verstehe ich bei der Kreation von Laura Je mehr Bilder du verwendest , um deine eigene Laura zu kreieren, je mehr Bilder du verwendest, je mehr Bilder du verwendest, desto besser wird es, das Und ich hoffe, du verstehst, was ich sagen will. Und ich bin wirklich dankbar, dass Ihnen dieser Kurs gefällt, und ich bitte Sie, ihm fünf Sterne zu geben Und Ihre positive Bewertung ich wirklich sehr zu schätzen Und ich versuche wirklich, diese Informationen regelmäßig zu aktualisieren und die neueste Technologie mit Ihnen in Come PUI zu teilen Danke fürs Zuschauen. Wir sehen uns im nächsten 46. Installieren von Rastern zu Vektorknoten und grundlegenden Informationen: Willkommen zurück zu dieser CUI-Kursreihe. Deshalb werden wir heute Vektorbilder generieren, und zwar in SVG-Vektordateien, sodass Sie sie nach Belieben immer weiter skalieren können , ohne an Qualität zu verlieren Also musst du zuerst zum Manager gehen. In der CPUI-Schnittstelle müssen Sie zu Manager, Custom Node Manager, gehen und Sie müssen diesen Knoten finden, den ich hier eintippe Suchen Sie jetzt nach SVG. Und installiere CPUI auf SVG, Yanick 11, zwei, und Warten Sie einige Zeit und starten Sie es jetzt neu. Und jetzt müssen Sie bestätigen, dass Sie neu starten möchten, den Server neu starten und bestätigen. Lass uns einige Zeit warten. Jetzt ist es wieder verbunden, mach weiter damit. In der Nähe. Doppelklicken Sie nun auf die Leinwand. Fügen Sie SVG hinzu. Und wie Sie sehen können, gibt es einen SVC-Vorschau-SVG-Vorschauknoten diesem Hinweis können Sie eine Vorschau Ihrer SVG-Datei anzeigen, bevor Sie sie speichern oder verwenden Es hilft Ihnen zu überprüfen, ob alles korrekt aussieht. Speichern Sie den SVC-Knoten. Mit diesem Hinweis können Sie Ihre Arbeit als SVG-Datei speichern. SV-Dateien sind großartig, weil sie nicht an Qualität verlieren, wenn Größe geändert werden, was sie perfekt für Logos und vektorbasiertes Design macht , was sie perfekt für Logos und vektorbasiertes Design Zurück zum Vektorknoten. Bei diesem Vorgang wird ein aus Pixeln bestehendes Bild in einen sauberen, skalierbaren Vektor umgewandelt Dies ist nützlich, wenn Sie ein verschwommenes Bild in ein scharfes, hochwertiges Design umwandeln möchten , von Vektor zu Raster Dadurch wird ein Vektorbild in ein Restbild umgewandelt. Dies ist hilfreich, wenn Sie ein Vektordesign verwenden müssen , das nur pixelbasierte Bilder wie Fotos oder bestimmte digitale Kunstwerke unterstützt wie Fotos oder bestimmte digitale Kunstwerke Von Raster zu Vektor. Dabei handelt es sich um eine spezielle Art der Konvertierung von Raster in Vektoren , der das Bild nur noch in Schwarzweiß dargestellt wird. Machen Sie es nützlich für Logos, Tänze und lineare Bilder. Raster zu Vektorknoten , der farbig ist. Im Gegensatz zur Schwarz-Weiß-Version bleibt bei dieser Methode die Farbe erhalten, während ein Rasterbild in ein Vektorformat konvertiert wird. Es eignet sich hervorragend für die Erstellung eines farbenfrohen Logos und hochwertigen Vektordesigns. 47. Erstellen von Schwarzweiß-Bildern in SVG-Dateien – einfacher Workflow: Jetzt werden wir unser Register zur Zertifizierung verwenden. Lass es uns auswählen. Hier ist der Knoten, der ausgewählt wurde. Und jetzt klicken Sie auf das Bild und laden Sie es mit gebeugter Position. Fügen Sie dieses Bild hier hinzu Diese beiden Knoten sind also miteinander verbunden, und ab und zu fügen wir den Speicherknoten hinzu Bedeutet SVG und wählt SVG oder PV-SVG zum Speichern aus. Ausgewählt, fertig. SVG speichern, Bildhintergrund, SVG-String. Jetzt sind diese verbunden. Jetzt laden wir ein Bild, ziehen es hierher und wenn wir es gerade laden, lassen wir es jetzt Q abfragen. Sobald Sie es auffordern, wird es einfach so schnell wie möglich vom Prozessor ausgeführt . Und für mich dauert es nur 0,2 Sekunden im Handumdrehen, es hat gerade meine SVG-Datei erstellt Schauen wir es uns an. Aber wir haben im Ordner compu erstellt, suchen Sie Ihren Ausgabeordner und suchen Sie nach SVG In der SVG-Datei können Sie sehen, dass es sich um eine SVG-Datei handelt und wie Sie überprüfen können, ob es sich um SVC handelt oder nicht Sie müssen nur nach Illustrator suchen Ich habe Illustrator. Lassen Sie uns verstehen, wie all diese Dinge funktionieren. Okay? Wie Sie sehen können, arbeitet Photoshop in Photoshop mit der Rasterisierung, bei der ein Bild handelt. Photoshop funktioniert also mit Rasterbildern. Wie Sie sehen können, ist es nur gerastert und pixelig. Dieses Pixelbild ist in unserer KI, also in Illustrator , bekannt und wie Sie sehen können, wird es nicht mehr registriert, sobald ich es vergrößert oder verkleinert Illustrator , bekannt und wie Sie sehen können, wird es nicht mehr registriert, sobald ich es vergrößert oder verkleinert habe. Man kann sehen, dass es ausgeruht ist. Wie Sie sehen können, ist dieses Bild pixelig. Dies ist ein einfaches JPac-Bild, und dieses ist ein skalierbares Vektorbild oder eine skalierbare Vektorgrafik oder Es ist ziemlich cool , dass wir unsere Bilder einfach in Vektoren umwandeln können unsere Bilder einfach in Vektoren umwandeln Und wenn Sie weder Illustrator noch Oral Row haben, können Sie CF UI für sich selbst verwenden Wir können das auch in Illustrator tun. Lassen Sie mich Ihnen zeigen, wie es im Illustrator-Bildkleid eine Option Sobald Sie sich das Kleid vorgestellt haben, klicken Sie darauf und es wurde einfach erstellt, wie Sie sehen können, es wurde zu einem Vektor erstellt Es ist ein sehr einfaches Bild. Es ist kein sehr komplexes Bild, daher ist es einfach, es in Vektorgröße umzuwandeln. Wie Sie sehen können, sind beide Ergebnisse ziemlich gut. Hier ist der SV Five. Diese haben wir im Illustrator generiert, und diese haben wir in der CFI-Benutzeroberfläche erstellt 48. Auf Vektor und andere Einstellung wiederherstellen, um bessere Ergebnisse zu erzielen: Doppelklicken Sie nun auf die Leinwand, wählen Sie SVG aus und wählen Sie erneut für Vektor zu Raster aus Wählen Sie dies mit der SVG-Zeichenfolge und fügen Sie nun erneut einen weiteren Knoten Doppelklicken Sie auf Bild speichern. Dadurch wird dein Bild gespeichert. Ihr Bild wird wieder in ein Rasterbild umgewandelt, und Ihr AST-Bild wird hier als PNG-Fünf gespeichert. Also führe es einfach noch einmal aus. Hier ist dein Rasterbild. Und in der CFUI-Aktualisierung. Hat dein Rasterbild. Hazo S VGF. Sobald Sie den Modus ausgewählt haben, befinden sie sich in einem anderen Modus, und wenn Sie ihn polygonieren und erneut ausführen, können Sie den Unterschied in beiden Bildern erkennen? Was es mit Ihren Bildern gemacht hat, Sie können Polygone auswählen, wenn Sie ein gerades Liniendesign haben, wie hier, sie haben ein gerades Liniendesign, und es wird für Sie eine schöne und gerade Linie für den Spline erzeugen , es wird eine glatte Kurve erzeugen, außer im In diesem Bereich sind weitere Einstellungen verfügbar. Sobald Sie mit den komplexen Bildern oder mehr Farbbildern gearbeitet haben, hilft es Ihnen dabei 49. Frage ChatGPT nach der richtigen Werbung: Laden wir den Workflow , den wir zuvor verwendet haben. Hier ist der Workflow für Flux Tape, bringen Sie ihn hier raus. Dies ist die einfache Version , die wir zuvor erstellt haben. Wenn Sie meinen Kursen und meinem Lehrplan gefolgt sind, werden Sie diese Notiz sehen. Und wenn Sie faul genug sind, zu Ihrem Arbeitsablauf zurückzukehren und ihn dort zu finden, laden Sie einfach den Link, den ich Ihnen zur Verfügung gestellt habe, aus Ihrer Ressourcendatei herunter. Und zu diesem Zweck verwende ich Hat GPT, gehe zu Hat GPT und frage Hat GPT, gib mir Eingabeaufforderung für Schwarz-Weiß, gib mir Eingabeaufforderung für Schwarz-Weiß, Cute Dog Prompt für stabile Und im Code schneiden Sie ihn aus, um ihn einfach zu kopieren und einzufügen Fügen Sie es hier ein, führen Sie die Eingabeaufforderung aus, warten Sie einige Zeit, und das ist nicht das Bild , das wir wollen Fragen wir also Chat HpT. Ich will es alleine haben. Stil. Und wenn Sie nicht die Bilder haben, die Sie sich gewünscht haben, müssen Sie dem Chat nur die GPD mitteilen und es im Slot-Design oder Stil angeben, einfach kopieren und erneut einfügen und dazu aufgefordert werden Dafür ist dieser Welpe wirklich süß. Lassen Sie uns wieder einige Zeit warten. Nein, es funktioniert nicht. Hintergrund weiß und ClipArt-Stil. Kopieren Sie es erneut und fügen Sie es hier ein. Danach fordern Sie erneut auf. Und ich hoffe, dass wir es dieses Mal so bekommen wie Slott mit der schwarzen Form, wir Lehmteil, hohem Kontrast, minimalistischer, sauberer Rand, Krawattenstil, Schlichtheit und Pool-Design Ja, jetzt haben wir Phase. Ich konvertiere es in die Q-Doc-Phase. Aber im Moment haben wir eine QTc-Phase, aber ich füge nur die QTc-Phase hinzu. Also lassen Sie uns das Q noch einmal abfragen. Es gibt Ihnen manchmal verschwommene Bilder, aber in der Tagesversion sehen Sie möglicherweise diese Art von Bildern, die verschwommen aussehen Sie können das schrittweise reduzieren, geht auf 30. Und jetzt hat Q wieder gefragt. Dies sind all die Probleme , mit denen Sie konfrontiert werden, und ich zeige Ihnen all die Probleme, mit denen Sie konfrontiert sein könnten und wie Sie all diese Probleme lösen können , mit denen Sie konfrontiert werden Ist das Tempo, aber es gibt kein Augen-Mund-Tempo mit Augen und Mund Abnehmbare Gabel, Kugel-Design, einfacher Cartoon-Stil. Ich habe hier eine Eingabeaufforderung hinzugefügt, wie Sie sehen können, gibt es einen einfachen Cartoon-Stil und einen einfachen Vektor-Stil. Mit der Erhöhung der Anzahl der Schritte kann es bei der Generierung etwas länger dauern, aber versuchen Sie es erneut mit dem Stil, den wir jetzt hinzugefügt haben, und hier ist das Bild, das jetzt nicht verschwommen ist Warten Sie noch einmal eine Weile Und mal sehen, was wir jetzt haben, wir haben dieses Bild. Und jetzt konvertieren wir es in einen Vektor und fügen einen Knoten in diesen Arbeitsablauf selbst ein. Ich werde diesen Workflow mit Ihnen teilen, damit Sie nicht noch einmal arbeiten oder den gesamten Workflow, all Ihren Bi, generieren müssen.