Stabile Diffusion-Masterclass: KI-gestützte Kunstgenerierung für Zeichen-, Illustrations- und Grafikdesign | Chester Sky | Skillshare
Drawer
Suchen

Playback-Geschwindigkeit


  • 0.5x
  • 1x (normal)
  • 1.25x
  • 1.5x
  • 2x

Stabile Diffusion-Masterclass: KI-gestützte Kunstgenerierung für Zeichen-, Illustrations- und Grafikdesign

teacher avatar Chester Sky, Entrepreneur and Producer

Schau dir diesen Kurs und Tausende anderer Kurse an

Erhalte unbegrenzten Zugang zu allen Kursen
Lerne von Branchenführern, Ikonen und erfahrenen Experten
Wähle aus einer Vielzahl von Themen, wie Illustration, Design, Fotografie, Animation und mehr

Schau dir diesen Kurs und Tausende anderer Kurse an

Erhalte unbegrenzten Zugang zu allen Kursen
Lerne von Branchenführern, Ikonen und erfahrenen Experten
Wähle aus einer Vielzahl von Themen, wie Illustration, Design, Fotografie, Animation und mehr

Einheiten dieses Kurses

    • 1.

      Kurs-Vorschau

      1:31

    • 2.

      Installation einer stabilen Diffusion-Benutzeroberfläche

      4:44

    • 3.

      Installation eines stabilen Diffusions-Basismodells

      1:53

    • 4.

      Text in Bild

      13:02

    • 5.

      Bildvariationen

      3:55

    • 6.

      Upscaling

      7:56

    • 7.

      Installation neuer Modelle

      4:09

    • 8.

      Inpainting

      4:29

    • 9.

      Outpainting

      8:49

    • 10.

      Img2Img-Fallstudie

      10:42

    • 11.

      Unendlicher Zoom-Intro

      0:23

    • 12.

      Unendlicher Zoom

      7:58

    • 13.

      Prompts für stabile Diffusion mit ChatGPT erstellen

      3:26

    • 14.

      Installation von Controlnet

      3:35

    • 15.

      Einführung in Controlnet

      6:46

    • 16.

      Einführung in die Videoerstellung mit künstlicher Intelligenz

      4:34

    • 17.

      SD-Konfiguration für die Videoerstellung

      2:58

    • 18.

      Videos mit stabiler Diffusion erstellen

      10:01

    • 19.

      Deflickering-KI-Video

      10:01

    • 20.

      Stabile Diffusion in Photoshop

      9:43

    • 21.

      Intro für Vektorbilder

      0:50

    • 22.

      Erstellen von Vektor-SVG-Bildern

      5:13

  • --
  • Anfänger-Niveau
  • Fortgeschrittenes Niveau
  • Fortgeschrittenes Niveau
  • Jedes Niveau

Von der Community generiert

Das Niveau wird anhand der mehrheitlichen Meinung der Teilnehmer:innen bestimmt, die diesen Kurs bewertet haben. Bis das Feedback von mindestens 5 Teilnehmer:innen eingegangen ist, wird die Empfehlung der Kursleiter:innen angezeigt.

802

Teilnehmer:innen

5

Projekte

Über diesen Kurs

Vom Bestseller-Kursleiter und Autor kommt ein brandneuer Kurs: der STABLE DIFFUSION MASTERCLASS. Dieser Kurs zeigt dir, wie du die Macht der künstlichen Intelligenz nutzen kannst, um atemberaubende, einzigartige Kunstwerke zu erstellen.

Möchtest du Kunstwerke in Produktionsqualität erstellen? Du benötigst schöne Grafiken für deine Projekte, hast aber nicht die Zeit, den künstlerischen Hintergrund oder das Geld, um sie von Grund auf neu zu erstellen. Warum nicht künstliche Intelligenz nutzen, um die Kunstschöpfung für dich zu unterstützen? Er ist schneller, günstiger, einfacher und kann zweifellos bessere Ergebnisse erzielen, als du es alleine könntest. Ganz gleich, ob du ein erfahrener Künstler bist, der seine Fähigkeiten erweitern möchte, oder ein neugieriger Anfänger, der neugierig darauf ist, die neuesten Trends in der Kreativität zu erforschen, unser Kurs hat für jeden etwas.

Der Kurs deckt alles ab, von den Grundlagen der KI-gestützten Kunstschöpfung bis hin zu fortgeschrittenen Techniken, um die Grenzen des Möglichen zu verschieben. Du arbeitest mit einer Vielzahl von KI-Tools und Plattformen und sammelst praktische Erfahrungen mit der neuesten Software.

DIESER KURS ZEIGT DIR, WIE DU DICH:  

  • Verwende das beliebteste Tool zur Erstellung von KI-Kunst: Stable Diffusion. DIE NUTZUNG IST KOSTENLOS!
  • Künstlerische Meisterwerke mit Textaufforderungen erstellen, ohne dass vorherige Zeichen- oder Designfähigkeiten erforderlich sind
  • KI-Kunst in jedem Stil generieren (Disney, Pixar, Anime, Fotografie, berühmter Künstler, alles, was dir einfällt)
  • Deine Bilder anpassen, um sie genau so zu erhalten, wie du sie dir vorhast
  • Inpainting lernen: Tausche Objekte in deinen Bildern durch jedes Objekt aus, an das du dich erinnern kannst
  • Outpainting lernen: bestehende Bilder erweitern, um sie größer zu machen
  • Die Auflösung von Bildern oder Videos erhöhen
  • Unendliche Zoom-Animationen erstellen
  • Videos mit künstlicher Intelligenz erstellen
  • Postproduktionseffekte zur Verbesserung von KI-Videos
  • ChatGPT mit stabiler Diffusion verwenden
  • Stabile Diffusion in Photoshop nutzen
  • Und viel mehr…

 

HEUTE IST DIE SCHÖNSTE ZEIT, UM DIGITALE KUNST ZU SCHAFFEN

Was brauchst du, um loszulegen?  

  • Du musst nicht wissen, wie man zeichnet, entwirft oder einen künstlerischen Hintergrund hat.
  • Du musst nichts über Coding oder künstliche Intelligenz wissen.
  • Du brauchst einfach den Wunsch zu kreativ sein, zu experimentieren und Freude am Erstellen von Kunst zu finden. Jetzt ist es möglich, alle Tricks und Tools zu lernen, um ein professioneller digitaler Künstler vom Komfort von zu Hause aus zu werden. Alles, was du brauchst, kannst du von zu Hause aus auf deinem Computer machen, und dieser Kurs zeigt dir, wie.

 

WARUM ICH MACHE DAS?

Die KI-gestützte Kunstschöpfung wird zum Mainstream und erobert die Kunstwelt im Sturm. Es kostet viel Zeit, Aufwand und Geld, um hochwertige Kunst von Hand zu erstellen. Die KI-gestützte Kunstgenerierung kann Grafiken für dich effizient und günstiger erstellen und spektakuläre Sofortresultate liefern.

Das Erlernen der KI-Kunstgenerierung kann eine entmutigende technische Aufgabe sein. Es gibt viele Probleme, die dir beim Versuch zu lernen begegnen können. Der Versuch, alle Informationen aus Ressourcen online zusammenzustellen, kann viel Zeit in Anspruch nehmen.

Deshalb habe ich diesen Kurs erstellt, um mit dir durch den gesamten Prozess zu führen und alles an einem Ort.

Wenn du bereit bist, deine Kunst auf die nächste Stufe zu bringen, warte nicht – melde dich noch heute für unseren KI-Kunstkurs an und fange an, künstlerische Meisterwerke zu schaffen.

Welche Anforderungen gelten für dich?  

Hast du einen Computer? Das ist alles, was du brauchst. Wenn du Stable Diffusion noch nicht hast, zeige ich dir, wie du damit anfangen kannst. Dieser Kurs behandelt alles, was du für den Einstieg benötigst – von der Suche nach Ressourcen und Inspirationsquellen über die Erweckung deiner künstlerischen Ideen bis hin zur Verbesserung deiner Kunstwerke in Produktionsqualität.

Triff deine:n Kursleiter:in

Teacher Profile Image

Chester Sky

Entrepreneur and Producer

Kursleiter:in

Producer and Composer

Official Website: http://chestersky.com

Facebook page: https://www.facebook.com/RealChesterSky/

Twitter page: https://twitter.com/RealChesterSky

Instagram: https://www.instagram.com/iamchestersky/

Vollständiges Profil ansehen

Level: All Levels

Kursbewertung

Erwartungen erfüllt?
    Voll und ganz!
  • 0%
  • Ja
  • 0%
  • Teils teils
  • 0%
  • Eher nicht
  • 0%

Warum lohnt sich eine Mitgliedschaft bei Skillshare?

Nimm an prämierten Skillshare Original-Kursen teil

Jeder Kurs setzt sich aus kurzen Einheiten und praktischen Übungsprojekten zusammen

Mit deiner Mitgliedschaft unterstützt du die Kursleiter:innen auf Skillshare

Lerne von überall aus

Ob auf dem Weg zur Arbeit, zur Uni oder im Flieger - streame oder lade Kurse herunter mit der Skillshare-App und lerne, wo auch immer du möchtest.

Transkripte

1. Kurs-Vorschau: Willkommen zur Stable Diffusion Master Class. In diesem Kurs lernen Sie alles, was Sie brauchen, um Kunst mit künstlicher Intelligenz zu schaffen. In den folgenden Videos lernst du die wichtigsten Funktionen des kostenlosen Open-Source-Tools zur Erstellung von KI Arts Stable Diffusion kennen. Wir beginnen mit den Grundlagen, vorausgesetzt, Sie wissen nichts, und wir laden die Software auf Ihren Computer, und dann erstellen Sie mithilfe von Textanweisungen Ihr erstes Kunstwerk mithilfe von Textanweisungen Auf diese Weise können Sie Kunstwerke in jedem Kunststil erstellen , ohne dass Sie vorherige Zeichen - oder Designkenntnisse benötigen vorherige Zeichen - oder Designkenntnisse Sie lernen, jedes Objekt in einem Bild durch ein beliebiges anderes Objekt auszutauschen , das Ihnen einfällt, und Sie lernen, wie Sie vorhandene Fotos erweitern , um Inhalt zu versehen und sie zu vergrößern Sie lernen, wie Sie die Auflösung eines beliebigen Bilds erhöhen können. Sie werden lernen, wie man Videos mit KI erstellt, sowie Techniken wie die unendlichen Zoom-Animationen und sogar lernen wie man stabile Diffusion in Kombination mit Tools wie Chat GPT und Photoshop Am Ende dieses Kurses werden Sie in der Lage sein, Kunstwerke herzustellen, die produktionsreif sind, und Sie werden in der Lage sein diese Art von Kunst in einer Zeitspanne von nur wenigen Sekunden bis Minuten zu schaffen Zeitspanne von nur wenigen Sekunden bis Minuten zu All das und noch viel mehr werden Sie in der Masterclass Stable Diffusion lernen . 2. Installation einer stabilen Diffusion-Benutzeroberfläche: In diesem Video werden wir uns mit dem Housekeeping, der Installation von Stable Diffusion, Discord usw. befassen , falls Sie Stabile Diffusion noch nie benutzt haben und dies das erste Mal ist, dass Sie davon hören. Sie sollten diese Website hier besuchen, um eine vereinfachte Version von Stable Effusion auszuprobieren. Sie können also auf diese Website gehen, stable diffusion web.com und unstable diffusion web.com. Sie werden eine sehr vereinfachte Version von Stall Effusion sehen , in die Sie einige Texte eingeben können , z. B. Ich sagen, eine kleine Hütte auf einem schneebedeckten Berg im Stil einer Disney-Station. Und ich klicke auf Bild generieren. Und einfach so werden einige Bilder für uns erstellt. Sie können also sehen, dass das ziemlich schön ist. Es ist genau das, was wir eingegeben haben. Wenn du eine verschneite Hütte bauen möchtest und sie dem Stil entspricht, den du auf der Art Station-Website findest. Und wenn Sie auf ein Bild klicken, können Sie sehen, wie aussieht, und Sie können mit der rechten Maustaste klicken und ein Bild speichern. Das ist also wie die bloßen Knochen, die Spitze des Eisbergs. Wofür Stabilität die Verwirrung anrichten kann. werden wir uns so vielen verschiedenen Funktionen und Tools diesem Kurs werden wir uns mit so vielen verschiedenen Funktionen und Tools befassen, mit denen Sie KI zum Erstellen von Kunst verwenden können. Aber wenn Sie noch nie damit gespielt haben, gehen Sie jetzt auf diese Website, schauen Sie sie sich an und geben Sie verschiedene Dinge in die Eingabeaufforderungen ein. Klicken Sie auf Generieren, um zu sehen, welche Art von Bildern Sie erstellen können. Und dann können wir anfangen , uns mit Fleisch und Kartoffeln zu beschäftigen. Installieren Sie daher stabil und effizient auf Ihrem Computer. Wenn Sie zu irgendeinem Zeitpunkt während dieses Kurses Probleme haben, stoßen Sie auf ein Bug-Problem. Sie wissen also nicht, wie man es richtig installiert. Ihr wollt sehen, was andere Schüler und Klassenkameraden und andere Nutzer von Stallerguss machen oder tun geht zum Discord , der unter diesem Link hier verfügbar ist. Discord.gg hat stabile Diffusion mit einem Schrägstrich. Wenn Sie in diesem Kurs Fragen zur stabilen Verbreitung haben, Ihre Fragen hier und nicht irgendwo anders oder senden Sie E-Mails oder Nachrichten, stellen Sie sie hier. Und Benutzer, einschließlich der Entwickler, haben eine einfache Diffusion, die Lage ist, Ihre Fragen zu beantworten. Ohne den Weg. Lassen Sie uns über die neue stabile Verbreitung sprechen. Und das ist auf der Website github.com verfügbar . Slash Automatic 11, 11 Slash Stable Dash Diffusion Dash Web UI. Das wird uns die Web-Benutzeroberfläche geben die Web-Benutzeroberfläche , die es viel einfacher macht zu sehen, was wir mit Stable Effusion machen, und Sie können damit interagieren und all diese schönen Bilder und Kunstwerke erstellen. Sobald Sie auf diesem Website-Link sind, können Sie nach unten zum Installationsbereich scrollen. Los geht's, Installation und Betrieb. Und Sie können diese Installationsschritte befolgen. Je nachdem, ob Sie Linux, Apple oder Windows verwenden , haben Sie eine etwas andere Installation. Ich persönlich benutze Windows, also habe ich für mich Python installiert, ich habe Git installiert. Und dann, falls Sie es noch nie benutzt haben. Was passiert, ist, dass Sie, nachdem Sie Git und Python installiert haben, herausfinden, wo Sie einen Ort auf Ihrem Computer finden, den Sie installieren möchten. In meinem Fall habe ich also einen Dokumentenordner, den ich erstelle. Und nehmen wir an, ich erstelle einen neuen Ordner und ich sage, hier möchte ich mein stabiles Diffusionsmaterial ablegen , stabile Diffusion. Und ich gehe in diesen Ordner und dann schreibe ich, ich klicke mit der linken Maustaste in den URL-Bereich. Ich tippe cmd ein. Und das öffnet eine Befehlszeile in diesem Ordner, den ich gerade erstellt habe. Ich kann dann diese Git-Clone-Informationen einfügen, die ich gerade hierher kopiert habe. Und dadurch wird der gesamte GitHub-Code in den Webordner geklont . Dann suchen Sie einfach die Ausführungsdatei, die Web-UI Dash UI Dot Bat von Windows und starten Sie sie und es wird Simple Diffusion installiert. Also mach das und dann können wir loslegen. 3. Installation eines stabilen Diffusions-Basismodells: Ich habe also den stabilen Erguss hier geladen und möglicherweise sehen Sie ein Modell , das bereits in den Checkpoints vorgeladen ist, und Sie können den Diffusions-Checkpoint hier verwenden. Wenn du das schon hast, kannst du dieses Video überspringen und zum nächsten Video übergehen. Aber nur für den Fall Ihre Installation es nicht automatisch installiert hat, werden wir das hier behandeln. Wir müssen also das Modell für die stabile Division herunterladen , um Images zu erstellen. Und wir können dieses Modell entweder hier abrufen, dies ist das Modell der Stabilisierung auf 0,1 oder hier das Modell mit stabilem Effusions-1,5-Effekt. Ich bin gerade dabei, dass der größte Teil dieses Kurses das 1.5-Modell verwendet, aber Sie können auch eine Tabellenversion zum Modellieren verwenden , je nachdem, was Sie möchten. Im Wesentlichen gehst du hier zu dieser URL, die Hugging Face, Runway Model Stabled Fusion, Dash v1 Dash Five, Tree Slash Main oder diese hier ist. Welche URL Sie auch bevorzugen, Sie haben die neuere oder die alte Version gewählt. Und du gehst, um die Fusionsdateien zu heften, Inversionen. Und dann laden Sie das Modell herunter, das ist das sichere Tensormodell hier. Du lädst das herunter. Sie möchten an einen ganz bestimmten Ort herunterladen. Sie möchten es in Ihre stabilen Diffusions-Web-UI-Modelle herunterladen , stabilen Diffusionsordner. Also schauen wir uns das einfach an. Gehen wir ein bisschen zurück. In Ihrer stabilen Verbreitung ist dies Ihre gesamte Software. Du suchst nach dem Models-Ordner und dann suchst du nach dem stabilen Diffusionsordner und den wirst du hier reinkleben. Sobald Sie das getan haben und die Verbreitung stabil ist, können Sie auf Aktualisieren klicken und Sie werden sehen welche Modelle Sie in diesen Ordner heruntergeladen haben , hier angezeigt. Also nur kurz beiseite oder sicherstellen, dass jeder hat, hat das grundlegende tabelleneffiziente Checkpoint-Modell. 4. Text zu Bild: Sie haben Stable Deficient erfolgreich installiert. Jetzt können wir mit stabiler Diffusion beginnen, einige Grafiken zu erstellen . Wenn Sie die Anwendung zum ersten Mal starten, sehen Sie etwas Ähnliches wie hier. Dies ist unser Dashboard all den fantastischen Steuerelementen , mit denen wir detaillierte Kontrolle über alles haben, was wir mit unserer Bildgenerierung tun möchten . Bevor wir jedoch mit der Erstellung von Bildern beginnen, müssen wir entscheiden, wo wir unsere Bilder ausgeben möchten. Wo wollen wir alles speichern? Und dazu sollten Sie zu der Registerkarte wechseln, auf der Einstellungen, Einstellungen und dann Pfade zum Speichern angezeigt werden. Und hier können Sie festlegen , wo Sie Ihre Bilder speichern möchten. Also habe ich einen Ordner auf meinem Computer eingerichtet. Du wirst dasselbe tun wollen. Erstellen Sie einfach irgendwo einen Ordner und kopieren Sie den Ordnerpfad und fügen Sie ihn hier ein. Auf diese Weise werden alle von Ihnen erstellten Bilder in diesem Ordner auf Ihrem Computer gespeichert und Sie können sie leicht finden. Klicken Sie dann auf Einstellungen anwenden und laden Sie Ihre Benutzeroberfläche neu. Sobald Sie das getan haben, können wir hier zu unserem Text zu Bild, Text zu Bild zurückkehren unserem Text zu Bild, und mit der Erstellung von KI-Kunst beginnen. Das erste, was wir verstehen müssen, sind das positive Ende und die negativen Aufforderungen. So erzählt die Nacherzählung, stabile Verbreitung, welche Kunst soll geschaffen werden. Also tippe ich einfach einen Mann ein und drücke Generieren. Du musst es tun. Gut aussehen und tun auch, trägt einen Anzug. Er lächelt, das Anschauen ist großartig. Und wenn wir hier auf diesen kleinen Ordner klicken, wird der Ordner auf unserem Computer geöffnet , den wir ihm zugewiesen haben. Und wir gehen in den Ordner und sehen, dass hier ein kleiner Mann ist. Los geht's. Herzlichen Glückwunsch, Sie haben gerade Ihre erste Kunst in Stable Effusion geschaffen . Lassen Sie uns die Einstellungen etwas genauer untersuchen. Also hier drüben, das sind die positiven Aufforderungen. Hier geben wir die Dinge ein, die wir sehen wollen und die stabil sein wollen. Ich sage, nun, wenn Fusion verwendet werden soll, besucht man eine Website wie Civic, Civic, Civic, Civic AI. Sie können Bilder finden , die von anderen Personen mit generativer KI erstellt wurden. Und Sie können herausfinden, welche Art von Eingabeaufforderungen wir verwenden, um diese Bilder zu erstellen. Das ist also civet ai.com. Und wenn ich auf eines dieser Bilder klicke, kannst du die positiven und negativen Eingabeaufforderungen sehen. Also z.B. ich kann das Positive vielleicht hier kopieren . Kopieren und Einfügen. Und ich kann diesen negativen Parameter kopieren. Negative Gewinne sind das, was wir nicht sehen wollen. Und füge das hier ein. Und lass uns einen Blick darauf werfen. Lassen Sie uns das etwas genauer untersuchen. Hier sehen wir also ein Foto eines 48-jährigen Mannes in schwarzen Tüchern. Es zeigt uns die Auflösung des Fotos. Eight k hat ein hochwertiges Filmkorn. Okay, all das wird uns eine gewisse Kontrolle darüber geben , welche Art von Bild wir hier erzeugen wollen und die negative Aufforderung, dieses Zeug, das wir nicht sehen wollen, wo Sie all die Dinge sehen können , die wir vermeiden wollen, wie z. B. ein geklontes Gesicht von geringer Qualität, fehlende Beine, fehlende zusätzliche Arme usw. Wenn wir uns regenerieren, sollten wir bis zu einem gewissen Grad etwas Ähnliches sehen unser Referenzbild. Bitte beachten Sie, dass dies ein anderes Modell verwendet als das, das wir verwenden. Also hier wird es nicht genau so aussehen. Aber wenn Sie nur eine Vorstellung davon bekommen möchten welche Art von Prompts verwendet werden sollen, welche Art von Eigenschaften verwendet wurden, welche Art von Sampler usw., ist dies eine großartige Möglichkeit, einige Referenzen zu erhalten. Okay, wir wissen, wie positive Versprechen funktionieren, wir wissen, wie negative Browns funktionieren. Lassen Sie uns nun auf einige der detaillierteren Funktionen hier eingehen. Methode der Probenahme. Was ist eine Probenahmemethode? Wie ist die Probenahmemethode? Nun, welche Art von Probenahmemethoden wird verwendet. Dies sind all die verschiedenen Optionen, aus denen Sie wählen können. Es gibt viele von ihnen hier. Und ehrlich gesagt, die meiste Zeit, sofern Sie nicht wirklich ins Detail gehen, werden Sie wahrscheinlich keinen großen Unterschied sehen. Wenn Sie zum Beispiel in die Dokumentation gehen , die Sie gerne tun, ist Effusion Dash art.com deaktiviert. Sie können den Vergleich zwischen verschiedenen Stichprobenmethoden sehen . Und ja, es gibt einen Unterschied. Aber die meiste Zeit ist es irgendwie subtil. Ähm, es sei denn, du trägst sie und kombinierst sie exakt Seite an Seite, wirst du wahrscheinlich die meiste Zeit keinen wirst du wahrscheinlich die meiste Zeit keinen großen Unterschied sehen. Mir geht es gut mit dir, Larry, und meistens bekommst du gute Ergebnisse diesen Probenahmeschritten, wie oft, du den Prozess durchlaufen willst. Weil es ständig all diese verschiedenen Geräuschpegel macht und sie anwendet, all das durchmacht. Wenn Sie hier eine niedrige Zahl angeben, werden Sie ein wirklich verschwommenes, beschissenes Bild sehen. Und wenn Sie ein wirklich hohes Bild aufnehmen, können Sie bis zu. Komm schon, komm schon. Da haben wir es. Sie können bis zu 150 gehen. Aber wenn du 150 machst, wird es wirklich gut aussehen. Aber es wird sehr lange dauern, bis wir da sind. Meistens kannst du 20-30 halten und das sollte reichen. 20, 30 Schritte sind normalerweise ausreichend. Generiere noch einmal das Gesicht dieses Typen. Los geht's. Stellen Sie unsere Gesichter wieder her. Sie können das überprüfen und es wird sein Bestes tun um hässliche Gesichter zu korrigieren. Also z. B. ob die Augen sich kreuzen oder er vielleicht komische Zähne hat und ich weiß es nicht. Vielleicht wie die fehlenden Augenbrauen oder so. Restore Faces kann versuchen, das Problem zu beheben. Fliesen zu legen ist ein lustiges Feature. Fliesen verlegen. Beim Kacheln wird eine Kachel erstellt. Wenn Sie also dieses Bild daneben kleben würden, würde es natürlich in das nächste Bild einfließen. Sie können z. B. sehen, dass diese untere Hälfte des Mannes hier auf natürliche Weise in den oberen Mann einfließen würde. Wenn Sie also genau dieses Bild direkt darunter platzieren würden, würde es natürlich wie eine Kachel fließen. Das ist es also, was Kacheln macht. Du wirst manchmal sehr seltsame Ergebnisse erzielen, aber du kannst sehen, dass das ganz natürlich in diese Person hier einfließen wird. Diese riskante Lösung dient zum Hochskalieren Ihrer Bilder. Wenn Sie feststellen, dass die Auflösung dieses Bildes nicht hoch genug ist. Du willst, dass es besser wird. Sie können es hochskalieren, Sie können die Auflösung erhöhen. Im Allgemeinen. Das ist gut, obskur hier. R S Gan SR nochmal viermal und du kannst mit diesen herumspielen . Latent ist eine der ersten, die geschaffen wurden. Bei diesen anderen handelt es sich um Variationen. Dies ist gründlich optimiert, Sie können sogar Ihr eigenes installieren, das ist es, was dieses ist. Darauf kommen wir später zurück. Das ist es also, was eine hohe Auflösung behebt. Breiten und Höhen. Dies sind die Dimensionen des Bildes, das erstellt wird. Also ist standardmäßig 5125 12. Wenn Sie einen anderen Maßstab wählen, z. B. 90 x 540, generieren, können wir eine andere Größe für unser Bild erhalten. Los geht's. Wir haben einen Typen, einen Typen mit einem seltsam aussehenden Arm, aber es ist trotzdem ein Typ. So können Sie verschiedene Abmessungen erhalten. Manchmal bekommst du merkwürdige Ausgänge mit doppelten Bildern, doppelten Personen. Wenn Sie das, was ich erwähnt habe, von einer quadratischen Skala aus ändern. Und der Grund dafür ist , dass Bilder, die in das Modell eingespeist werden, immer in quadratischer Form eingespeist werden. Aber du sagst ihm, er soll sagen, ich möchte dieses Bild erstellen , das keine quadratische Form hat. Es wird also ein Quadrat erstellen, aber dann weiß es nicht wirklich, was es mit diesen zusätzlichen Informationen an den Seiten anfangen soll. Manchmal wird es also verwirrt und es entstehen Doppel- oder Klone von was auch immer die Jungs. Das passiert nicht immer, aber manchmal schon. Also los geht's. Obwohl wir gesagt haben, nur ein einziger Mann, haben wir zwei Männer. Jetzt ist statt eins die Batch-Anzahl die Anzahl der Bilder, die wir erstellen möchten , standardmäßig auf eins gesetzt. Aber du kannst sagen, lass uns dafür sorgen, und was es tun wird, ist, die Bilder nacheinander iterativ zu erstellen . Wir haben einen Kerl. Wenn wir da sind, haben wir unsere vier Bilder. Die Stapelgröße gibt an, wie viele Bilder gleichzeitig erstellt werden sollen. Es ging darum, eins nach dem anderen zu machen, aber du kannst ihm sagen, dass es mehr als einen auf einmal machen soll. Ob Ihr Computer damit umgehen kann, hängt davon ab, wie schnell Ihr Computer ist. CFG-Skala gibt wie viel Aufmerksamkeit wir dieser Aufforderung widmen, der positiven, negativen Aufforderung. Wenn Sie es auf eins setzen, wird ein Bild angezeigt, das Ihrem Referenzbild wirklich nicht sehr ähnlich sieht. Es geht nur darum, wer weiß, was das ist. Und wenn du sagst, ich will bis auf 30 gehen, wird etwas erstellt, das genau den Parametern deines Textes entspricht. Man merkt aber auch, dass die Farben richtig gesättigt werden. Also willst du normalerweise nicht ganz nach oben gehen. Vielleicht möchten Sie jedoch zwischen einem leichten Anstieg und einem kleinen Abwärtstrend experimentieren . Saatgut. Seed ist für die Stabilisierung und für jedes andere generative KI-Modell sehr wichtig . Seed ist standardmäßig negativ eins. Und das bedeutet, dass jedes Mal, wenn Sie ein Bild erstellen, erstellt wird ein völlig zufälliges Foto von Grund auf neu erstellt wird. Jedes Mal, wenn du auf diese Schaltfläche Generieren klickst, bekommen wir einen anderen Kerl. Aber das musst du nicht tun. Man kann sagen, ich möchte das Saatgut der letzten Generation wiederverwenden . Und wenn wir das tun, bekommen wir die Startnummer genau hier. Wenn ich also erneut auf Generieren klicke, erstellen wir genau den gleichen Typ. Von. Da haben wir es. Wir haben eine weitere erstellt. Es ist ziemlich identisch. Der Grund dafür ist, dass wir dasselbe Saatgut verwenden. Du klickst hier auf Extras. Sie können sehen, dass es Variation Seed gibt und das heißt, nun, ich habe zwei Bilder. Eins ist ein Samen und das ist ein anderes C, sagen wir neun oder eine andere Zahl. Und dann kannst du sagen, wie viele Informationen ich aus diesem Samen verwenden möchte? Vergleiche es mit den Informationen, die ich aus diesem Samen verwenden möchte. Man kann also sagen, ich möchte, dass es mehr von diesem beeinflusst und leicht von dem zweiten beeinflusst wird und so weiter. Und wenn du dann sagst, dass ich den Seed nur mit dem Breitenteil verwenden möchte , kannst du das hier machen, und ich möchte ihn einfach vom Hassteil aus verwenden. Das kann ich hier machen. Aber diese werden Ihr Image drastisch verändern. Diese, indem Sie die Skala ändern. Ihr werdet große Veränderungen erleben, bei denen diese wahrscheinlich am besten ist, wenn ihr nur leicht beeinflusst werden wollt . Sobald Sie Ihr Bild erstellt haben, werden Sie hier unten alle Details sehen, die zur Erstellung Ihres Fotos beigetragen haben. Das sind unsere positiven Anregungen. Das sind unsere negativen Aufforderungen. Wir können die Stufen sehen. Wir verwenden einen Sampler, die CFG-Skala, den Samen, alles, all diese Details hier. Hübsch für dich eingerichtet. Und wenn Sie hier auf dieses Ding klicken, Bilder öffnen und das Ausgabeverzeichnis, können wir die Bilder sehen , die wir erstellt haben. Denken Sie daran, dass wir diesen Ordner zu Beginn dieser Vorlesung eingerichtet haben. Und hier sind all die Fotos, die wir gemacht haben. Da hast du es also. Sie wissen jetzt, wie man Bilder, Texte und Bilder in stabiler Diffusion erstellt . 5. Bildvariationen: Nehmen wir an, ich möchte eine Variante eines von mir generierten Bildes erstellen . Ich möchte kein völlig neues Bild erstellen. Ich möchte einfach etwas erstellen , das dem vorhandenen ähnlich ist. Also, was meine ich damit? Nun, standardmäßig hast du einen Startwert, der negativ breit ist, was bedeutet, dass du dir jedes Mal einen zufälligen Startwert ausdenkst. Und als das Bild, das es erzeugen wird, erhalten Sie ein völlig anderes Bild. In diesem Fall haben wir eine Dame mit einem Schwert. Wenn ich erneut darauf klicke, erhalten wir ein völlig anderes Bild, obwohl wir dieselbe positive und dieselben negativen Eingabeaufforderungen verwenden , erhalten wir eine ganz andere Person. Also möchte ich etwas kreieren, das diesem ähnlich ist, ich möchte nichts völlig anderes haben. Und was Sie tun können, ist mit diesem Wert zu spielen, der als Startwert bezeichnet wird. Hier drüben kannst du Vc aus der letzten Generation sagen. Das wird also den Seed aus diesem letzten Bild verwenden. Es gibt aber auch andere Möglichkeiten, den Startwert herauszufinden, z. B. wenn wir hier unten nachschauen, können Sie den Startwert des verwendeten Bildes sehen . Und wenn Sie sich das erstellte Bild ansehen möchten. Das ist also in der Ausgabedatei, und dann klicken wir darauf, Sie erhalten Ihren Ausgabeordner. Und Sie können im Namen des verwendeten Bildes sehen, dass sie den Startwert haben. Also können wir diesen Startwert hier festhalten. Wenn wir erneut auf Generieren klicken, erhalten Sie jetzt genau dasselbe Bild, da wir denselben Startwert verwenden, erhalten Sie jetzt kein völlig anderes Bild. Aber ich möchte nur eine Variante haben. Ich möchte keinen identischen Sitz benutzen. Um das zu tun, wählen Sie dieses kleine zusätzliche Drop-down-Menü aus. Hier siehst du dieses Ding, das Variation Seed genannt wird. Und das ist nützlich , weil Sie jetzt einen zweiten Startwert festlegen können und die zweite Suche verwenden können , um den ersten zu beeinflussen. Aber wir verwenden immer noch nur zwei Sitze, anstatt jedes Mal nach dem Zufallsprinzip einen neuen zu erstellen. Vielleicht möchten Sie sich die Bilder ansehen , die wir zuvor erstellt haben, und sagen, naja , vielleicht möchte ich auch etwas von diesem Bild beeinflussen verwenden . Ich mag das kleine Rot an ihr und vielleicht mag ich das bei einigen Einflüssen, aber ich mag auch dieses Original und das ist das, bei dem ich meistens eine Hälfte haben möchte, aber ich möchte einfach ein bisschen Einfluss von diesem Bild haben. Also nehme ich den Startwert und füge ihn hier ein. Und jetzt können wir mit diesem Schieberegler spielen , der Variationsstärke genannt wird. Und seine Variationsstärke. Wir können dann sagen, ich möchte verwenden, wie viel vom ersten Sitz und wie viel von der zweiten Stufe ich verwenden möchte. Wenn ich bis zum zweiten Seed gehe, sehen wir das erste Bild das wir am Anfang erstellt haben. Oder zumindest etwas Ähnliches. Es wird also nur der Einfluss dieses zweiten Sitzes ausgenutzt. Aber wenn wir mit dem ersten spielen wollen, was hier unser Ziel ist, ist es, den Schieberegler zu überprüfen, anstatt zwei , bis hin zu einem, bei dem wir ihn einfach auf bestimmten Prozentsatz davon setzen. Jetzt sollten wir in der Lage sein, das Bild hier mit ein wenig Einfluss zu sehen . Versuchen wir es auch mit einem anderen. Bleib bei 0,2. Und wenn wir nun die Bilder vergleichen, die wir hier generiert haben, können wir feststellen, dass wir einige geringfügige Abweichungen haben. Und das ist das Original , das wir hatten. Und das sind Variationen dieser beiden. Wenn dir der Einfluss des zweiten Bildes nicht gefällt, kannst du hier einfach mit dem neuen Bild spielen, auch Variation Seat. Und wir werden sehen, was wir uns noch einfallen lassen. Da hast du es. Auf diese Weise können Sie Variationen von jedem Bild erstellen , das Sie generieren. 6. Upscaling: Lassen Sie uns darüber sprechen, wie Sie hochauflösende Bilder erstellen , bei denen die Diffusion deaktiviert ist. Nehmen wir an, Sie haben unsere Aufforderung gefunden, wir sind damit zufrieden. Wir haben eine Reihe von Iterationen durchlaufen. Ich habe ein Bild gefunden, das mir gefällt. Wenn ich mir dieses Bild ansehe, ist es 512 mal fünf Pixel groß und es sieht anständig aus, aber es ist ein bisschen verschwommen. Es könnte etwas hochauflösender sein. Das ist keine Gabel, im Moment ein Foto. Es stellt sich heraus, dass es Möglichkeiten gibt, die Auflösung zu erhöhen. Zuallererst sollten Sie wahrscheinlich sicherstellen, dass Sie die Startnummer speichern, die Sie verwenden möchten. Dann können Sie zu dieser risikoreichen Lösung übergehen. Und Sie können diese Dinge auswählen, die als Skalare bezeichnet werden. Und mit diesen Aufwärtsskalaren können Sie die Auflösung Ihres Bildes erhöhen. Sie funktionieren, indem sie zuerst das Bild beschädigen. Dann werden ihre Bilder auf die kleinste Größe reduziert. Und dann verwenden sie dieses neuronale Netzwerk, das darauf trainiert ist , beschädigte Bilder wiederherzustellen, und versuchen, alle Details zu reparieren es gibt eine Menge verschiedener Upscale-Versionen. Die latenten sind diejenigen , die zum ersten Mal entstanden sind, als, sagen wir, Fischen noch frisch gemacht wurde. Dieser hier, unser viermaliger Scan plus, ist ein ausgezeichneter Up-Skalar, funktioniert sehr gut. Es wollte 2018 den Award. S are steht wieder für Enhanced Super Resolution Generative Adversarial Networks. Wenn wir uns für das gehobene Modell entscheiden würden, würden wir es um das Zweifache erhöhen. D ist Geräuschstärke. Sie können den Wert auf 0,7 oder sogar 0,5 einstellen. Ich mag es, wenn zu der Zeit 0,5 erlaubt sind. Und dann klicken wir hier auf Generieren. Und mal sehen, wie das aussieht. Sie können sehen, dass das Foto ein wenig verändert wurde, aber der Vorteil wird die Änderung des Bildes die meiste Zeit wert sein. Also hier haben wir unsere Ladung. Los geht's. Hier ist unser Vorher, hier ist unser Schauspieler. Wir können sehen, dass dies ein viel größeres, viel schärferes Foto ist. Es sieht ziemlich gut aus. Es gibt den Skalar einer anderen App, der herausgekommen ist. Sie können Ihr eigenes Upscale installieren. Und wie sich herausstellt, wirst du hier den sehen , den ich gerne benutze, einen, der viermal ultrascharf heißt. Der ist mit dem kleinen Erguss nicht eingebaut. Wenn Sie nun diesen bestimmten App-Skalar verwenden möchten, probieren wir diesen aus und erhöhen ihn um das Zweifache. Sie können den App-Skalar über diesen Link hier herunterladen. Und du wirst dieses vierfache ultrascharfe Punkt-PTH herunterladen . Wenn du willst, ist es eine kleine Datei. Es lade das einfach herunter. Und dann kannst du das hier in diesen Ordner namens SR stecken . Nochmals, Ordner unter deinem Stable Effusion unter dem Ordner Models, unter dem Ordner S. Again, den klebst du einfach dort hin. Sie wollen die Dokumentation darüber, wie Upscale Us arbeitet. Sie können diesen Link hier überprüfen. Aber sobald Sie neu geladen haben, sind Sie eine Benutzeroberfläche und verwenden einfache Diffusion. Sie kann geladen werden, indem Sie unter Einstellungen in den Reload gehen. Und dann wird Ihr neuer älterer Vollzeit-Sharp in diesem Drop-down-Menü angezeigt. Also haben wir ein Bild erstellt und es mit zwei verschiedenen Upscalings hochskaliert. Lassen Sie uns sie jetzt vergleichen. Das ist also der erste. Das ist der kleine. Hier wird der SR erneut viermal verwendet, und das ist der Vollzeit-Ultra-Sharp. Es gibt also subtile Unterschiede, aber ich finde, dass der Ultrakurzbär einen etwas besseren Job macht. Diese entlang der Augen haben einen guten Job mit den Augen gemacht. Ein bisschen verschwommen hier, sie haben ein bisschen mehr Details. Vorausgesetzt, Sie möchten noch mehr hochskalieren, können Sie noch weiter gehen. Sie können für jedes Bild, das Sie haben, auf die Schaltfläche mit den Extras in der Mitte klicken. Und wenn Sie auf Santa Extras klicken, wird der Bild-Tab geöffnet und Ihr Foto dorthin gesendet. Alternativ können Sie Ihr Ordnerfoto einfach manuell laden . Sie können klicken und ziehen und ablegen usw. Aber ich werde einfach die Extras benutzen. Und dann kannst du es hier obskur versuchen . Du wirst sehen, dass du skalar hochgefahren bist, deinen RS-Scan-Vollzeitbus, oder in meinem Fall, das viermal ultrascharf. Und dann können Sie wählen, um wie viel Sie die Größe ändern möchten. In diesem Fall gehe ich einfach zu und klicke dann auf Generiert. Das Laden dauert einen Moment. Und dann sollten wir in der Lage sein, ein sehr schönes hochauflösendes Bild zu sehen . Sobald das Laden abgeschlossen ist, stecken wir in einem anderen Ordner fest, aber das ist okay. Lassen Sie uns diese jetzt vergleichen. Das war das ist unser Das ist unser Originalfoto. Das ist unser Upscale mit dem Scan. Dies ist das vierte Mal ultrascharf, und dann das zweite Mal nach dem zweiten Mal ultrascharf, wir haben noch mehr Details. Also, wenn wir hier reingehen, wird es ein bisschen pixelig. Aber wenn wir zu den viermal gehen, wer wird dann Details richtig gut aussehen lassen. Jetzt stellt sich heraus, dass Sie dies stapelweise tun können. Du musst das nicht einmal eins nach dem anderen machen, wie wir es hier in diesem langsamen Prozess machen, du kannst aus dem Verzeichnis zu diesem Stapel gehen. Und wir können tun, dass Sie ein Eingabeverzeichnis und ein Ausgabeverzeichnis auswählen können . Um das zu tun, benötigen wir also eine Reihe von Fotos, mit denen wir arbeiten können. Also lasst uns dieses hohe Risiko vorerst ausschalten. Bleiben wir bei vier Bildern und wir erhalten einen zufälligen Startwert. Lass uns hier einfach Bilder machen. Wir klären das vorerst. Diese haben ihren Zweck erfüllt. Es wird diese vier Bilder machen. Sie werden alle eine 512,5 Kelvin-Lösung haben. Und wenn ich zu den Extras gehe und Batch aus dem Verzeichnis auswähle, kann ich das Verzeichnis auswählen, aus dem ich die Bilder senden möchte. Das ist also mein Eingabeverzeichnis. Ich werde das hier festhalten. Und dann muss ich einen Ort auswählen, an den das Foto geschickt werden soll. Also werde ich hier einen neuen Ordner erstellen. Ich nenne das Output Scales. Und ich werde den Pfad dazu kopieren und ihn in das Ausgabeverzeichnis einfügen. Und dann wähle ich das Obskure aus, das ich verwenden möchte. Ich wähle Größe ändern. Und einfach so erstellen wir jetzt stapelweise Bilder von Luftbildern in hochskalierter Auflösung. Die Batch-Sache ist also wirklich nützlich, denn nehmen wir an, Sie hatten ein Video. Sie können das Video in einzelne Bilder sowie JPEGs und PNGs aufteilen. Sie können dann angeben , welchen Ordner Sie als Eingabe verwenden möchten . Und dann geht es durch und erstellt die hochwertigen Bilder für all diese. Also los geht's. Sie können unsere hochskalierten Bilder sehen. Es wurde stapelweise gemacht. Da hast du es also. Sie wissen jetzt, wie Sie die Auflösung Ihrer Bilder mithilfe des Aufwärtsskalars erhöhen können. Wir können das schon bei der Erstellung des Bildes tun. Und das kannst du auch per Post machen. Nachdem Sie das Bild erstellt haben, können Sie auch die Auflösung erhöhen. 7. Installation neuer Modelle: In diesem Video werden wir über das Schaffen von Kunst sprechen, indem wir eine Vielzahl verschiedener Modelle verwenden eine Vielzahl verschiedener Modelle , die unterschiedliche Kunststile haben werden. Wir werden lernen, wie man verschiedene Modelle findet und installiert, um eine stabile Diffusion zu gewährleisten. Dieses Bild hier wurde also nicht mit dem ursprünglichen stabilen Diffusionsmodell erstellt. Standardmäßig. Dies ist das Modell, das, zumindest in meinem Fall, für die Verbreitung von Stapeln verwendet wurde. Aber dieses Unreife wurde durch eine traumhafte Diffusion geschaffen. Also werden wir dir zeigen, wie du ein anderes Modell bekommst und dann kannst du Kunst wie diese kreieren. Also müssen wir zuerst ein anderes Modell finden. Es gibt eine Reihe verschiedener Websites. Ich werde Sie auf zwei von ihnen verweisen. Eine davon ist Civic AI. Das sind also Website-Listen, Beispiele für verschiedene Kunstwerke , die erstellt werden. Wir können also all diese hübschen kleinen Bilder hier sehen. Und wenn ich genau dieses Bild erstellen möchte, kann ich das Modell auf dieser Website herunterladen. Sie sehen dieses kleine Download-Ding hier. Sie können sehen, dass dies bedeutet, dass dies eine sichere Datei zum Herunterladen ist. Und die Leute haben gesagt, dass es ziemlich gut ist. Sie mögen es. Das kannst du herunterladen. Und sobald Sie es heruntergeladen haben, gehen Sie zu Ihrem stabilen Diffusions-Softwareordner. Wo auch immer Sie es installiert haben. Gehe zu deiner stabilen Diffusion. Gehe zu deinen Modellen, gehe zu deiner stabilen Diffusion. Und du wirst diese Datei in diesen Ordner einfügen . Sobald Sie das getan haben, kehren Sie zu Ihrer stabilen Diffusion zurück und müssen nur die Software neu laden. In diesem Fall heißt das, gehen Sie in Einstellungen und klicken Sie auf die Reload-Benutzeroberfläche. Und nachdem Sie das getan haben, erscheint Ihr Modell in diesem Drop-down-Abschnitt Gordon oben links. Dieses spezielle Modell habe ich von Dreamlike Art bekommen , einer Website namens Hugging Face. Hugging Face, traumhafte Kunst, traumhafte Diffusion und Dash 1.0. Wenn Sie hier auf diese Website gehen, können Sie genau dieses Modell herunterladen auch genau dieses Modell herunterladen, und Sie können es kostenlos tun. Dieses Modell ist dem MIT Journey sehr ähnlich. Mid Journey ist eine kostenpflichtige KI-Kunstgenerator-Software die Stable Diffusion sehr ähnlich ist. Sie können Text eingeben und es werden Bilder erstellt, die sehr schön sind. Hier können Sie Kunstwerke erstellen , die genau so aussehen. Ähnlich wie MIT Journey. Der einzige Unterschied zwischen Mid Journey und Stable Effusion besteht darin , dass Sie viel mehr Funktionen und Stapled Diffusion haben und das kostenlos. Warum also nicht die kostenlose Version verwenden , die Ihnen viele Funktionen bietet. Also sage ich, also hier sind wir. Dies ist das Modell auf Hugging Face. Wenn Sie es herunterladen möchten und zu Dateien und Versionen wechseln zu Dateien und Versionen und die Datei herunterladen möchten. Da steht traumhafter Diffusionsstrich 1.0, sichere Tensoren. Die SEK-PT-Datei ist das Originalmodell und die sichere Tensordatei bedeutet, dass sie eine gewisse Serialisierung durchgeführt haben und überprüft , ob es sich um Fehler handelt, die mit Viren gefüllt sind. Wenn Sie die CAPT-Datei herunterladen, einfach sicher, dass Sie eine Antivirensoftware verwendet haben, bevor Sie sie verwenden. Wie dem auch sei, sobald du das heruntergeladen hast, klebst du es in den Ordner und du startest DUI und es wird hier in der oberen linken Ecke angezeigt. Also ich denke, das ist schon das Wesentliche Sie können verschiedene Modelle von David AI herunterladen. Oder wenn Sie zu Hugging Face gehen und Hunderte oder Tausende verschiedener Modelle finden , die die Leute benutzt haben. Und dann können Sie Ihre Textanweisungen einfügen und Grafiken im Stil des Modells erstellen , das Sie herunterladen. 8. Inpainting: In diesem Video werden wir über Inpainting sprechen. In der Malerei ist die Fähigkeit, Objekte in Ihren Fotos und Bildern durch andere Objekte zu ersetzen . Du kannst die Dinge einfach austauschen. Was Sie also für Malerarbeiten benötigen, benötigen Sie nur ein Foto, eine Illustration. Etwas kann ein Bild sein in einem stabilen Erguss entsteht, wie ich es hier habe. Sie können aber auch einfach ein Foto von Ihrem Computer oder eine Zeichnung oder was auch immer Sie wollen aufnehmen. Das hängt davon ab, die Ergebnisse, die Sie erhalten, hängen auch von dem Modell ab , das Sie verwenden. Überlegen Sie sich also, welches Modell Sie für Ihr Inpainting verwenden möchten. Sobald Sie Ihr Foto fertig haben, können Sie entweder von Bild zu Bild und dann zu Farben wechseln. Und dann kannst du das Foto und deinen Computer irgendwo finden . Oder in meinem Fall, da ich das Bild in stabiler Diffusion aufgebaut habe, kann ich dann zur Schmerzempfindung übergehen. Sie haben jetzt also ein Bild in Farbe, und Sie können sich hier einen Pinsel aussuchen. Und das wird uns bei der Entscheidung helfen was wir ersetzen wollen. Mein Fall, ich werde dieser Dame eine Brille geben. Das gab ihr ein paar schöne Sonnenbrillen. Und ich muss zu der Eingabeaufforderung oben gehen Eingabeaufforderung oben und sagen, was auf dem Bild erscheinen soll. Also sagen wir, gib ihr eine Sonnenbrille. Hier drüben. Sie sollten sicherstellen, dass in Malmaske ausgewählt ist , da das bedeutet, dass wir den Bereich ersetzen , der gezeichnet wurde. Wenn Sie möchten, können Sie mit diesen verschiedenen Funktionen spielen , um zu experimentieren unterschiedliche Ergebnisse zu erzielen, aber ich werde vorerst nur diese Werte haben. Und dann klicke ich auf Generieren. Und lassen Sie uns mit diesem Batch ein paar verschiedene Ausgaben ausgeben. Also lasst uns etwas Glück haben und diese Dame beschützen. Okay, los geht's. Sieht gut aus. Oma in der Sonne. Stimmt es? Es hat eine Brille, die nach Elton John aussieht, oder vielleicht kommt das gut heraus. Mal sehen, was wir noch haben. Wir haben die Blautöne. Sehr nett. Wir haben ein paar blaugrüne Farben. Sieht für mich ein bisschen falsch aus. Oh, die kaputtmachen. Los geht's. Okay, das ist also in der Malerei. Sie können jedes Bild aufnehmen, das Sie möchten. Sie können überall zeichnen und mehrere Iterationen durchführen. Vielleicht, sagen wir, ich bin damit einverstanden, aber ich möchte damit herumspielen und gab ihr dann Sagen wir, geben wir ihr Handschuhe. Mal sehen, wie das ausgeht. Handschuhe und sind wieder degeneriert. Mal sehen, was wir hier bekommen. Jetzt wirst du etwas bemerken , dass sich ihre Augen wieder verändern. Der Grund, warum sie sich ändern, ist , dass in Paint derzeit diesen kleinen Fehler gibt, bei dem, wenn Sie hier nicht neu gestartet sind, es in Paint derzeit diesen kleinen Fehler gibt, bei dem, wenn Sie hier nicht neu gestartet sind, tatsächlich immer noch das vorherige Zeichnen und Malen verwendet , das Sie beim letzten Mal gemacht haben. Wenn Sie sich diese also ansehen, werden Sie feststellen, dass er eine andere Brille hat und sie auch Handschuhe. Oh, das sah nicht gut aus. Aber du siehst, manchmal macht es einen guten Job , ist es nicht. Um das zu beheben, stellen Sie sicher, dass Sie bis hierher gehen und jedes Mal Reset einstellen. Wenn wir es noch einmal machen, lassen wir jetzt einfach die, die Handschuhe statt der Brille wechseln. In Ordnung, schauen wir uns an, wie sie aussieht. Was für Handschuhe wirst du dir dieses Mal geben. Da haben wir es. Das sind schöne schwarze Handschuhe. Zu dieser Zeit. Irgendeine Art von Handschuhen. Ihre Hände. Ich habe Biker-Handschuhe. Du verstehst das Wesentliche. Wir konnten Objekte einfach so ersetzen. Sie wissen jetzt, wie Sie Inpainting ausführen, um Objekte in Ihren Fotos zu ersetzen. 9. Outpainting: Im letzten Video haben wir über Inpainting in Gemälden gesprochen , bei dem wir Objekte innerhalb von Bildern durch jedes andere Objekt ersetzen können Bildern durch jedes andere Objekt In dieser Vorlesung werden wir über unser Malen sprechen. About Painting ist eine Methode , mit der Sie Bilder erweitern können. Es baut auf der Technologie auf , die wir beim Inpainting verwendet haben. Auf diese Weise können Sie jedoch Bilder vergrößern und vorhandene hinzufügen, zusätzlichen Inhalt zu vorhandenen Bildern hinzufügen, sie breiter oder höher machen Fügen Sie weitere Objekte hinzu, aber auch außerhalb des ursprünglichen Leinwandrahmens. Also werden wir darüber sprechen, wie das geht. Was Sie dafür tun müssen, ist, dass Sie wahrscheinlich ein bestimmtes Modell haben möchten , das für das Inpainting gebaut wurde Wir werden ein nachfolgendes Inpainting-Modellmodell wollen. Und ein Inpainting-Modell erhalten Sie hier bei Stapled Diffusion Unter dieser URL hier, Hugging face.co. Wenn wir stabil, effizient und lackierend modellieren , gibt es vielleicht noch andere, aber Sie werden eine finden wollen, die in Malerei ausdrücklich erwähnt wird. Diese führen in der Regel zu besseren Ergebnissen. Du kannst es mit anderen versuchen, aber naja, du wirst herausfinden, ob es für dich genug funktioniert, um das zu tun. Du gehst zu der Datei und den Versionen und lädst sie herunter und willst das bei all deinen anderen Modellen beibehalten. Also, wenn ich sage, dass all die anderen Modelle, über die wir sprechen , in deine Grundnahrungsergüsse passen. Es ist April, die Fusion geht zu deinen Modellen, zu deinem stabilen Effusionsordner mit all den anderen Modellen hier. Ich möchte es also nicht mit euch allen anderen in diesen Ordner stecken . Dann gehst du zurück zu Stable Diffusion, gehst zu deinen Einstellungen und lädst deine Benutzeroberfläche neu Theoretisch müssen Sie die Anwendung möglicherweise neu starten, aber Ihr Modell wird hier hier angezeigt, und Sie können sehen, dass ich ein paar verschiedene Inpainting-Modelle habe Ich habe hier einen für diesen, ich habe noch einen hier. Es gibt also eine Reihe verschiedener Modelle, die Optionen zum Bemalen haben. Sobald Sie das getan haben , können Sie ein vorhandenes Bild nehmen und hier ein Bild importieren, zum Beispiel P&G Info Und ich werde ein weiteres Bild machen, das ich bereits zuvor in Stable Effusion erstellt habe zuvor in Stable Effusion erstellt In diesem Fall ist das dieser kleine Kerl. Sie können Bilder verwenden, die nicht in stabiler Diffusion erstellt wurden Das bedeutet jedoch, dass Sie sich die Eingabeaufforderungen von Grund auf neu einfallen lassen Eingabeaufforderungen von Grund auf neu einfallen In meinem Beispiel habe ich, da ich diesen und stabilen Erguss überhaupt erstellt habe, bereits die Eingabeaufforderung, die vorgeladen wird , wenn ich ein Bild in die PNG-Info ziehe Und ich kann meine positiven Eingabeaufforderungen sehen und ich kann meine negativen Eingabeaufforderungen sehen Und es erspart mir nur den Schritt, herauszufinden, was bei der Erstellung dieses Bildes erforderlich ist. Wenn nicht, können Sie sich das Bild einfach ansehen und versuchen, es so detailliert wie möglich zu beschreiben. Nun, das ist der Charakter, den ich möchte, um eine Umgebung in Farben und Stil usw. zu schaffen . Ja, also wir haben dieses Bild, ich werde mein Bild jetzt an Inpaint schicken Mit anderen Worten, wie der Abschnitt Bild zu Bild hier. Alternativ können Sie hier einfach Ihr imaginäres Bild hochladen und hier gibt es diesen Tab im pinken Wasserhahnmodell. Der erste Schritt, den wir tun möchten, ist zum Abschnitt „Größe ändern“ zu gehen , da wir diese Leinwand des Bildes erweitern möchten In meinem Fall machen wir das, lassen Sie uns die Größe verdoppeln, tausend und 24. Beginnen wir mit der Erhöhung der Breite. Sie werden auch feststellen, dass wir hier einen Startwert haben , der bereits ausgefüllt ist und der erneut von den PNG-Informationen übernommen wurde Sie sollten sicherstellen, dass Sie das Saatgut verwenden , das ursprünglich verwendet wurde. Wenn Sie die Fähigkeit haben , werden Sie bessere Ergebnisse erzielen. Und jetzt wollen wir diese Option hier ankreuzen, Größe ändern und füllen Und das wird es uns ermöglichen, die Größe der Leinwand zu ändern und sie mit jedem Detail zu füllen, von dem Stable Effusion glaubt, dass es jedem Detail zu füllen, von dem Stable Effusion funktioniert, und Sie werden gleich sehen, was ich meine Klicken wir also hier auf Generieren und sehen wir uns das Ergebnis an, das wir erhalten. Könnte eine Weile dauern. Okay, mein Bild ist hier geladen. Und mal sehen, was getan wird. Wir haben auf der linken Seite dieses verschwommene kleine Bild hier, und auf der rechten Seite sieht es auch irgendwie verschwommen aus Und was gemacht wird, ist, die Bilder vom Stadtrand hier aufzunehmen , die Bilder vom Stadtrand hier und sie nach links und rechts auszudehnen. Nun, das ist teilweise das, was wir wollen. Wir haben jetzt ein größeres Bild, das ist jetzt eine andere Leinwandgröße und das ist 512 mal 512 und das sind 1024 mal Fünfzwölftel Wir haben die größere Leinwand. Wir können auch sehen, dass dies unserem Originalbild hier nicht wirklich ähnlich ist. Was wir jetzt wissen müssen, ist, dass wir das jetzt übermalen und die Informationen durch neue Objekte ersetzen müssen das jetzt übermalen und . Also, was wir hier tun werden, ist, dass wir dieses Bild hier hineinladen. Also lass uns das Ding schließen und wir schicken es in Farbe. Also habe ich dieses Bild hierher geschickt. Und jetzt haben wir dieses Ding hier drüben, mit dem wir all diese Informationen hier erweitern und ersetzen können . Ich werde es einfach übermalen. Ich übermale und füge eine sogenannte Maske hinzu. Eine Maske des gesamten Bereichs , den wir ersetzen wollen Und ich werde jeweils nur eine Seite bearbeiten. Ich werde das noch nicht richtig machen. Und der Grund dafür ist , dass wir keine verwirrende Diffusion wollen keine verwirrende Diffusion wollen Sie wollen eine Seite ersetzen all das andere Material verwenden, auf das verwiesen wird. Wir wollen nicht, dass versucht wird, alles auf beiden Seiten gleichzeitig zu replizieren Es wird unbedingt wissen , auf welcher Seite es referenzieren soll. Wir werden diese Seite verwenden, auf die verwiesen wird, um das Problem zu beheben. Und dann werden wir diese Seite verwenden, auf die verwiesen wird, um das Problem zu beheben. Hier drüben. Nun, ich denke, wir können alles beim Alten lassen. Wir müssen hier nicht unbedingt etwas ändern. Wenn du willst, kannst du mit diesen herumspielen, ähm, aber ich werde in diesem Beispiel nichts ändern . Ich werde auf Generieren klicken. Und lass uns sehen. Was wir bekommen. Wir können sehen, dass jetzt nebenbei etwas gebaut wird. Und was wissen wir, wir haben etwas, das wir jetzt haben mehr Details sind nicht nur genau dieselbe Farbe, hier ist definitiv etwas anderes. Jetzt machen wir dasselbe wie auf der anderen Seite. Ich werde all diese Informationen hier löschen , indem ich auf Reset klicke. Ich schicke es zuerst zur Integration. Und dann werde ich meine ganze Maske entfernen. Das will ich nicht benutzen. Und dann werden wir die andere Seite übermalen. Und wir klicken auf Generieren. Das ist ziemlich gut, das ist nicht schlecht. Wir haben jetzt eine ganze Reihe von Informationen, die im Vor- und Originalbild auf der linken und rechten Seite nicht existierten . Wir können sehen, dass es hier eine starke Linie gibt, aber das können wir korrigieren. Wir können einfach noch eins davon in Farben machen. Wenn Sie Ergebnisse sehen, die nicht ganz Ihren Wünschen entsprechen, können Sie es einfach an ein anderes Unternehmen senden und einfach den Bereich übermalen, der ein wenig fehlt Und hoffentlich wird das Problem dadurch behoben. Noch einmal. Um dieses richtige Detail im Hintergrund zu erstellen, muss es positive und negative Eingabeaufforderungen haben Und wenn Sie es verwenden, wird es in der Lage sein, eine zu erstellen. Los geht's. Das ist unser, hier ist unser Bild hier. Und wir können das Vorher und Nachher vergleichen, wo das das Originalbild war, dieses kleine quadratische Ding. Und jetzt haben wir dieses viel größere Bild. Es funktioniert natürlich viel besser, mit Bildern mit unscharfem Hintergrund Je detaillierter der Tabak ist, desto mehr kann es einige Abweichungen geben, aber Sie können ziemlich gute Ergebnisse erzielen Das ist also eine Möglichkeit, das Malen in stabilem Erguss durchzuführen. Wir werden ein späteres Thema im Kurs weiter behandeln. Ich musste das in Photoshop machen, was eigentlich viel einfacher und schneller ist. Wenn Sie Photoshop jedoch nicht verwenden möchten, können Sie diese Technik innerhalb von Staple Diffusion verwenden , um das Malen zu beenden 10. Img2Img-Fallstudie Yoda trifft Stitch: In diesem Video werden wir über den Tab Bild zu Bild und einige der unglaublichen Funktionen sprechen Tab Bild zu Bild und einige der , die Sie mit Bild-zu-Bild verwenden können. Und ich wollte Ihnen das anhand eines Beispiels aus der Praxis zeigen . Ich habe dir hier eine kleine Fallstudie gegeben. Und ich zeige Ihnen ein kleines Video, das von Bild zu Bild erstellt wurde . Also hier ist ein dummes kleines Video namens Yoda Meet Stitch und schau und dann kommen wir nach dem Video zurück und erklären, wie wir das gemacht haben. Eins. Spricht mehr über Mist. Ein Experiment, das du startest. Neugierig. Der Trigger wird als wahr angenommen. Dieser Planet ist abgelaufen oder Bosch. Ich versuche viel zu rendern. Im Moment habe ich mir eine Rolle in der Orthodoxen Kirche gekauft , um mehr über die Macht zu erfahren. Ich weiß nein. Kräfte und Energiefeld verbinden uns in zweierlei Hinsicht. Objekte kontrollieren unseren Geist. Sieh sogar in die Zukunft. Der falsche Mädchenstich. Zuerst musst du lernen, deinen Geist zu fokussieren. Schließ deinen gewölbten Felsen da drüben. Was ist dein Verstand? Um sich zu konzentrieren? Viel Fortschritt. Du musst hart arbeiten, um sie mit der Macht hochzuheben. Muss den Felsen durchqueren. Unterschlupf. Jetzt. Der Walkthrough muss bewegt werden. Deine Gefühle. Du musst dich mit der dunklen Seite identifizieren . Gib immer noch auf. Ich muss fließen. Ein Boss auf der dunklen Seite. Du hast das Video von Yoda Meet Stitch gesehen. Es ist ein bisschen albern, aber es ist nicht wirklich wichtig. Das Ziel ist nur, Ihnen zu zeigen, wie stabil die Fusion verwendet werden kann, um dies zu erreichen. Zuallererst werden Sie feststellen, dass ein wackeliger Dialog im Gange ist . Und dieser Dialog wird mit Chat GPT erstellt. Ich ging zu EBT chatten und sagte, schreib mir ein Gespräch, in dem Yoda Stitch trifft und ihnen etwas über die Macht beibringt. Und es ist aufgekommen, hat sich hier ein paar seltsame kleine Dialoge ausgedacht. Und ich habe das einfach ein paar Mal gemacht und die kleinen Teile herausgesucht , die mir am besten gefallen haben. Von dort stammt der Dialog für das Video. Lassen Sie uns nun über die tatsächlichen Bilder von sich selbst sprechen. Also Bilder hier, womit haben wir es zu tun? Wir haben diese Charaktere, und das ist dieser Yoda-Typ. Und Sie werden feststellen, dass er näher kommt als das Bild im Hintergrund. Es gibt also diese Tiefe hier. Und dafür gibt es ein paar Möglichkeiten. Es gibt die Art und Weise, wie Sie es wahrscheinlich tun würden , wenn Sie das für die Produktion tun würden, eine Art professionelle Methode, bei der Sie die Bilder in stabiler Diffusion erstellen. Und du gehst in eine Fotosoftware wie Photoshop und wählst die Figur aus und schneidest sie aus und stellst sicher, dass du all diese Details bekommst. Ich bin fertig, oder? Wir haben also nur dieses Bild und dann können Sie es in Ihre Videobearbeitungssoftware einfügen . Und das hattest du im Vordergrund. Das klang zunächst nach viel Arbeit. Weißt du, ich wollte das alles nicht machen, weil es zu viel Aufwand ist. Klingt so, als ich oft nicht einmal weiß , welche Bilder ich verwenden möchte. Vielleicht mag ich jemanden, der es nicht ist. Ich weiß nicht, ob ich einige dieser anderen nicht damit verbringen möchte , dass wir in Photoshop gehen und sie ausschneiden, zumindest nicht für solche Dinge. Ich wollte schnell etwas machen und herausfinden, wie man diesen Vordergrund- und Hintergrundcharakter schneller erstellen kann schneller . Die Lösung, die ich machen wollte, ist die Greenscreen-Technik zu verwenden. All dies wird also erreicht, indem Charaktere vor Greenscreens erstellt werden. Wir haben hier also einen Charakter, dieser Yoda-Typ steht tatsächlich vor einem Greenscreen. Ich kann dann einen sogenannten Chroma-Key verwenden , der die Hintergrundfarbe entfernt. Und dann kann ich. Ersetzen Sie es durch ein anderes Bild. Das ist es also, was du hier siehst. Lassen Sie uns Ihnen zeigen, wie Sie dies bei stabiler Diffusion tun können . Also ich habe hier meinen stabilen Erguss. Zuallererst gehe ich und überlege mir den Charakter , den ich kreieren möchte. In diesem Fall habe ich mit einigen Modellen herumgespielt, die mir gefallen haben. Ich habe mit ein paar Texten herumgespielt, Unebenheiten, die mir gefallen haben. Irgendwann habe ich mir ausgedacht, dass dieser kleine Kerl so ist, hey, dieser Typ ist irgendwie süß. Er sieht aus wie ein Yoda-Charakter , den ich machen möchte. Ich mag diesen Kerl. Also mir geht es gut, damit bin ich zufrieden. Ich werde das Bild zu Bild schicken. Der einzige Grund, warum uns das wichtig ist, ist das Abrufen der Textanweisungen. Das Sandwich ist uns egal. Das kann ich jetzt löschen. Wir befinden uns im Tab Bild zu Bild. Wir haben unsere Aufforderung. Jetzt müssen wir ein Foto unseres Charakters vor einem Greenscreen haben . Und wenn ich Charakter sage, meine ich jeden Charakter, es kann dieser sein. Das habe ich benutzt, ist ein Typ vor einem Greenscreen. Und es ist nicht einmal ein großartiger Greenscreen, wie Sie sehen können, es ist, es ist ein bisschen klobig, es ist nur ein einfarbiges Objekt. Jetzt gibt es ein Problem mit einem Yoda und dass du Yoda nicht vor einem Greenscreen verwenden kannst. Wir können das ein bisschen nähen, kein Problem. Aber Yoda ist ein bisschen knifflig , weil Gold grün ist. Also musste ich einen blauen Bildschirm verwenden, also, okay, lass uns diese Farbe austauschen, statt Grün wird Blau. Ich habe das in einer Bildbearbeitungssoftware gemacht. Ich habe also meinen Charakter, ich habe ihn vor einem blauen Bildschirm. In meinem Fall. Ich kann mir hier meine Einstellungen ansehen, aber sie sind nicht wirklich so wichtig. Ich benutze eine, ich habe einige, die auf der CFG-Skala spielen können. Derselbe Platz, wenn Sie den Startpunkt von Ihrem Text zum Bild haben möchten. Aber das alles ist okay für mich. Das einzige, was ich jedoch möchte, ist, dass die Ausgabe in den Abmessungen eines Videos oder zumindest im gleichen Maßstab erfolgt. Denn wenn ich ein Video wie dieses erstelle, es 1920 Pixel mal 540 Pixel, oder? Also wollte ich ein Bild haben, das in diesem ähnlichen Spektrum liegt. Okay, ich habe meine Abmessungen, ich habe mein Foto, ich habe meine Eingabeaufforderungen. Ich bin bereit zu gehen. Ich kann dann auf Generieren klicken. Und stabiler Erguss macht seine Magie. Er kommt mit einem netten kleinen Yoda-Charakter heraus. Da haben wir es. Wir haben einen Yoda. Er steht vor einem blauen Bildschirm und sagt, nun, die Fusion hat das für uns getan. Du kannst das also für einen Unbekannten tun. Vielleicht haben Sie einen Stapel von 20 verschiedenen Hinweisen, die Sie erstellen wollten. Und vielleicht möchte ich sie in etwas anderen Perspektiven haben . Ich wollte schon immer eine Nahaufnahme seines Gesichts haben. Versuchen wir es mit einer Nahaufnahme. Sehen Sie, wie es mit dieser Nahaufnahme aussieht. Mal sehen, wie das aussieht. Ich kann verschiedene Posen ausprobieren. Es ist nicht wirklich wichtig, was wir tun wollen. Du kannst experimentieren und verschiedene, verschiedene Bereiche ausprobieren. Wie nah Sie dem Objekt sind, vielleicht möchten Sie verschiedene Handvorschläge haben, das ist eigentlich egal. Wir können natürlich versuchen und experimentieren. Wie dem auch sei, sobald Sie all Ihre verschiedenen Fotos haben, haben Sie ein Verzeichnis allen Charakteren , die Sie verwenden möchten. Und von da an werden Sie feststellen, dass diese ein bisschen, ein bisschen verschwommen, ein bisschen, nicht so detailliert sind . Also werde ich hier auf meine Extras eingehen und den Batch aus dem Verzeichnis machen. In diesem Fall bedeutet das, dass ich den Ordner mit allen Bildern auswählen würde , die ich als Eingabe verwendet habe. Und ich gebe einen Ort an an dem das Ausgabebild gespeichert werden soll. Und wenn ich das getan habe, habe ich jetzt diese schöne Sammlung von Yoda-Charakteren. Und wenn mein Fall zwei Charaktere vor blauen und grünen Bildschirmen wegwirft, ist der Stich natürlich blau, also stelle ich ihn vor einen Greenscreen. Die Diode ist natürlich grün, also habe ich sie vor einen blauen Bildschirm gestellt. Okay, dann ging ich zu meiner Videobearbeitungssoftware. In meinem Fall verwende ich hier Premier. Und alles, was ich hier getan habe, ist einen Effekt namens Ultra Key hinzugefügt. Dies ist das Originalfoto ich von dieser Tabellenverbreitung erhalten habe. Ich habe das hier in meine Timeline aufgenommen. Dann wende ich die Ultrataste an, die alles entfernt , was blau ist. Weil du einfach diesen Ultra-Key hast und fragst: Welche Farbe soll er ausblenden? Sie können einfach die Farbe auswählen. In diesem Fall. Sie müssen dann ein bisschen mit diesen kleinen Einstellungen spielen . Aber wenn du einmal etwas herausgefunden hast , das im Wesentlichen schwarz aussieht, dann bist du gut. Und Sie können das Hintergrundbild einfügen, das in meinem Fall ein weiteres Foto ist , das ich in stabiler Diffusion generiert habe. Ich habe gerade die baumelnde Leiste eingegeben, das ist der Planet, auf dem Yoda existiert. Auf diese Weise war ich in der Lage, diese Charaktere in stabiler Ergussform zu erstellen, bei der Sie eine Figur im Vordergrund vor einem grünen oder blauen Bildschirm und eine separate Hintergrundumgebung haben einem grünen oder blauen Bildschirm und . Das alles ist die Verwendung von Bild zu Bild. Wenn Sie also wissen möchten, wie man Bild für Bild verwendet , können Sie das so machen. Du kannst all diese verschiedenen Charaktere erstellen. Verwenden Sie Ihre Eingabeaufforderungen. Sie können die Posen mit Ihrem Bluescreen-Greenscreen-Charakter abrufen. Und dann können Sie sie alle innerhalb einer stabilen Diffusion hochskalieren . 11. Infinite Zoom Intro: Hier ist eine wirklich coole Anwendung deaktivierte Diffusion, sie verwendet werden kann, um den sogenannten unendlichen Zoom zu erzeugen . Sie haben dieses Bild , das einfach für immer hineinzoomt oder für immer herauszoomt, je nachdem ob Sie vorwärts oder rückwärts gehen möchten. Das ist also eine Anwendung, die wir mit stabiler Diffusion verwenden können . Und wie das geht, lernst du in der nächsten Vorlesung. 12. Infinite Zoom: Um den unendlichen Zoom zu erzeugen, müssen wir zuerst eine Erweiterung in einfacher Diffusion installieren . dieser Registerkarte „Erweiterungen“, in der URL „Von installieren“, sollten Sie also in der URL „Von installieren“, die URL aus einem ganz bestimmten Git-Repository einfügen . In diesem Fall ist das dieses Repository hier, github.com, github.com, die automatische 1111-Web-UI mit acht HID-Infinite-Zoom-Funktionen. Sie kopieren also den Code aus diesem GitHub-Repository und fügen ihn dort ein. Und dann drückst du auf Installieren. Und dann wird es ein paar Augenblicke dauern. Sobald Sie das getan haben, gehen Sie hier zur Kategorie Installiert. Sie klicken auf Nach Updates suchen und dann bewerben Sie sich und starten neu. Möglicherweise müssen Sie auch die stabile Diffusion beenden und sie dann erneut starten. Also sei einfach darauf vorbereitet und achte darauf, dass du schmierst, bis du das getan hast. Sie benötigen hier auch einen Checkpoint mit einem Inpaint. In der Malerei. Im Wesentlichen nach einem Modell gebaut , das zum Malen verwendet werden kann. Und es hat normalerweise den Namen in Malerei drin. Sie können das also zunächst haben. Dafür musst du dir ein paar Modelle suchen. Also hier sind wir Uncivic. Ai kann eine Reihe verschiedener Modelle finden und sie haben Beispiele dafür, wie die Bilder aussehen könnten. Und Sie können auf eines dieser Modelle klicken und es zeigt Ihnen Beispiele. Denn in meinem Fall wähle ich die animierte Rippe aus. Das Wichtigste ist, dass Sie ein Modell benötigen , das kein Inpaint-Modell ist. Du brauchst also etwas, das in der Malerei verwendet wird, weil es so konzipiert ist, dass es mit dem unendlichen Zoom besser funktioniert. Also nimmst du das, lädst eines dieser Modelle herunter und klebst es in den stabilen Diffusionsordner. Genau wie bei all unseren anderen Modellen, bei denen die Diffusion deaktiviert ist als der Modellordner und dann der Diffusionsordner deaktiviert. Also tust du das. Und jetzt wird unser Modell im Inpainting als Modell angezeigt , das Sie auswählen können. Dann können wir zum Zoom-Tab für Kleinkinder gehen. Das Kind, der Zoom-Tab wird angezeigt weil wir die Erweiterung installiert haben, also möchte ich vorher nicht dort sein. Und jetzt schauen wir uns hier einige dieser Optionen an. Im Haupt-Tab haben Sie den Stapel wie zuvor. Also, wie viele Versionen dieses Videos wollen wir erstellen? Zeigt Ihnen die Länge , für die wir festlegen möchten. Wie lange wollen wir ein oder zwei Videos vorher haben? Und dann ist es hier wirklich ziemlich intuitiv. Es sagt, okay, in diesen zweiten Nullen, was möchte ich sehen? Oh, das erste, was ich sehen möchte, ist dieser tropische Wald. Und dann geht es in einen üppigen Dschungel. Es versucht also, diesen üppigen Dschungel und dann dichte Regenwälder zu schaffen . Und dann kommst du irgendwann in dieses Lastendach. Das ist also nur das Erste, was Sie sehen werden. Sie können auch Eingabeaufforderungen einfügen und Zeilen hinzufügen ist nicht viel, möchten Sie gehen? Es ist ziemlich intuitiv. Hier ist die Eingabeaufforderung, die wir für die festgelegt haben, die wir sehen wollen. Das ist bei all diesen Informationen üblich. Also ändern wir das. Dies hat also höchste Priorität, aber es wird auch versucht all die positiven Anregungen hier zu berücksichtigen. Und denkt an die negative Aufforderung zur Müllentsorgung dieser. Der Seed natürlich, genau wie der Rest, wenn du dieses Bild regenerieren würdest und du einen anderen Seed hättest, bekommst du ein anderes Video. Aber wenn du den Startwert der letzten Iteration, die du erstellt hast, behältst letzten Iteration, die du erstellt hast, du ein, naja, wenn du eine negative Iteration hast, bekommst du jedes Mal ein völlig anderes Video. Aber wenn du eine Konstanz hast, bekommst du jedes Mal dasselbe Video. Sampler, You'll Array oder einer der GPM Plus Plus Plus sind großartige Sampler, die dafür verwendet werden können. Die Ausgangsbreite, die Ausgangshöhe. Dies ist der Maßstab des Videos. In diesem Fall ist es dieses Quadrat, muss aber keine Quadratwurzel sein, Sie können es ändern. Und wie viele Probenahmeschritte gibt es? Wenn Sie die Anzahl der Schritte erhöhen, wird es etwas mehr Arbeit machen, aber es wird etwas länger dauern. Natürlich. Das erste Bild des Kunden ist ziemlich interessant, weil Sie wählen können , was ich möchte, das erste Bild, das wir sehen, und dann wird die Ausgabe auf diesem ersten Bild basieren. Sie können zunächst ein erstes Bild hochladen. Für Videos wird Ihnen die Anzahl der Bilder pro Sekunde angezeigt. Normalerweise möchten Sie dies so belassen, wie auch immer Ihr Endziel Frame pro Sekunde ist. Und normalerweise sind es 30 Bilder pro Sekunde oder 24 Bilder pro Sekunde. Der Zoom L ist anfänglich standardmäßig eingestellt, was bedeutet, dass Sie zur ersten Eingabeaufforderung wechseln und dann zum nächsten Zweig und dann zur nächsten Eingabeaufforderung im nächsten übergeordneten Element herauszoomen . Das Vergrößern bedeutet, dass wir die Reihenfolge umkehren. Es beginnt also bei der letzten Eingabeaufforderung und dann bei der vorletzten Eingabeaufforderung, die Eingabeaufforderung vergrößert sich, sie bewegt sich rückwärts. Oft führt das Zoomen zu besseren Ergebnissen. Und in Ihrer Bearbeitungssoftware können Sie die Geschwindigkeit des Videos jederzeit umkehren . Und der Grund dafür ist, dass beim Verkleinern versucht wird, etwas von Grund auf neu zu erstellen , das es eigentlich noch nicht gibt. Es versucht nur, das Geräusch zu betrachten und einige Informationen hinzuzufügen. Heranzoomen. Es gibt bereits Informationen, auf die es sich stützen kann. Es ersetzt also nur das Innenleben, basierend auf den Dingen, die es umgeben. Es stehen also etwas mehr Referenzmaterialien zur Verfügung. Wenn Sie also zoomen, erhalten Sie in der Regel bessere Ergebnisse. Die Anzahl der Startframes ist ziemlich intuitiv. Nehmen wir an, Sie möchten ein kleines Loch haben , bevor Sie mit dem Zoomen beginnen. Und das Gleiche gilt für den letzten Frame. Die Zoomgeschwindigkeit ist anfangs auf eins eingestellt, aber das sind normalerweise zwei schnelle. Normalerweise möchte ich das auf mindestens zwei oder vier oder etwas mehr einstellen , nur damit es ein langsamerer, schrittweiser Zoom ist. Das bedeutet zwar, dass das Video länger und langsamer sein wird. Anstatt also 5 s , die wir hier oder hier einstellen, geht es tatsächlich um das Vierfache, weil wir langsamer hineinzoomen. Aber es ist normalerweise anmutiger und angenehmer anzusehen. Das Gemälde, mit dem sich die Maskierung befasst, wenn sie ein Bild erzeugt. Wenn Sie die Maske nicht verblassen, werden Sie zunächst einige erschütternde Ergebnisse erzielen. Schauen wir uns also die Ausgaben hier an. Beachten Sie, dass sich der Ausgabeordner nicht im Text für Bilder befindet, sondern im Zoom-Ordner. Es wird also ein eigener Bereich sein. Wenn ich mir also einige dieser ersten Versionen ansehe, können wir das, da es sogar, seit noch schlimmer, in Ordnung ist. Eine von diesen. Los geht's, wir können dieses sehr klare Quadrat sehen weil die Maske nicht sehr gut verwischt wurde. Normalerweise solltest du die Maske also ein wenig verwischen , dann wird sie viel glatter. Wie Sie in diesem sehen können. Es ist wahrscheinlich ein bisschen quadratisch, aber Sie können wahrscheinlich mit den Einstellungen für die Maskenunschärfe spielen , um es noch glatter zu machen. Und in der Nachbearbeitung können Sie hochskalieren, sodass Sie genügend Skalar wählen können. Dies ist eine dieser Optionen, die normalerweise empfohlen werden. Sie erhöhen die Auflösung Ihres Videos, um es mit mehr Details zu erhöhen. Beachten Sie, dass dies die Verarbeitungszeit Ihres Videos erhöht . Also behalte das im Hinterkopf. Wenn Sie einen Rauschmultiplikator für Bild zu Bild haben, stellen Sie sicher, dass dieser auf eins eingestellt ist. Wenn Sie es auf einen anderen Wert setzen, erhalten Sie möglicherweise keine guten Ergebnisse. Es funktioniert vielleicht nicht einmal. Wenn Sie Farbkorrekturen haben, stellen Sie sicher, dass diese nicht aktiviert sind. Wenn Sie diese nicht haben, machen Sie sich darüber keine Sorgen. Das ist nur, wenn Sie sie bereits aktiviert haben und sie dort angezeigt werden. Also ja, das ist im Wesentlichen das Wesentliche. Sobald Sie alle Einstellungen vorgenommen haben, klicken Sie einfach auf Video generieren und am Ende erhalten Sie einige schöne Videoaufnahmen. **** zoomt im Wesentlichen für immer ein oder für immer heraus. 13. Erstelle Aufforderungen für stabile Diffusion mit ChatGPT: Wenn du ein Fan bist wie ich, habe ich GPT. Es stellt sich heraus, dass Sie Chat-GBT verwenden können, um Aufforderungen für eine stabile Verbreitung zu erstellen. Sie müssen sich also keine Gedanken darüber machen, welche Art von Texten Sie als Aufforderung verwenden sollten. Sie können eine stabile Verbreitung haben, erstellen Sie sie für Sie. Also, wie machen wir das? Nun, Stable Effusion ist auf chat.openai.com verfügbar. Und Sie können dorthin gehen und ein Konto erstellen und dann haben Sie Zugriff auf diese Oberfläche. Und hier können Sie im Wesentlichen Text eingeben. Und der Chat von GPT wird dann Wunder bewirken und Antworten auf alles finden, was Sie hier eingeben. Die Sache, die ich im Chat GBT stellen möchte, ich wollte mir ein paar Eingabeaufforderungen einfallen lassen. Also hier habe ich meine Textaufforderung, dass ich im Chat GPT bleiben werde . Sie werden etwas Ähnliches haben wollen. Lass uns das hier durchgehen. Aber wir stellen hier Beispiele für ein qualitativ hochwertiges Produkt für das Porträt eines Jungen, der Schach spielt, für die Text-zu-Bild-Ai, die Bildgenerierung, vor. Also teilen wir Chat GPT mit, was das Gesamtziel ist. Wir zeigen einige Beispiele für prompte Informationen Das ist der Chat, den GPG verwenden kann. Und dann sagen wir, gib einige Variationen der Objekte an. Wir kreieren verschiedene Jahreszeiten, Kleidung usw. Benutze das nicht. Vermeide es, das zu benutzen. Und der wichtigste Teil ist jede Eingabeaufforderung mit genau diesen Wörtern zu beginnen. Und in diesem Fall ist der wichtigste Teil, dass der Junge Schach spielt , weil ich möchte, dass ein Junge Schach spielt. Du kopierst das. Und du gehst zu deinem Stallerguss hier oder bei deinem Chat-GPG und steckst das rein. Und wir werden Chat GP haben. Gbt generiert hier ein paar nette Eingabeaufforderungen und das geht ziemlich schnell. Viel schneller, als ich mir Eingabeaufforderungen einfallen lassen könnte. Das ist sicher. Da sind ein paar gut aussehende Sachen. Damit bin ich ziemlich zufrieden. Ich kopiere das, gehe zu meiner stabilen Diffusion. Und ich werde das in meinen Knoten stecken, in ihren, in mein Skript. Hier gehe ich zu den Skripten und gehe zu den Eingabeaufforderungen aus einer Datei oder einem Textfeld. Und dann können Sie die Informationen, die Sie gerade von Chat GPT erhalten haben, in Ihre Liste der Eingabeaufforderungen einfügen . Und wenn Sie das getan haben, können Sie Ihren Sampler wählen. Ich meine, natürlich wählst du dein Modell aus und dann kannst du auf Generieren klicken. Und du wirst sehen, dass Chat GPT, Stable Diffusion , diese Bilder auf der Grundlage der Eingabe, die wir gerade gegeben haben, erstellt und sie in Chat-GPG erstellt. Sie sehen ziemlich gut aus. Es macht einen ziemlich guten Job. Schauen wir uns diese ein wenig an. Also haben wir einen Jungen, der im Winter Schach spielt. Da haben wir es im Herbst. Da ist der Sommer, und es gibt wohl den anderen, egal zu welcher Jahreszeit. Auf diese Weise können Sie Chat-GPT verwenden um Eingabeaufforderungen für eine stabile Verbreitung zu erstellen. 14. Installation von Controlnet: Wir werden ein Thema namens Control Net vorstellen. Control Net ist eine Erweiterung für stabile Verbreitung, mit der Sie die von Ihnen geschaffene Kunst in Posen platzieren können . In diesem Beispiel habe ich also ein statisches Bild, in dem wir diesen Charakter haben, der mit einigen Eingabeaufforderungen erstellt wird. Und was wir hier tun können, ist sein Originalbild zu verwenden und es zu posieren. Dass es sich jetzt immer an genau dieser Position befindet, ist in diesem Fall charakteristisch. Das ist an sich schon cool und du kannst deine KI so posieren, wie du willst. Aber was wirklich nützlich daran ist, ist, dass Sie es verwenden können , wenn wir mit der Erstellung von KI-Videos beginnen . Wenn wir anfangen, ein Video zu erstellen , bei dem der rechte Arm bewegt wird, muss die KI auch genauso posieren und das Tool kontrollieren, das wir für die Pose verwenden. Darauf bereiten wir uns in diesem Kurs vor. Wir bereiten uns auf KI-Video vor, aber Steuerung, für die es viele coole Anwendungen gibt. Und wir werden sie hier in diesem Kurs ein wenig durchgehen . Aber für dieses Video konzentrieren wir uns nur auf die Installation von controlled it. Okay, lassen Sie uns das Kontrollnetz installieren. Sie sollten also hier zum Tab Erweiterungen gehen . Und du wirst gehen, du wirst das hier noch nicht ganz sehen, und genau das versuchen wir zu erreichen. Sie müssen zu Verfügbar gehen. Und du wirst nach einer stabilisierenden Webkontrolle suchen , net. Danach werden wir suchen, oder zumindest wird es derzeit so benannt. Und du wirst es auf finden. Mein Fall wird nicht angezeigt, da ich ihn bereits für Sie installiert habe. Wenn du das tust, wirst du sehen, dass es hier auf der linken Seite erscheint. Und das wirst du finden. Und dann klickst du auf Installieren. Sobald du das installiert hast. Und du klickst auf die Schaltfläche Installieren, dann gehst du zur Installation und du wirst sehen, dass es hier angezeigt wird. Und dann können Sie auf Anwenden klicken und die Benutzeroberfläche neu starten. Das wird nun dazu führen, dass dieser neue Ordner in Ihren Verkaufserlebnissen erstellt wird . Und es wird dieses stabile, effiziente Web-UI-Kontrollnetz sein effiziente Web-UI-Kontrollnetz , der Ordner wird jetzt erscheinen, er wird am Anfang nicht da sein, aber er wird danach dort angezeigt. Und wir werden hier einige Modelle erstellen wollen. Dadurch werden diese Modelle erstellt. Das wird sich zeigen. Anfänglich. Wir müssen einige andere Modelle hinzufügen. Also werden wir das Modell nicht in diesen Ordner legen, sondern in den stabilen Diffusion Models-Kontrollnetzordner. Dazu werden wir navigieren. Und wir werden diese Modelle herunterladen. Und Sie werden sie hier von dieser Website herunterladen. Hugging Face, LLL, ESBL Slash Control Net Slash Tree Slash Wartungsmodelle. Sie werden diese Modelle hier herunterladen. Sie sind ziemlich groß und du wirst sie in diesen Ordner hier legen . Denken Sie daran, dass die Diffusions-Web-Benutzeroberflächenmodelle den Netzordner steuern. Beachten Sie, dass dies anders ist als der Ort, an dem Sie all Ihre anderen stabilen Diffusionsmodelle bisher platziert hätten . Sobald Sie das getan haben, können Sie zur einfachen Diffusion übergehen. Möglicherweise müssen Sie es erneut anwenden und die Benutzeroberfläche neu starten. Vielleicht musst du es schließen und neu starten. Wenn Sie diese Schritte jedoch befolgen, sollten Sie diesen Tab hier sehen Kontrollnetz wird unter Ihrem Text zum Bild angezeigt. Und wenn Sie darauf klicken, sehen Sie all diese Modelle. Und Sie werden die Modelle sehen, die wir gerade von Hugging Face heruntergeladen haben. Holen Sie sich dieses Setup und dann können Sie im nächsten Video zur tatsächlichen Verwendung von Control That übergehen . 15. Einführung In Controlnet: Bisher haben wir also Charaktere geschaffen , die größtenteils nur in die Kamera schauen. Sie könnten in ihrer Positionierung ziemlich fad sein. Aber mit dem Kontrollnetz, das wir im letzten Video installiert haben, können wir unsere Charaktere jetzt in bestimmten Posen haben. Also z.B. machen wir hier eine Pause. Wir sind Damen, die auf dem Boden sitzen, ihre Beine verschränkte Arme auf dem Boden. Und sie ist immer in der exakt gleichen Pose, obwohl wir die Kleidung und die Hintergrundfarbe geändert haben oder was auch immer wir tun wollen, die Pose wird immer beibehalten. Schauen wir uns also an, was wir dafür mit dem Kontrollnetz machen können. Nun, im Kontrollnetz hier, ursprünglich, wenn wir unseren Charakter laden würden , wir so etwas bekommen , wo wir einfach einen Charakter haben, der irgendwie langweilig ist und nach vorne zeigt. Das ist in Ordnung. Aber wir wollen hier zum Kontrollnetz gehen. Wir wollen eine Pose beibehalten unser Charakter positioniert werden kann, indem wir ihn kontrollieren. Also, was hältst du hier drin? Nun, es kann wirklich alles sein. Sie können ein Foto von sich selbst in einer Pose machen, in der Sie Ihren Arm über dem Kopf haben oder was auch immer. Es muss nicht einmal ein Mensch sein. Ich kann das sagen, solange es eine humanoide Form mit Armen und Beinen hat und irgendeine Form von Kopf hat. In diesem Fall gibt es nicht einmal einen Menschen. Ich kann das benutzen und wir werden jetzt unseren Charakter 0 haben. Stellen Sie sicher, dass Sie hier aktiviert haben, dies muss überprüft werden und der Prozessor muss aktiviert sein. Für dieses Beispiel verwenden wir Canny. Und das Modell muss genau dasselbe sein. Also, wenn du hier Süßigkeiten hast, brauchst du hier eine Süßigkeit. Wenn Sie hier ein anderes Modell hatten, müssen Sie sicherstellen, dass genau dasselbe Modell verwendet wird. Sobald Sie diese Dinge ausgewählt haben, haben Sie sie aktiviert. Dann kannst du hier hingehen und generieren. Und wir werden herausfinden , dass unser Charakter jetzt in der Pose erstellt wird. Wir hatten jetzt diese weiße Dame in einer Position, in der sie ihre Hände in Tasche hat und es sieht so aus sie versucht, so etwas wie eine Aktentasche zu kreieren, aber hier ein bisschen wackelig. Das Auge tut sein Bestes , um diesen Hinterteil nachzubilden. Lassen Sie uns Ihnen ein paar Ressourcen zeigen, um Posen zu bekommen , falls Sie aus irgendeinem Grund etwas Inspiration benötigen. Eine davon ist die Website pose maniacs.com, Sie Gegensätze finden können, wie diese hier, auf der Sie nach Home Opposure gehen. Sie können eine Reihe verschiedener Posen finden , aus denen Sie wählen können. In diesem Fall ist dies der Beitrag des Tages , den wir gerade haben. Und im Grunde ist es ein Charakter, den man bewegen kann, nur ein Modell. Du kannst es umdrehen. Sie können wählen, ob Sie es männlich oder weiblich machen möchten. Sie können einige voreingestellte Positionen auswählen , mit denen Sie vielleicht experimentieren möchten. Und schließlich können Sie sogar die Beleuchtung wählen, aber die Beleuchtung ist uns egal, weil die KI die Beleuchtung ersetzen wird. Dann kannst du es im Vollbildmodus machen, einen Screenshot speichern und das bei deaktivierter Fusion speichern. Ein anderes, das wir haben, ist postmarked.com. Und du gehst zu postmarked.com und du bekommst so etwas. Und Sie können Modelle und viele Modelle hinzufügen , die Sie verwenden möchten. Und Sie können auch Eingabeaufforderungen hinzufügen, obwohl das für unser Szenario nicht hilfreich sein wird. Sie können hier vorgefertigte Szenen wie dieses Ding haben, z. B. fügen wir diesen Charakter hinzu. Das ist also ein ziemlich gut aussehender Beitrag. Damit bin ich ziemlich zufrieden. Das ist sehr dynamisch. Ich spüre, wie hier viel Bewegung vor sich geht. Lass uns eine Pose finden, deren Position mir sehr gut gefällt. Ich glaube, mir hat gefallen, wie sie aussieht. Du gehst hier in die Einstellungen. Du siehst vielleicht einige Dinge wie diese, bei denen du Schatten und Boden hast, aber wir wollen nichts davon , weil das die KI verwirren wird. Wir brauchen den Boden nicht, wir brauchen den Boden nicht. Und das einzige, was uns interessiert, ist anzunehmen, dass wir wirklich all die anderen Funktionen deaktivieren werden, die uns ablenken. Und zum Schluss wählen wir einfach den Screenshot aus. Wir haben unseren Screenshot, wähle ihn aus. Da haben wir es. Jetzt können wir zur einfachen Diffusion zurückkehren. Und ich kann meine Hoffnungslosigkeit hinnehmen. Lösche immer den vorherigen. Ich kann meinen Screenshot hineinziehen. Hier haben wir unseren kleinen Charakter. Und ich klicke jetzt auf Generieren. Und wir werden unseren Charakter haben, eine weißhaarige Frau. Jetzt in der Pose der Beiträge, die wir gerade erstellt haben. Da haben wir es also. Ich kann mir vorstellen, dass die KI ihr Bestes tut, um das nachzubilden. Also, wie macht das das genau? Nun, es verwendet etwas, das als Tiefenkarte bezeichnet wird. Und eine Tiefenkarte ist dieses zweite Bild, das hier erstellt wurde. Wenn du das nicht siehst, kannst du zu den Einstellungen gehen und sicherstellen, dass dieses Ding unter dem Kontrollnetz deaktiviert ist. Das ist eine große wichtige Sache. Sie möchten, dass das deaktiviert ist, wenn Sie diesen Hintergrund sehen möchten . Also, was ist das? Nun, wenn wir den Präprozessor und das Modell verwenden, erstellt es hier eine Tiefe oder eine Karte, die wir uns ansehen, je nachdem, welches Modell verwendet wird. In diesem Fall verwenden wir die Cannae. Das Candy-Modell wird also zur Kantenerkennung verwendet. Es entstehen also feine Linien um den Ausgang, hier um das Modell herum. Es entstehen also kleine Linien. Hier zeichnet man kleine Linien. Und dann wird das verwendet, um die Pose zu beeinflussen, in der unser Charakter verwendet wird. Hier gibt es ein paar verschiedene Modelle, die wir heruntergeladen haben. Hier haben wir die Candy-Map, die sich auf feine Linien konzentriert, was gut für hohe Details ist, gut für Anna. Können wir hier eine Tiefenkarte haben, die für die Identifizierung des Weltraums nützlich ist? Wir werden uns ein anderes Video ansehen , das näher darauf eingehen wird. Wir haben die H-E-A-D, die der Bezirkskarte ähnelt , sich aber nicht so sehr um feine Linien kümmert. Es entstehen mehr unscharfe Linien an den Rändern. Die MLS D eignet sich gut für Architektur. Also, wenn Sie Baupläne oder Gebäude haben, von denen Sie die Position ermitteln möchten. Das ist großartig für die. Normal Map ist nützlich für 3D-Software, bei der Sie die Höhe von Bildern und einige unterschiedliche Volumina kennen müssen . Es wird diese erstellen. offene Pose ist nützlich um im Wesentlichen wie ein Strichmännchen zu kreieren. Und die Armpositionen der Strichmännchen werden diese, diese werden verwendet, um die Leistung zu beeinflussen. Und schließlich ist das, was ich hier habe, Scribble. Es ist nur so, dass Sie im Wesentlichen nur eine Skizze von einem Blatt Papier benötigen und das wird in Ihre Zeichnung umgewandelt. Das ist also eine schöne Einführung in das, wofür das Kontrollnetz verwendet werden kann. 16. Intro zum Erstellen von Videos mit künstlicher Intelligenz: Bisher haben wir in diesem Kurs nur gelernt, wie man Bilder erstellt, nur statische Bilder, die sich nicht bewegen. Es stellt sich jedoch heraus, dass einfache Diffusion zur Erstellung von Videos verwendet werden kann In den nächsten Vorlesungen werden wir also lernen, wie man bewegte Bilder erzeugt, die eine stabile Diffusion hinzufügen Was Sie hier sehen, sind einige Aufnahmen von einem Paar im Urlaub. Und was wir gemacht haben, wenn wir es durch stabile Diffusion gesteckt haben, einfache Diffusion bildet hier jedes einzelne Bild neu, tut dies aber konsistent tut dies aber konsistent Es sieht also immer noch so aus, als wäre es ein Video und es bewegt sich von einem Bild zum nächsten Bild. Nun, vielleicht stellen Sie fest, dass diese spezielle Verwendung von einfacher Diffusion ein bisschen wie Wasserfarbe aussieht, aber das ist nur diese spezielle Aufforderung, die wir verwendet haben Du könntest damit den Feind erstellen oder was auch immer du willst, um dein Videomaterial zu konvertieren. Dieses Video hat dir gefallen. Und dann lernen wir, wie Sie mit Stable Effusion selbst Videos erstellen Okay? 17. SD-Konfiguration für die Videoerstellung: Okay, lassen Sie uns mit der Erstellung von Videos mit stabiler Diffusion beginnen. Im ersten Schritt müssen wir also ein wenig Setup-Konfiguration vornehmen. In den Savings Slash-Bildern sind Schrägstriche auf der Registerkarte „Einstellungen“ zu finden. Sie werden wahrscheinlich JPEG als Ihr Dateiformat für Bilder wählen wollen , Sie können PNG verwenden. Normalerweise ist es die Standardeinstellung auf PNG. Es wird nur eine größere Dateigröße sein. Hängt davon ab, wie viel Speicher Sie auf Ihrem Computer haben. Du bist dir bewusst, ob du Speicher sparen willst oder nicht. Wege zum Sparen. Stellen Sie sicher, dass Sie herausfinden , wo die Ersparnisse liegen, damit Sie sie später finden können. Sie können jederzeit Ihren eigenen Link hinzufügen, in welchem Ordner Sie Ihre kreativen Videodateien speichern möchten, die Bilder mit dem Aufnahmeort dort. Im Rahmen der stabilen Diffusion sollten Sie dies mit Bild-zu-Bild überprüfen. Führe genau die Anzahl der Schritte aus, die der Schieberegler vorgibt. Normalerweise macht man weniger mit dem Entrauschen. Also wirst du das überprüfen müssen. Und darauf, was das bewirkt, kommen wir gleich zurück . Für die Benutzeroberfläche. Unter der Schnellliste sollten Sie sicherstellen , dass dieser Text hier angezeigt wird . Und denken Sie daran, dass wir unter dem Kontrollnetz in einem früheren Video die Steuerung installiert haben. Wenn Sie Control That noch nicht installiert haben, müssen Sie zurück gehen und sich zuerst das Video ansehen, in dem Control Net installiert wurde. Hier. Dies wird dieser kleine Button hier sein , er hängt keine Tech-Map an die Ausgabe an. Du solltest das aktiviert haben, wenn du ein Video machst, stelle sicher, dass es aktiviert ist, wenn du kein Video machst, du wirst das Häkchen entfernen wollen. In Ordnung, wenn Sie das getan haben, klicken Sie auf Einstellungen anwenden und laden Sie die Benutzeroberfläche neu. Und Sie werden sehen, dass dieser kleine Geräuschmultiplikator-Schieberegler hier erscheint nachdem Sie ihn gespeichert und erneut geladen haben. Eine Sache, die Sie hier bemerken werden ist, dass wir dies auf Null setzen wollen. Aber wenn du ganz nach unten gehst, geht es auf 0,5. Manchmal kann dies in zukünftigen Updates behoben werden, sodass dies möglicherweise kein Problem darstellt. Aber in der Zwischenzeit können Sie Inspect ausführen. Und du kannst hier auf diese kleinen Männer klicken und das auf Null setzen. Und dann kannst du hier mit der rechten Maustaste auf dieses Ding klicken. Klicken Sie einfach auf den Schieberegler und wählen Sie Min. Setz das auf Null. Und jetzt kannst du es tatsächlich ganz auf Null ziehen. Und falls du dich fragst, nun, was ist das? Nun, wenn du dir diese Einstellungssache ansiehst und wir zu den Einstellungen gehen , die wir gerade geändert und Effusion deaktiviert haben. Ähm, mach genau die Anzahl der Schritte, die ein Slave wie angegeben hat. Wir sagen also, dass wir nichts anderes machen wollen als diese Einstellung hier. Wir möchten genau die Anzahl der Schritte ausführen, die auf der Folie angegeben sind. Okay, wir haben die Konfiguration gemacht. Jetzt. Wir können mit der Erstellung des Videos beginnen. 18. Videos mit stabiler Diffusion erstellen: Lassen Sie uns also darüber nachdenken, wie wir mit KI Videos erstellen können. Wir können Text für Bild verwenden, weil Texte, das Bild hat eine Aufforderung, es wird ein Bild erzeugt und es wird jedes Mal ein anderer Durchschnitt sein. Selbst wenn wir denselben Ausgangswert verwenden, wird es trotzdem keinen Fluss zwischen einem Bild und dem nächsten Bild geben. Und ein Video ist nur eine Reihe von Bildern hintereinander. Es ist nur eine Sequenz. Also müssen wir Bild für Bild verwenden. Und dann brauchen wir Bilder, die miteinander in Beziehung stehen, sodass sie sich bewegen. Sind sie ein Gefühl von Bewegung, wenn Sie von einem Frame zum nächsten Frame wechseln Also brauchen wir ein Video. Und was Stapled Diffusion dann tun kann , ist, dass es jedes Bild des Videos in ein beliebiges Bild umwandeln kann. Und wir können eine gewisse Konsistenz zwischen ihnen herstellen , indem wir dieselben Saatgutinformationen verwenden. Wir brauchen also ein Video, das wir in ein Video konvertieren können. Wenn Sie also kein Video haben, wenn Sie Ihr eigenes Video haben, können Sie jedes Video verwenden, das Sie möchten. Andernfalls, wenn Sie ein kostenloses Video herunterladen möchten, können Sie zu pexels.com gehen das gewünschte Video auswählen. In diesem Fall spielt es keine Rolle, ich habe diesen kleinen Kerl hier ausgewählt. Und das müssen wir in einzelne Frames aufteilen. Es gibt ein paar Möglichkeiten, das zu tun. Sie können auf eine Seite wie diese gehen, easy gift.com. Gehe zu Video zwei JPEG. Gib dort dein Video an. Und dann wählst du einfach aus wie viele Bilder du pro Sekunde haben möchtest. Und du kannst das bekommen und einfach alle Bilder machen. Sie können dies mit einer Videobearbeitungssoftware tun. In diesem Fall können Sie, wenn Sie etwas wie Adobe Premiere haben, einfach Ihre Videos und Ihre Sequenz hinzufügen , exportieren und dann JPEG wählen. Auf diese Weise können Sie alles verwenden , was Sie wollen. Sie müssen Premiere nicht verwenden. Ich habe dir nur gezeigt, falls du diese Software hast oder nicht, du kannst etwas wie Easy gif.com verwenden. Sobald Sie es konvertiert haben, erhalten Sie eine Sequenz von Bildern. Also, wenn ich auf diesen Typen klicken würde, das erste Bild hier, und ich klicke einfach links. Wir können sehen, wie wir von einem Frame zum nächsten Frame gehen. Wir haben diesen Kerl, der sich langsam bewegt. Also stabiler Erguss. Er nimmt jedes einzelne Bild und wandelt es in eine beliebige Kreation um, in eine beliebige Kreation um die wir mit unseren Textanweisungen wählen. Aber es wird Beständigkeit geben , weil es sich bewegt. Es wird also ein Bild haben , das sich jedes Mal ändert, aber wir haben immer noch unser grundlegendes Referenzbild. Hier sind wir von Bild zu Bild. Ich lade das erste Bild in unserer Sequenz hoch. Im Bild-zu-Bild-Tab hier, Bild-zu-Bild-Tab. Wir haben eine positive Aufforderung hinzugefügt. Bei einem Negativ können Sie setzen, was Sie wollen. Wir haben sie alle ausgewählt. Ich möchte verwenden, du kannst natürlich jedes Modell verwenden, das du willst. Ich habe eine Stichprobenmethode. Ich habe eine ausgewählt, mit der ich zufrieden bin. In diesem Fall ist mein Referenzbild 1.920 Pixel mal 180 Pixel groß. Das ist kein Quadrat. Also habe ich die Breite und die Höhe an den Wert oder die Skala meines Bildes angepasst . Das ist genau die Hälfte von 1920 Pixeln, und das ist ungefähr die Hälfte von 1080 Pixeln. Sie werden feststellen, dass, wenn Sie es tun und es dann durch zwei teilen, manchmal der Wert automatisch angepasst wird und das ist keine allzu große Sache, es muss nur ein Näherungswert sein. Kommen wir nun zum CFG und zur Stärke der Geräuschreduzierung. Das ist ein bisschen schwierig da die CFG-Skala nicht vergessen sollte, wie sehr wir eine stabile Diffusion wollen. Jim feuert und denkt sich ein eigenes Bild aus. Je höher wir also gehen, desto mehr Freiheit hat die einfache Diffusion, je niedriger wir gehen, desto näher kommen wir dem Originalbild. Nun, wenn wir dem Bild wirklich nahe kommen, ist das gut. Weil ein Frame wie der folgende Frame und die Sequenz aussehen wird . Das bedeutet aber auch, dass wir keine stabile Verbreitung bekommen , um so viel von ihrer Arbeit zu erledigen, es wird weniger, wie in meinem Fall, karikaturistische Pastellmalerei. Wir möchten also einen etwas niedrigen Wert haben, damit er wie das vorherige Bild aussieht. Wir wollen aber auch, dass es hoch ist. Diese stabile Funktion wird also funktionieren. Sie müssen also damit experimentieren , tief und hoch zu gehen. Und das ist ein bisschen Übung, auch ein bisschen Geschmack und Präferenz. Das Gleiche gilt für die Stärke der Geräuschreduzierung. Je höher wir kommen, desto stabiler muss die Fusion experimentieren. Eine Sache, die Sie tun sollten, ist, wenn Sie ein Bild gefunden haben , das Ihnen gefällt, darauf zu achten, dass der Startwert konsistent bleibt. Und für das Kontrollnetz aktivieren Sie es und wählen denselben Präprozessor wie das Modell. Was auch immer Sie wählen, Sie möchten, dass es dasselbe ist. Wenn Sie z. B. die Tiefe wählen, stellen Sie sicher, dass Sie auch den Tiefenpräprozessor verwenden. Wie dem auch sei, ich habe auf Ausführen geklickt und so habe ich dieses Bild hier bekommen. Ich habe diesen kleinen Kerl, der im Wesentlichen dieses Bild ist, aber zusätzlich zu den positiven und negativen Eingabeaufforderungen. Die Pose wird auch aufgrund des Kontrollnetzes berücksichtigt. Was meine ich, wenn ich sage, dass die CFG-Skala und die Geräuschdämpfungsstärke niedrig sein müssen. Sonst wirst du zu viel Abwechslung haben. Nun, lassen Sie mich Ihnen die Ausgabe zeigen, die ich von diesem Bild hier bekommen habe , dieser Bildsequenz. Das ist die Ausgabe. Sie werden feststellen, dass die Quadratwurzel, weil ich die Skala etwas falsch angegeben habe, aber für dieses Beispiel ist sie in Ordnung. Sie werden feststellen, dass er sich von einem Frame zum nächsten Frame ziemlich verändert . Sie können die ethnische Zugehörigkeit sehen. Falls sich der Typ überhaupt ändert. Sie können wahrscheinlich die positive und negative Aufforderung ändern die positive und negative Aufforderung , um zu versuchen, dies stärker beizubehalten. Aber wir wollen uns weniger als auf die Aufforderung verlassen. Weil Sie nicht genau vorhersagen können wie jeder einzelne Frame aussehen wird. Wir können versuchen, so viel wir wollen, aber es wird sich trotzdem bis zu einem gewissen Grad ändern, weil er jedes Mal ein neues Bild erstellt. Ich empfehle Ihnen , mit der CFG-Skala und der Stärke der Geräuschreduzierung zu experimentieren der CFG-Skala und der Stärke der Geräuschreduzierung zu diese niedrigen Werte so gering wie möglich zu halten. Wenn du froh bist, das los zu werden, entferne dein Bild hier. Werde dein Bild hier los. Warum? Weil es Ihre vorherigen, Ihre nächsten Bilder in der Reihenfolge beeinflussen wird. Das wollen wir nicht. Wir möchten, dass jedes Bild für sich betrachtet wird. Gehen wir also hier zum Batch. Und im Batch wählen wir unser Eingabeverzeichnis. Also, was meine ich damit? Ich meine, der Ort, an dem wir unsere Originaldateien haben , sind Eingabedateien. Kopieren Sie also diesen Ordnerort, an dem Sie sich befinden, und wählen Sie den Ordner aus, in dem sich Ihre Ausgabe befinden soll. Überprüfe hier einfach, ob du siehst, dass das jedes Mal konsistent sein wird. Sonst wirst du Probleme haben. Und dann kannst du auf Run klicken. Und wenn du das getan hast, wirst du irgendwann, es wird eine Weile dauern. Irgendwann werden Sie Ihren Ausgabeordner voller Bilder haben. Diese Typen. Und wir können dann all diese Bilder zu einer Videosequenz kombinieren . Sie können das entweder mit einer Videobearbeitungssoftware tun oder Sie können Easy gif.com verwenden. Du gehst zu dieser Seite und zum GIF-Maker und lädst deine Fotos hoch. Wenn Sie eine Videosoftware wie Premiere verwenden, gehen Sie zu Datei und dann zu Import. Sie wählen das erste Bild Ihrer Sequenz aus. Beachten Sie, dass die Benennung wichtig ist, wenn einfache Diffusionsnamen der Bilder in sie in einer Reihenfolge benannt werden. Und diese Reihenfolge basiert auf Ihren Eingabebildern. Denken Sie also daran, dass wir diese Eingabebilder erstellt haben. Du wirst nicht zu viel mit diesen Namen herumspielen wollen viel mit diesen Namen herumspielen weil es danach suchen wird , wenn du sie später miteinander kombinierst Wenn du nicht mit dieser 0010203 anfängst, wird es sie nicht miteinander kombinieren können . Denken Sie also darüber nach. Ja, Sie haben also Ihre Bildsequenz, wir haben sie hier abgelegt. Wir haben unser Video und wir spielen es ab. Und es sieht gut aus, es sieht aus, als hätte ich ein Video erstellt, was großartig ist. Das ist es, was wir wollen. Es gibt viele Bilder pro Sekunde. Es scheint sehr schnell zu sein. Es gibt ein paar Dinge, die wir tun können, um das Problem zu beheben. Eines der Dinge, die wir im nächsten Video behandeln werden , ist das Flackern von D. Eine andere Sache, die Sie berücksichtigen sollten, ist dass Sie vielleicht nicht so viele Bilder pro Sekunde benötigen. Okay, es kann wirklich nur so viel auf einmal verarbeiten. Und wenn jedes Bild anders ist, hat es ein bisschen Probleme. So könnten wir z. B. die Länge der Zeit, in der wir jedes Bild sehen, erhöhen . Ich muss es vielleicht nur sehen. Ich kann die Bilder verdreifachen. Und wenn ich das Video dann abgespielt habe, wird es bis zu einem gewissen Grad eher wie eine Comic-Skizze aussehen . Etwas weniger Jargon. Die Augen. Wir werden es reparieren, wie ich später erwähnt habe. Aber das kannst du machen. Wenn Sie diese Technik jedoch anwenden. Vielleicht brauchst du in deinem Originalvideo nicht so viele Frames . Vielleicht können Sie die Anzahl der Frames von vornherein reduzieren . Also, als wir die Bilder dieses Typen in einzelne Bilder zerlegt haben , kannst du zur Sequenz gehen und sagen, du brauchst vielleicht nur 12 Bilder pro Sekunde. Sie benötigen keine 24 Bilder pro Sekunde oder 30 Bilder pro Sekunde. Und dann wegen der Leistung, und vielleicht wirst du sie sowieso verdoppeln und verdreifachen. Das spart dir etwas Zeit, wenn du all deine Videos mit einfacher Diffusion erstellst. Da hast du es also. Sie haben jetzt ein Video mit stabiler Diffusion unter Verwendung von Referenzmaterial erstellt . 19. Deflimmerndes KI-Video: In diesem Video werden wir darüber sprechen, wie Sie viele der Flackern beheben können, die wie in Ihrem Video auftreten, nachdem eine Gleichsetzung Das ist also ein Video, das ich in stabiler Diffusion erstellt habe. Und Sie werden feststellen, dass im Hintergrund viel Flackern zu sehen ist und es sehr schwer ist , es anzusehen, und es ist irgendwie schmerzhaft für die Augen Der Grund dafür ist, dass jedes Mal stabile Diffusion ein Bild eines Videos aufnimmt, es neu erstellt wird. Jedes Bild unterscheidet sich geringfügig vom nächsten Und aus diesem Grund gibt es viele kleine Störungen und Risse und ein leicht unterschiedliches Flackern und jedes einzelne Und wir wollen ein paar Effekte hinzufügen. Ich versuche das zu glätten. Ich habe versucht herauszufinden, wann ein Frame völlig anders ist als der nächste Frame. Und es ist wie ein kleiner Punkt hier und da. Nun, lassen Sie uns versuchen, diese zu glätten und diese kleinen Flecken und In diesem Video werden wir also herausfinden, wie Sie das Flackern aus Ihren KI-Videos entfernen Flackern aus Ihren KI-Videos Also lass uns das machen. Sie benötigen ein Tool, und das Tool, das dafür am besten zu funktionieren scheint , ist Dementia Resolve. Da Vinci Resolve ist ein kostenpflichtiges Plug-in. Es ist eine Videobearbeitungssuite. Es hat viele Effekte und du kannst professionelle Sachen damit machen. Ja. Wenn Sie also das D-Flackern untersuchen möchten, können Sie dieses Plug-in verwenden Hier sind wir in Da Vinci Resolve. Und ich habe den Videoclip aus der KI-Verarbeitung importiert. Das ist also die kleine Video-Sache hier. Sie werden sehen, es sieht so aus, als ob alles in Fast Forward läuft. Und der Grund, warum ich das gemacht habe, anstatt jedes einzelne Bild abzuspielen, was hier passiert, ist, dass ich es aus meiner anderen Videobearbeitungssoftware exportiert habe , nachdem die Bilder mit einer niedrigeren Bildrate kombiniert habe. Ich denke also, das ist nur in 12 Bildern pro Sekunde statt der üblichen 24 Bilder pro Sekunde oder 30 Bildern pro Sekunde. Also, warum sollte ich das tun? Nun, was hier passiert, ist, als ich das Video mit stabiler Diffusion erstellt habe, anstatt 24 Bilder pro Sekunde oder 30 Bilder pro Sekunde zu machen , wollte ich den Prozess beschleunigen, damit die stabile Version nicht so viele Bilder, Bilder rendern muss so viele Bilder, Bilder Nur weil Stapled Fusion dafür eine Weile dauert und ich eigentlich nicht so lange warten wollte Und was du später tun kannst , ist, dass ich das Video einfach verlangsamen kann. Moment ist das nur ein Video mit zwölf Bildern pro Sekunde, aber ich kann die Zeit einfach in halber Geschwindigkeit ablaufen lassen Und das wird drin sein, es wird später einige doppelte Frames haben. Aber da es ein Cartoon-Aquarell ist, suchen wir nach etwas Cartoon-Aquarell ist, suchen wir nach Es ist wahrscheinlich nicht so wichtig. Wenn ich da ein paar doppelte Frames drin habe weil es ein bisschen schwierig ist, alle Bilder mit all den Details zu sehen , die irgendwie cartoonartig sind mir also nichts doppelte Bilder zu haben, und deshalb macht es mir nichts sie in ein paar doppelte Frames zu exportieren. Also hier sind wir jetzt mit dem Video und ich habe das Video in Jue de Vinci Resolve eingegeben Warum habe ich das Video nun hierher gebracht? Warum habe ich nicht einfach die Bildsequenz mitgebracht? Der Grund dafür ist, dass ich finde, dass, wenn wir die D-Flacker-Plug-ins anwenden, es besser funktioniert, zumindest meiner Erfahrung nach bei Videos als bei Bildern Ich finde es manchmal schwierig, mit Bildsequenzen mit den flackernden Effekten umzugehen Bildsequenzen mit den flackernden Ich glaube nicht, dass das immer der Fall sein wird. Vielleicht ist das nur mit der aktuellen Version, die ich verwende, aber zur Zeit, die ich verwende, muss ich Videos verwenden, wenn ich die D Flckering Up-Plugins anwende Also habe ich hier einen beliebigen Videoclip hinzugefügt und gehe jetzt zum Fusion-Tab. Hier werden wir alle Effekte anwenden. Hier. Wir können den Median rein und den Median raus sehen Meeting n ist unser Eingabevideo. Das ist das Video, das wir reinbringen werden. Wenn ich auf diese kleine Notiz hier klicke und ich eine auf meiner Tastatur drücke, kann ich den Videobildschirm zu dieser Seite hinzufügen. Und wenn ich mit der linken Maustaste auf den Medianten klicke und zwei auf meiner Tastatur drücke, kann ich ihn auf der anderen Seite hinzufügen Das ist also das Eingabevideo vor den Effekten und die andere Seite ist das Ausgabevideo von After Effects. Fangen wir also an, einige Effekte hinzuzufügen. Ich klicke auf den Median in. Und ich drücke die Tastenkombination „Control Space“ auf meiner Tastatur, vorausgesetzt, ich verwende Windows Control Space. Und wir werden dieses Auswahl-Tool öffnen. Und hier kann ich die gewünschten Effekte eingeben. Ich will die automatische Schmutzentfernung. Also werde ich diese automatische Funktion beim Entfernen hinzufügen. Das hat eigentlich nicht funktioniert. Ich möchte, ich möchte zuerst auf den Knoten klicken und dann automatisch Schmutz entfernen. Jetzt wurde es ordnungsgemäß zur Kette hinzugefügt. Dadurch werden alle kleinen Spritzer entfernt, ein kleines Stück Schmutz die nur in einem einzigen Frame erscheinen, aber im nächsten Bild oder dem darauffolgenden Bild nicht auftauchen . Das ist es, was das bewirken wird. Und jetzt fügen wir ein flackerndes Plugin hinzu. Also werde ich auf diesen nächsten Knoten klicken, und ich werde in D flackernd klicken Hier ist das D Flicker Plugin. Wieder einmal habe ich das falsch gemacht. Klicken Sie auf den automatischen Schmutz und dann den Flackern stärker. Und das hat es der Kette hinzugefügt. Hier drüben in den D-Flicker-Einstellungen. Wir werden das von Zeitrafferlampen auf Leuchtstofflampen umstellen wollen Zeitrafferlampen auf Leuchtstofflampen Jetzt haben wir also unsere automatischen Schmutzentfernungseffekte, Entitätsflickereffekt Wenn Sie möchten, können Sie weitere D-Flickereffekte hinzufügen Zum Beispiel kann ich einfach ein paar Mal kopieren und einfügen. Dieses Flackern reicht nicht aus. Ich kann die Effekte einfach weiter kopieren. Wenn ich zum nächsten übergehe, werde ich das ein wenig ändern wollen. Ich werde den Detailgrad ändern , der nach dem Flickr wiederhergestellt wird. Also vielleicht mache ich das so. Und in der letzten schreibe ich das vielleicht auf. So etwas in der Art. Jetzt haben wir hier also eine ganze Reihe von Effekten, die helfen werden, das Flackern zu entfernen Theoretisch sollte dies den Großteil des Flackerns beseitigen den Großteil des Flackerns Es wäre schwierig , das KI-Video zu sehen. Ich gehe also davon aus, dass Sie das getan haben. Was wäre der nächste Schritt? Ich werde einige davon zur Veranschaulichung entfernen . Sobald Sie die Effekte haben, die Sie hinzufügen möchten, klicken Sie in DaVinci Resolve auf Abspielen Und eigentlich kann ich hier sehen, dass es eigentlich nicht richtig funktioniert , weil dieses kleine grüne, da sollte hier eine kleine grüne Linie auftauchen. Also lass uns, lass uns einen anderen versuchen. Versuchen wir das nur mit der automatischen Schmutzentfernung. Ich sehe keine kleine grüne Linie. Es macht mich nervös , weil es nicht bedeutet, dass es richtig geladen ist. Lass uns versuchen, rauszukommen und wieder reinzukommen. Okay, jetzt sehe ich dieses kleine grüne Ding. Ich möchte das sehen, weil mir das sagt, dass es richtig geladen ist. Sie möchten alle Effekte durchgehen. Sie haben Ihre D-Flickereffekte hinzugefügt und dann auf Play geklickt und das Ganze gegen Ende durchgespielt Warum willst du das hier machen? Warum interessieren mich diese kleinen grünen Linien so sehr? Bei der Verarbeitung flackert das D und die automatische Schmutzentfernung Wenn Sie es zuvor in diesem Fusion-Tab gerendert haben, sparen Sie beim Exportieren des Renders eine Menge Zeit. Wenn Sie versuchen, das Rendern zu exportieren , ohne es hier durchzugehen, kann es sehr, sehr lange dauern, bis der D-Flackereffekt angewendet In meinem Fall habe ich vier Tage gebraucht, um ein paar Minuten Video zu rendern. Dies kann jedoch nur wenige Minuten dauern, wenn Sie dies hier in dieser Phase tun. Also füge Schmutz auf deinem Mac hinzu, füge einen neuen Div-Flackereffekt Gehen Sie zum Anfang der Video-Timeline, klicken Sie auf Abspielen und stellen Sie sicher, dass das Video vollständig abgespielt wird. Wenn du diese grüne Linie durchgehend siehst , weißt du, dir geht es gut. Du weißt, dass das Flackern funktionieren kann und dass es schon etwas vorverarbeitet ist In Ordnung, das spart Zeit. Lassen Sie uns als Nächstes Zeit sparen und einige Optimierungen für DaVinci Resolve vornehmen Stellen Sie sicher, dass Sie Ihr Smart-Set für Ihr Mietgeld dabei haben. Vielleicht machst du das eigentlich zuerst. Aber ja, du willst das intelligent haben, es sei denn, du bist klüger als der Klügste und du weißt, welche Einstellungen du dafür vornehmen musst Aber sobald du das getan hast. Und wenn du das durchgemacht hast, gehst du hier unten zum Tab „Ausliefern“. Und du wirst dein Video exportieren. Sie wählen also Ihren Dateinamen, Sie wählen den Speicherort auf Ihrem Computer aus, Sie möchten ihn speichern, um den Ausgabetyp auszuwählen. In meinem Fall wähle ich ein MP4, das ist H.264 Wenn Sie eine GPU haben, stellen Sie sicher, dass Sie Ihre GPU verwenden. Sonst nutzt du nicht alles, was du kannst. Und ich gehe hier zu den erweiterten Einstellungen und wähle die Option Rendern zwischengespeicherter Bilder aus, damit wir jede Vorverarbeitung verwenden , da Vinci Resolve ODEs ist Bisher. Das hast du alles getan. Sie haben, dann klicken Sie auf Zur Renderliste hinzufügen. Ihr Video wird in dieser Tabelle auf der rechten Seite angezeigt. Und dann können Sie auf Alle rendern klicken. Und Sie erhalten Ihr ausgenutztes Video mit allen D-flackernden FXS-Effekten Das ist alles. Das ist alles, was Sie zum D-Flackern Ihrer KI-Videos benötigen 20. Stabile Diffusion in Photoshop: Okay, also wir haben die stabile Diffusion bisher alleine verwendet . Es stellt sich jedoch heraus, dass Sie eine stabile Diffusion in Photoshop verwenden können . Und dieses Plugin ist ein kostenloses Plugin, das sich in Stable Effusion integrieren lässt . So können Sie die ganze Kraft der einfachen Diffusion in einem Photoshop nutzen. Lassen Sie uns diese Installationen durchführen und dann können Sie sich selbst ansehen, wie das alles funktioniert. Das erste , was Sie tun müssen, ist dieses Plugin in Photoshop zu installieren. Sie tun dies also, indem Sie auf die Website github.com gehen . Dies ist eine KD-Entwickler-Punktgrafik mit Schrägstrichen. Du gehst da hin. Du wirst dieses GitHub-Repository finden. Aber wir werden nicht mit dem Repositorium gehen. Wir werden nur diese Datei hier herunterladen , damit wie man installiert, wenn all diese Schritte hier, Sie laden die CSV-Datei herunter und führen sie aus. Creative Cloud erledigt den Rest. Es installiert das Plug-in für Sie. Jetzt müssen wir mit der Ausführung von Stable Diffusion beginnen und sie aktivieren , damit Photoshop darauf zugreifen kann. Wir müssen also zum Table-Effusion-Web-QI-Plug-In-Ordner gehen Table-Effusion-Web-QI-Plug-In-Ordner , um auf diese Datei zuzugreifen , die als Batch-Datei des Windows bezeichnet wird. Und du wirst es bearbeiten. Und Sie werden dieses Argument hier hinzufügen , Dash, Dash API. Für die meisten von Ihnen. Das ist, was Sie tun müssen, ist diese Dash, Dash API hinzuzufügen. Es gibt einige von Ihnen, die vielleicht etwas anderes haben, aber am Ende des Tages müssen Sie dieses Argument hinzufügen, um es zu aktivieren. Sobald Sie das getan haben, können Sie die deaktivierte Diffusion neu starten. Und sobald Sie es neu gestartet haben, kopieren Sie diese lokale, lokale Host-URL. Das wirst du kopieren. Dann können Sie Ihr Photoshop starten . Photoshop wird also geladen. Du gehst zu deinen Plugins, klickst auf Speichern und diffusion are stable art. Du öffnest das Stable Art Plug-in, unterscheidest show up. Und was Sie tun möchten, ist, dass Sie die URL eingeben, die in Ihrer Befehlszeile erstellt wurde in Ihrer Befehlszeile die Sie für eine stabile Diffusion verwendet haben. Im Wesentlichen kopieren Sie die URL. Das ist dieses Ding hier. Kopiere das. Das ist auch dasselbe, dasselbe wie normalerweise auf Ihrer Website. Also, wenn Sie den lokalen Host haben, ist das Ding, ist diese URL hier. Also kopierst du das und klebst das hier rein. Und wenn Sie das getan haben, werden Sie dort feststellen, dass alle Ihre Modelle gefüllt werden. Also haben wir das geöffnet. Ich bin auch bevölkert. Wir können jetzt bei einer positiven und einer negativen Aufforderung bleiben . Es ist im Wesentlichen dieselbe Benutzeroberfläche, die Sie bei stabiler Verbreitung erwarten. Direkt in Photoshop. Du kannst deinen zufälligen Startwert haben. Sie wählen die Stichprobenmethode, die Sie verwenden möchten. Wählen Sie die Anzahl der Schritte für die Fertigstellung, je länger die Texte sind, aber je mehr Details Sie erhalten, schauen Sie, ob G skaliert, je niedriger sie ist, je näher sie an der Aufforderung ist, weiter sie ist, desto kreativer wird Stabile Fusion sein. Für den zu bildenden Text können Sie im Wesentlichen ein rechteckiges Werkzeug auswählen , wo immer Sie möchten. Einfach so. Und Stable Fusion füllt den gesamten Bereich des abgebildeten Bildes aus, wenn Sie über ein vorhandenes Bild zeichnen , und es wird anhand der Aufforderung ersetzt oder versucht, es zu erstellen. Und wir kommen gleich wieder zum Inpainting zurück. Die erweiterten Einstellungen geben die Anzahl der Stufen an , die Sie wählen können, wenn Sie hochskalieren oder verkleinern möchten , d. h. eine hohe Auflösung. Nehmen wir also an, wir möchten hier die Text-zu-Bild-Funktion verwenden. Also wähle ich Text zum Bild aus. Ich wähle den Bereich des Bildschirms aus, für den ich ein Bild erstellen möchte. Versuchen wir also, das gesamte Rechteck hier zu ersetzen. Und ich klicke auf Generieren. Weniger Ability Deficent wird sein Ding machen , es wird geladen. dauert wahrscheinlich eine Weile, je nachdem , wie groß der Bereich ist, den Sie ausgewählt haben. Wenn Sie die Waage in die Hand nehmen, dauert es auch etwas länger, aber Sie erhalten besser aussehende Ergebnisse. Und los geht's, fast fertig. Das würde die Ladung laden. Wunderschön. Los geht's. Wir haben hier ein gut aussehendes Bild. Es sieht so aus, als hätten wir einige seltsame Artefakte im Hintergrund. Da haben wir es. Wir haben also unser Bild und es hat mehrere Vorschläge gemacht. Wir haben diesen, diesen, diesen, sie sehen alle ziemlich gut aus. Das Bild zum Bild ist, wenn ich es ersetzen möchte, verwenden Sie dies als Referenz. Ähm, lass dir ein neues Bild einfallen. Das ist also nützlicher, wenn Sie überhaupt ein schlechtes Bild haben und es durch Ihre Eingabeaufforderungstexte ersetzen möchten . Das Bild wird etwas von Grund auf neu erstellen. In Paint schauen wir uns die Inpainting-Funktion an. In Paint bedeutet das also, dass wir einen Teil des vorhandenen Bildes durch etwas anderes ersetzen können . Also z.B. ich könnte sagen, dass ich diese Augen hier auswählen möchte. Und lasst uns die Farbe der Augen ändern, blaue Augen. Und ich habe das Inpainting ausgewählt und kann auf Generieren klicken. Also hier sind die Ergebnisse, die Photoshop für uns generiert hat. Wir haben diesen Augapfel hier. Wir haben ein paar davon, die nicht allzu gut sind, wie dieser offensichtlich falsch ist. Dieser ist auch okay. Das ist auch nicht schlecht. All diese sind ziemlich anständig. Wir zoomen hinein, wir können vielleicht eine gewisse Ähnlichkeit finden oder manchmal werden Sie einige Probleme hier sehen , aber dieser hat einen ziemlich guten Job gemacht. Es wird also an dieser kleinen Ecke hier verschmieren. Aber das kannst du in Photoshop jederzeit korrigieren. Eine andere Sache ist, wenn Sie ein anderes Modell wählen, z. B. ein Modell auswählen, in das Inpaint eingebaut ist. Einige dieser Modelle haben eine Lackierung, z.B. dieses hier ist für die Malerei vorgesehen. Beim Malen wirst du bessere Ergebnisse erzielen. Eine andere Sache, die Sie mit dem Inpainting tun können, ist einfach Farben aus Ihrem vorhandenen Bild zu verwenden. Und das können Sie verwenden , um das Bild zu erweitern , sodass Sie den Maltrick in Photoshop verwenden können. Also z.B. ich könnte sagen, ich nehme diese Farben hier. Einfach so, ein bisschen verlängert , so ähnlich. Und dann kann ich einfach den Bereich auswählen. In diesem Fall vielleicht dieses quadratische Ding hier. Und Hoffnung wecken. Stellen wir sicher, dass wir Inpainting ausgewählt haben, aber klicken Generieren und Stable Fusion wird sich im Wesentlichen diesen Bereich ansehen und mit der Eingabeaufforderung vergleichen und versuchen, all diese Details hier einzugeben , dieses Bild, Sie werden in einer Sekunde sehen, es wird wahrscheinlich eine weitere Dame sein, die auftaucht. Basierend auf dieser Ausgabe. Da hast du es. Es wurde versucht, es zu verlängern. Wahrscheinlich müssen Sie die Eingabeaufforderung und die Füllung um die Farben und vielleicht das, was Sie auswählen, etwas mehr füllen, aber Sie kommen auf die Idee, dass Sie damit die Eingabeaufforderung und die Füllung um die Farben und vielleicht das, was Sie auswählen, etwas mehr füllen , auch Bilder erweitern können . Dies ist also ein unglaublich leistungsstarkes Werkzeug-Plug-in mit Photoshop, das für Photoshop im Wesentlichen kostenlos Sie müssen sich nicht einmal darum kümmern, Bilder in Photoshop von Grund auf neu zu erstellen. Sie können die stabile Version verwenden, um den Großteil der Arbeit für Sie zu erledigen. Wenn Sie hier zum Explorer-Tab gehen, können Sie Beispiele für Bilder sehen , die andere Benutzer erstellt haben. Und das Wichtigste hier ist, dass Sie nach dem suchen können, was Sie sehen möchten. Wenn ich Samurai sehen will, so kann ich auf die gleiche Weise suchen. Aber dann kann ich hier auf dieses Ding klicken. Und es kopiert die Eingabeaufforderung , mit der dieses Bild erstellt wurde , in die Eingabeaufforderung hier. Dann können Sie einfach so ein Bild erstellen. Und das Letzte, was ich dir zeigen möchte, wenn du es wahrscheinlich schon weißt, wenn du Photoshop hast, aber nur für den Fall, dass du es nicht tust. Photoshop ist eine ganze Reihe von neuronalen Filtern. Und Ihre Filter, also Filter, die KI-Produkte verwenden, um sie zu unterstützen. So können Sie z. B. die Haut von Portraits glätten , um das Aussehen des Ausdrucks zu verändern. Sie können Make-up übertragen. Sie können Stile anwenden, nur Farbschemata. Sie können Ihre Bilder automatisch einfärben. Sagen wir zum Beispiel, ich habe dieses Bild, ich möchte nur alle Farben ändern. Es ist wirklich einfach zu machen. Der Superzoom ähnelt dem Hochskalieren. Ich finde es nicht so gut wie das stabile Diffusions-Upscaling. das einfache Diffusions-Upscaling tatsächlich neue Inhalte erstellt. Der Superzoom spielt eher mit dem Rauschen herum, um mehr Textur zu erhalten. Mit der Tiefenunschärfe können Sie die Objekte im Wesentlichen in den Vordergrund und fokussieren , und Sie vervollständigen alles im Hintergrund. Und mit diesen können Sie kleine Kratzer und Schönheitsfehler usw. entfernen . Dies sind alles KI-Tools , die Photoshop hat. Wenn Sie Photoshop haben, haben Sie diese bereits in Ihrem Abonnement. Schauen Sie sich also auf jeden Fall das Stable-Diffusions-Plug-In in Photoshop an. Wenn Sie ein Photoshop-Benutzer sind, sind die Möglichkeiten endlos. Du kannst alles erschaffen, wovon du träumst. 21. Vektorbild-Intro: In diesem Video lernen wir, wie man SVGs oder Vektorbilder mit stabiler Diffusion erstellt . Also nur eine kurze Zusammenfassung. Was ist ein Vektorbild im Vergleich zu einem JPEG-Bild oder einem PNG-Bild? Nun, schauen wir uns hier ein JPEG-Bild an, PNG-Bild. Wenn wir genug hineinzoomen, können wir sehen, dass die Auflösung blockig und klobig wird und Sie nicht so stark hineinzoomen können. Und wenn Sie diese riesige Menge erweitern und richtig groß machen würden , würden Sie sehen, dass die gesamte Auflösung bei einem SVG- oder Vektorbild zusammenbricht . Wenn ich ganz hineinzoome, zumindest so weit wie möglich, können wir sehen, dass die Farben und das Bild erhalten bleiben, ohne dass es kaputt geht. Das werden wir im folgenden Video lernen , nämlich wie man SVG- und Vektorbilder mithilfe von Staple-Diffusion erstellt . 22. Vektor-SVG-Bilder erstellen: Lassen Sie uns lernen, wie man Vektorbilder erstellt. Bei stabiler Diffusion. Sie müssen eine weitere Erweiterung installieren. Erweiterungen, die Sie über die URL installieren werden. Und über die URL erhältst du das Git-Repository für diese Erweiterung, das Standard-Diffusion Web UI Vector Studio. Du kopierst das, kopierst den Code und fügst ihn hier ein und klickst auf Installieren. Das ist der erste Schritt. Dann gehst du zu Installiert und suchst nach Updates. Und du hast dein Vektor-Ding, das ich hier zeigen sollte. Es wird aktualisiert, Sie klicken auf Anwenden und starten die Benutzeroberfläche neu. Möglicherweise müssen Sie die erneut gestartete Anwendung schließen . Das ist der erste Schritt in demselben Git-Repository, das erneut hier bei github.com erreicht wird . Slash Store, Legato Stable Diffusion Web UI Vector Studio. Sie werden nach unten scrollen und die Installation finden , je nachdem, ob Sie Linux, Mac oder Windows verwenden . Und ich gehe davon aus, dass Sie hier Windows verwenden , weil ich Windows verwende, aber befolgen Sie, was auch immer Sie für Ihren Computer tun müssen . In diesem Fall müssen Sie, wenn Sie ein Windows verwenden , dies herunterladen. Und sobald Sie es heruntergeladen haben, werden Sie die Datei finden. Und Sie werden die ausführbare Datei kopieren , die Portrays-Datei. Und das wirst du kopieren. Und das wirst du an einer ganz bestimmten Stelle anbringen . Und dieser Ort ist im Stallerguss. Was für BWI-Erweiterungen, Stable Diffusion Web UI Vector Studio, wurden gerade im Ordner bin installiert. Und du wirst die Datei mit den Portraits dort ablegen. Das alles machst du. Möglicherweise müssen Sie den stabilen Erguss erneut starten. Und wenn Sie das getan haben, wird der Spectra Studio-Tap hier angezeigt. Jetzt werden wir den Vector Studio-Tab nicht wirklich verwenden, aber wir werden das eingebaute Plugin in einer alternativen Methode verwenden . Also hier sind wir beim Tippen von Text zu Bild. Und was Sie jetzt sehen werden, ist, dass Sie unter diesen Skripten dieses kleine Vektorstudio sehen werden. Und wenn ich darauf klicke, werden die Informationen des Plugins verwendet die Informationen des Plugins , das wir jetzt auf diesem Tab hier haben. Aber so werden wir die SVG-Dateien erstellen. Sie haben eine Reihe verschiedener Optionen. Sie haben die Illustration, das Logo, Zeichnung, das künstlerische Tattoo, Gothic, Enemy usw. Sie können alle auswählen, die Sie möchten. In diesem Fall versuchen wir, ein Logo eines Nilpferds zu erstellen. Im Wesentlichen müssen wir das nur aktivieren. Ab jetzt wird alles andere, was erstellt wird, eine SVG-Datei sein. Jetzt können Sie wählen, ob Sie auch ein transparentes PNG erstellen möchten . Das ist auch eine Option. Lassen Sie uns jedoch auf Generieren klicken und sehen, welche Art von Ausgabe wir hier erhalten. Da haben wir es. Wir haben ein Nilpferd. Das ist das PNG, das ist das SVG. Wir können hier also sehen, dass das Weiß tatsächlich Teil des Bildes ist. Vielleicht möchtest du das aber transparent haben. Und wenn ja, müssen Sie einfach auf Weiß ist undurchsichtig klicken und es wird den Startwert ändern, um das Bild beizubehalten, das wir beim letzten Mal hatten. Wenn ich das ein zweites Mal generiere, sollten wir unser Nilpferd jetzt mit transparentem Hintergrund sehen . Und da haben wir es. Das ist unser SVG. Es wurden also PNG und SVG erstellt. Wenn Sie also eine Farbe in den Hintergrund kleben würden, würde die Farbe durchscheinen. Jetzt werden Sie feststellen, dass eine Sache nicht darin besteht, dass es keine Farbe gibt. Das ist interessant. Warum gibt es keine Farbe? Nun, das ist derzeit so, wie dieses Plug-in funktioniert, wenn Sie Farbe verwenden möchten, nun , es gibt eine Möglichkeit , dies immer noch zu tun. Sie müssen jedoch nicht all das schicke Zeug verwenden , das wir hier installiert haben, Sie können diese PlugIn-Skripts ausschalten. Alles was Sie tun müssen, ist einfach Ihr Bild von einem Nilpferd zu machen, erstelle hier einfach ein weiteres Nilpferd. Los geht's. Wir haben unser Image. Und alles was Sie tun müssen, ist diese Website namens express.adobe.com aufzurufen. slash tools slash convert to SVG. Das ist jetzt eine kostenlose Sache, die Sie verwenden können. Sie müssen eigentlich nicht für ein Adobe-Abonnement bezahlen. Sie müssen sich nur für ein Konto anmelden und dann können Sie Ihr von Ihnen erstelltes Bild einfügen. In diesem Fall bleibe ich bei unserem Hippo-Typ, den wir ursprünglich entwickelt haben. Und du kannst es herunterladen. Und los geht's, du hast dein, dein SVG-Bild. So können Sie also SVGs erstellen. Mit stabilem Erguss. Sie können entweder das eingebaute Plugin verwenden und so wird ein richtig aussehendes SVG erstellt , das heißt Sie können alles in der stabilen Version tun, aber Sie sind auf Schwarzweiß beschränkt. Alternativ können Sie einfach das gewünschte Kanada-Bild aufnehmen und es dann in Adobe Express einfügen.