Transkripte
1. Kurs-Vorschau: Willkommen zur Stable
Diffusion Master Class. In diesem Kurs lernen Sie
alles, was Sie brauchen, um Kunst mit
künstlicher Intelligenz zu schaffen. In den folgenden Videos
lernst du die wichtigsten Funktionen
des kostenlosen Open-Source-Tools zur Erstellung von
KI Arts
Stable Diffusion kennen. Wir beginnen mit den Grundlagen,
vorausgesetzt, Sie wissen nichts, und wir laden die Software
auf Ihren Computer, und dann erstellen Sie
mithilfe von Textanweisungen
Ihr erstes Kunstwerk mithilfe von Textanweisungen Auf diese Weise können
Sie Kunstwerke in
jedem Kunststil erstellen , ohne dass Sie vorherige Zeichen
- oder Designkenntnisse benötigen vorherige Zeichen
- oder Designkenntnisse Sie lernen, jedes Objekt in
einem Bild
durch ein beliebiges anderes
Objekt auszutauschen , das Ihnen einfällt, und Sie lernen, wie Sie
vorhandene Fotos erweitern , um Inhalt zu versehen und sie
zu vergrößern Sie lernen, wie Sie
die Auflösung eines beliebigen Bilds erhöhen können. Sie werden lernen, wie man Videos mit KI
erstellt, sowie Techniken wie die unendlichen Zoom-Animationen
und sogar lernen wie man stabile Diffusion
in Kombination mit Tools wie Chat
GPT und Photoshop Am Ende dieses Kurses werden
Sie in der Lage sein, Kunstwerke herzustellen, die
produktionsreif sind, und Sie werden in der Lage
sein diese Art von Kunst in
einer Zeitspanne von nur
wenigen Sekunden bis Minuten zu schaffen Zeitspanne von nur
wenigen Sekunden bis Minuten zu All das und noch viel
mehr werden Sie in der Masterclass Stable
Diffusion lernen .
2. Installation einer stabilen Diffusion-Benutzeroberfläche: In diesem Video werden wir uns
mit dem Housekeeping, der
Installation von Stable
Diffusion, Discord usw. befassen , falls Sie
Stabile Diffusion noch nie benutzt haben
und dies das erste
Mal ist, dass Sie davon hören. Sie sollten
diese Website hier besuchen, um eine vereinfachte
Version von Stable Effusion
auszuprobieren. Sie können also auf diese Website gehen, stable diffusion web.com und
unstable diffusion web.com. Sie werden eine sehr
vereinfachte Version von
Stall Effusion sehen , in die
Sie
einige Texte eingeben können , z. B. Ich sagen, eine kleine Hütte auf einem schneebedeckten Berg im
Stil einer Disney-Station. Und ich klicke auf Bild generieren. Und einfach
so werden einige
Bilder für uns erstellt. Sie können also sehen, dass
das ziemlich schön ist. Es ist genau das, was wir eingegeben haben. Wenn du eine
verschneite Hütte bauen möchtest und sie
dem Stil entspricht, den du
auf der Art Station-Website findest. Und wenn Sie auf ein Bild klicken, können
Sie sehen, wie aussieht, und Sie können
mit der rechten Maustaste klicken und ein Bild speichern. Das ist also wie die bloßen Knochen, die Spitze des Eisbergs. Wofür Stabilität die
Verwirrung anrichten kann. werden wir uns so vielen verschiedenen
Funktionen und Tools diesem Kurs werden wir uns mit
so vielen verschiedenen
Funktionen und Tools
befassen, mit denen Sie KI zum
Erstellen von Kunst verwenden können. Aber wenn Sie noch nie damit
gespielt haben, gehen Sie jetzt auf diese Website, schauen Sie sie sich an und geben Sie verschiedene
Dinge in die Eingabeaufforderungen ein. Klicken Sie auf Generieren, um zu sehen, welche Art
von Bildern Sie erstellen können. Und dann können wir anfangen
, uns mit Fleisch und Kartoffeln zu beschäftigen. Installieren Sie daher stabil und
effizient auf Ihrem Computer. Wenn Sie zu irgendeinem Zeitpunkt während dieses
Kurses Probleme haben, stoßen
Sie auf ein Bug-Problem. Sie wissen also nicht, wie
man es richtig installiert. Ihr wollt sehen, was andere
Schüler und Klassenkameraden und andere Nutzer von
Stallerguss
machen oder tun geht zum Discord
, der
unter diesem Link hier verfügbar ist. Discord.gg hat
stabile Diffusion mit einem Schrägstrich. Wenn Sie in
diesem Kurs Fragen zur stabilen Verbreitung haben, Ihre Fragen hier und
nicht irgendwo
anders oder senden Sie E-Mails oder
Nachrichten, stellen Sie sie hier. Und Benutzer, einschließlich
der Entwickler, haben eine einfache Diffusion, die Lage ist,
Ihre Fragen zu beantworten. Ohne den Weg. Lassen Sie uns über die
neue stabile Verbreitung sprechen. Und das ist auf
der Website github.com verfügbar .
Slash Automatic 11, 11 Slash Stable Dash
Diffusion Dash Web UI. Das wird uns
die Web-Benutzeroberfläche geben die Web-Benutzeroberfläche , die es viel
einfacher macht zu sehen, was
wir mit Stable
Effusion machen, und Sie können damit interagieren und all diese schönen
Bilder und Kunstwerke erstellen. Sobald Sie auf
diesem Website-Link sind, können
Sie nach unten
zum Installationsbereich scrollen. Los geht's, Installation
und Betrieb. Und Sie können diese
Installationsschritte befolgen. Je nachdem, ob
Sie
Linux, Apple oder Windows verwenden , haben
Sie eine etwas
andere Installation. Ich persönlich benutze
Windows, also
habe ich für mich Python installiert,
ich habe Git installiert. Und dann, falls Sie es
noch nie benutzt haben. Was passiert, ist, dass Sie, nachdem Sie
Git und Python installiert haben, herausfinden, wo Sie einen Ort auf Ihrem Computer finden, den
Sie installieren möchten. In meinem Fall
habe ich also einen
Dokumentenordner, den ich erstelle. Und nehmen wir an, ich
erstelle einen neuen Ordner und ich sage,
hier möchte ich
mein stabiles
Diffusionsmaterial ablegen , stabile Diffusion. Und ich gehe in diesen
Ordner und dann schreibe ich, ich klicke mit der linken Maustaste in
den URL-Bereich. Ich tippe cmd ein. Und das öffnet eine Befehlszeile in diesem
Ordner, den ich gerade erstellt habe. Ich kann dann diese
Git-Clone-Informationen einfügen, die ich
gerade hierher kopiert habe. Und dadurch wird der
gesamte GitHub-Code
in den Webordner geklont . Dann suchen Sie einfach die
Ausführungsdatei, die Web-UI Dash UI Dot Bat von Windows und starten Sie sie und es wird Simple Diffusion
installiert. Also mach das und dann können
wir loslegen.
3. Installation eines stabilen Diffusions-Basismodells: Ich habe also den stabilen
Erguss hier geladen und möglicherweise
sehen Sie ein Modell
, das bereits
in den Checkpoints vorgeladen ist, und Sie
können den Diffusions-Checkpoint hier verwenden. Wenn du das schon
hast, kannst du dieses Video
überspringen und zum nächsten Video
übergehen. Aber nur für den Fall Ihre Installation es nicht
automatisch installiert hat, werden
wir das hier behandeln. Wir
müssen also das Modell für
die stabile
Division herunterladen , um Images zu erstellen. Und wir können dieses
Modell entweder hier abrufen, dies ist das Modell der Stabilisierung
auf 0,1
oder hier das Modell mit stabilem
Effusions-1,5-Effekt. Ich bin gerade dabei, dass der
größte Teil dieses Kurses das 1.5-Modell
verwendet, aber Sie können auch eine Tabellenversion
zum Modellieren verwenden ,
je nachdem, was Sie möchten. Im Wesentlichen gehst du hier zu dieser URL, die
Hugging Face, Runway Model Stabled Fusion, Dash v1 Dash Five, Tree Slash Main
oder diese hier ist. Welche URL Sie auch bevorzugen, Sie haben die neuere
oder die alte Version gewählt. Und du gehst, um die
Fusionsdateien zu heften, Inversionen. Und dann laden Sie
das Modell herunter, das ist das sichere
Tensormodell hier. Du lädst das herunter. Sie möchten an
einen ganz bestimmten Ort herunterladen. Sie möchten es in
Ihre stabilen
Diffusions-Web-UI-Modelle herunterladen , stabilen Diffusionsordner. Also schauen wir uns das einfach an. Gehen wir ein bisschen zurück. In Ihrer stabilen Verbreitung
ist dies Ihre gesamte Software. Du suchst nach dem
Models-Ordner und dann suchst
du nach dem stabilen
Diffusionsordner und
den wirst du hier reinkleben. Sobald Sie das getan haben und
die Verbreitung stabil ist, können Sie auf
Aktualisieren klicken und Sie werden sehen welche Modelle
Sie
in diesen Ordner heruntergeladen haben , hier
angezeigt. Also nur kurz beiseite oder
sicherstellen, dass jeder hat, hat das grundlegende
tabelleneffiziente Checkpoint-Modell.
4. Text zu Bild: Sie haben Stable
Deficient erfolgreich installiert. Jetzt können wir mit
stabiler Diffusion beginnen,
einige Grafiken zu erstellen . Wenn Sie die Anwendung zum ersten Mal
starten, sehen Sie etwas Ähnliches wie
hier. Dies ist unser Dashboard all den fantastischen Steuerelementen
, mit denen wir detaillierte Kontrolle über alles haben, was wir mit unserer Bildgenerierung
tun möchten . Bevor wir jedoch mit der
Erstellung von Bildern beginnen, müssen
wir entscheiden, wo wir unsere Bilder ausgeben
möchten. Wo wollen wir alles
speichern? Und dazu sollten Sie
zu
der Registerkarte wechseln, auf der Einstellungen,
Einstellungen und dann
Pfade zum Speichern angezeigt werden. Und hier können Sie festlegen , wo Sie Ihre Bilder
speichern möchten. Also habe ich einen
Ordner auf meinem Computer eingerichtet. Du wirst dasselbe
tun wollen. Erstellen Sie einfach irgendwo einen Ordner
und kopieren Sie den Ordnerpfad und fügen Sie ihn hier ein. Auf diese Weise werden alle von Ihnen erstellten
Bilder in diesem Ordner
auf Ihrem Computer
gespeichert und Sie
können sie leicht finden. Klicken Sie dann auf Einstellungen anwenden
und laden Sie Ihre Benutzeroberfläche neu. Sobald Sie das getan haben, können
wir hier zu
unserem Text zu Bild,
Text zu Bild zurückkehren unserem Text zu Bild, und
mit der Erstellung von KI-Kunst beginnen. Das erste, was wir verstehen
müssen, sind das positive Ende und die
negativen Aufforderungen. So erzählt die Nacherzählung, stabile Verbreitung,
welche Kunst soll geschaffen werden. Also tippe ich einfach einen Mann ein
und drücke Generieren. Du musst es tun. Gut aussehen
und tun auch, trägt einen Anzug. Er lächelt, das
Anschauen ist großartig. Und wenn wir hier auf diesen
kleinen Ordner klicken, wird der Ordner
auf unserem Computer geöffnet , den
wir ihm zugewiesen haben. Und wir gehen in den Ordner und
sehen, dass hier ein kleiner Mann ist. Los geht's. Herzlichen Glückwunsch,
Sie haben gerade
Ihre erste Kunst in
Stable Effusion geschaffen . Lassen Sie uns die Einstellungen
etwas genauer untersuchen. Also hier drüben, das sind
die positiven Aufforderungen. Hier geben wir die Dinge ein, die wir
sehen wollen und die stabil sein wollen. Ich sage, nun, wenn Fusion verwendet werden soll, besucht man eine Website
wie Civic,
Civic, Civic, Civic AI. Sie können Bilder finden , die von anderen
Personen mit generativer KI erstellt wurden. Und Sie können
herausfinden, welche Art von Eingabeaufforderungen wir verwenden, um diese Bilder zu
erstellen. Das ist also civet ai.com. Und wenn ich auf
eines dieser Bilder klicke, kannst
du die positiven
und negativen Eingabeaufforderungen sehen. Also z.B. ich kann das
Positive vielleicht
hier kopieren . Kopieren und Einfügen. Und ich kann diesen
negativen Parameter kopieren. Negative Gewinne sind
das, was wir nicht sehen wollen. Und füge das hier ein. Und lass uns einen Blick darauf werfen. Lassen Sie uns das
etwas genauer untersuchen. Hier sehen wir also ein Foto eines 48-jährigen Mannes
in schwarzen Tüchern. Es zeigt uns die
Auflösung des Fotos. Eight k hat ein hochwertiges
Filmkorn. Okay, all das
wird uns eine
gewisse Kontrolle darüber geben ,
welche Art von Bild wir
hier erzeugen wollen und die negative Aufforderung,
dieses Zeug, das wir nicht sehen
wollen, wo Sie all die Dinge
sehen können ,
die wir vermeiden wollen,
wie z. B. ein geklontes Gesicht von geringer Qualität, fehlende Beine, fehlende
zusätzliche Arme usw. Wenn wir uns regenerieren,
sollten wir bis
zu einem gewissen Grad etwas
Ähnliches sehen unser Referenzbild. Bitte beachten Sie, dass dies
ein anderes Modell verwendet als das, das wir verwenden. Also hier wird es nicht
genau so aussehen. Aber wenn Sie nur eine Vorstellung davon
bekommen
möchten welche Art von Prompts verwendet werden sollen, welche Art von Eigenschaften verwendet
wurden, welche Art von Sampler usw., ist
dies eine großartige Möglichkeit, einige Referenzen zu
erhalten. Okay, wir wissen, wie
positive Versprechen funktionieren, wir wissen, wie negative
Browns funktionieren. Lassen Sie uns nun auf einige
der detaillierteren Funktionen hier eingehen. Methode der Probenahme. Was ist eine Probenahmemethode? Wie ist die Probenahmemethode? Nun, welche Art von
Probenahmemethoden wird verwendet. Dies sind all die verschiedenen
Optionen, aus denen Sie wählen können. Es gibt viele von ihnen hier. Und ehrlich gesagt, die meiste Zeit, sofern Sie nicht wirklich ins Detail
gehen, werden
Sie wahrscheinlich keinen großen Unterschied sehen. Wenn Sie zum Beispiel in
die Dokumentation
gehen , die Sie gerne tun, ist Effusion
Dash art.com deaktiviert. Sie können den Vergleich
zwischen verschiedenen
Stichprobenmethoden sehen . Und ja, es gibt einen Unterschied. Aber die
meiste Zeit ist es irgendwie subtil. Ähm, es sei denn,
du trägst sie
und kombinierst sie exakt Seite
an Seite, wirst
du wahrscheinlich die
meiste Zeit keinen wirst
du wahrscheinlich die
meiste Zeit keinen großen Unterschied sehen. Mir geht es gut mit dir,
Larry, und meistens bekommst du
gute Ergebnisse diesen Probenahmeschritten,
wie oft, du den Prozess
durchlaufen willst. Weil es ständig all
diese verschiedenen
Geräuschpegel macht und sie anwendet, all das
durchmacht. Wenn Sie hier eine niedrige Zahl angeben, werden
Sie ein wirklich
verschwommenes, beschissenes Bild sehen. Und wenn Sie ein
wirklich hohes Bild aufnehmen, können
Sie bis zu. Komm schon, komm schon. Da haben wir es. Sie können
bis zu 150 gehen. Aber wenn du 150 machst, wird
es wirklich gut aussehen. Aber es wird sehr
lange dauern, bis wir da sind. Meistens kannst du
20-30 halten und das
sollte reichen. 20, 30 Schritte sind
normalerweise ausreichend. Generiere noch einmal das Gesicht dieses Typen. Los geht's. Stellen Sie unsere Gesichter wieder her. Sie können das überprüfen und
es wird sein Bestes tun um hässliche Gesichter zu korrigieren. Also z. B. ob die Augen
sich kreuzen oder er
vielleicht komische
Zähne hat und ich weiß es nicht. Vielleicht wie die fehlenden Augenbrauen
oder so. Restore Faces kann
versuchen, das Problem zu beheben. Fliesen zu legen ist ein
lustiges Feature. Fliesen verlegen. Beim Kacheln
wird eine Kachel erstellt. Wenn Sie also dieses Bild daneben
kleben würden, würde
es natürlich
in das nächste Bild einfließen. Sie können z. B. sehen, dass
diese untere Hälfte des Mannes hier auf natürliche Weise in den oberen Mann
einfließen würde. Wenn Sie also
genau dieses Bild direkt darunter platzieren würden, würde
es natürlich wie eine Kachel
fließen. Das ist es also, was Kacheln macht. Du wirst manchmal sehr
seltsame Ergebnisse erzielen, aber du kannst sehen, dass das
ganz natürlich in
diese Person hier einfließen
wird. Diese riskante Lösung dient zum
Hochskalieren Ihrer Bilder. Wenn Sie feststellen, dass die Auflösung dieses Bildes nicht hoch genug ist. Du willst, dass es besser wird. Sie können es hochskalieren, Sie können die Auflösung
erhöhen. Im Allgemeinen. Das ist
gut, obskur hier. R S Gan SR nochmal
viermal und du kannst mit
diesen herumspielen . Latent ist eine der
ersten, die geschaffen wurden. Bei diesen anderen handelt es sich um Variationen. Dies ist gründlich
optimiert, Sie können sogar Ihr eigenes installieren, das ist es, was dieses ist.
Darauf kommen wir später zurück. Das ist es also, was eine hohe Auflösung
behebt. Breiten und Höhen. Dies sind die Dimensionen
des Bildes, das erstellt
wird. Also ist standardmäßig 5125 12. Wenn Sie einen
anderen Maßstab wählen, z. B. 90 x 540, generieren, können
wir eine andere
Größe für unser Bild erhalten. Los geht's. Wir haben einen Typen, einen Typen
mit einem seltsam aussehenden Arm, aber es ist trotzdem ein Typ. So können Sie
verschiedene Abmessungen erhalten. Manchmal bekommst du merkwürdige Ausgänge mit doppelten
Bildern, doppelten Personen. Wenn Sie das, was ich erwähnt habe, von einer quadratischen Skala
aus ändern. Und der Grund dafür ist
, dass Bilder, die
in das Modell eingespeist
werden, immer in
quadratischer Form eingespeist werden. Aber du sagst ihm,
er soll sagen, ich möchte dieses Bild erstellen
, das keine quadratische Form hat. Es wird also ein Quadrat
erstellen, aber dann
weiß es nicht wirklich, was es mit diesen zusätzlichen Informationen
an den Seiten anfangen soll. Manchmal wird es also
verwirrt und es entstehen Doppel- oder Klone von
was auch immer die Jungs. Das passiert nicht immer, aber manchmal schon. Also los geht's. Obwohl wir gesagt haben, nur ein
einziger Mann, haben wir zwei Männer. Jetzt ist statt eins die
Batch-Anzahl die Anzahl der
Bilder, die wir
erstellen möchten , standardmäßig auf eins gesetzt. Aber du kannst sagen,
lass uns dafür sorgen, und was es tun wird, ist, die Bilder
nacheinander iterativ zu erstellen . Wir haben einen Kerl. Wenn wir da sind, haben
wir unsere vier Bilder. Die Stapelgröße gibt
an, wie viele Bilder gleichzeitig erstellt werden sollen. Es ging darum, eins nach dem anderen zu machen, aber du kannst ihm sagen, dass es
mehr als einen auf einmal machen soll. Ob Ihr Computer damit umgehen kann,
hängt davon ab, wie schnell
Ihr Computer ist. CFG-Skala gibt wie viel Aufmerksamkeit
wir dieser Aufforderung
widmen, der positiven,
negativen Aufforderung. Wenn Sie es auf eins setzen, wird
ein Bild angezeigt, das
Ihrem Referenzbild wirklich nicht sehr ähnlich sieht. Es geht nur darum, wer weiß,
was das ist. Und wenn du sagst, ich will bis auf 30
gehen, wird
etwas erstellt, das genau den Parametern deines
Textes entspricht. Man merkt aber auch, dass die
Farben richtig gesättigt werden. Also willst du normalerweise nicht ganz
nach oben gehen. Vielleicht möchten Sie jedoch
zwischen einem leichten Anstieg und einem kleinen Abwärtstrend experimentieren . Saatgut. Seed ist für die
Stabilisierung und für jedes
andere generative KI-Modell sehr wichtig . Seed ist standardmäßig negativ eins. Und das bedeutet, dass jedes
Mal, wenn Sie ein Bild erstellen, erstellt wird ein völlig zufälliges
Foto von Grund auf neu erstellt wird. Jedes Mal, wenn du auf
diese Schaltfläche Generieren klickst, bekommen
wir einen anderen Kerl. Aber das musst du nicht tun. Man kann sagen, ich möchte
das Saatgut der letzten Generation wiederverwenden . Und wenn wir das tun, bekommen wir
die Startnummer genau hier. Wenn ich also erneut auf Generieren klicke, erstellen
wir genau den gleichen Typ. Von. Da haben wir es. Wir haben eine weitere erstellt. Es ist ziemlich identisch. Der Grund dafür ist, dass
wir dasselbe Saatgut verwenden. Du klickst hier auf Extras. Sie können sehen, dass es Variation
Seed gibt und das heißt, nun, ich habe zwei Bilder. Eins ist ein Samen und
das ist ein anderes C, sagen
wir neun oder eine
andere Zahl. Und dann kannst du sagen,
wie viele Informationen ich aus diesem Samen verwenden möchte? Vergleiche es mit den Informationen, die ich aus diesem Samen
verwenden möchte. Man kann also sagen, ich möchte,
dass es mehr von diesem beeinflusst und leicht von
dem zweiten beeinflusst wird und so weiter. Und wenn du dann sagst, dass ich den Seed nur mit
dem Breitenteil verwenden möchte , kannst
du das hier machen, und ich
möchte ihn einfach vom
Hassteil aus verwenden. Das kann ich hier machen. Aber diese werden Ihr Image drastisch
verändern. Diese, indem Sie die Skala
ändern. Ihr werdet große
Veränderungen erleben, bei denen diese wahrscheinlich am besten ist,
wenn ihr nur leicht beeinflusst werden
wollt . Sobald Sie Ihr Bild erstellt haben, werden
Sie hier
unten
alle Details sehen, die zur Erstellung Ihres Fotos beigetragen haben. Das sind unsere positiven Anregungen. Das sind unsere negativen Aufforderungen. Wir können die Stufen sehen. Wir verwenden einen Sampler, die CFG-Skala, den Samen, alles, all diese
Details hier. Hübsch für dich eingerichtet. Und wenn Sie hier auf
dieses Ding klicken, Bilder
öffnen und das
Ausgabeverzeichnis, können
wir die Bilder sehen
, die wir erstellt haben. Denken Sie daran,
dass wir diesen Ordner zu
Beginn dieser Vorlesung eingerichtet haben. Und hier sind all die
Fotos, die wir gemacht haben. Da hast du es also. Sie wissen jetzt, wie
man Bilder,
Texte und Bilder in
stabiler Diffusion erstellt .
5. Bildvariationen: Nehmen wir an, ich möchte
eine Variante eines von mir
generierten Bildes erstellen . Ich möchte kein völlig
neues Bild erstellen. Ich möchte einfach etwas erstellen , das
dem vorhandenen ähnlich ist. Also, was meine ich damit? Nun, standardmäßig hast du einen
Startwert, der negativ breit ist,
was bedeutet, dass du dir jedes Mal einen
zufälligen Startwert ausdenkst. Und als das Bild, das es erzeugen wird, erhalten
Sie ein völlig
anderes Bild. In diesem Fall
haben wir eine Dame mit einem Schwert. Wenn ich erneut darauf klicke, erhalten wir ein völlig
anderes Bild, obwohl wir dieselbe positive
und
dieselben negativen Eingabeaufforderungen verwenden , erhalten
wir eine ganz
andere Person. Also möchte ich etwas
kreieren, das diesem
ähnlich ist, ich möchte nichts
völlig anderes haben. Und was Sie tun können, ist mit diesem Wert zu
spielen, der
als Startwert bezeichnet wird. Hier drüben kannst du
Vc aus der letzten Generation sagen. Das wird also den Seed
aus diesem letzten Bild verwenden. Es gibt aber auch andere Möglichkeiten, den Startwert
herauszufinden, z. B. wenn wir
hier unten nachschauen, können Sie
den Startwert des verwendeten
Bildes sehen . Und wenn Sie sich das erstellte Bild
ansehen möchten. Das ist also in der Ausgabedatei, und dann klicken wir darauf, Sie
erhalten Ihren Ausgabeordner. Und Sie können im Namen
des verwendeten Bildes sehen, dass sie den Startwert haben. Also können wir diesen
Startwert hier festhalten. Wenn wir erneut auf
Generieren klicken, erhalten
Sie jetzt genau
dasselbe Bild, da wir
denselben Startwert verwenden, erhalten
Sie jetzt kein
völlig anderes Bild. Aber ich möchte nur eine Variante
haben. Ich möchte keinen
identischen Sitz benutzen. Um das zu tun, wählen Sie
dieses kleine zusätzliche Drop-down-Menü aus. Hier siehst du dieses Ding, das Variation Seed
genannt wird. Und das ist nützlich
, weil Sie jetzt
einen zweiten Startwert festlegen können und die zweite Suche
verwenden können , um den ersten zu
beeinflussen. Aber wir verwenden immer noch nur zwei Sitze, anstatt jedes Mal
nach dem Zufallsprinzip einen
neuen zu erstellen. Vielleicht möchten Sie sich
die Bilder ansehen , die wir
zuvor erstellt haben, und sagen,
naja , vielleicht
möchte ich auch etwas von
diesem Bild beeinflussen verwenden . Ich mag das
kleine Rot an ihr und vielleicht mag ich das bei
einigen Einflüssen, aber ich mag auch dieses Original und das
ist das, bei dem ich meistens eine Hälfte haben möchte, aber ich möchte einfach ein bisschen
Einfluss von diesem Bild haben. Also nehme ich den Startwert
und füge ihn hier ein. Und jetzt können wir mit
diesem Schieberegler spielen , der
Variationsstärke genannt wird. Und seine Variationsstärke. Wir können dann sagen, ich möchte verwenden, wie viel vom ersten Sitz und wie viel von der zweiten
Stufe ich verwenden möchte. Wenn ich
bis zum zweiten Seed gehe, sehen
wir
das erste Bild das wir am
Anfang erstellt haben. Oder zumindest
etwas Ähnliches. Es wird also nur der
Einfluss dieses zweiten Sitzes ausgenutzt. Aber wenn wir
mit dem ersten spielen wollen, was hier unser Ziel ist,
ist es, den
Schieberegler zu überprüfen, anstatt zwei
, bis hin zu einem,
bei dem wir ihn einfach auf bestimmten Prozentsatz davon setzen. Jetzt sollten wir in der Lage sein,
das Bild hier mit ein
wenig Einfluss zu sehen . Versuchen wir es auch mit einem anderen. Bleib bei 0,2. Und
wenn wir nun die Bilder vergleichen, die wir hier generiert haben, können
wir feststellen,
dass wir einige
geringfügige Abweichungen haben. Und das ist das Original
, das wir hatten. Und das sind Variationen
dieser beiden. Wenn dir der
Einfluss des zweiten Bildes nicht gefällt, kannst
du hier einfach mit
dem neuen Bild spielen, auch
Variation Seat. Und wir werden sehen, was wir uns
noch einfallen lassen. Da hast du es. Auf diese Weise können Sie
Variationen von jedem Bild erstellen , das Sie generieren.
6. Upscaling: Lassen Sie uns darüber sprechen, wie Sie
hochauflösende Bilder erstellen , bei
denen die Diffusion deaktiviert ist. Nehmen wir an,
Sie haben unsere Aufforderung gefunden,
wir sind damit zufrieden. Wir haben eine
Reihe von Iterationen durchlaufen. Ich habe ein Bild gefunden, das mir gefällt. Wenn ich mir dieses Bild ansehe, ist
es 512 mal fünf Pixel groß
und es sieht anständig aus, aber es ist ein bisschen verschwommen. Es könnte etwas
hochauflösender sein. Das ist keine Gabel, im Moment ein
Foto. Es stellt sich heraus, dass es Möglichkeiten gibt, die Auflösung
zu erhöhen. Zuallererst sollten Sie wahrscheinlich
sicherstellen, dass Sie die
Startnummer speichern, die Sie verwenden möchten. Dann können Sie zu
dieser risikoreichen Lösung übergehen. Und Sie können diese
Dinge auswählen, die als Skalare bezeichnet werden. Und mit diesen Aufwärtsskalaren können
Sie die
Auflösung Ihres Bildes erhöhen. Sie funktionieren, indem sie zuerst
das Bild beschädigen. Dann werden ihre Bilder
auf die kleinste Größe reduziert. Und dann verwenden sie dieses
neuronale Netzwerk, das
darauf trainiert ist ,
beschädigte Bilder wiederherzustellen, und versuchen, alle Details zu reparieren es gibt eine Menge verschiedener
Upscale-Versionen. Die latenten sind diejenigen
, die zum ersten Mal
entstanden sind, als, sagen wir, Fischen noch frisch gemacht wurde. Dieser hier, unser
viermaliger Scan plus, ist ein ausgezeichneter Up-Skalar,
funktioniert sehr gut. Es wollte 2018 den Award. S are steht wieder für Enhanced Super Resolution Generative Adversarial Networks. Wenn wir uns für das gehobene Modell
entscheiden würden, würden
wir
es um das Zweifache erhöhen. D ist Geräuschstärke. Sie
können den Wert auf 0,7 oder sogar 0,5 einstellen. Ich mag es, wenn zu der Zeit 0,5
erlaubt sind. Und dann klicken wir hier auf
Generieren. Und mal sehen, wie das aussieht. Sie können sehen, dass
das Foto ein wenig verändert wurde, aber der Vorteil
wird die Änderung des
Bildes die meiste Zeit wert sein. Also hier haben wir unsere Ladung. Los geht's. Hier ist unser Vorher,
hier ist unser Schauspieler. Wir können sehen, dass dies ein viel größeres, viel schärferes Foto ist. Es sieht ziemlich gut aus. Es gibt den
Skalar einer anderen App, der herausgekommen ist. Sie können
Ihr eigenes Upscale installieren. Und wie sich herausstellt, wirst
du hier den sehen
, den ich gerne benutze,
einen, der
viermal ultrascharf heißt. Der ist
mit dem kleinen Erguss nicht eingebaut. Wenn Sie nun
diesen bestimmten App-Skalar verwenden möchten, probieren
wir diesen aus und erhöhen
ihn um das Zweifache. Sie können den
App-Skalar über diesen Link hier herunterladen. Und du wirst
dieses
vierfache ultrascharfe Punkt-PTH herunterladen . Wenn du willst, ist
es eine kleine Datei. Es lade das einfach herunter. Und dann kannst du das hier in
diesen Ordner namens SR stecken . Nochmals, Ordner unter
deinem Stable Effusion unter dem
Ordner Models, unter dem Ordner S. Again, den
klebst du einfach dort hin. Sie wollen die Dokumentation
darüber, wie Upscale Us arbeitet. Sie können
diesen Link hier überprüfen. Aber sobald Sie neu geladen haben, sind
Sie eine Benutzeroberfläche und verwenden
einfache Diffusion. Sie kann geladen werden, indem Sie unter Einstellungen in
den Reload gehen. Und dann wird
Ihr neuer älterer
Vollzeit-Sharp in
diesem Drop-down-Menü angezeigt. Also haben wir ein Bild erstellt und es mit
zwei verschiedenen Upscalings hochskaliert. Lassen Sie uns sie jetzt vergleichen. Das ist also der erste. Das ist
der kleine. Hier wird der SR erneut viermal verwendet, und das ist der
Vollzeit-Ultra-Sharp. Es gibt also subtile
Unterschiede, aber ich finde, dass der
Ultrakurzbär einen
etwas besseren Job macht. Diese entlang der Augen haben einen guten Job mit den Augen gemacht. Ein bisschen verschwommen
hier, sie haben ein bisschen mehr Details. Vorausgesetzt, Sie
möchten noch mehr hochskalieren, können
Sie noch weiter gehen. Sie können für
jedes Bild,
das Sie haben, auf die Schaltfläche mit den Extras in der Mitte klicken. Und wenn Sie auf Santa Extras
klicken, wird
der Bild-Tab geöffnet und
Ihr Foto dorthin gesendet. Alternativ können Sie
Ihr Ordnerfoto einfach manuell laden . Sie können klicken
und ziehen und ablegen usw. Aber ich werde einfach die Extras
benutzen. Und dann kannst du es hier obskur versuchen
. Du wirst sehen, dass
du skalar hochgefahren bist, deinen RS-Scan-Vollzeitbus, oder in meinem Fall, das viermal ultrascharf. Und dann können Sie wählen, um wie
viel Sie die Größe ändern möchten. In diesem Fall gehe ich
einfach
zu und klicke dann auf Generiert. Das Laden dauert einen Moment. Und dann sollten wir in der Lage
sein, ein
sehr schönes hochauflösendes Bild zu sehen . Sobald das Laden abgeschlossen ist, stecken
wir in einem anderen
Ordner fest, aber das ist okay. Lassen Sie uns diese jetzt vergleichen. Das war das ist unser Das
ist unser Originalfoto. Das ist unser Upscale
mit dem Scan. Dies ist das vierte
Mal ultrascharf, und dann das zweite Mal
nach dem zweiten Mal ultrascharf, wir haben noch mehr Details. Also, wenn wir hier reingehen, wird es
ein bisschen pixelig. Aber wenn wir zu den viermal gehen, wer wird dann Details richtig gut
aussehen lassen. Jetzt stellt sich heraus, dass Sie dies stapelweise tun
können. Du musst das nicht einmal eins nach dem anderen
machen, wie wir es hier in diesem langsamen Prozess
machen, du kannst aus dem Verzeichnis zu diesem
Stapel gehen. Und wir können tun, dass Sie
ein Eingabeverzeichnis und
ein Ausgabeverzeichnis auswählen können . Um das zu tun, benötigen
wir also eine Reihe von
Fotos, mit denen wir arbeiten können. Also lasst uns dieses
hohe Risiko vorerst ausschalten. Bleiben wir bei vier Bildern
und wir erhalten einen zufälligen Startwert. Lass uns hier einfach Bilder machen. Wir klären das vorerst. Diese haben ihren Zweck erfüllt. Es wird
diese vier Bilder machen. Sie werden alle eine
512,5 Kelvin-Lösung haben. Und wenn ich zu den Extras gehe und Batch
aus dem Verzeichnis auswähle, kann
ich das
Verzeichnis auswählen, aus dem ich die Bilder senden
möchte. Das ist also mein Eingabeverzeichnis. Ich werde das hier festhalten. Und dann muss ich einen Ort
auswählen, an den das Foto geschickt werden soll. Also werde ich hier
einen neuen Ordner erstellen. Ich nenne
das Output Scales. Und ich werde den Pfad dazu kopieren und ihn in
das Ausgabeverzeichnis einfügen. Und dann wähle ich das
Obskure aus, das ich verwenden möchte. Ich wähle Größe ändern. Und einfach so erstellen
wir jetzt stapelweise Bilder
von Luftbildern in
hochskalierter Auflösung. Die Batch-Sache ist also wirklich nützlich, denn nehmen
wir an, Sie hatten ein Video. Sie können das Video in einzelne Bilder
sowie JPEGs und PNGs aufteilen. Sie können dann angeben , welchen Ordner Sie als Eingabe verwenden möchten
. Und dann geht es durch und erstellt die hochwertigen
Bilder für all diese. Also los geht's. Sie können unsere hochskalierten Bilder
sehen. Es wurde stapelweise gemacht. Da hast du es also. Sie wissen jetzt, wie Sie die Auflösung
Ihrer Bilder mithilfe des Aufwärtsskalars
erhöhen können. Wir können das schon bei der
Erstellung des Bildes tun. Und das kannst du auch per Post machen. Nachdem Sie das Bild erstellt
haben, können Sie auch die
Auflösung erhöhen.
7. Installation neuer Modelle: In diesem Video werden
wir über das Schaffen von Kunst
sprechen, indem wir
eine Vielzahl verschiedener Modelle verwenden eine Vielzahl verschiedener Modelle , die
unterschiedliche Kunststile haben werden. Wir werden lernen, wie man verschiedene Modelle findet und installiert, um
eine stabile Diffusion zu gewährleisten. Dieses Bild hier wurde also nicht mit dem ursprünglichen
stabilen Diffusionsmodell
erstellt. Standardmäßig. Dies ist das Modell, das,
zumindest in meinem Fall,
für die Verbreitung von Stapeln verwendet wurde. Aber dieses Unreife wurde durch eine
traumhafte Diffusion
geschaffen. Also werden wir dir
zeigen, wie du
ein anderes Modell bekommst und dann kannst du Kunst
wie diese kreieren. Also müssen
wir zuerst ein anderes Modell finden. Es gibt eine Reihe
verschiedener Websites. Ich werde
Sie auf zwei von ihnen verweisen. Eine davon ist Civic AI. Das sind also Website-Listen, Beispiele für verschiedene Kunstwerke
, die erstellt werden. Wir können also all diese
hübschen kleinen Bilder hier sehen. Und wenn ich genau dieses Bild
erstellen möchte, kann
ich das
Modell auf dieser Website herunterladen. Sie sehen dieses kleine
Download-Ding hier. Sie können sehen, dass dies bedeutet, dass dies eine sichere Datei zum Herunterladen ist. Und die Leute haben gesagt,
dass es ziemlich gut ist. Sie mögen es. Das kannst du herunterladen. Und sobald Sie es heruntergeladen haben, gehen
Sie zu Ihrem stabilen
Diffusions-Softwareordner. Wo auch immer Sie es installiert haben. Gehe zu deiner stabilen Diffusion. Gehe zu deinen Modellen, gehe zu deiner stabilen Diffusion. Und du wirst diese Datei in diesen Ordner einfügen
. Sobald Sie
das getan haben, kehren Sie zu
Ihrer stabilen Diffusion zurück und müssen nur die Software
neu laden. In diesem Fall heißt
das, gehen Sie in Einstellungen und klicken Sie auf
die Reload-Benutzeroberfläche. Und nachdem Sie das getan haben, erscheint
Ihr Modell in diesem Drop-down-Abschnitt Gordon
oben links. Dieses spezielle Modell
habe ich von Dreamlike Art bekommen
, einer Website
namens Hugging Face. Hugging Face, traumhafte Kunst, traumhafte Diffusion
und Dash 1.0. Wenn Sie hier auf diese Website gehen, können
Sie genau dieses Modell
herunterladen auch genau dieses Modell
herunterladen, und Sie
können es kostenlos tun. Dieses Modell ist dem MIT Journey sehr
ähnlich. Mid Journey ist eine kostenpflichtige
KI-Kunstgenerator-Software die
Stable Diffusion
sehr ähnlich ist. Sie können Text eingeben und es werden Bilder
erstellt, die sehr schön
sind. Hier können Sie Kunstwerke erstellen
, die genau so aussehen. Ähnlich wie MIT Journey. Der einzige
Unterschied zwischen Mid Journey und
Stable Effusion besteht darin , dass Sie
viel mehr Funktionen
und Stapled Diffusion haben und das kostenlos. Warum also nicht
die kostenlose Version verwenden , die
Ihnen viele Funktionen bietet. Also sage ich, also hier sind wir. Dies ist das Modell
auf Hugging Face. Wenn Sie es
herunterladen möchten und
zu Dateien und Versionen wechseln zu Dateien und Versionen und die Datei
herunterladen möchten. Da steht traumhafter
Diffusionsstrich 1.0, sichere Tensoren. Die SEK-PT-Datei ist das Originalmodell und die
sichere Tensordatei bedeutet, dass sie eine gewisse
Serialisierung durchgeführt haben und überprüft
, ob es sich um Fehler handelt, die mit Viren gefüllt sind. Wenn Sie
die CAPT-Datei herunterladen, einfach sicher, dass Sie
eine Antivirensoftware verwendet haben,
bevor Sie sie verwenden. Wie dem auch sei, sobald du das
heruntergeladen hast, klebst
du es in
den Ordner und du startest DUI und es wird hier in
der oberen linken Ecke angezeigt. Also ich denke, das ist schon das
Wesentliche Sie können verschiedene
Modelle von David AI herunterladen. Oder wenn Sie zu
Hugging Face gehen und
Hunderte oder Tausende
verschiedener Modelle finden , die die Leute benutzt haben. Und dann können
Sie Ihre
Textanweisungen einfügen und Grafiken im Stil
des
Modells erstellen , das Sie herunterladen.
8. Inpainting: In diesem Video werden
wir über Inpainting sprechen. In der Malerei ist die
Fähigkeit, Objekte
in Ihren Fotos und
Bildern durch andere Objekte zu ersetzen . Du kannst die Dinge einfach austauschen. Was Sie also für
Malerarbeiten benötigen, benötigen
Sie nur ein Foto,
eine Illustration. Etwas kann ein Bild sein in einem stabilen Erguss
entsteht,
wie ich es hier habe. Sie können aber auch einfach ein
Foto von Ihrem Computer oder eine Zeichnung oder was
auch immer Sie wollen aufnehmen. Das hängt davon ab, die Ergebnisse, die
Sie erhalten,
hängen auch von dem Modell ab
, das Sie verwenden. Überlegen Sie sich also, welches Modell Sie für Ihr Inpainting verwenden
möchten. Sobald Sie Ihr Foto fertig haben, können
Sie entweder von Bild zu
Bild und dann zu Farben wechseln. Und dann kannst du
das Foto und deinen
Computer irgendwo finden . Oder in meinem Fall, da ich das Bild in
stabiler Diffusion
aufgebaut
habe, kann ich dann zur Schmerzempfindung übergehen. Sie haben jetzt also ein Bild
in Farbe, und Sie können sich hier einen Pinsel
aussuchen. Und das wird
uns bei der Entscheidung helfen was wir ersetzen wollen. Mein Fall, ich werde
dieser Dame eine Brille geben. Das gab ihr ein paar schöne Sonnenbrillen. Und ich muss zu der
Eingabeaufforderung oben gehen Eingabeaufforderung oben und sagen, was
auf dem Bild erscheinen soll. Also sagen wir, gib ihr
eine Sonnenbrille. Hier drüben. Sie sollten sicherstellen, dass
in Malmaske ausgewählt ist ,
da das bedeutet, dass
wir
den Bereich ersetzen , der gezeichnet
wurde. Wenn Sie möchten, können Sie mit
diesen verschiedenen
Funktionen spielen ,
um zu experimentieren unterschiedliche Ergebnisse
zu erzielen,
aber ich werde vorerst nur diese Werte haben. Und dann klicke ich auf Generieren. Und lassen Sie uns mit diesem Batch ein paar verschiedene
Ausgaben ausgeben. Also lasst uns etwas Glück haben
und diese Dame beschützen. Okay, los geht's. Sieht gut aus. Oma in der Sonne. Stimmt es? Es hat eine Brille, die nach Elton
John aussieht, oder vielleicht
kommt das gut heraus. Mal sehen, was wir noch haben. Wir haben die
Blautöne. Sehr nett. Wir haben ein paar blaugrüne Farben. Sieht für mich ein bisschen falsch aus. Oh, die kaputtmachen. Los geht's. Okay, das ist also in der Malerei. Sie können jedes
Bild aufnehmen, das Sie möchten. Sie können überall zeichnen und
mehrere Iterationen durchführen. Vielleicht, sagen wir, ich bin damit
einverstanden, aber ich möchte
damit herumspielen und gab ihr dann
Sagen wir, geben wir ihr Handschuhe. Mal sehen, wie das ausgeht. Handschuhe und sind wieder degeneriert. Mal sehen, was wir hier bekommen. Jetzt wirst du etwas bemerken , dass sich ihre Augen wieder
verändern. Der Grund, warum
sie sich ändern, ist
, dass in Paint derzeit diesen kleinen Fehler gibt, bei dem, wenn
Sie hier nicht neu gestartet sind, es in Paint derzeit
diesen kleinen Fehler gibt, bei dem, wenn
Sie hier nicht neu gestartet sind, tatsächlich immer noch
das vorherige Zeichnen und
Malen verwendet , das Sie beim letzten Mal gemacht haben. Wenn Sie sich diese also ansehen, werden
Sie feststellen, dass er eine
andere Brille hat
und sie auch Handschuhe. Oh, das
sah nicht gut aus. Aber du siehst, manchmal
macht es einen guten Job
, ist es nicht. Um das zu beheben, stellen Sie
sicher, dass Sie bis
hierher gehen und jedes Mal Reset einstellen. Wenn wir es noch einmal machen, lassen wir
jetzt einfach
die, die Handschuhe statt der
Brille wechseln. In Ordnung,
schauen wir uns an, wie sie aussieht. Was für Handschuhe
wirst du dir dieses Mal geben. Da haben wir es. Das sind schöne schwarze Handschuhe. Zu dieser Zeit. Irgendeine Art von Handschuhen. Ihre Hände. Ich habe Biker-Handschuhe. Du verstehst das Wesentliche. Wir konnten Objekte
einfach so ersetzen. Sie wissen jetzt, wie
Sie Inpainting ausführen, um Objekte
in Ihren Fotos zu ersetzen.
9. Outpainting: Im letzten Video haben wir
über Inpainting in Gemälden gesprochen , bei dem wir
Objekte innerhalb von
Bildern durch jedes andere Objekt ersetzen können Bildern durch jedes andere Objekt In dieser Vorlesung werden wir
über unser Malen sprechen. About Painting ist eine Methode
, mit der Sie Bilder erweitern können. Es baut auf der Technologie auf
, die wir beim Inpainting verwendet haben. Auf diese Weise können Sie jedoch
Bilder vergrößern und vorhandene
hinzufügen, zusätzlichen Inhalt
zu vorhandenen Bildern hinzufügen, sie breiter oder höher
machen Fügen Sie weitere Objekte hinzu, aber auch außerhalb des
ursprünglichen Leinwandrahmens. Also werden wir darüber sprechen,
wie das geht. Was Sie dafür tun
müssen, ist, dass Sie wahrscheinlich ein bestimmtes Modell
haben möchten , das für das Inpainting
gebaut wurde Wir werden ein nachfolgendes
Inpainting-Modellmodell wollen. Und ein
Inpainting-Modell erhalten Sie hier bei Stapled
Diffusion Unter dieser URL
hier, Hugging face.co. Wenn wir stabil,
effizient und lackierend modellieren ,
gibt es vielleicht noch andere, aber Sie werden eine finden
wollen, die in Malerei
ausdrücklich erwähnt wird. Diese führen in der Regel
zu besseren Ergebnissen. Du kannst es mit
anderen versuchen, aber naja, du wirst herausfinden, ob es für dich
genug funktioniert, um das zu tun. Du gehst zu der Datei
und den Versionen und
lädst sie herunter und willst das bei all
deinen anderen Modellen beibehalten. Also, wenn ich sage, dass all die
anderen Modelle,
über die wir sprechen , in deine
Grundnahrungsergüsse passen. Es ist April, die Fusion
geht zu deinen Modellen, zu deinem stabilen Effusionsordner mit all den
anderen Modellen hier. Ich möchte
es also nicht
mit euch allen anderen in diesen Ordner stecken . Dann gehst du zurück zu
Stable Diffusion, gehst zu deinen Einstellungen und lädst deine
Benutzeroberfläche neu Theoretisch
müssen Sie die Anwendung möglicherweise neu starten, aber Ihr Modell wird hier hier
angezeigt,
und Sie können sehen, dass ich ein paar
verschiedene Inpainting-Modelle habe Ich habe hier einen für diesen, ich habe noch einen hier. Es gibt also eine Reihe verschiedener Modelle, die Optionen zum Bemalen
haben. Sobald Sie das getan haben
, können Sie
ein vorhandenes Bild nehmen und hier ein Bild importieren, zum Beispiel P&G Info Und ich werde ein weiteres
Bild machen, das ich bereits
zuvor
in Stable Effusion erstellt habe zuvor
in Stable Effusion erstellt In diesem Fall
ist das dieser kleine Kerl. Sie können Bilder verwenden, die nicht
in stabiler Diffusion erstellt
wurden Das bedeutet jedoch, dass
Sie sich die Eingabeaufforderungen
von Grund auf neu
einfallen lassen Eingabeaufforderungen
von Grund auf neu
einfallen In meinem Beispiel habe ich, da ich diesen und
stabilen Erguss überhaupt erstellt habe, bereits
die Eingabeaufforderung, die vorgeladen wird
, wenn ich ein Bild
in die PNG-Info ziehe Und ich kann meine
positiven Eingabeaufforderungen sehen und ich kann meine
negativen Eingabeaufforderungen sehen Und es erspart mir nur den
Schritt,
herauszufinden, was bei der
Erstellung dieses Bildes erforderlich ist. Wenn nicht, können Sie sich das Bild einfach
ansehen und versuchen, es so
detailliert wie möglich zu beschreiben. Nun, das ist der
Charakter, den ich möchte, um
eine Umgebung in Farben
und Stil usw. zu schaffen . Ja, also wir haben dieses Bild, ich werde
mein Bild jetzt an Inpaint schicken Mit anderen Worten, wie der Abschnitt Bild
zu Bild hier. Alternativ können Sie hier
einfach Ihr imaginäres Bild
hochladen und hier
gibt es diesen Tab im pinken Wasserhahnmodell. Der erste Schritt, den wir
tun möchten, ist zum Abschnitt „Größe ändern“ zu
gehen , da wir diese
Leinwand des Bildes erweitern möchten In meinem Fall machen wir das, lassen Sie uns die
Größe verdoppeln, tausend und 24. Beginnen wir mit der
Erhöhung der Breite. Sie werden auch feststellen, dass wir hier
einen Startwert haben , der
bereits ausgefüllt ist und der erneut von den PNG-Informationen
übernommen wurde Sie sollten
sicherstellen, dass Sie
das Saatgut verwenden , das ursprünglich
verwendet wurde. Wenn Sie die Fähigkeit haben
, werden Sie
bessere Ergebnisse erzielen. Und jetzt
wollen wir diese Option
hier ankreuzen, Größe ändern und füllen Und das wird es uns ermöglichen, die
Größe der Leinwand zu ändern
und sie mit
jedem Detail zu füllen, von dem Stable Effusion
glaubt, dass es jedem Detail zu füllen, von dem Stable Effusion funktioniert, und Sie werden gleich
sehen, was ich meine Klicken wir also hier auf Generieren und sehen wir uns das
Ergebnis an, das wir erhalten. Könnte eine Weile dauern. Okay, mein Bild ist hier geladen. Und mal sehen, was getan wird. Wir haben auf der linken Seite dieses verschwommene kleine Bild hier, und auf der rechten Seite sieht es auch irgendwie verschwommen aus Und was gemacht wird, ist,
die Bilder vom
Stadtrand hier aufzunehmen ,
die Bilder vom
Stadtrand hier und sie nach
links und rechts auszudehnen. Nun, das ist teilweise das,
was wir wollen. Wir haben jetzt ein größeres Bild, das ist jetzt eine andere
Leinwandgröße und
das ist 512 mal 512 und das sind 1024 mal
Fünfzwölftel Wir haben die größere
Leinwand. Wir können auch sehen, dass dies unserem
Originalbild hier nicht wirklich ähnlich ist. Was wir jetzt
wissen müssen, ist, dass wir das jetzt
übermalen und die
Informationen durch neue Objekte
ersetzen müssen das jetzt
übermalen und . Also, was wir
hier tun werden, ist, dass wir dieses Bild hier
hineinladen. Also lass uns das Ding schließen
und wir schicken es in Farbe. Also habe ich dieses
Bild hierher geschickt. Und jetzt haben wir dieses Ding hier
drüben, mit dem wir all diese Informationen hier erweitern und
ersetzen können . Ich werde es einfach übermalen. Ich übermale und füge eine
sogenannte Maske hinzu. Eine Maske des gesamten Bereichs
, den wir ersetzen wollen Und ich werde
jeweils nur eine Seite bearbeiten. Ich werde das noch nicht
richtig machen. Und der Grund dafür ist
, dass wir keine verwirrende Diffusion
wollen keine verwirrende Diffusion
wollen Sie wollen eine Seite
ersetzen all das andere
Material
verwenden, auf das verwiesen wird. Wir wollen nicht, dass versucht wird, alles auf beiden
Seiten gleichzeitig zu replizieren Es wird unbedingt wissen
, auf welcher Seite es referenzieren soll. Wir werden diese Seite verwenden, auf die verwiesen
wird, um das Problem zu beheben. Und dann werden wir
diese Seite verwenden, auf die verwiesen wird, um
das Problem zu beheben. Hier drüben. Nun, ich denke,
wir können alles beim Alten lassen. Wir müssen hier nicht unbedingt
etwas ändern. Wenn du willst, kannst du mit diesen
herumspielen, ähm, aber ich werde in
diesem Beispiel nichts
ändern . Ich
werde auf Generieren klicken. Und lass uns sehen. Was wir bekommen. Wir können sehen, dass jetzt nebenbei
etwas gebaut wird. Und was wissen wir, wir haben etwas, das wir jetzt haben mehr Details sind nicht nur
genau dieselbe Farbe, hier ist definitiv etwas
anderes. Jetzt machen wir
dasselbe wie auf der anderen Seite. Ich werde all
diese Informationen hier löschen ,
indem ich auf Reset klicke. Ich schicke es zuerst
zur Integration. Und dann werde ich meine ganze Maske entfernen. Das will ich nicht benutzen. Und dann werden wir die andere Seite
übermalen. Und wir klicken auf Generieren. Das ist ziemlich gut,
das ist nicht schlecht. Wir haben jetzt eine ganze Reihe
von Informationen, die im Vor- und Originalbild auf
der
linken und rechten Seite nicht existierten . Wir können sehen, dass es hier
eine starke Linie gibt, aber das können wir korrigieren. Wir können einfach noch
eins davon in Farben machen. Wenn Sie Ergebnisse sehen, die
nicht ganz Ihren Wünschen entsprechen, können
Sie es einfach an
ein anderes Unternehmen senden und einfach den Bereich
übermalen, der
ein wenig fehlt Und hoffentlich wird das Problem dadurch behoben. Noch einmal. Um dieses richtige
Detail im Hintergrund zu erstellen, muss
es positive
und negative Eingabeaufforderungen haben Und wenn Sie es verwenden, wird
es in der Lage sein, eine zu
erstellen. Los geht's. Das ist unser, hier ist
unser Bild hier. Und wir können
das Vorher und Nachher vergleichen, wo das das
Originalbild war, dieses kleine quadratische Ding. Und jetzt haben wir dieses
viel größere Bild. Es funktioniert natürlich viel besser, mit Bildern mit
unscharfem Hintergrund Je
detaillierter der Tabak ist, desto mehr kann es einige Abweichungen geben, aber Sie können ziemlich
gute Ergebnisse erzielen Das ist also eine Möglichkeit, das
Malen in stabilem Erguss durchzuführen. Wir werden ein späteres Thema im Kurs
weiter behandeln. Ich musste das
in Photoshop machen, was eigentlich
viel einfacher und schneller ist. Wenn Sie Photoshop jedoch nicht verwenden
möchten, können
Sie diese
Technik innerhalb von
Staple Diffusion verwenden , um das Malen
zu beenden
10. Img2Img-Fallstudie Yoda trifft Stitch: In diesem Video werden wir über den Tab Bild
zu
Bild und einige der unglaublichen Funktionen sprechen Tab Bild
zu
Bild und einige der ,
die Sie mit Bild-zu-Bild verwenden
können. Und ich
wollte Ihnen das anhand eines
Beispiels
aus der Praxis zeigen . Ich habe dir hier eine kleine
Fallstudie gegeben. Und ich zeige Ihnen
ein kleines Video, das von Bild zu Bild
erstellt wurde . Also hier ist ein dummes
kleines Video namens Yoda Meet Stitch und schau und dann kommen wir nach
dem Video zurück und erklären,
wie wir das gemacht haben. Eins. Spricht mehr über Mist. Ein Experiment, das du startest. Neugierig. Der Trigger
wird als wahr angenommen. Dieser Planet ist abgelaufen oder Bosch. Ich versuche viel zu
rendern. Im Moment habe ich mir eine Rolle in der
Orthodoxen Kirche gekauft , um mehr über die Macht zu erfahren. Ich weiß nein. Kräfte und
Energiefeld verbinden uns in zweierlei Hinsicht. Objekte kontrollieren unseren Geist. Sieh sogar in die Zukunft. Der falsche Mädchenstich. Zuerst musst du lernen, deinen Geist
zu fokussieren. Schließ deinen gewölbten Felsen
da drüben. Was ist dein Verstand? Um sich zu konzentrieren? Viel Fortschritt. Du musst hart arbeiten, um
sie mit der Macht hochzuheben. Muss den Felsen durchqueren. Unterschlupf. Jetzt.
Der Walkthrough muss bewegt werden. Deine Gefühle. Du musst dich mit der dunklen Seite identifizieren
. Gib immer noch auf. Ich muss fließen. Ein Boss auf der dunklen Seite. Du hast das Video
von Yoda Meet Stitch gesehen. Es ist ein bisschen albern, aber
es ist nicht wirklich wichtig. Das Ziel ist nur, Ihnen zu zeigen, wie stabil die Fusion verwendet
werden kann, um dies zu erreichen. Zuallererst werden Sie
feststellen, dass ein wackeliger Dialog im Gange ist . Und dieser Dialog wird mit Chat GPT
erstellt. Ich ging zu EBT chatten und sagte, schreib mir ein Gespräch, in dem Yoda Stitch trifft und
ihnen etwas über die Macht beibringt. Und es ist
aufgekommen, hat sich hier ein
paar seltsame kleine
Dialoge ausgedacht. Und ich habe das einfach ein
paar Mal gemacht und die kleinen Teile
herausgesucht , die mir am besten gefallen haben. Von dort
stammt der Dialog für das Video. Lassen Sie uns nun über die
tatsächlichen Bilder von sich selbst sprechen. Also Bilder hier, womit haben
wir es zu tun? Wir haben diese Charaktere, und das ist dieser Yoda-Typ. Und Sie werden feststellen, dass er näher kommt als das
Bild im Hintergrund. Es gibt also diese Tiefe hier. Und dafür gibt es ein paar
Möglichkeiten. Es gibt die Art und Weise, wie Sie es wahrscheinlich
tun würden , wenn Sie
das für die Produktion tun würden, eine
Art professionelle Methode, bei der Sie die
Bilder in stabiler Diffusion erstellen. Und du gehst in eine
Fotosoftware wie Photoshop und wählst die Figur aus
und schneidest sie aus und stellst sicher, dass du all diese Details
bekommst. Ich bin fertig, oder? Wir haben also nur dieses Bild und dann können Sie es
in Ihre
Videobearbeitungssoftware einfügen . Und das hattest du
im Vordergrund. Das klang zunächst nach
viel Arbeit. Weißt du, ich wollte das alles nicht machen, weil es
zu viel Aufwand ist. Klingt so, als ich
oft nicht einmal weiß
, welche Bilder ich verwenden möchte. Vielleicht mag ich jemanden, der es nicht ist. Ich weiß nicht, ob ich einige dieser
anderen nicht
damit verbringen möchte , dass wir in
Photoshop gehen und sie ausschneiden, zumindest nicht für
solche Dinge. Ich wollte schnell
etwas machen und herausfinden, wie man diesen Vordergrund- und
Hintergrundcharakter schneller erstellen kann schneller . Die Lösung, die ich
machen wollte, ist die
Greenscreen-Technik zu verwenden. All dies
wird also erreicht, indem Charaktere vor
Greenscreens erstellt werden. Wir haben hier also einen Charakter, dieser Yoda-Typ steht tatsächlich
vor einem Greenscreen. Ich kann dann einen
sogenannten Chroma-Key verwenden
, der die
Hintergrundfarbe entfernt. Und dann kann ich. Ersetzen Sie es durch ein anderes Bild. Das ist es also, was
du hier siehst. Lassen Sie uns Ihnen zeigen, wie Sie dies bei stabiler Diffusion
tun können . Also ich habe hier meinen stabilen
Erguss. Zuallererst gehe ich und überlege mir den Charakter
, den ich kreieren möchte. In diesem Fall habe ich
mit einigen Modellen herumgespielt, die mir gefallen haben. Ich habe mit ein paar
Texten herumgespielt, Unebenheiten, die mir gefallen haben. Irgendwann habe ich mir ausgedacht, dass
dieser kleine Kerl so ist, hey, dieser Typ ist irgendwie süß. Er sieht aus wie ein Yoda-Charakter
, den ich machen möchte. Ich mag diesen Kerl. Also mir geht es gut, damit bin ich
zufrieden. Ich werde
das Bild zu Bild schicken. Der einzige Grund, warum uns das
wichtig ist, ist das Abrufen der Textanweisungen. Das Sandwich ist
uns egal. Das kann ich jetzt löschen. Wir befinden uns im
Tab Bild zu Bild. Wir haben unsere Aufforderung. Jetzt müssen wir ein
Foto
unseres Charakters vor einem
Greenscreen haben . Und wenn ich Charakter sage, meine
ich jeden Charakter, es kann dieser sein. Das habe ich benutzt, ist ein Typ vor einem
Greenscreen. Und es ist nicht einmal ein großartiger Greenscreen,
wie Sie sehen können, es ist, es ist ein bisschen klobig, es ist nur
ein einfarbiges Objekt. Jetzt gibt es ein Problem
mit einem Yoda und dass du Yoda nicht
vor einem Greenscreen verwenden kannst. Wir können das ein bisschen
nähen, kein Problem. Aber Yoda ist ein bisschen knifflig
, weil Gold grün ist. Also musste ich
einen blauen Bildschirm verwenden, also, okay, lass uns diese Farbe
austauschen, statt Grün
wird Blau. Ich habe das in einer
Bildbearbeitungssoftware gemacht. Ich habe also meinen Charakter, ich habe ihn
vor einem blauen Bildschirm. In meinem Fall. Ich kann mir hier meine Einstellungen
ansehen, aber sie sind nicht wirklich
so wichtig. Ich benutze eine, ich habe einige, die auf der CFG-Skala
spielen können. Derselbe Platz, wenn Sie
den Startpunkt von Ihrem Text zum Bild haben möchten. Aber das alles ist okay für mich. Das einzige, was ich
jedoch möchte,
ist, dass die Ausgabe in den Abmessungen eines Videos oder zumindest im gleichen Maßstab erfolgt. Denn wenn ich
ein Video wie dieses erstelle, es 1920 Pixel mal
540 Pixel, oder? Also wollte ich ein Bild haben,
das in diesem ähnlichen Spektrum liegt. Okay, ich habe meine Abmessungen, ich habe mein Foto,
ich habe meine Eingabeaufforderungen. Ich bin bereit zu gehen. Ich kann
dann auf Generieren klicken. Und stabiler Erguss
macht seine Magie. Er kommt mit einem netten
kleinen Yoda-Charakter heraus. Da haben wir es. Wir haben einen Yoda. Er steht vor einem
blauen Bildschirm und sagt,
nun, die Fusion
hat das für uns getan. Du kannst das also
für einen Unbekannten tun. Vielleicht haben Sie einen Stapel von 20 verschiedenen Hinweisen, die
Sie erstellen wollten. Und vielleicht möchte ich sie in
etwas anderen Perspektiven haben . Ich wollte schon immer eine
Nahaufnahme seines Gesichts haben. Versuchen wir es mit einer Nahaufnahme. Sehen Sie, wie es
mit dieser Nahaufnahme aussieht. Mal sehen, wie das aussieht. Ich kann verschiedene Posen ausprobieren. Es ist nicht wirklich wichtig,
was wir tun wollen. Du kannst experimentieren und
verschiedene, verschiedene Bereiche ausprobieren. Wie nah Sie dem Objekt sind, vielleicht möchten Sie verschiedene
Handvorschläge haben, das
ist eigentlich egal. Wir können natürlich versuchen und
experimentieren. Wie dem auch sei, sobald Sie all
Ihre verschiedenen Fotos haben, haben
Sie ein Verzeichnis allen Charakteren
, die Sie verwenden möchten. Und von da an werden
Sie feststellen, dass
diese ein bisschen, ein
bisschen verschwommen,
ein bisschen, nicht so detailliert sind . Also werde ich
hier auf meine Extras eingehen und den Batch
aus dem Verzeichnis machen. In diesem Fall bedeutet das, dass
ich den Ordner mit
allen Bildern auswählen würde , die
ich als Eingabe verwendet habe. Und ich gebe einen Ort an an dem das
Ausgabebild gespeichert werden soll. Und wenn ich
das getan habe, habe ich jetzt diese schöne Sammlung
von Yoda-Charakteren. Und wenn mein Fall
zwei Charaktere vor blauen und grünen
Bildschirmen wegwirft, ist
der Stich natürlich blau, also stelle ich ihn vor einen
Greenscreen. Die Diode ist natürlich grün, also habe ich sie
vor einen blauen Bildschirm gestellt. Okay, dann ging ich zu meiner
Videobearbeitungssoftware. In meinem Fall
verwende ich hier Premier. Und alles, was ich hier getan habe, ist
einen Effekt namens Ultra Key hinzugefügt. Dies ist das Originalfoto ich von dieser Tabellenverbreitung erhalten habe. Ich habe das hier in
meine Timeline aufgenommen. Dann wende ich die Ultrataste an, die alles entfernt
, was blau ist. Weil du einfach diesen
Ultra-Key hast und fragst:
Welche Farbe
soll er ausblenden? Sie können einfach die Farbe auswählen. In diesem Fall. Sie müssen dann ein bisschen mit
diesen
kleinen Einstellungen spielen . Aber wenn du einmal
etwas herausgefunden hast , das im Wesentlichen
schwarz aussieht, dann bist du gut. Und Sie können
das Hintergrundbild einfügen,
das in meinem Fall
ein weiteres Foto ist , das ich
in stabiler Diffusion generiert habe. Ich habe gerade die baumelnde Leiste eingegeben, das ist der Planet, auf dem
Yoda existiert. Auf diese Weise war ich in der Lage, diese Charaktere
in stabiler Ergussform zu erstellen, bei
der Sie eine Figur im Vordergrund vor
einem grünen oder blauen Bildschirm und
eine separate
Hintergrundumgebung haben einem grünen oder blauen Bildschirm und . Das alles ist die Verwendung von Bild zu Bild. Wenn Sie also wissen möchten, wie
man Bild für Bild verwendet
, können Sie das so machen. Du kannst all diese
verschiedenen Charaktere erstellen. Verwenden Sie Ihre Eingabeaufforderungen. Sie können die Posen mit Ihrem
Bluescreen-Greenscreen-Charakter abrufen. Und dann können Sie sie
alle innerhalb einer
stabilen Diffusion hochskalieren .
11. Infinite Zoom Intro: Hier ist eine wirklich coole Anwendung deaktivierte Diffusion, sie verwendet werden kann, um den
sogenannten unendlichen Zoom zu erzeugen . Sie haben dieses Bild
, das einfach für immer
hineinzoomt oder für immer
herauszoomt, je nachdem ob Sie
vorwärts oder rückwärts gehen möchten. Das ist also eine
Anwendung, die wir mit stabiler Diffusion
verwenden können . Und wie das geht,
lernst du in der nächsten Vorlesung.
12. Infinite Zoom: Um den unendlichen Zoom zu erzeugen, müssen
wir zuerst
eine Erweiterung in
einfacher Diffusion installieren . dieser Registerkarte „Erweiterungen“,
in der URL „Von installieren“, sollten
Sie also in der URL „Von installieren“, die URL
aus einem ganz bestimmten
Git-Repository einfügen . In diesem Fall ist das dieses
Repository hier,
github.com, github.com, die
automatische 1111-Web-UI mit acht HID-Infinite-Zoom-Funktionen. Sie kopieren also den Code aus diesem GitHub-Repository und fügen
ihn dort ein. Und dann drückst du
auf Installieren. Und dann wird es
ein paar Augenblicke dauern. Sobald Sie
das getan haben, gehen Sie hier
zur Kategorie Installiert. Sie klicken auf Nach Updates suchen und dann bewerben Sie sich und starten neu. Möglicherweise müssen Sie auch die stabile Diffusion beenden und sie
dann erneut starten. Also sei einfach darauf vorbereitet und
achte darauf, dass du schmierst,
bis du das getan hast. Sie benötigen hier
auch
einen Checkpoint mit einem Inpaint. In der Malerei. Im Wesentlichen nach einem Modell gebaut , das
zum Malen verwendet werden kann. Und es hat normalerweise den
Namen in Malerei drin. Sie können das also zunächst haben. Dafür musst du dir ein paar Modelle
suchen. Also hier sind wir Uncivic. Ai kann eine Reihe
verschiedener Modelle finden und sie haben Beispiele dafür, wie die
Bilder aussehen könnten. Und Sie können auf eines
dieser Modelle klicken und es
zeigt Ihnen Beispiele. Denn in meinem Fall wähle ich
die animierte Rippe aus. Das Wichtigste ist, dass
Sie
ein Modell benötigen , das kein
Inpaint-Modell ist. Du brauchst also etwas, das in der Malerei verwendet wird, weil es
so konzipiert
ist, dass es mit
dem unendlichen Zoom besser funktioniert. Also nimmst du das, lädst
eines dieser Modelle herunter und klebst es in den
stabilen Diffusionsordner. Genau wie bei all unseren
anderen Modellen, bei denen die Diffusion
deaktiviert ist als der Modellordner und dann der
Diffusionsordner deaktiviert. Also tust du das. Und jetzt wird unser
Modell
im Inpainting als
Modell angezeigt , das Sie auswählen können. Dann können wir zum Zoom-Tab
für Kleinkinder gehen. Das Kind, der Zoom-Tab wird angezeigt weil wir
die Erweiterung installiert haben, also möchte ich vorher nicht dort
sein. Und jetzt schauen wir uns hier
einige dieser Optionen an. Im Haupt-Tab haben
Sie den Stapel
wie zuvor. Also, wie viele Versionen dieses
Videos wollen wir erstellen? Zeigt Ihnen die Länge
, für die wir festlegen möchten. Wie lange wollen wir ein oder zwei
Videos vorher haben? Und dann ist es hier wirklich
ziemlich intuitiv. Es sagt, okay, in diesen zweiten Nullen,
was möchte ich sehen? Oh, das erste, was
ich sehen möchte, ist dieser tropische Wald. Und dann geht es in einen üppigen Dschungel. Es versucht also,
diesen üppigen Dschungel und
dann dichte Regenwälder zu schaffen . Und dann kommst du irgendwann
in dieses Lastendach. Das ist also nur das Erste,
was Sie sehen werden. Sie können auch Eingabeaufforderungen einfügen und Zeilen
hinzufügen ist
nicht viel, möchten Sie gehen? Es ist ziemlich intuitiv. Hier ist die
Eingabeaufforderung, die
wir für die festgelegt haben, die wir sehen wollen. Das ist bei all
diesen Informationen
üblich. Also ändern wir das. Dies hat also
höchste Priorität,
aber es wird auch versucht all die
positiven Anregungen hier zu
berücksichtigen. Und denkt an die negative Aufforderung zur Müllentsorgung dieser. Der Seed natürlich,
genau wie der Rest, wenn du
dieses Bild regenerieren würdest und du
einen anderen Seed
hättest, bekommst du ein
anderes Video. Aber wenn du den Startwert der
letzten Iteration, die du erstellt
hast, behältst letzten Iteration, die du erstellt
hast, du ein, naja, wenn du eine negative Iteration
hast, bekommst du jedes Mal ein völlig
anderes Video. Aber wenn du eine Konstanz
hast, bekommst du jedes Mal
dasselbe Video. Sampler, You'll Array oder einer
der GPM Plus Plus Plus sind großartige
Sampler, die dafür verwendet werden können. Die Ausgangsbreite, die Ausgangshöhe. Dies ist der Maßstab des Videos. In diesem Fall ist es dieses Quadrat, muss
aber keine
Quadratwurzel sein, Sie können es ändern. Und wie viele Probenahmeschritte gibt es? Wenn Sie die
Anzahl der Schritte erhöhen, wird
es etwas mehr Arbeit machen, aber es wird etwas länger dauern. Natürlich. Das erste
Bild des Kunden ist ziemlich interessant, weil Sie
wählen können , was ich möchte, das erste Bild, das wir sehen, und dann wird die Ausgabe auf diesem ersten Bild
basieren. Sie können zunächst ein erstes
Bild hochladen. Für Videos wird Ihnen die
Anzahl der Bilder pro Sekunde angezeigt. Normalerweise möchten Sie
dies so belassen, wie auch immer Ihr Endziel
Frame pro Sekunde ist. Und normalerweise sind es 30 Bilder pro Sekunde oder
24 Bilder pro Sekunde. Der Zoom L ist anfänglich standardmäßig
eingestellt,
was bedeutet, dass Sie zur
ersten Eingabeaufforderung wechseln und dann zum nächsten Zweig
und dann
zur nächsten Eingabeaufforderung
im nächsten übergeordneten Element herauszoomen . Das Vergrößern bedeutet, dass
wir die Reihenfolge umkehren. Es beginnt also bei der letzten Eingabeaufforderung und dann bei der vorletzten Eingabeaufforderung, die Eingabeaufforderung vergrößert sich,
sie bewegt sich rückwärts. Oft
führt das Zoomen zu besseren Ergebnissen. Und in Ihrer Bearbeitungssoftware können
Sie
die Geschwindigkeit des Videos jederzeit umkehren . Und der Grund dafür ist, dass
beim Verkleinern versucht wird, etwas
von Grund auf neu zu erstellen , das es
eigentlich noch nicht gibt. Es versucht nur, das Geräusch zu
betrachten und einige Informationen hinzuzufügen. Heranzoomen. Es gibt bereits
Informationen, auf die es sich stützen kann. Es ersetzt also nur das Innenleben,
basierend auf den Dingen, die es umgeben. Es stehen also etwas mehr
Referenzmaterialien zur Verfügung. Wenn Sie also zoomen,
erhalten Sie in der Regel bessere Ergebnisse. Die Anzahl der Startframes
ist ziemlich intuitiv. Nehmen wir an, Sie möchten
ein kleines Loch haben , bevor
Sie mit dem Zoomen beginnen. Und das Gleiche gilt
für den letzten Frame. Die Zoomgeschwindigkeit ist
anfangs auf eins eingestellt, aber das sind normalerweise zwei schnelle. Normalerweise möchte ich
das auf mindestens zwei
oder vier oder etwas mehr einstellen , nur damit es ein
langsamerer, schrittweiser Zoom ist. Das
bedeutet zwar, dass das Video länger und langsamer sein
wird. Anstatt also 5 s
, die wir hier oder hier einstellen, geht
es tatsächlich
um das
Vierfache, weil wir langsamer
hineinzoomen. Aber es ist normalerweise anmutiger
und angenehmer anzusehen. Das Gemälde, mit dem sich die Maskierung befasst, wenn sie ein Bild
erzeugt. Wenn Sie die Maske
nicht verblassen, werden
Sie zunächst einige
erschütternde Ergebnisse erzielen. Schauen wir uns also die Ausgaben hier
an. Beachten Sie, dass
sich der Ausgabeordner nicht im Text für Bilder befindet, sondern im Zoom-Ordner. Es wird also ein
eigener Bereich sein. Wenn ich mir also einige
dieser ersten Versionen ansehe, können
wir das, da es sogar, seit noch schlimmer, in Ordnung ist. Eine von diesen. Los geht's, wir können
dieses sehr klare Quadrat sehen weil die Maske nicht sehr gut
verwischt wurde. Normalerweise solltest
du die Maske also ein wenig
verwischen , dann
wird sie viel glatter. Wie Sie in diesem
sehen können. Es ist wahrscheinlich ein bisschen quadratisch, aber Sie können wahrscheinlich mit
den Einstellungen für die Maskenunschärfe spielen , um es noch glatter zu
machen. Und in der Nachbearbeitung können
Sie hochskalieren, sodass Sie genügend Skalar wählen
können. Dies ist eine dieser Optionen, die normalerweise empfohlen
werden. Sie erhöhen die Auflösung
Ihres Videos, um es mit mehr Details zu
erhöhen. Beachten Sie, dass dies
die Verarbeitungszeit
Ihres Videos erhöht . Also behalte das im Hinterkopf. Wenn Sie einen
Rauschmultiplikator für Bild zu Bild haben, stellen Sie sicher, dass dieser auf eins eingestellt ist. Wenn Sie es
auf einen anderen Wert setzen, erhalten
Sie möglicherweise keine guten Ergebnisse. Es funktioniert vielleicht nicht einmal. Wenn Sie Farbkorrekturen haben, stellen Sie sicher, dass diese nicht aktiviert sind. Wenn Sie diese nicht haben, machen Sie sich darüber
keine Sorgen. Das ist nur, wenn Sie sie bereits
aktiviert haben und
sie dort angezeigt werden. Also ja, das ist
im Wesentlichen das Wesentliche. Sobald Sie alle
Einstellungen vorgenommen haben, klicken
Sie einfach auf Video generieren
und am Ende erhalten Sie einige schöne Videoaufnahmen. **** zoomt
im Wesentlichen für immer ein
oder für immer heraus.
13. Erstelle Aufforderungen für stabile Diffusion mit ChatGPT: Wenn du ein Fan bist wie
ich, habe ich GPT. Es stellt sich heraus, dass Sie Chat-GBT verwenden
können, um Aufforderungen für eine
stabile Verbreitung zu erstellen. Sie müssen sich also keine Gedanken
darüber machen, welche Art von Texten Sie als
Aufforderung verwenden sollten. Sie können eine stabile Verbreitung haben, erstellen Sie sie für Sie. Also, wie machen wir das? Nun, Stable Effusion ist auf chat.openai.com
verfügbar. Und Sie können dorthin gehen
und
ein Konto erstellen und dann
haben Sie Zugriff auf diese Oberfläche. Und hier können
Sie im Wesentlichen Text eingeben. Und der Chat von GPT
wird dann
Wunder bewirken und
Antworten auf alles finden, was
Sie hier eingeben. Die Sache, die ich im Chat GBT stellen
möchte, ich wollte mir
ein paar Eingabeaufforderungen einfallen lassen. Also hier habe ich meine Textaufforderung, dass ich im Chat GPT bleiben werde
. Sie werden
etwas Ähnliches haben wollen. Lass uns das hier durchgehen. Aber wir stellen
hier Beispiele für
ein qualitativ hochwertiges Produkt
für das Porträt
eines Jungen, der Schach spielt, für die Text-zu-Bild-Ai, die
Bildgenerierung, vor. Also teilen wir Chat GPT mit,
was das Gesamtziel ist. Wir zeigen einige
Beispiele für prompte Informationen Das ist der Chat, den GPG verwenden kann. Und dann sagen wir, gib einige Variationen der Objekte an. Wir kreieren verschiedene
Jahreszeiten, Kleidung usw. Benutze das nicht. Vermeide es, das zu benutzen. Und der
wichtigste Teil ist jede Eingabeaufforderung mit genau
diesen Wörtern zu
beginnen. Und in diesem Fall
ist
der wichtigste Teil, dass der Junge
Schach spielt , weil ich möchte, dass
ein Junge Schach spielt. Du kopierst das. Und du gehst zu deinem Stallerguss hier oder bei deinem Chat-GPG
und steckst das rein. Und wir werden Chat GP haben. Gbt generiert hier ein
paar nette Eingabeaufforderungen und das geht ziemlich schnell. Viel schneller, als ich mir Eingabeaufforderungen einfallen lassen könnte. Das ist sicher. Da sind ein paar
gut aussehende Sachen. Damit bin ich ziemlich zufrieden. Ich kopiere das, gehe zu meiner stabilen Diffusion. Und ich werde das
in meinen Knoten stecken, in ihren,
in mein Skript. Hier gehe ich zu den Skripten
und
gehe zu den Eingabeaufforderungen aus einer
Datei oder einem Textfeld. Und dann können Sie die
Informationen, die Sie gerade von Chat GPT
erhalten haben, in Ihre
Liste der Eingabeaufforderungen einfügen . Und wenn Sie das getan haben, können
Sie
Ihren Sampler wählen. Ich meine, natürlich wählst du dein Modell aus und dann kannst
du auf Generieren klicken. Und du wirst sehen, dass Chat GPT, Stable Diffusion
, diese Bilder auf
der Grundlage der Eingabe, die wir gerade gegeben haben, erstellt
und sie in Chat-GPG erstellt. Sie sehen ziemlich gut aus. Es macht einen ziemlich guten Job. Schauen wir uns
diese ein wenig an. Also haben wir einen Jungen, der im Winter Schach
spielt. Da haben wir es im Herbst. Da ist der Sommer, und es
gibt wohl den anderen,
egal zu welcher Jahreszeit. Auf diese Weise
können Sie Chat-GPT verwenden um Eingabeaufforderungen für eine
stabile Verbreitung zu erstellen.
14. Installation von Controlnet: Wir werden ein
Thema namens Control Net vorstellen. Control Net ist eine Erweiterung für stabile Verbreitung, mit der Sie die von
Ihnen geschaffene Kunst
in Posen platzieren können . In diesem Beispiel
habe ich also ein statisches Bild, in dem wir diesen Charakter haben, der mit einigen Eingabeaufforderungen erstellt
wird. Und was wir hier tun können, ist sein
Originalbild zu
verwenden und es zu posieren. Dass es sich jetzt immer an genau
dieser Position befindet, ist in
diesem Fall charakteristisch. Das ist an sich schon cool und du kannst deine
KI
so posieren, wie du willst. Aber was wirklich nützlich
daran ist, ist, dass Sie es
verwenden können , wenn wir mit der Erstellung von KI-Videos beginnen
. Wenn wir anfangen,
ein Video zu erstellen , bei dem
der rechte Arm bewegt wird, muss die KI auch genauso posieren und
das Tool kontrollieren, das wir für die Pose verwenden. Darauf bereiten wir uns in diesem Kurs vor. Wir bereiten uns auf KI-Video vor, aber Steuerung, für die es
viele coole Anwendungen gibt. Und wir werden
sie
hier in diesem Kurs ein wenig durchgehen . Aber für dieses Video
konzentrieren wir uns nur auf die Installation von
controlled it. Okay, lassen Sie uns das Kontrollnetz installieren. Sie sollten also hier zum Tab Erweiterungen gehen . Und du wirst gehen, du wirst
das hier noch nicht ganz sehen, und genau das versuchen
wir zu erreichen. Sie müssen
zu Verfügbar gehen. Und du wirst nach einer
stabilisierenden Webkontrolle suchen , net. Danach
werden wir suchen, oder zumindest wird
es derzeit so benannt. Und du wirst es auf finden. Mein Fall wird nicht
angezeigt, da ich ihn
bereits für Sie installiert habe. Wenn du das tust, wirst
du sehen, dass es hier auf der
linken Seite erscheint. Und das wirst du finden. Und dann klickst du
auf Installieren. Sobald du das installiert hast. Und du klickst auf die Schaltfläche
Installieren, dann gehst du
zur Installation
und du wirst sehen, dass es hier angezeigt wird. Und dann können Sie auf
Anwenden klicken und die Benutzeroberfläche neu starten. Das wird nun
dazu führen, dass dieser neue Ordner
in Ihren Verkaufserlebnissen erstellt
wird . Und es wird dieses stabile,
effiziente Web-UI-Kontrollnetz
sein effiziente Web-UI-Kontrollnetz , der Ordner wird
jetzt erscheinen, er wird am Anfang nicht da sein, aber er wird danach dort angezeigt. Und wir werden hier einige Modelle
erstellen wollen. Dadurch werden
diese Modelle erstellt. Das wird sich zeigen. Anfänglich. Wir müssen einige andere Modelle
hinzufügen. Also werden wir das
Modell nicht in diesen Ordner legen, sondern in den stabilen Diffusion
Models-Kontrollnetzordner. Dazu
werden wir navigieren. Und wir werden diese Modelle
herunterladen. Und Sie werden
sie hier von dieser Website herunterladen. Hugging Face, LLL, ESBL Slash Control Net Slash Tree Slash
Wartungsmodelle. Sie werden
diese Modelle hier herunterladen. Sie sind ziemlich groß und
du wirst
sie in diesen Ordner hier legen . Denken Sie daran, dass die
Diffusions-Web-Benutzeroberflächenmodelle den Netzordner
steuern. Beachten Sie, dass dies anders ist als der Ort, an
dem Sie all
Ihre anderen stabilen
Diffusionsmodelle bisher platziert hätten . Sobald Sie das getan haben,
können Sie zur einfachen Diffusion übergehen. Möglicherweise müssen Sie
es erneut anwenden und die Benutzeroberfläche neu starten. Vielleicht musst du es
schließen und neu starten. Wenn Sie diese Schritte jedoch befolgen, sollten
Sie diesen Tab hier sehen Kontrollnetz wird
unter Ihrem Text zum Bild angezeigt. Und wenn Sie darauf klicken, sehen
Sie all diese Modelle. Und Sie werden die
Modelle sehen, die wir gerade von Hugging Face
heruntergeladen haben. Holen Sie sich dieses Setup und
dann können Sie im nächsten Video
zur tatsächlichen Verwendung von Control
That übergehen .
15. Einführung In Controlnet: Bisher haben wir also Charaktere
geschaffen , die größtenteils nur in die
Kamera schauen. Sie könnten in
ihrer Positionierung ziemlich fad sein. Aber mit dem Kontrollnetz, das wir im letzten Video
installiert haben, können
wir unsere
Charaktere jetzt in bestimmten Posen haben. Also z.B. machen wir hier eine Pause. Wir sind Damen, die
auf dem Boden sitzen, ihre Beine verschränkte
Arme auf dem Boden. Und sie ist immer in
der exakt gleichen Pose, obwohl wir die
Kleidung und
die Hintergrundfarbe geändert haben oder
was auch immer wir tun wollen, die Pose wird immer beibehalten. Schauen wir uns also an, was wir dafür mit dem
Kontrollnetz machen
können. Nun, im Kontrollnetz hier,
ursprünglich, wenn wir unseren Charakter laden würden
, wir
so etwas bekommen , wo wir einfach einen Charakter
haben, der
irgendwie langweilig ist
und nach vorne zeigt. Das ist in Ordnung. Aber wir wollen hier
zum Kontrollnetz gehen. Wir wollen eine Pose beibehalten unser Charakter
positioniert werden kann, indem wir ihn kontrollieren. Also, was hältst du hier drin? Nun, es kann wirklich alles sein. Sie können ein Foto
von sich selbst in einer Pose machen, in der Sie Ihren Arm
über dem Kopf haben oder was auch immer. Es muss nicht einmal
ein Mensch sein. Ich kann das sagen, solange
es eine humanoide Form mit Armen und Beinen
hat und irgendeine Form von Kopf hat. In diesem Fall gibt es
nicht einmal einen Menschen. Ich kann das benutzen und
wir werden jetzt unseren Charakter 0
haben. Stellen Sie sicher, dass Sie hier aktiviert haben, dies muss überprüft werden und
der Prozessor muss aktiviert sein. Für dieses Beispiel verwenden
wir Canny. Und das Modell
muss genau dasselbe sein. Also, wenn du hier Süßigkeiten hast, brauchst
du hier eine Süßigkeit. Wenn Sie hier ein
anderes Modell hatten, müssen
Sie sicherstellen, dass
genau dasselbe Modell verwendet wird. Sobald Sie diese Dinge
ausgewählt haben, haben Sie sie aktiviert. Dann kannst du
hier hingehen und generieren. Und wir werden herausfinden
, dass unser Charakter jetzt in der Pose erstellt wird. Wir hatten jetzt diese weiße Dame in einer Position, in der sie ihre Hände in Tasche hat und es sieht so aus sie versucht, so
etwas wie eine Aktentasche zu kreieren, aber hier ein bisschen wackelig. Das Auge tut sein Bestes
, um diesen Hinterteil nachzubilden. Lassen Sie uns Ihnen ein paar
Ressourcen zeigen, um
Posen zu bekommen , falls
Sie aus irgendeinem Grund etwas Inspiration benötigen. Eine davon ist die
Website pose maniacs.com, Sie
Gegensätze finden können,
wie diese hier, auf der Sie nach Home
Opposure gehen. Sie können eine
Reihe verschiedener
Posen finden , aus denen Sie wählen können. In diesem Fall ist dies
der Beitrag des Tages
, den
wir gerade haben. Und im Grunde ist es ein Charakter, den man
bewegen kann, nur ein Modell. Du kannst es umdrehen. Sie können wählen, ob Sie
es männlich oder weiblich machen möchten. Sie können einige
voreingestellte Positionen auswählen , mit denen Sie vielleicht experimentieren
möchten. Und schließlich können Sie
sogar die Beleuchtung wählen, aber die Beleuchtung ist
uns egal, weil die KI die Beleuchtung
ersetzen wird. Dann kannst du
es im Vollbildmodus machen, einen Screenshot
speichern und das
bei deaktivierter Fusion speichern. Ein anderes, das wir haben,
ist postmarked.com. Und du gehst zu postmarked.com und du bekommst so
etwas. Und Sie können Modelle
und viele Modelle hinzufügen , die
Sie verwenden möchten. Und Sie können auch Eingabeaufforderungen hinzufügen, obwohl das für unser Szenario nicht
hilfreich sein wird. Sie können hier vorgefertigte Szenen
wie dieses Ding haben, z. B. fügen
wir diesen Charakter hinzu. Das ist also ein ziemlich gut
aussehender Beitrag. Damit bin ich ziemlich zufrieden. Das ist sehr dynamisch. Ich spüre, wie hier viel
Bewegung vor sich geht. Lass uns eine Pose finden, deren Position mir
sehr gut gefällt.
Ich glaube, mir hat gefallen,
wie sie aussieht. Du gehst
hier in die Einstellungen. Du siehst vielleicht einige Dinge wie diese, bei denen
du Schatten und Boden hast, aber wir wollen nichts
davon
, weil das die KI verwirren wird. Wir brauchen den Boden nicht,
wir brauchen den Boden nicht. Und das einzige, was
uns interessiert, ist anzunehmen,
dass wir wirklich all die anderen Funktionen
deaktivieren werden, die uns ablenken. Und zum Schluss wählen wir einfach
den Screenshot aus. Wir haben unseren
Screenshot, wähle ihn aus. Da haben wir es. Jetzt können wir
zur einfachen Diffusion zurückkehren. Und ich kann meine Hoffnungslosigkeit hinnehmen. Lösche immer den vorherigen. Ich kann meinen Screenshot hineinziehen. Hier haben wir unseren
kleinen Charakter. Und ich klicke jetzt auf
Generieren. Und wir werden unseren Charakter haben, eine
weißhaarige Frau. Jetzt in der Pose der Beiträge, die wir gerade
erstellt haben. Da haben wir es also. Ich kann mir vorstellen, dass die KI ihr
Bestes tut, um das nachzubilden. Also, wie
macht das das genau? Nun, es verwendet etwas, das als Tiefenkarte
bezeichnet wird. Und eine Tiefenkarte ist dieses zweite Bild, das hier
erstellt wurde. Wenn du
das nicht siehst, kannst du
zu den Einstellungen gehen und sicherstellen, dass dieses Ding unter dem
Kontrollnetz deaktiviert ist. Das ist eine große wichtige Sache. Sie möchten, dass das
deaktiviert ist, wenn Sie diesen Hintergrund sehen möchten . Also, was ist das? Nun, wenn wir den
Präprozessor und das Modell verwenden, erstellt
es hier eine
Tiefe oder eine Karte, die wir uns ansehen,
je nachdem, welches Modell verwendet wird. In diesem Fall
verwenden wir die Cannae. Das Candy-Modell wird also zur Kantenerkennung
verwendet. Es entstehen also feine Linien
um den Ausgang, hier
um das Modell herum. Es entstehen also kleine Linien. Hier zeichnet man kleine Linien. Und dann wird das verwendet, um die Pose zu beeinflussen, in der unser
Charakter verwendet wird. Hier gibt es ein paar verschiedene Modelle, die wir heruntergeladen haben. Hier haben wir die Candy-Map, die sich auf feine Linien konzentriert, was gut für hohe Details ist, gut für Anna. Können
wir
hier eine Tiefenkarte haben, die
für die Identifizierung des Weltraums nützlich ist? Wir werden uns ein
anderes Video ansehen , das näher
darauf eingehen wird. Wir haben die H-E-A-D, die
der Bezirkskarte ähnelt , sich aber nicht so sehr um feine Linien
kümmert. Es entstehen mehr unscharfe
Linien an den Rändern. Die MLS D eignet sich gut
für Architektur. Also, wenn Sie Baupläne
oder
Gebäude haben, von denen
Sie die Position ermitteln möchten. Das ist großartig für die. Normal Map ist nützlich für
3D-Software, bei der Sie die Höhe von
Bildern und einige unterschiedliche
Volumina kennen
müssen . Es wird diese erstellen. offene Pose ist nützlich um im Wesentlichen
wie ein Strichmännchen zu kreieren. Und die
Armpositionen der Strichmännchen werden diese, diese werden verwendet, um die Leistung zu
beeinflussen. Und schließlich ist das, was ich
hier habe, Scribble. Es ist nur so, dass Sie im Wesentlichen nur eine Skizze von
einem Blatt Papier benötigen
und das wird
in Ihre Zeichnung umgewandelt. Das ist also eine schöne Einführung in das, wofür das
Kontrollnetz verwendet werden kann.
16. Intro zum Erstellen von Videos mit künstlicher Intelligenz: Bisher haben
wir in diesem Kurs nur gelernt, wie man Bilder erstellt, nur statische Bilder,
die sich nicht bewegen. Es stellt sich jedoch heraus, dass einfache Diffusion zur Erstellung von Videos
verwendet werden kann In den nächsten Vorlesungen
werden wir also lernen, wie man bewegte Bilder erzeugt, die eine stabile Diffusion
hinzufügen Was Sie hier sehen, sind einige Aufnahmen von einem
Paar im Urlaub. Und was wir gemacht haben, wenn wir es durch
stabile Diffusion gesteckt haben,
einfache Diffusion bildet hier
jedes einzelne Bild neu, tut dies
aber konsistent tut dies
aber konsistent Es sieht also immer noch so aus,
als wäre es ein Video und es bewegt sich von einem
Bild zum nächsten Bild. Nun, vielleicht stellen Sie fest, dass diese spezielle Verwendung von einfacher Diffusion ein
bisschen wie Wasserfarbe aussieht, aber das ist nur diese spezielle Aufforderung,
die wir verwendet haben Du könntest damit den Feind
erstellen oder was auch
immer du willst, um dein Videomaterial zu konvertieren. Dieses Video hat dir gefallen. Und dann lernen wir, wie Sie mit Stable
Effusion selbst Videos
erstellen Okay?
17. SD-Konfiguration für die Videoerstellung: Okay, lassen Sie uns
mit der Erstellung von Videos
mit stabiler Diffusion beginnen. Im ersten Schritt müssen wir also ein wenig
Setup-Konfiguration vornehmen. In den Savings
Slash-Bildern sind Schrägstriche auf der
Registerkarte „Einstellungen“ zu finden. Sie werden wahrscheinlich
JPEG als Ihr Dateiformat
für Bilder wählen wollen , Sie können PNG verwenden. Normalerweise ist es die
Standardeinstellung auf PNG. Es wird nur
eine größere Dateigröße sein. Hängt davon ab, wie viel Speicher
Sie auf Ihrem Computer haben. Du bist dir bewusst, ob du Speicher
sparen willst oder nicht. Wege zum Sparen. Stellen Sie sicher, dass Sie herausfinden , wo die Ersparnisse liegen, damit
Sie sie später finden können. Sie können jederzeit Ihren
eigenen Link hinzufügen, in welchem Ordner Sie Ihre
kreativen Videodateien speichern
möchten, die Bilder mit dem
Aufnahmeort dort. Im Rahmen der stabilen Diffusion sollten
Sie
dies mit Bild-zu-Bild überprüfen. Führe genau die Anzahl der
Schritte aus, die der Schieberegler vorgibt. Normalerweise macht man weniger
mit dem Entrauschen. Also wirst du das überprüfen
müssen. Und darauf,
was das bewirkt, kommen wir gleich zurück . Für die Benutzeroberfläche. Unter der Schnellliste sollten
Sie sicherstellen
, dass
dieser Text hier angezeigt wird . Und denken Sie
daran, dass wir unter
dem Kontrollnetz in einem früheren Video die Steuerung installiert haben. Wenn Sie
Control That noch nicht installiert haben, müssen
Sie zurück gehen und sich zuerst das Video
ansehen, in dem
Control Net installiert wurde. Hier. Dies wird
dieser kleine Button
hier sein , er hängt keine Tech-Map an die Ausgabe an. Du solltest das
aktiviert haben, wenn du ein Video machst, stelle sicher, dass es aktiviert ist,
wenn du kein Video machst, du wirst das
Häkchen entfernen wollen. In Ordnung, wenn Sie das getan haben, klicken Sie auf Einstellungen anwenden und laden Sie die Benutzeroberfläche neu. Und Sie werden sehen, dass
dieser kleine
Geräuschmultiplikator-Schieberegler hier erscheint nachdem Sie ihn gespeichert
und erneut geladen haben. Eine Sache, die Sie hier bemerken
werden ist, dass wir dies
auf Null setzen wollen. Aber wenn du ganz nach unten gehst, geht
es auf 0,5. Manchmal kann dies in zukünftigen Updates
behoben werden, sodass dies möglicherweise kein Problem darstellt. Aber in der Zwischenzeit
können
Sie Inspect ausführen. Und du kannst hier auf
diese kleinen Männer klicken und das auf Null setzen. Und dann kannst du hier mit
der rechten Maustaste auf dieses Ding klicken. Klicken Sie einfach auf den Schieberegler
und wählen Sie Min. Setz das auf Null. Und jetzt kannst du es tatsächlich ganz auf Null
ziehen. Und falls du dich fragst, nun, was ist das? Nun, wenn du dir diese
Einstellungssache ansiehst und wir zu den
Einstellungen gehen , die
wir gerade geändert und Effusion deaktiviert haben. Ähm, mach genau die Anzahl der
Schritte, die ein Slave wie angegeben hat. Wir sagen also, dass wir
nichts anderes machen wollen als
diese Einstellung hier. Wir möchten
genau die Anzahl der Schritte ausführen, die auf der Folie angegeben
sind. Okay, wir haben
die Konfiguration gemacht. Jetzt. Wir können mit der
Erstellung des Videos beginnen.
18. Videos mit stabiler Diffusion erstellen: Lassen Sie uns also darüber nachdenken, wie wir mit KI Videos erstellen
können. Wir können Text für Bild verwenden, weil Texte, das Bild
hat eine Aufforderung, es wird ein Bild erzeugt und es wird jedes Mal ein anderer
Durchschnitt sein. Selbst wenn wir denselben Ausgangswert verwenden, wird
es trotzdem keinen Fluss zwischen einem
Bild und dem nächsten Bild
geben. Und ein Video ist nur eine
Reihe von Bildern hintereinander. Es ist nur eine Sequenz. Also müssen wir
Bild für Bild verwenden. Und dann brauchen
wir Bilder, die miteinander in Beziehung
stehen,
sodass sie sich bewegen. Sind sie ein Gefühl
von Bewegung, wenn Sie von einem Frame
zum nächsten Frame wechseln Also brauchen wir ein Video. Und was Stapled
Diffusion dann
tun kann , ist,
dass es jedes Bild
des Videos
in ein beliebiges Bild umwandeln kann. Und wir können eine gewisse
Konsistenz zwischen
ihnen herstellen , indem wir dieselben
Saatgutinformationen verwenden. Wir brauchen also ein Video, das wir in ein Video konvertieren
können. Wenn Sie also kein Video haben, wenn Sie Ihr
eigenes Video haben, können Sie jedes Video
verwenden, das Sie möchten. Andernfalls, wenn Sie ein kostenloses Video
herunterladen möchten, können
Sie zu pexels.com gehen das gewünschte Video
auswählen. In diesem Fall spielt es keine Rolle, ich habe diesen kleinen Kerl hier ausgewählt. Und
das müssen wir in
einzelne Frames aufteilen. Es gibt ein paar Möglichkeiten, das zu tun. Sie können auf eine Seite wie
diese gehen, easy gift.com. Gehe zu Video zwei JPEG. Gib dort dein Video an. Und dann wählst du einfach aus wie viele Bilder du pro Sekunde haben
möchtest. Und du kannst das bekommen und
einfach alle Bilder machen. Sie können dies mit einer
Videobearbeitungssoftware tun. In diesem Fall können Sie, wenn Sie
etwas wie Adobe Premiere haben, einfach Ihre Videos und
Ihre Sequenz hinzufügen , exportieren
und dann JPEG wählen. Auf diese Weise können Sie
alles verwenden , was Sie wollen. Sie
müssen Premiere nicht verwenden. Ich habe
dir nur gezeigt, falls du diese Software hast oder
nicht, du kannst etwas
wie Easy gif.com verwenden. Sobald Sie
es konvertiert haben, erhalten Sie eine Sequenz von Bildern. Also, wenn ich auf diesen Typen
klicken würde, das erste Bild hier,
und ich klicke einfach links. Wir können sehen, wie wir von einem
Frame zum nächsten Frame gehen. Wir haben diesen Kerl, der sich langsam bewegt. Also stabiler Erguss. Er
nimmt jedes einzelne Bild und wandelt es in
eine
beliebige Kreation um, in
eine
beliebige Kreation um die wir mit unseren Textanweisungen
wählen. Aber es wird Beständigkeit geben
, weil es sich bewegt. Es wird also ein Bild haben
, das sich jedes Mal ändert, aber wir haben immer noch unser
grundlegendes Referenzbild. Hier sind wir von Bild zu Bild. Ich lade das
erste Bild in unserer Sequenz hoch. Im Bild-zu-Bild-Tab
hier, Bild-zu-Bild-Tab. Wir haben eine positive Aufforderung hinzugefügt. Bei einem Negativ können Sie
setzen, was Sie wollen. Wir haben sie alle
ausgewählt. Ich möchte verwenden, du kannst natürlich jedes Modell
verwenden, das du willst. Ich habe eine Stichprobenmethode. Ich habe eine ausgewählt, mit der
ich zufrieden bin. In diesem Fall ist mein
Referenzbild 1.920 Pixel mal 180 Pixel groß. Das ist kein Quadrat. Also habe ich die Breite
und die Höhe
an den Wert oder
die Skala meines Bildes
angepasst . Das ist genau die Hälfte
von 1920 Pixeln, und das ist ungefähr
die Hälfte von 1080 Pixeln. Sie werden feststellen, dass, wenn Sie es tun und es dann durch zwei teilen, manchmal
der Wert automatisch angepasst wird und
das ist keine allzu große Sache,
es muss nur ein Näherungswert sein. Kommen wir nun zum CFG
und zur Stärke der Geräuschreduzierung. Das ist ein bisschen schwierig da die CFG-Skala nicht vergessen sollte, wie sehr wir eine stabile Diffusion
wollen. Jim feuert und denkt sich ein
eigenes Bild aus. Je höher wir also gehen, desto mehr Freiheit hat
die
einfache Diffusion, je niedriger wir gehen,
desto näher
kommen wir dem Originalbild. Nun, wenn wir dem Bild wirklich
nahe kommen, ist das gut. Weil ein Frame wie der folgende
Frame und die Sequenz
aussehen wird . Das bedeutet aber auch, dass
wir keine
stabile Verbreitung bekommen , um
so viel von ihrer Arbeit zu erledigen, es wird weniger, wie in meinem Fall, karikaturistische Pastellmalerei. Wir möchten also einen etwas niedrigen Wert
haben, damit er wie
das vorherige Bild aussieht. Wir wollen aber auch, dass es hoch ist. Diese stabile Funktion wird also funktionieren. Sie müssen also damit experimentieren
, tief und hoch zu gehen. Und das ist ein
bisschen Übung, auch
ein bisschen Geschmack
und Präferenz. Das Gleiche gilt für die
Stärke der Geräuschreduzierung. Je höher wir kommen,
desto stabiler
muss die Fusion experimentieren. Eine Sache, die Sie
tun sollten, ist, wenn Sie ein Bild
gefunden haben , das Ihnen gefällt, darauf
zu achten, dass
der Startwert konsistent bleibt. Und für das Kontrollnetz aktivieren
Sie es und wählen denselben Präprozessor
wie das Modell. Was auch immer Sie wählen, Sie
möchten, dass es dasselbe ist. Wenn Sie z. B. die Tiefe wählen, stellen Sie sicher, dass Sie auch
den Tiefenpräprozessor verwenden. Wie dem auch sei, ich habe auf Ausführen geklickt
und so habe ich
dieses Bild hier bekommen. Ich habe diesen kleinen Kerl, der im Wesentlichen dieses Bild
ist, aber zusätzlich zu den positiven
und negativen Eingabeaufforderungen. Die Pose wird
auch aufgrund des Kontrollnetzes berücksichtigt. Was meine ich, wenn ich sage, dass die CFG-Skala und die Geräuschdämpfungsstärke niedrig sein
müssen. Sonst wirst du zu viel Abwechslung
haben. Nun, lassen Sie mich Ihnen die
Ausgabe zeigen, die ich von
diesem Bild hier bekommen habe ,
dieser Bildsequenz. Das ist die Ausgabe. Sie werden
feststellen, dass die Quadratwurzel, weil ich die Skala
etwas falsch angegeben habe, aber für dieses Beispiel ist sie in Ordnung. Sie werden feststellen, dass er sich von einem
Frame zum nächsten Frame
ziemlich verändert . Sie können die ethnische Zugehörigkeit sehen. Falls sich der Typ überhaupt ändert. Sie können wahrscheinlich
die positive und negative Aufforderung ändern die positive und negative Aufforderung , um zu versuchen, dies stärker beizubehalten. Aber wir wollen uns
weniger als auf die Aufforderung verlassen. Weil Sie nicht genau
vorhersagen können wie jeder einzelne Frame aussehen
wird. Wir können versuchen, so viel wir wollen, aber es wird sich trotzdem bis zu einem
gewissen Grad ändern, weil er jedes Mal ein neues
Bild erstellt. Ich empfehle Ihnen
, mit
der CFG-Skala und der Stärke der
Geräuschreduzierung zu experimentieren der CFG-Skala und der Stärke der
Geräuschreduzierung zu diese niedrigen
Werte so gering wie möglich zu
halten. Wenn du froh bist, das los
zu
werden, entferne dein Bild hier. Werde dein Bild hier los. Warum? Weil es Ihre vorherigen, Ihre nächsten Bilder in der Reihenfolge
beeinflussen wird.
Das wollen wir nicht. Wir möchten, dass jedes Bild für sich
betrachtet wird. Gehen wir also hier zum Batch. Und im Batch wählen
wir
unser Eingabeverzeichnis. Also, was meine ich damit? Ich meine, der Ort, an dem wir
unsere Originaldateien haben ,
sind Eingabedateien. Kopieren Sie also diesen
Ordnerort, an dem Sie sich befinden, und wählen Sie
den Ordner aus, in dem sich Ihre Ausgabe befinden soll. Überprüfe
hier einfach, ob du siehst, dass das
jedes Mal konsistent sein wird. Sonst
wirst du Probleme haben. Und dann kannst du auf Run klicken. Und wenn du
das getan hast, wirst du irgendwann,
es wird eine Weile dauern. Irgendwann
werden Sie Ihren Ausgabeordner
voller Bilder haben. Diese Typen. Und wir können dann all
diese Bilder zu
einer Videosequenz kombinieren . Sie können das entweder
mit einer
Videobearbeitungssoftware tun oder Sie können Easy gif.com
verwenden. Du gehst zu dieser Seite
und zum GIF-Maker und lädst deine Fotos hoch. Wenn Sie eine
Videosoftware wie Premiere verwenden, gehen
Sie zu Datei und dann zu Import. Sie wählen das erste
Bild Ihrer Sequenz aus. Beachten Sie, dass die Benennung
wichtig ist, wenn einfache Diffusionsnamen der Bilder in sie in einer Reihenfolge benannt werden. Und diese Reihenfolge basiert
auf Ihren Eingabebildern. Denken Sie also daran, dass wir
diese Eingabebilder erstellt haben. Du wirst nicht zu viel mit
diesen Namen herumspielen wollen viel mit
diesen Namen herumspielen weil es danach
suchen wird , wenn du
sie später miteinander kombinierst Wenn du nicht
mit dieser 0010203 anfängst, wird
es sie nicht miteinander kombinieren können
. Denken Sie also darüber nach. Ja, Sie haben also
Ihre Bildsequenz, wir haben sie hier abgelegt. Wir haben unser Video
und wir spielen es ab. Und es sieht gut aus, es sieht aus, als hätte ich
ein Video erstellt, was großartig ist. Das ist es, was wir wollen. Es gibt viele Bilder pro Sekunde. Es scheint sehr schnell zu sein. Es gibt ein paar Dinge, die wir
tun können, um das Problem zu beheben. Eines der Dinge, die
wir
im nächsten Video behandeln werden ,
ist das Flackern von D. Eine andere Sache, die
Sie berücksichtigen sollten, ist dass Sie
vielleicht nicht so
viele Bilder pro Sekunde benötigen. Okay, es kann wirklich nur so viel auf einmal
verarbeiten. Und wenn jedes Bild anders ist, hat
es ein bisschen Probleme. So könnten wir z. B. die Länge
der Zeit, in der
wir jedes Bild sehen,
erhöhen . Ich muss es vielleicht nur sehen. Ich kann die Bilder verdreifachen. Und wenn ich das Video dann
abgespielt habe, wird
es bis zu einem gewissen Grad eher
wie eine
Comic-Skizze aussehen . Etwas weniger Jargon. Die Augen. Wir werden es reparieren, wie
ich später erwähnt habe. Aber das kannst du machen. Wenn Sie diese
Technik jedoch anwenden. Vielleicht
brauchst du
in deinem Originalvideo nicht so viele Frames . Vielleicht können Sie die Anzahl der Frames
von vornherein reduzieren . Also, als wir
die Bilder dieses Typen
in einzelne Bilder zerlegt haben , kannst
du zur Sequenz gehen und sagen, du brauchst vielleicht nur
12 Bilder pro Sekunde. Sie benötigen keine 24 Bilder pro Sekunde oder 30
Bilder pro Sekunde. Und dann wegen der Leistung, und vielleicht wirst du sie sowieso
verdoppeln und verdreifachen. Das spart
dir etwas Zeit, wenn du all deine
Videos mit einfacher Diffusion erstellst. Da hast du es also. Sie haben jetzt ein Video
mit stabiler Diffusion unter Verwendung von
Referenzmaterial erstellt .
19. Deflimmerndes KI-Video: In diesem Video werden wir darüber sprechen, wie
Sie viele der
Flackern beheben können, die
wie in Ihrem Video auftreten, nachdem eine Gleichsetzung Das ist also ein Video, das ich in stabiler Diffusion
erstellt habe. Und Sie werden feststellen,
dass im
Hintergrund viel Flackern zu sehen ist und es
sehr schwer ist , es anzusehen, und es ist irgendwie schmerzhaft für die
Augen Der Grund dafür ist,
dass jedes Mal stabile Diffusion
ein Bild eines Videos aufnimmt, es neu erstellt wird.
Jedes Bild unterscheidet sich geringfügig vom nächsten Und aus diesem Grund gibt es viele kleine
Störungen und Risse und ein leicht
unterschiedliches Flackern
und jedes einzelne Und wir wollen ein paar Effekte
hinzufügen. Ich versuche das zu glätten. Ich habe versucht herauszufinden, wann ein Frame völlig
anders ist als der nächste Frame. Und es ist wie ein
kleiner Punkt hier und da. Nun, lassen Sie uns versuchen, diese zu
glätten und diese kleinen
Flecken und In diesem Video
werden wir also herausfinden, wie Sie das
Flackern aus Ihren KI-Videos entfernen Flackern aus Ihren KI-Videos Also lass uns das machen. Sie benötigen ein Tool, und das
Tool, das
dafür am besten zu funktionieren scheint , ist Dementia Resolve. Da Vinci Resolve
ist ein kostenpflichtiges Plug-in. Es ist eine Videobearbeitungssuite. Es hat viele Effekte und du kannst professionelle Sachen damit machen. Ja. Wenn Sie also das D-Flackern
untersuchen möchten, können
Sie dieses Plug-in verwenden Hier sind wir in
Da Vinci Resolve. Und ich habe den
Videoclip aus der KI-Verarbeitung importiert. Das ist also die kleine
Video-Sache hier. Sie werden sehen, es sieht so aus, als ob
alles in Fast Forward läuft. Und der Grund, warum ich das gemacht habe, anstatt
jedes einzelne Bild abzuspielen, was hier passiert, ist, dass
ich es aus
meiner anderen
Videobearbeitungssoftware exportiert habe , nachdem die Bilder mit
einer niedrigeren Bildrate
kombiniert habe. Ich denke also, das ist nur in 12 Bildern pro
Sekunde statt
der üblichen 24 Bilder pro Sekunde
oder 30 Bildern pro Sekunde. Also, warum sollte ich das tun? Nun, was
hier passiert, ist, als ich das Video
mit stabiler Diffusion erstellt habe, anstatt 24 Bilder
pro Sekunde oder 30 Bilder pro
Sekunde zu machen , wollte
ich
den Prozess beschleunigen, damit die stabile Version
nicht
so viele Bilder, Bilder rendern muss so viele Bilder, Bilder Nur weil Stapled Fusion dafür eine Weile
dauert und ich eigentlich nicht so lange warten
wollte Und was du später tun kannst , ist, dass ich das Video einfach
verlangsamen kann. Moment ist das nur ein Video mit
zwölf Bildern pro Sekunde, aber ich kann die
Zeit einfach in halber Geschwindigkeit ablaufen lassen Und das wird drin sein, es wird später einige
doppelte Frames haben. Aber da es ein
Cartoon-Aquarell ist, suchen
wir nach etwas Cartoon-Aquarell ist, suchen
wir nach Es ist wahrscheinlich nicht so
wichtig. Wenn ich da ein paar doppelte
Frames drin habe weil es ein
bisschen schwierig ist,
alle Bilder mit
all den Details zu sehen , die irgendwie cartoonartig
sind mir also nichts doppelte Bilder
zu haben,
und deshalb macht es mir nichts sie in ein
paar doppelte Frames zu
exportieren. Also hier sind wir
jetzt mit dem Video und ich habe das
Video in Jue de Vinci Resolve eingegeben Warum habe ich
das Video nun hierher gebracht? Warum habe ich nicht einfach
die Bildsequenz mitgebracht? Der Grund dafür
ist, dass ich finde, dass, wenn wir die
D-Flacker-Plug-ins anwenden, es besser funktioniert, zumindest meiner Erfahrung nach bei Videos
als bei Bildern Ich finde
es manchmal schwierig, mit
Bildsequenzen mit
den flackernden Effekten umzugehen Bildsequenzen mit
den flackernden Ich glaube nicht, dass das
immer der Fall sein wird. Vielleicht ist das nur mit der aktuellen
Version, die ich verwende, aber zur Zeit, die ich verwende, muss
ich Videos verwenden, wenn ich die D
Flckering Up-Plugins anwende Also habe ich hier einen beliebigen
Videoclip hinzugefügt und gehe jetzt zum Fusion-Tab. Hier werden
wir alle Effekte anwenden. Hier. Wir können den Median
rein und den Median raus sehen Meeting n ist unser Eingabevideo. Das ist das Video, das
wir reinbringen werden. Wenn ich auf
diese kleine Notiz hier klicke und
ich eine auf meiner Tastatur drücke, kann
ich den
Videobildschirm zu dieser Seite hinzufügen. Und wenn ich mit der linken Maustaste
auf den
Medianten klicke und zwei
auf meiner Tastatur drücke, kann
ich ihn auf der anderen Seite hinzufügen Das ist also das
Eingabevideo vor den Effekten und die andere Seite ist das
Ausgabevideo von After Effects. Fangen wir also an,
einige Effekte hinzuzufügen. Ich klicke
auf den Median in. Und ich drücke die Tastenkombination „Control
Space“ auf meiner Tastatur,
vorausgesetzt, ich verwende
Windows Control Space. Und wir werden
dieses Auswahl-Tool öffnen. Und hier kann ich
die gewünschten Effekte eingeben. Ich will die automatische
Schmutzentfernung. Also werde ich diese
automatische Funktion beim Entfernen hinzufügen. Das hat eigentlich
nicht funktioniert. Ich möchte, ich möchte
zuerst auf den Knoten klicken und dann
automatisch Schmutz entfernen. Jetzt wurde es ordnungsgemäß
zur Kette hinzugefügt. Dadurch werden
alle kleinen Spritzer entfernt, ein kleines Stück Schmutz die nur in einem
einzigen Frame erscheinen,
aber im nächsten Bild oder dem darauffolgenden
Bild nicht auftauchen . Das ist es, was das bewirken wird. Und jetzt fügen
wir ein flackerndes Plugin hinzu. Also werde ich
auf diesen nächsten Knoten klicken, und ich werde
in D flackernd klicken Hier ist das D Flicker Plugin. Wieder einmal habe ich das falsch gemacht. Klicken Sie auf den automatischen Schmutz
und dann den Flackern stärker. Und das hat
es der Kette hinzugefügt. Hier drüben in den
D-Flicker-Einstellungen. Wir werden das von
Zeitrafferlampen
auf
Leuchtstofflampen umstellen wollen Zeitrafferlampen
auf
Leuchtstofflampen Jetzt haben wir also unsere automatischen
Schmutzentfernungseffekte, Entitätsflickereffekt Wenn Sie möchten, können Sie weitere D-Flickereffekte
hinzufügen Zum Beispiel kann ich einfach ein paar Mal kopieren
und einfügen. Dieses Flackern reicht nicht aus. Ich kann die Effekte einfach weiter
kopieren. Wenn ich zum nächsten übergehe,
werde ich das ein wenig ändern wollen. Ich werde den Detailgrad ändern ,
der
nach dem Flickr wiederhergestellt wird. Also vielleicht mache ich das so. Und in der letzten schreibe
ich das vielleicht auf. So etwas in der Art. Jetzt haben wir hier also eine
ganze Reihe
von Effekten, die
helfen werden, das Flackern zu entfernen Theoretisch
sollte dies
den Großteil des Flackerns beseitigen den Großteil des Flackerns Es wäre schwierig
, das KI-Video zu sehen. Ich gehe also davon aus, dass
Sie das getan haben. Was wäre der nächste Schritt? Ich werde
einige davon
zur Veranschaulichung entfernen . Sobald Sie
die Effekte haben, die Sie hinzufügen möchten, klicken
Sie
in DaVinci Resolve auf Abspielen Und eigentlich kann ich hier sehen,
dass es eigentlich nicht
richtig funktioniert , weil
dieses kleine grüne, da sollte hier eine kleine
grüne Linie auftauchen. Also lass uns, lass uns einen anderen versuchen. Versuchen wir das nur mit
der automatischen Schmutzentfernung. Ich sehe keine kleine grüne Linie. Es macht mich nervös
, weil es nicht bedeutet, dass es richtig geladen ist. Lass uns versuchen, rauszukommen
und wieder reinzukommen. Okay, jetzt sehe ich dieses
kleine grüne Ding. Ich möchte das sehen, weil mir
das sagt, dass
es richtig geladen ist. Sie möchten
alle Effekte durchgehen. Sie haben Ihre
D-Flickereffekte hinzugefügt und dann auf
Play geklickt und das Ganze gegen Ende
durchgespielt Warum willst du das hier machen? Warum interessieren mich diese
kleinen grünen Linien so sehr? Bei
der Verarbeitung flackert das D und die automatische Schmutzentfernung Wenn Sie es zuvor
in diesem Fusion-Tab gerendert haben, sparen Sie beim Exportieren des Renders eine Menge Zeit. Wenn Sie versuchen,
das Rendern zu exportieren ,
ohne es hier durchzugehen, kann
es sehr,
sehr lange dauern, bis
der D-Flackereffekt angewendet In meinem Fall habe ich
vier Tage gebraucht, um
ein paar Minuten Video zu rendern. Dies kann jedoch nur wenige Minuten
dauern, wenn Sie dies hier in dieser Phase
tun. Also füge Schmutz auf deinem Mac
hinzu, füge einen neuen
Div-Flackereffekt Gehen Sie zum Anfang
der Video-Timeline, klicken Sie auf Abspielen und stellen Sie sicher, dass
das Video vollständig abgespielt wird. Wenn du diese grüne
Linie
durchgehend siehst ,
weißt du, dir geht es gut. Du weißt, dass das
Flackern funktionieren kann und dass es schon
etwas vorverarbeitet ist In Ordnung, das spart Zeit. Lassen Sie uns als Nächstes Zeit sparen und einige Optimierungen
für DaVinci Resolve vornehmen Stellen Sie sicher, dass Sie Ihr
Smart-Set für Ihr Mietgeld dabei haben. Vielleicht machst du das eigentlich
zuerst. Aber ja, du willst das intelligent haben,
es sei denn, du bist
klüger als der Klügste und du weißt, welche Einstellungen du dafür vornehmen
musst Aber sobald du das getan hast. Und wenn du das durchgemacht
hast, gehst du hier unten zum
Tab „Ausliefern“. Und du wirst dein Video
exportieren. Sie wählen also Ihren Dateinamen, Sie wählen den Speicherort
auf Ihrem Computer aus, Sie möchten ihn speichern, um den Ausgabetyp
auszuwählen. In meinem Fall wähle ich ein MP4, das ist H.264 Wenn Sie eine GPU haben, stellen Sie sicher, dass Sie Ihre GPU verwenden. Sonst
nutzt du nicht alles, was du kannst. Und ich gehe hier zu den
erweiterten Einstellungen und
wähle die Option Rendern zwischengespeicherter Bilder aus, damit wir
jede Vorverarbeitung verwenden ,
da Vinci Resolve ODEs ist Bisher. Das hast du alles getan. Sie haben, dann klicken Sie auf
Zur Renderliste hinzufügen. Ihr Video wird in
dieser Tabelle auf der rechten Seite angezeigt. Und dann können Sie auf Alle rendern
klicken. Und Sie erhalten Ihr
ausgenutztes Video mit allen D-flackernden FXS-Effekten Das ist alles. Das ist alles, was Sie
zum D-Flackern Ihrer KI-Videos benötigen
20. Stabile Diffusion in Photoshop: Okay, also wir haben die
stabile Diffusion
bisher alleine verwendet . Es stellt sich jedoch heraus, dass Sie
eine stabile Diffusion
in Photoshop verwenden können . Und dieses Plugin ist ein kostenloses Plugin, das sich in Stable Effusion integrieren lässt
. So können Sie die ganze Kraft
der einfachen Diffusion
in einem Photoshop nutzen. Lassen Sie uns diese
Installationen durchführen und dann
können Sie sich selbst ansehen, wie das alles
funktioniert. Das erste
, was Sie tun müssen, ist dieses Plugin
in Photoshop zu
installieren. Sie tun dies also, indem Sie auf die Website
github.com
gehen . Dies ist eine KD-Entwickler-Punktgrafik mit
Schrägstrichen. Du gehst da hin. Du wirst
dieses GitHub-Repository finden. Aber wir werden nicht mit dem Repositorium
gehen. Wir werden nur diese Datei hier
herunterladen , damit wie man installiert, wenn
all diese Schritte hier, Sie laden die
CSV-Datei herunter und führen sie aus. Creative Cloud
erledigt den Rest. Es installiert das
Plug-in für Sie. Jetzt müssen wir mit der
Ausführung von Stable Diffusion beginnen und sie aktivieren
, damit Photoshop darauf zugreifen kann. Wir müssen also zum
Table-Effusion-Web-QI-Plug-In-Ordner gehen Table-Effusion-Web-QI-Plug-In-Ordner , um auf
diese Datei zuzugreifen , die als Batch-Datei des
Windows bezeichnet wird. Und du wirst es bearbeiten. Und Sie werden dieses Argument
hier
hinzufügen , Dash, Dash API. Für die meisten von Ihnen. Das ist, was Sie tun
müssen, ist diese Dash, Dash API
hinzuzufügen. Es gibt einige von Ihnen, die vielleicht etwas anderes
haben, aber am Ende des
Tages müssen Sie
dieses Argument hinzufügen, um es zu aktivieren. Sobald Sie das getan haben,
können Sie die deaktivierte Diffusion neu starten. Und sobald Sie es neu gestartet haben, kopieren
Sie diese
lokale, lokale Host-URL. Das wirst du kopieren. Dann können Sie Ihr Photoshop starten
. Photoshop wird also geladen. Du gehst zu deinen Plugins, klickst auf Speichern und
diffusion are stable art. Du öffnest das Stable Art
Plug-in, unterscheidest show up. Und was Sie tun möchten,
ist, dass Sie die URL eingeben, die
in Ihrer Befehlszeile erstellt wurde in Ihrer Befehlszeile die Sie
für eine stabile Diffusion verwendet haben. Im Wesentlichen kopieren Sie die URL. Das ist dieses Ding hier. Kopiere das. Das ist auch dasselbe, dasselbe wie normalerweise auf
Ihrer Website. Also, wenn Sie den lokalen Host haben, ist das Ding, ist diese URL hier. Also kopierst du das und
klebst das hier rein. Und wenn Sie das getan haben, werden Sie dort feststellen, dass alle
Ihre Modelle gefüllt werden. Also haben wir das geöffnet. Ich bin auch bevölkert. Wir können jetzt bei einer positiven
und einer negativen Aufforderung bleiben . Es ist im Wesentlichen
dieselbe Benutzeroberfläche, die Sie bei
stabiler Verbreitung erwarten. Direkt in Photoshop. Du kannst deinen zufälligen Startwert haben. Sie wählen die
Stichprobenmethode, die Sie verwenden möchten. Wählen Sie die Anzahl der Schritte
für die Fertigstellung, je länger
die Texte sind, aber
je mehr Details Sie erhalten, schauen Sie, ob G skaliert, je niedriger sie ist, je näher sie an
der Aufforderung ist, weiter sie ist,
desto kreativer wird
Stabile Fusion sein. Für den zu bildenden Text können
Sie im Wesentlichen
ein rechteckiges Werkzeug auswählen ,
wo immer Sie möchten. Einfach so. Und Stable Fusion füllt
den gesamten Bereich des
abgebildeten Bildes aus, wenn Sie über
ein vorhandenes Bild zeichnen ,
und es wird
anhand der Aufforderung ersetzt oder versucht, es zu erstellen. Und wir kommen gleich wieder zum
Inpainting zurück. Die erweiterten Einstellungen geben
die Anzahl der
Stufen an , die Sie wählen können, wenn
Sie hochskalieren oder
verkleinern möchten , d. h.
eine hohe Auflösung. Nehmen wir also an, wir möchten hier
die Text-zu-Bild-Funktion verwenden. Also wähle ich Text zum Bild aus. Ich wähle den Bereich
des Bildschirms aus, für den ich ein Bild erstellen
möchte. Versuchen wir also,
das gesamte Rechteck hier zu ersetzen. Und ich klicke auf Generieren. Weniger Ability
Deficent wird sein
Ding machen , es wird geladen. dauert wahrscheinlich eine
Weile,
je nachdem , wie groß der Bereich
ist, den Sie ausgewählt haben. Wenn Sie die Waage in die Hand nehmen, dauert
es auch etwas länger, aber Sie
erhalten besser aussehende Ergebnisse. Und los geht's, fast fertig. Das würde die Ladung laden. Wunderschön. Los geht's. Wir haben hier ein gut
aussehendes Bild. Es sieht so aus, als hätten wir einige seltsame Artefakte
im Hintergrund. Da haben wir es. Wir haben also unser Bild und es hat
mehrere Vorschläge gemacht. Wir haben diesen, diesen, diesen, sie sehen
alle ziemlich gut aus. Das Bild zum Bild ist,
wenn ich es ersetzen möchte, verwenden Sie dies als Referenz. Ähm, lass dir ein neues Bild einfallen. Das ist also nützlicher, wenn Sie überhaupt ein schlechtes Bild haben und es durch Ihre Eingabeaufforderungstexte ersetzen möchten . Das Bild wird
etwas von Grund auf neu erstellen. In Paint schauen wir uns
die Inpainting-Funktion an. In Paint bedeutet
das also, dass wir
einen Teil des vorhandenen Bildes
durch etwas anderes ersetzen können . Also z.B. ich könnte sagen, dass ich diese Augen hier
auswählen möchte. Und lasst uns die Farbe
der Augen ändern, blaue Augen. Und ich habe das Inpainting ausgewählt und kann
auf Generieren klicken. Also hier sind die Ergebnisse, die Photoshop für uns generiert hat. Wir haben diesen Augapfel hier. Wir haben ein paar davon,
die nicht allzu gut sind, wie dieser
offensichtlich falsch ist. Dieser ist auch okay. Das ist auch nicht schlecht. All diese
sind ziemlich anständig. Wir zoomen hinein, wir können
vielleicht eine gewisse Ähnlichkeit finden oder manchmal werden Sie einige Probleme hier sehen
, aber dieser hat einen
ziemlich guten Job gemacht. Es wird also an dieser
kleinen Ecke hier verschmieren. Aber
das kannst du in Photoshop jederzeit korrigieren. Eine andere Sache ist, wenn Sie
ein anderes Modell wählen, z. B. ein Modell auswählen, in das
Inpaint eingebaut ist. Einige dieser Modelle
haben eine Lackierung, z.B. dieses hier ist
für die Malerei vorgesehen. Beim Malen wirst
du bessere Ergebnisse erzielen. Eine andere Sache, die Sie
mit dem Inpainting tun können, ist einfach Farben aus
Ihrem vorhandenen Bild zu verwenden. Und das können Sie verwenden
, um
das Bild zu erweitern , sodass Sie den
Maltrick in Photoshop verwenden können. Also z.B. ich könnte sagen, ich nehme
diese Farben hier. Einfach so,
ein bisschen verlängert ,
so ähnlich. Und dann kann ich einfach den Bereich
auswählen. In diesem Fall vielleicht
dieses quadratische Ding hier. Und Hoffnung wecken. Stellen wir sicher, dass wir
Inpainting ausgewählt haben, aber klicken Generieren und Stable Fusion wird sich
im Wesentlichen diesen
Bereich ansehen und mit
der Eingabeaufforderung vergleichen und versuchen, all diese Details hier einzugeben
, dieses Bild, Sie werden in einer Sekunde
sehen, es wird wahrscheinlich eine
weitere Dame sein, die auftaucht. Basierend auf dieser Ausgabe. Da hast du es. Es wurde
versucht, es zu verlängern. Wahrscheinlich müssen Sie
die Eingabeaufforderung und die Füllung um
die Farben und vielleicht das, was
Sie auswählen, etwas mehr füllen,
aber Sie kommen auf die
Idee, dass Sie
damit die Eingabeaufforderung und die Füllung um
die Farben und vielleicht das, was
Sie auswählen, etwas mehr füllen , auch
Bilder erweitern können . Dies ist also ein unglaublich
leistungsstarkes Werkzeug-Plug-in mit Photoshop, das für Photoshop
im Wesentlichen kostenlos Sie müssen
sich nicht einmal darum kümmern, Bilder in Photoshop von
Grund auf neu zu erstellen. Sie können die stabile Version verwenden, um den Großteil
der Arbeit für Sie zu
erledigen. Wenn Sie hier zum
Explorer-Tab gehen, können
Sie Beispiele für
Bilder sehen , die andere
Benutzer erstellt haben. Und das
Wichtigste hier ist, dass Sie nach dem suchen können,
was Sie sehen möchten. Wenn ich Samurai sehen will, so kann ich
auf die gleiche Weise suchen. Aber dann kann ich hier
auf dieses Ding klicken. Und es kopiert die Eingabeaufforderung
, mit der dieses Bild erstellt wurde , in die Eingabeaufforderung hier. Dann können Sie einfach so
ein Bild erstellen. Und das Letzte, was
ich dir zeigen möchte,
wenn du es wahrscheinlich schon weißt, wenn
du Photoshop hast,
aber nur für den Fall, dass du es nicht tust. Photoshop ist eine ganze
Reihe von neuronalen Filtern. Und Ihre Filter,
also Filter, die KI-Produkte
verwenden, um sie zu unterstützen. So können Sie z. B. die Haut von Portraits
glätten , um das Aussehen des
Ausdrucks zu verändern. Sie können Make-up übertragen. Sie können Stile anwenden,
nur Farbschemata. Sie können Ihre Bilder automatisch einfärben. Sagen wir zum Beispiel,
ich habe dieses Bild, ich möchte nur
alle Farben ändern. Es ist wirklich einfach zu machen. Der Superzoom
ähnelt dem Hochskalieren. Ich finde es nicht so gut
wie das stabile
Diffusions-Upscaling. das einfache Diffusions-Upscaling tatsächlich
neue Inhalte erstellt. Der Superzoom spielt
eher mit dem Rauschen
herum, um mehr Textur
zu erhalten. Mit der Tiefenunschärfe können
Sie
die Objekte im Wesentlichen in den
Vordergrund und
fokussieren , und Sie vervollständigen
alles im Hintergrund. Und mit diesen können
Sie
kleine Kratzer und
Schönheitsfehler usw. entfernen . Dies sind alles KI-Tools
, die Photoshop hat. Wenn Sie Photoshop haben, haben
Sie
diese bereits in Ihrem Abonnement. Schauen Sie sich also auf jeden Fall das
Stable-Diffusions-Plug-In in Photoshop an. Wenn Sie ein Photoshop-Benutzer sind, sind
die Möglichkeiten endlos. Du kannst alles erschaffen, wovon
du träumst.
21. Vektorbild-Intro: In diesem Video
lernen wir, wie man
SVGs oder Vektorbilder
mit stabiler Diffusion erstellt . Also nur eine kurze Zusammenfassung. Was ist ein
Vektorbild im Vergleich zu einem JPEG-Bild oder einem PNG-Bild? Nun, schauen wir uns hier ein
JPEG-Bild an, PNG-Bild. Wenn wir genug hineinzoomen, können
wir sehen, dass die
Auflösung blockig
und klobig wird und Sie nicht so stark
hineinzoomen können. Und wenn Sie
diese riesige Menge erweitern und richtig groß
machen würden , würden
Sie sehen, dass
die gesamte Auflösung bei einem SVG- oder Vektorbild
zusammenbricht . Wenn ich ganz hineinzoome, zumindest so weit wie möglich, können
wir sehen, dass die Farben und
das Bild erhalten
bleiben,
ohne dass es kaputt geht. Das
werden wir
im folgenden Video lernen , nämlich wie man
SVG- und Vektorbilder
mithilfe von Staple-Diffusion erstellt .
22. Vektor-SVG-Bilder erstellen: Lassen Sie uns lernen, wie man Vektorbilder
erstellt. Bei stabiler Diffusion. Sie müssen eine weitere Erweiterung
installieren. Erweiterungen, die Sie
über die URL installieren werden. Und über die URL erhältst
du das Git-Repository
für diese Erweiterung, das Standard-Diffusion
Web UI Vector Studio. Du kopierst das,
kopierst den Code und
fügst
ihn hier ein und klickst auf Installieren. Das ist der erste Schritt. Dann gehst du zu
Installiert und suchst nach Updates. Und du hast dein Vektor-Ding, das ich hier zeigen sollte. Es wird aktualisiert, Sie klicken
auf Anwenden und starten die Benutzeroberfläche neu. Möglicherweise müssen Sie
die erneut
gestartete Anwendung schließen . Das ist der erste Schritt in
demselben Git-Repository, das erneut hier
bei github.com erreicht wird . Slash Store, Legato Stable Diffusion
Web UI Vector Studio. Sie werden nach unten scrollen
und
die Installation finden ,
je nachdem, ob Sie
Linux, Mac oder Windows verwenden . Und ich gehe davon aus, dass
Sie
hier Windows verwenden , weil ich Windows verwende, aber befolgen
Sie, was auch immer Sie für Ihren Computer tun
müssen . In diesem Fall
müssen Sie, wenn Sie
ein Windows verwenden , dies herunterladen. Und sobald Sie es heruntergeladen haben, werden
Sie die Datei finden. Und Sie werden die ausführbare Datei kopieren ,
die Portrays-Datei. Und das wirst du kopieren. Und das wirst
du an
einer ganz bestimmten Stelle anbringen . Und dieser Ort ist
im Stallerguss. Was für BWI-Erweiterungen, Stable Diffusion Web UI Vector
Studio, wurden gerade im Ordner bin
installiert. Und du wirst die Datei mit den
Portraits dort ablegen. Das alles machst du. Möglicherweise müssen Sie den
stabilen Erguss erneut starten. Und wenn Sie
das getan haben, wird der Spectra
Studio-Tap hier angezeigt. Jetzt werden wir den Vector Studio-Tab nicht wirklich verwenden, aber wir werden
das eingebaute Plugin
in einer alternativen Methode verwenden . Also hier sind wir beim Tippen von
Text zu Bild. Und was Sie jetzt
sehen werden, ist, dass
Sie unter diesen Skripten dieses
kleine Vektorstudio sehen werden. Und wenn ich darauf klicke,
werden
die Informationen des Plugins verwendet die Informationen des Plugins , das wir jetzt auf
diesem Tab hier haben. Aber so werden
wir die SVG-Dateien erstellen. Sie haben eine Reihe
verschiedener Optionen. Sie haben die
Illustration, das Logo, Zeichnung, das künstlerische Tattoo,
Gothic, Enemy usw. Sie können alle
auswählen, die Sie möchten. In diesem Fall versuchen wir, ein Logo eines Nilpferds zu
erstellen. Im Wesentlichen
müssen wir das nur aktivieren. Ab jetzt
wird alles andere, was erstellt wird, eine SVG-Datei
sein. Jetzt können Sie wählen, ob
Sie auch
ein transparentes PNG erstellen möchten .
Das ist auch eine Option. Lassen Sie uns jedoch auf Generieren klicken und sehen, welche Art von
Ausgabe wir hier erhalten. Da haben wir es. Wir haben ein Nilpferd. Das ist das PNG,
das ist das SVG. Wir können hier also sehen, dass das Weiß tatsächlich
Teil des Bildes ist. Vielleicht möchtest du
das aber transparent haben. Und wenn ja,
müssen Sie einfach auf Weiß ist
undurchsichtig klicken und es wird
den Startwert ändern, um das Bild
beizubehalten, das
wir beim letzten Mal hatten. Wenn ich das
ein zweites Mal generiere, sollten
wir unser Nilpferd jetzt mit
transparentem Hintergrund
sehen . Und da haben wir es. Das ist unser SVG. Es wurden also PNG und SVG erstellt. Wenn Sie also eine
Farbe in den Hintergrund kleben würden, würde
die Farbe durchscheinen. Jetzt werden Sie
feststellen, dass eine
Sache nicht darin
besteht, dass es keine Farbe gibt. Das ist interessant. Warum
gibt es keine Farbe? Nun, das ist derzeit so, wie dieses Plug-in funktioniert, wenn Sie Farbe verwenden möchten,
nun , es gibt eine Möglichkeit
, dies immer noch zu tun. Sie müssen jedoch nicht
all das schicke Zeug verwenden , das wir
hier installiert haben, Sie können diese
PlugIn-Skripts ausschalten. Alles was Sie tun müssen, ist einfach Ihr Bild von einem Nilpferd zu
machen, erstelle hier einfach
ein weiteres Nilpferd. Los geht's. Wir haben unser Image. Und alles was Sie tun müssen,
ist diese Website namens express.adobe.com aufzurufen.
slash tools slash convert to SVG. Das ist jetzt eine kostenlose
Sache, die Sie verwenden können. Sie müssen eigentlich nicht
für ein Adobe-Abonnement bezahlen. Sie müssen sich nur
für ein Konto anmelden und dann
können Sie Ihr von Ihnen
erstelltes Bild einfügen. In diesem Fall bleibe ich bei unserem Hippo-Typ, den wir
ursprünglich entwickelt haben. Und du kannst es herunterladen. Und los geht's, du hast dein,
dein SVG-Bild. So
können Sie also SVGs erstellen. Mit stabilem Erguss. Sie können entweder
das eingebaute Plugin verwenden und so wird ein
richtig aussehendes SVG erstellt , das heißt Sie können alles
in der stabilen Version tun, aber Sie sind
auf Schwarzweiß beschränkt. Alternativ können Sie einfach das
gewünschte Kanada-Bild
aufnehmen und es dann
in Adobe Express einfügen.