Transkripte
1. EINFÜHRUNG: Entdeckte die
Macht von Kling AI. Das führende Tool zur
Videogenerierung , das einfache Texte
und Bilder mühelos in
professionelle und fesselnde
Videos verwandelt und Bilder mühelos in professionelle und fesselnde
Videos Hallo, alle zusammen. Mein Name
ist Faizan Amjad Und in diesem Kurs lernst
du, Videos von Grund auf neu
zu erstellen und dabei die atemberaubenden Funktionen
von King AI wie
Text-zu-Video und Bild-zu-Video-Generierung
zu
nutzen Text-zu-Video und Bild-zu-Video-Generierung
zu Ich führe Sie durch
jeden Schritt, von der Generierung hyperrealistischer
Bilder bis hin zur nahtlosen Integration in Videos Am Ende dieses Kurses werden
Sie
mit den Fähigkeiten ausgestattet sein, mühelos atemberaubende
Videoinhalte zu produzieren Worauf warten Sie also noch? Melden Sie sich jetzt an und entfalten Sie Ihr kreatives Potenzial
mit Kling AI.
2. So bekommst du Zugriff auf Kling-KI: Willkommen. Um also
Zugang zu Cling AI zu erhalten, suchen Sie nach Cling AI und Sie müssen
diesen Link cling-ai.com öffnen Sobald Sie auf den Link klicken,
gelangen Sie zu dieser Seite. Dies ist die Oberfläche
von cling.com. Hier können Sie sich kostenlos anmelden und Sie erhalten täglich 66
Credits Das Guthaben wird ebenfalls
täglich zurückgesetzt Jetzt
melde ich mich kostenlos an. Wenn Sie ein Konto haben, können Sie Ihre E-Mail-Adresse und Ihr Passwort
hinzufügen. Wenn Sie jedoch kein
Konto haben, melden Sie sich kostenlos an. Klicken Sie hier. Klicken Sie jetzt
auf diese nächste Schaltfläche. Gehen Sie zu Ihrer E-Mail und Sie erhalten diese
Bestätigungsnummer. Kopieren Sie diese Nummer und fügen hier ein und klicken Sie nun
auf diese Anmeldeschaltfläche. Und jetzt, wie ihr sehen könnt, Leute, haben
wir 66 Credits. Jetzt werde ich Ihnen die Oberfläche von Cling AI vorstellen . Hier, wie ihr sehen könnt, Leute, wenn ihr KI-Bilder
generieren wollt, dann könnt ihr hier klicken. Und wenn du diese Bilder oder irgendein Bild in Videos umwandeln möchtest,
dann kannst du hier klicken. Sie können auch
Ihre KI-Videos generieren, und in Kürze wird
die Funktion auch einen Video-Editor Bleiben Sie
also auf dem Laufenden. Genau hier, wie du sehen kannst, sind dies einige Beispiele, die mit Ling AI
erstellt wurden. Wenn Sie nun nach unten scrollen
, bis Sie Guy sehen können, sind
dies einige KI-Bilder und
-Videos, die mit Ling AI erstellt wurden. Also hat der Benutzer dieser Website diese Beispiele
erstellt. Sie können sich also auch
von diesen Bildern
und Videos inspirieren lassen . Sie können auf ein beliebiges
Bild oder Video klicken, und hier, wie Sie sehen können, ist
dies die Eingabeaufforderung
für dieses Bild. Dies ist das Bildverhältnis, und dies ist ein
Referenzbild, das keins ist. Dieser Benutzer hat dieses Bild also
mit all in der Eingabeaufforderung
ohne Referenzbild erstellt . Das ist also die
Schnittstelle von Ling AI.
3. Kling-KI-Schnittstelle: Willkommen zurück. Jetzt werden wir einige grundlegende Bilder erstellen, damit Sie Cling AI
besser verstehen können. Klicken Sie auf diese KI-Bilder. Sie werden
zu dieser Schnittstelle weitergeleitet. Genau hier können
Sie eine beliebige Eingabeaufforderung eingeben. Sie können ein beliebiges Bild generieren. Sie können auch auf
Ihr Bild verweisen
, wenn Sie ein ähnliches Ergebnis
gemäß Ihrer Referenz erzielen möchten . Hallo, Sie können
Ihr Seitenverhältnis auswählen, und hier können Sie die Anzahl der
Generationen entsprechend Ihrer
spezifischen Aufforderung
auswählen . Ihr Ergebnis wird in
diesem Teil dieser Website angezeigt . Cling AI benötigt 0,20 Credits
, um ein Bild zu generieren. Wir generieren vier Bilder, es werden
also 0,80 Credits Für ein Video werden zehn Credits
benötigt. Sie erhalten 66 Credits und
es läuft in 24 Stunden ab. Wenn Sie beispielsweise
20 von diesen 66 Credits verwenden, wird
es am nächsten Tag auf
66 zurückgesetzt. Geben wir nun eine einfache Eingabeaufforderung ein. Also werde ich ein
Glas Wasser auf einen Tisch tippen. Also, wie ihr sehen könnt, Leute, wenn ich die Anzahl der
Generationen herabsetze, wird das auch meine Kreditwürdigkeit senken. wir also
für die Generierung und wählen wir
dieses Seitenverhältnis aus. Jetzt haben wir
kein Referenzbild, also klicken wir auf dieses Generate. Denken Sie jetzt daran, dass wir das kostenlose Konto verwenden, sodass es einige Zeit dauern wird bis Ihre
Bilder oder Videos generiert sind. Jetzt müssen Sie nicht mehr auf Ihre Generation
warten, sondern können auch Ihre
nächste Aufforderung eingeben. Nun, wie ihr sehen könnt, Leute, haben
wir diese Bilder, und das sind atemberaubende Bilder. Jetzt können Sie eine beliebige
Eingabeaufforderung eingeben und jedes Bild
generieren, das
Sie generieren möchten. Nun, wie ihr sehen könnt, Leute, wenn ich meine Maus auf ein
Bild halte, haben wir drei Möglichkeiten. Eine ist erweitert und
steht
für
Premium-Benutzer zur Verfügung . Mach dir keine Sorgen. Ich habe ein Premium-Konto, also werde ich Ihnen alles
zeigen
, was diese Website zu bieten hat. Genau hier, wie Sie sehen können, können
wir dieses Bild
als Referenz verwenden, und genau hier können wir dieses Bild zum Leben
erwecken. Also werde ich dieses Bild
auswählen. Erwecke dieses Bild zum Leben. Und wie ihr sehen könnt, Leute, braucht
es zehn Credits,
um dieses Bild zu erstellen. Klicken Sie auf diese Schaltfläche zum Generieren. Wie ich Ihnen bereits sagte, müssen
Sie jetzt nicht
hier sitzen und
ein paar Minuten
oder vielleicht Stunden warten , um zu
sehen, wie Ihr Bild in ein Video
umgewandelt wird. Sie können das nächste
Video generieren, wenn Sie möchten. Also genau hier, wie ihr sehen
könnt, Leute, wenn wir zurück
zum Dashboard gehen, schließen
wir es und klicken
auf diese KI-Videos. Genau hier,
wie ihr sehen könnt, generiert
diese Website gerade unser Video. Hier haben wir die erste Option, nämlich Text zu Video. Das ist also im Grunde den AI-Bildern
ähnlich. Wenn ich meine Maus genau hier halte, können
wir zu den KI-Bildern gehen. Wir können jede Eingabeaufforderung eingeben. Das ist also
dem Textvideo ähnlich. Jetzt können wir
jedes Video generieren , wenn
Sie nur eine Aufforderung eingeben möchten. Sie können diese Aufforderung auswählen. Sie können zum Beispiel Ihren Kamera-Moment
auswählen, also wähle ich
bis aus und lassen Sie uns nun dieses Video
generieren. Wie ihr sehen könnt,
Leute, kann ich
mehr als ein Video generieren und muss
nicht darauf warten. Sie können also mehrere
Videos gleichzeitig generieren. Jetzt weiß ich, dass diese Website so viele
Funktionen bietet. Also gerate nicht in Panik. Dies ist nur eine Einführung
in die Website. Ich werde Ihnen
alle Funktionen von Cling AI vorstellen und wir werden mit diesem KI-Tool
einige atemberaubende Bilder
und Videos erstellen . Also hier haben wir das Ergebnis. Also hat es aus meinem Bild
dieses wunderschöne Video gemacht. Jetzt haben wir auch dieses Video. Wir generieren dieses Video
über diese Eingabeaufforderung. Jetzt gibt es einen großen
Unterschied zwischen dem Premium-Konto und dem
kostenlosen Konto von King AI. Der erste Unterschied besteht
darin, dass Sie Kling
1.5 nicht verwenden können , wenn Sie das
kostenlose Konto von Kling AI verwenden. Der zweite Unterschied
, der sehr groß
ist, besteht darin, dass Sie länger gebraucht haben,
wenn Sie
das kostenlose Konto zum Generieren
Ihrer Clips verwenden das kostenlose Konto zum Generieren , als das
Premium-Konto. Also, ob Sie mir glauben oder nicht
, ich habe zwei Tage gebraucht, um diesen Clip zu
generieren. Manchmal generiert es
Ihren Clip sehr schnell und manchmal
generiert es Ihren Clip sehr langsam. Bis zu dem Punkt, dass Ihr Ergebnis nicht generiert werden konnte
. Und wenn es Ihr Ergebnis nicht
generiert hat, wird
es Ihnen Ihre Gutschrift zurückerstatten. Wie ihr sehen könnt, Leute, ist
mein Kredit mehr als 66. Das kostenlose
Kontolimit beträgt nur 66 Guthaben für 24 Stunden. Warum habe ich nicht
mehr als 66 Guthaben? Weil ich so viele
gescheiterte Generationen habe, es dir
deine Credits zurück und plus dein Guthaben zu
deinen aktuellen Credits. Ihre Credits
laufen in 24 Stunden ab, egal ob Sie all
diese Credits aufgebraucht haben oder nicht, sie werden auf 66 Credits zurückgesetzt. Das ist also nur eine grundlegende
Einführung in Kling AI. Ich habe ein Premium-Konto, also werden wir uns
eingehend mit diesem Tool befassen
und
sein volles Potenzial ausschöpfen, befassen
und um die
gewünschten Ergebnisse zu erzielen. Ich werde euch also
in der nächsten Vorlesung sehen.
4. Neue Benutzeroberfläche von KlingAI: Heißen Sie alle willkommen.
Die Cling-Oberfläche hat sich jetzt also ein wenig geändert. Wenn ihr zu den KI-Videos geht, wenn ihr zu den Bild-zu-Video-Videos geht, wie ihr sehen könnt, Leute, vor diesem Update hatten wir
eine Funktion namens End Frame, und wir können
diese Funktion von hier aus aktivieren oder deaktivieren. Aber im neuen Update haben
wir diese Funktion nicht. Denn wenn Sie Ihr Bild
hochladen, haben
wir standardmäßig diese Oberfläche. Jetzt können wir den
Endrahmen hier hochladen. Und wenn du
den Sternrahmen auf den Endrahmen ändern möchtest , dann kannst du diesen auch von
diesem
Symbol aus austauschen , indem du darauf klickst. Dadurch wird der
Startframe gegen den Endframe ausgetauscht. Und wenn Sie
Ihren Endrahmen in
den Startrahmen ändern möchten , klicken Sie erneut
auf dieses Symbol. Es wird deinen Rahmen austauschen. Wenn Sie jetzt kein Frame-Video vom Anfang bis
zum Ende
generieren möchten , können
Sie auch
das Einzelbild verwenden , um Ihre AI-Videos zu
generieren. Wenn du dich daran erinnerst, wenn du dein
Modell von 1.0 auf 1.5 änderst, wird
Motion Brush deaktiviert und der Kamera-Moment
wird ebenfalls deaktiviert. Wenn Sie jedoch Ihren
professionellen Modus wählen, die Kamerabewegung jetzt aktiviert, und wir haben auch Motion Brush. Jetzt können Sie also
den Bewegungspinsel und
den Kamera-Moment in Cling
1.5 im professionellen Modus verwenden . Wir haben auch diese Änderung. In der vorherigen Benutzeroberfläche hatten
wir nur einen
professionellen Modus, aber jetzt können Sie auch den Standardmodus
verwenden, und für den Standardmodus von
1.5 werden 20 Credits benötigt. Und wenn Sie das Modell auf 1.0 ändern
, werden zehn Credits benötigt. Ich denke also, das ist ein
unglaubliches Update. Wir haben auch eine neue Funktion. Wenn Sie zu den KI-Bildern gehen, heißt
diese Funktion
AI Virtual Tryon Sie können also
Kleidung an sich selbst
oder an einem beliebigen Modell anprobieren , und es wird realistisch aussehen Das ist also im Grunde die
neue Oberfläche von Kling AI.
5. Atemberaubende Bilder generieren: Willkommen zurück. Klicken Sie nun zunächst auf A und gehen Sie zu AI-Bildern. Es gibt zwei Möglichkeiten, Ihr Bild zu
generieren. Schreiben Sie zunächst Ihre Eingabeaufforderung. Zweitens können Sie
auf ein Bild verweisen. Wenn Sie ein ähnliches Ergebnis erzielen
möchten, können
Sie
auf ein Bild verweisen, um Ihr Ergebnis
entsprechend diesem Bild zu
erstellen. Nun, wie ihr sehen könnt, Leute, habe ich mit diesem Tool so viele
tolle Bilder generiert weil ich
mehr als ein paar Wörter schreibe , um meine
beeindruckenden Ergebnisse zu erzielen. Wenn Sie jetzt
das Premium-Konto verwenden, können
Sie auch
Ihr Image verbessern. Wenn
Sie also zum Beispiel hier klicken, können
Sie mit der Maus darüber fahren, und wir haben eine Option
namens Verbessern Wenn ich darauf klicke,
wird mein Bild verbessert. Dadurch wird das Bild
in eine höhere Auflösung umgewandelt. Nun, wie ihr sehen könnt, Leute, ist
das mein Ergebnis. Dies ist das vorherige Ergebnis und das ist mein neues Ergebnis. Sie können hier auch die
Maus bewegen. Wenn Sie das
Premium-Konto verwenden, können
Sie
dieses Ergebnis auch
ohne Wasserzeichen herunterladen dieses Ergebnis auch
ohne Wasserzeichen In einem kostenlosen Konto können
Sie jedes gewünschte
Bild herunterladen, aber Sie haben auch ein Wasserzeichen
mit diesem Bild Dies ist ein Premium-Konto, wir haben
kein Wasserzeichen. Und wenn Sie ein kostenloses Konto verwenden, haben
Sie ein
Wasserzeichen wie dieses Wenn Sie nun
beeindruckende Ergebnisse erzielen
möchten, müssen Sie
mehr als ein paar Wörter schreiben Wie kannst du also deine Worte finden? Gehen Sie zu designer.microsoft.com,
melden Sie sich an, klicken Sie hier und Sie müssen Bilder Jetzt können wir diesen Tab schließen. Was Sie nun
tun müssen, Sie müssen
hier klicken und Ihre Aufforderung
schreiben. Also
werde ich zum Beispiel schreiben. Das ist also nur eine
einfache Nahaufnahme eines Burgers in einem Hotel Jetzt gibt es eine Option
namens Enhanced Prompt. Und was sie macht, wenn ich
auf diese erweiterte Eingabeaufforderung klicke
, werden einige Wörter hinzugefügt, um
diese Aufforderung beeindruckend zu machen. Jetzt können wir diese Aufforderung kopieren. Wir können zur tötenden KI gehen. Wir fügen diese Eingabeaufforderung und wir können
unsere Auflösung wählen. Sie können Ihr Verhältnis wählen. Also werde ich diesen auswählen. Sie können die Anzahl der
Generationen auswählen , die Sie generieren
möchten. Ich werde vier auswählen. Und jetzt klicken wir
auf diesen Generator. Gehen wir nun zurück zu
Microsoft Designer und wir können hier eine beliebige
Auflösung auswählen. Jetzt können wir auf diese Schaltfläche zum
Generieren klicken und es wird dieses Ergebnis generiert. Dies sind alle unsere Bilder, die wir mit
dieser Aufforderung generiert haben. Jetzt können wir dieses Bild verbessern
und es auch referenzieren, wenn Sie möchten. Wir können dieses
Bild auch zum Leben erwecken. Nun, das ist das Ergebnis von Microsoft
Designer, und dieses gefällt mir.
Dann die Ling AI. Also was wir tun können, wir können
einfach auf diesen Download klicken und zur Ling AI
gehen. Wir können auf A klicken, um auf dieses Bild zu
verweisen. Bevor wir das Ergebnis
gemäß dem
Referenzbild
generieren , gibt es einen Schieberegler. Wir haben Null Plus und wir haben drei
Plus, genau hier haben
wir Minus und wir
haben drei Minus. Das ist also die Stärke
Ihrer Referenz. Wenn Sie Ihre Stärke
auf die Nullposition
legen, wird Ihr Ergebnis genau diesem Bild entsprechen. Wenn du deinen Slider
auf die positive Seite legst, wird
er deinem Bild einfach
etwas hinzufügen. Und wenn du deinen
Slider auf die Minus-Seite legst, dann wird er
etwas von By nehmen, ich zeige
dir alle Ergebnisse
, die diesem Slider entsprechen. Lassen Sie uns also zunächst diese Nullposition
ausprobieren. Übrigens, wenn Sie auf ein Bild
verweisen, werden 0,40 Credits benötigt, um auf dieses Bild
zu verweisen. Ohne jegliche Referenz können
Sie also vier
Bilder mit 0,80 Credits generieren, aber wir haben eine Referenz,
also haben wir jetzt 1,20 Klicken Sie nun auf diese Schaltfläche zum
Generieren, um die Ergebnisse
gemäß der Referenz zu
generieren Wir müssen nicht warten, bis
das Ergebnis generiert wird. Wir können diesen Schieberegler
auf die Plusseite und jetzt auf
diesen Strang-Button klicken. Jetzt kann ich den Schieberegler
auf die Größe Drei plus stellen, und jetzt können wir Ergebnisse erzielen. Stellen Sie jetzt den Schieberegler
auf das Minus. Jetzt haben wir diese Ergebnisse. Die Stärke ist auf Null gesetzt und die Ergebnisse sind erstaunlich. Wenn Sie nun
Ihre Stärke auf Plus setzen
, werden Ihre Bilder etwas
verändert. Wie ihr sehen könnt,
Leute, wenn ihr zum
Originalbild geht und
die Stärke auf Null gesetzt ist, haben wir nichts
in unseren Platten, aber wenn ihr zur
Plusstärke übergeht, wie ihr sehen könnt, Leute, hat das eurem Bild einfach wie ihr sehen könnt, Leute, hat das eurem Bild einfach etwas
hinzugefügt. Also haben wir diese
Brotstücke zu unserem Burger hinzugefügt. Und wenn wir zum Le Plus gehen, würde das Ihrem Image etwas
mehr hinzufügen. Im Triple Minus ignoriert
es einfach mein Hotelzimmer und legt
meinen Burger auf einen Tisch. Und bei nur einem Minus nimmt
es einfach
etwas aus dem Bild. Um diese Stärke zu erklären Wenn Sie Ihre
Stärke auf Null setzen, wird genau
das gleiche Ergebnis
gemäß Ihrer Referenz generiert . Wenn Sie Ihren
Schieberegler jedoch auf die positive Seite
legen, fügt er Ihrem Bild etwas
hinzu Wenn du deinen Slider
auf die linke Seite bewegst, wird er
etwas von deinem Bild nehmen Es gibt noch ein Beispiel, das
ich dir erklären möchte. Mit der Aufforderung habe ich diese Ergebnisse
generiert. Mit dem Referenzbild, bei dem die Stärke auf das Pluszeichen gesetzt ist, wie ihr sehen könnt, Leute, wird einfach etwas in meinem Bild
bearbeitet. Wenn die Stärke auf Null gesetzt
ist, werden
genau die gleichen Ergebnisse erzielt. Und wenn diese Stärke auf das dreifache Minus
gesetzt
ist, nimmt es alles
aus meinem Bild und generiert nur den
Vektor des Bildes. Jetzt, als ich
meine Ergebnisse überprüfte , fiel mir etwas Bei dieser Stärke Null können
Sie sehen, dass wir normale Bilder haben,
aber wenn
diese Stärke auf Plus
eingestellt ist, schauen Sie sich die Größe
des Burgers Die Größe des Burgers wird
ebenfalls größer. Das ist also eine normale Größe. Das ist eine Übergröße, und das ist eine Übergröße von drei. Schau dir die Burger-Größe an. Die Burgergröße wird
ebenfalls größer. Wenn wir jetzt zu
den drei Minus gehen, wird
die Burgergröße
kleiner. Und das ist nur
ein Minus-Ergebnis. Jetzt, in meinem zweiten Beispiel, merke
ich das auch. Mit dieser Referenz sind
meine Ziele gering, aber wenn die Stärke auf drei Pluspunkte
eingestellt ist, wie Sie sehen können, Leute, wird mein
Gold fett Bei einer Stärke von Null haben
wir eine normale Größe und bei Minus-Sinus wird
sie immer kleiner Und es entfernt auch etwas
aus meiner Referenz und generiert einfach dieses Bild. Sie müssen dies also auch
berücksichtigen, wenn Sie die Referenzstärke verwenden
, um Ihr Bild zu erzeugen. So können Sie
KI-Bilder in cling.com generieren . Auf Wiedersehen Wir sehen uns in
meiner nächsten Vorlesung.
6. KI-Virtuelles Ausprobieren: Willkommen zurück, alle zusammen. Wenn Sie also zu den KI-Bildern gehen, haben
wir eine neue Funktion
namens AI Virtual Tryon Du kannst also jedes Hemd, jeden Stift anprobieren, du kannst
jedes
Kleidungsstück an dir selbst anprobieren. Oder wenn Sie nach unten scrollen, können
Sie auch dieses Modell verwenden Und wie ihr sehen könnt, Leute, sind einige Beispiele. Wir haben also zwei Möglichkeiten. Zuerst haben wir einzelne Kleidungsstücke
und dann haben wir
mehrere Kleidungsstücke Zuallererst werde ich dieses
Shirt auswählen. Wenn Sie jetzt nach unten scrollen, werde
ich dieses Modell verwenden. Und jetzt lass uns generieren. Lassen Sie uns eine Ausgabe generieren. Und wie ihr sehen könnt, Leute, ist
es gerade dabei, dieses
Kleidungsstück für dieses Modell zu Und wie ihr sehen könnt,
Leute, einfach so, wir haben dieses Kleidungsstück für diese
Person oder für dieses Modell Lass uns jetzt
mehrere Kleidungsstücke anprobieren. Also
werde ich zuerst das Top hochladen, also werde ich dieses Shirt
auswählen Du musst den
Hintergrund des Kleidungsstücks nicht entfernen. Sie können dieses Bild auch verwenden. Jetzt kann ich diesen schwarzen Stift benutzen. Wenn Sie jetzt nach unten scrollen, haben
wir eine weitere Option namens Benutzerdefiniert. Jetzt
lade ich mein Bild hier hoch. Jetzt wurde das Bild erfolgreich
hochgeladen. Lass uns dieses
Kleidungsstück für mich selbst generieren. Und wie ihr sehen könnt, Leute, haben
wir dieses Shirt
und die Farbe genau hier. Wenn Sie nun mit dem
Mund auf Ihr Bild zeigen, haben
wir eine weitere
Option namens Erweitern Jetzt können wir darauf klicken und
es bis zu einem bestimmten Verhältnis erweitern. Also werde ich dieses Verhältnis
auswählen und sofort auf
Bild erweitern klicken. Auf diese Weise können Sie
Ihre vertikalen Bilder in
horizontale Bilder ändern. Sie können Ihr Bild in ein
anderes Seitenverhältnis ändern. Und wie Sie in der Anleitung sehen können, ist
dies die endgültige Ausgabe. Jetzt zeige ich
Ihnen ein anderes Beispiel. Wie Sie in der Anleitung sehen können, ist
dies die Unterseite
und dies ist die Oberseite. Ich werde
auf diesen erneuten Upload klicken. Und wenn Sie ein
Bild wie dieses haben, können
Sie dieses Bild auswählen, und es wird das Bild automatisch zuschneiden und das untere Bild
auswählen Und wenn ich dieses Bild erneut hochlade
und auswähle, wird
es jetzt automatisch das obere Bild
auswählen, wie Sie sehen können Klicken wir nun auf Generieren. Und wie ihr sehen könnt, Leute, haben
wir dieses Ergebnis. Wenn Sie nun dieses Bild öffnen, laden
wir dieses Bild herunter. Lass uns dieses Bild öffnen. Und wenn wir heranzoomen, damit ihr sehen könnt, Leute, haben
wir hier ein kleines
Problem. Wenn Sie
in dem Modell einen Bart haben, werden
Sie ein
solches Ergebnis erzielen. Aber lassen Sie uns das
Modell ändern, um es zu empfehlen. Und dieses Mal wählen wir dieses Modell aus und klicken
auf „Generieren“. Wie ihr sehen könnt, Leute, haben
wir dieses Ergebnis. Jetzt wähle ich diesmal ein
anderes Bild aus, und jetzt klicken wir auf Generieren und erhöhen
die Anzahl der Ausgaben. Und wie ihr sehen könnt, Leute, haben wir
jetzt diese Ausgaben. Die Ergebnisse sind jetzt
ziemlich beeindruckend. Lassen Sie uns das weiter
auf eine vertikale Form ausdehnen und los geht's. So können wir mithilfe
der virtuellen
KI-Tryon-Funktion von Kling AI
verschiedene Kleidungsstücke am Modell oder von Kling AI
verschiedene Kleidungsstücke am Modell oder
an Ihnen selbst anprobieren
7. FARBEN 1,5 vs. FARBEN 1,0: Komm zurück. Also haben wir ein neues Modell für die Bilderzeugung
namens Close 1.5. Vor diesem Modell hatten wir 1.0. Jetzt werde ich
beide mit
derselben Aufforderung vergleichen . Nun, diese Beispiele sind für
1.5, und wie ihr sehen könnt, Leute, mit dieser Aufforderung haben
wir diese Ergebnisse erhalten. Jetzt haben wir mit genau derselben Eingabeaufforderung, mit 1.0, diese Ergebnisse erhalten. Sehen wir uns nun ein anderes Beispiel an. Bei dieser Eingabeaufforderung ist das 1,0, was nicht schlecht ist, aber mit 1,5 haben
wir diese Ergebnisse erhalten. Der Hauptunterschied
zwischen 1.5 und
1.0 besteht nun darin, dass 1.5
realistische Bilder erzeugt. Auf der anderen Seite
generiert 1.0 beeindruckende Bilder, aber sie sehen aus, als wären
sie mit KI generiert worden. Und wie Sie sehen können, sieht das
wie ein künstliches Bild aus. Aber wenn Sie sich
das Ergebnis von 1,5 ansehen, ist
es für mich
realistischer als 1,0. Wir haben ein anderes Beispiel. Mit dieser Eingabeaufforderung sind das 1,5 Ergebnisse. Und wie du sehen kannst
, sehen
die Ergebnisse ziemlich gut aus. Jetzt haben wir mit derselben
Eingabeaufforderung 1.0. Und wie ich Ihnen bereits sagte, das für
mich künstlicher als 1,5, ist
das für
mich künstlicher als 1,5,
weil 1,5 eher einem
realistischen Bild ähnelt als 1,0. Jetzt haben wir ein anderes Beispiel. Mit dieser Aufforderung haben wir dieses
Ergebnis erhalten, das nicht schlecht ist. Aber mit genau der
gleichen Aufforderung mit 1.5 haben wir diese Ergebnisse erhalten. Jetzt sagst du mir,
welcher gut ist, dieser oder dieser. Offensichtlich
sieht 1.5 ziemlich gut aus. Mit dieser Eingabeaufforderung haben
wir diese Ergebnisse erhalten und mit genau derselben
Aufforderung mit 1.0 haben
wir dieses Ergebnis erhalten. Mit dieser Aufforderung, mit 1.0, haben
wir diese Ergebnisse erhalten
und mit 1.5 haben
wir diese Ergebnisse erhalten. In diesem Beispiel sieht
1.0 wunderschön aus,
aber in 1.5, von dem ich Ihnen bereits
erzählt habe, wird das Bild dadurch
eher dem Realismus
als der Fantasie 1.5 bringt das Bild quasi in die
Vorstellungskraft, aber 1.5 erzeugt ein
realistisches Bild Wenn ihr nun etwas wie reine Fantasie in diese Eingabeaufforderung eintippt, wie ihr sehen könnt, Leute, dann ist das ein reines Einfalls-Szenario. Mit 1.0 haben wir diese Ergebnisse erhalten. Mit 1,5 haben wir diese Ergebnisse erzielt. In diesem Beispiel generiert
1.0 also
einige beeindruckende Ergebnisse, weil das
reine Fantasie ist als die reale Welt. Aber 1.5 versucht,
realistische Ergebnisse zu erzielen, aber ich denke, 1.0 gewinnt in diesem Fall. Bei diesem Abschlussball ist das ein
reines Fantasieszenario. Das sind 1,0 Wüsten und bei 1,5 mit exakt
derselben Aufforderung ist
das echt, was wir bekommen haben Und 1.5 macht einfach 1.0 kaputt,
denn wie ihr sehen könnt,
Leute, sieht es nach
einem realistischen Auf der anderen Seite
sehen 1.0 wie eine Konzeptgrafik aus. Jetzt haben wir ein anderes Beispiel. Bei dieser Eingabeaufforderung sind
dies 1,0 Ergebnisse, und bei exakt derselben
Eingabeaufforderung ist dies 1,5. Und wie ihr sehen könnt,
generiert 1.5 ein realistisches Bild. Jetzt versuche ich, mit dieser Aufforderung
Vektorgrafiken zu generieren, und wie Sie sehen können,
Leute mit 1.0 haben
wir diese Ergebnisse erzielt,
was nicht schlecht ist. Aber mit 1.5 generiert es das,
worum ich ihn bitte. Weil ich diese Aufforderung kopiere, stehle
ich diesen Abschlussball vom
Designer domicrosoft.com AzkacGuide, das ist ein Microsoft-Designer-Ergebnis. Und ich habe diese Aufforderung kopiert und diese
Aufforderung hier eingefügt, und wir haben Mit dieser Eingabeaufforderung, mit 1.0, haben wir diese Ergebnisse erhalten. Und wenn wir zu 1,5 gehen, erhalten
wir diese Ergebnisse, was beeindruckend ist, denn wenn Sie sich die
Farbkombination und das Diagramm ansehen, erzeugt
1.5 ein realistisches
Bild und dann 1,0. Wie Sie sehen können, ist
das Diagramm in 1.0 nicht richtig
ausgerichtet, aber in 1.5 haben wir ein realistisches Diagramm und wir
haben eine realistische Zahl, und wir haben eine gute
Farbkombination, dann 1,0. Jetzt versuche ich, drei animierte
D-Bilder zu erzeugen . Mit dieser Aufforderung. Wir haben 1,0 Ergebnisse. Wie Sie sehen können, sind dies einige gruselige Ergebnisse, weil ich ihn bitte,
Drei-D-Animationen zu generieren Aber mit 1.5 haben wir
dieses wunderschöne Ergebnis erzielt, weil
1.5 ein dualistisches Bild erzeugen Deshalb bekommen wir das,
worum wir ihn bitten. Wenn Sie versuchen,
einige Bilder im Anime-Stil zu generieren, können
Sie das auch tun. Mit dieser Aufforderung sind es, wie
Sie in der Anleitung sehen können, 1,5 Ergebnisse, was sehr beeindruckend ist. In diesem Beispiel sehen 1.5 wie ein fertiges Bild im Anime-Stil aus, aber 1.0 sieht aus wie eine Konzeptgrafik. Wir haben ein anderes Beispiel. Mit dieser Eingabeaufforderung, mit 1.0, haben
wir diese Ergebnisse erhalten, und mit genau derselben
Aufforderung haben wir 1.5 Ergebnisse. Mit dieser Eingabeaufforderung haben
wir jetzt ein Ergebnis von 1,0, und mit genau derselben Eingabeaufforderung haben
wir ein Ergebnis von 1,5. Und 1.5 generiere, worum
ich ihn bitte Ich frage ihn nach einem Mann
mit Skimaske der auf einer Couch
sitzt und im Hintergrund
ein großes Feuer passiert. Und das ist es, was 1.5 generiert, und 1.0 generiert einfach diese Art von Bildern
, die ich wirklich nicht mag. Eine weitere Sache, die mir
in 1.5 gegenüber 1.0 auffällt
, ist , dass 1.0 eine
gewisse künstliche
Weichzeichnung in diesen Bildern enthält , 1.5
aber Bilder
ohne künstliche Weichzeichnung erzeugt Wie ihr sehen könnt, Leute,
sieht das aus wie eine Kinokamera. Und wenn wir zum Ergebnis 1.0 gehen, enthalten diese Bilder eine
künstliche Weichzeichnung Jetzt haben wir ein weiteres
Beispiel für 1.5. Ich ändere einfach einige Keywords in meiner Eingabeaufforderung und wir haben
diese Ergebnisse von 1.5 erhalten. Nun, wie Sie bei den Jungs in 1.0 sehen können, haben wir
wieder ein gewisses Maß an
künstlicher Weichheit Es sieht so aus, als ob ich
ein Bild mit niedriger Qualität
hochskaliere, und das ist das
Endergebnis Mit diesem Abschlussball
haben wir 1,5 Ergebnisse, und mit exakt demselben Abschlussball es 1,0 Ergebnisse Lassen Sie uns nun über
die Vektorbilder sprechen. Mit 1,5 bei diesem Abschlussball haben wir diese Ergebnisse erzielt. Mit 1,0 haben wir diese Ergebnisse erzielt, was beeindruckend ist als 1,5. Die Farbkombination ist gut. Im Hintergrund
ist die rote Farbe gut, aber andererseits töten
1,5 rote Farben meine Augen. Nun, mit dieser einfachen Aufforderung,
1.0, generieren Sie diese Bilder,
die, wie ich Ihnen bereits gesagt habe, etwas künstlich sind. Aber 1.5 macht auch
in diesem Beispiel einfach 1.0 kaputt. Mit dieser Eingabeaufforderung
haben wir nun 1,0 Ergebnisse und mit genau
derselben Aufforderung haben
wir 1,5 Ergebnisse Jetzt haben wir ein anderes Beispiel. Mit dieser Aufforderung
habe ich ein Ergebnis von 1,0. Mit genau derselben Eingabeaufforderung haben
wir ein Ergebnis von 1,5. Nun, 1.5 sieht so aus, als würde ich mit meiner Kamera ein Bild von
dieser Szene machen , aber in 1.0 haben
wir das Gefühl, dass es
durch künstliche
Intelligenz generiert wird . Jetzt haben wir ein anderes Beispiel. Mit dieser Eingabeaufforderung haben wir Ergebnis von
1,0 und mit genau
demselben Abschlussball haben
wir ein Ergebnis von 1,5. Und wie Sie sehen, 1.5,
versuchen Sie, so viel wie möglich
ein realistisches Bild zu erzeugen. Jetzt haben wir ein anderes Beispiel. Dies ist die Eingabeaufforderung, und
das ist das Ergebnis 1.0. Und bei exakt demselben Abschlussball ist
das Ergebnis 1,5. Und wie ihr sehen könnt, Leute, 1,5 allgemeines realistisches
Bild, dann 1,0. Jetzt haben wir ein anderes Beispiel. W 1.0, das ist die Eingabeaufforderung. Dies sind einige Ergebnisse von 1,0, und bei exakt demselben Prom haben
wir ein Ergebnis von 1,5. Bei diesem einfachen
Abschlussball-POE eines Autos ist das 1,5, und bei exakt
demselben Abschlussball ist
das Ergebnis 1,0. Jetzt haben wir auch wieder ein
Vektorbild. Mit dieser Eingabeaufforderung haben
wir ein Ergebnis von 1,0, aber mit genau derselben Eingabeaufforderung haben
wir ein Ergebnis von 1,5. 1.5 versuchen also, einen
realistischen Vektor zu erzeugen, aber 1.0 enthält einige Details. Wenn wir also versuchen, diese
beiden Modelle zu vergleichen, wenn Sie
Vektorbilder generieren möchten, dann denke ich, dass 1.0
die beste Option ist. Aber wenn du deinen Vektor
vereinfachen willst, dann versuche 1.5 zu verwenden, weil 1.5 deine Vektorbilder
so weit wie möglich
vereinfacht, aber 1.0 einige Details
in seinen Vektorbildern hat. Lassen Sie uns nun dieses
Bild mit Link-AI neu erstellen, also werde ich diese Aufforderung
kopieren Dies sind das Ergebnis
dieses Abschlussballs mit
Microsoft Designer Fügen wir nun diese Eingabeaufforderung ein
und generieren wir nun ein Bild. Ein weiterer großer
Unterschied zwischen 1.0 und 1.5 besteht darin, dass, wenn Sie ein Bild mit 1.0
generieren möchten, Ihre 0,20 Credits Wenn Sie
Ihr Modell jedoch auf 1,5 umstellen, wird ein
Credit pro Bild benötigt Wenn Sie also vier Bilder
generieren möchten, werden
dafür Ihre vier Credits benötigt. Lassen Sie uns nun klicken, um mit 1.5 zu
generieren. Das ist jetzt ein Ergebnis von
1,0 mit dieser Aufforderung, und die Ergebnisse sind nicht schlecht. Ich bin wirklich beeindruckt der Ausgabe dieses
Abschlussballs mit 1.0. Jetzt mit 1.5 und
genau derselben Aufforderung haben wir diese Ergebnisse erhalten. Was auch nicht schlecht ist, aber aus irgendeinem Grund mag
ich das Ergebnis 1.0. Wenn wir andererseits zur
Originalquelle zurückkehren ,
denke
ich, dass 1.5 versuchen, ein realistisches Bild
gemäß dieser Aufforderung zu generieren. Aber 1.0 generiert eine eigene
Version dieser Aufforderung. Wenn Sie Ihre Credits
sparen möchten, empfehle
ich Ihnen, ein Bild zu verwenden, beide Modellergebnisse zu
generieren, und wenn Ihnen dann
ein Modellergebnis gefällt, verwenden Sie dieses Modell und generieren Sie
vier Ergebnisse, wenn Sie möchten. Denn wenn Sie vier Bilder
generieren, erhalten
Sie eine
andere Variante. Wenn wir diese vier Bilder vergleichen, haben
wir einige winzige Unterschiede
zwischen diesen Bildern. Dies gilt
auch für dieses 1.5-Modell. Wir haben winzige Änderungen
in vier Bildern. Und in der endgültigen Ausgabe wurde
nur
der Kamerawinkel geändert.
8. Bilder mit konsistenten Motiven erstellen: Willkommen zurück, alle zusammen. Wenn ihr also euer Modell
von Cro 1.0 auf oder 1.5 ändert, wenn ihr zu Text zu Bild geht, genau hier, wie ihr sehen
könnt, Mädels, haben
wir eine neue Funktion für 1.5
namens Referenz hochladen. Wenn ihr jetzt also eine Referenz
hochladet, müsst ihr ein Thema auswählen. Jetzt haben wir dieses
Bild als Referenz. Um diese
Art von Bildern zu erstellen, müssen
Sie also zu AbstodGoogle gehen Sobald Sie zu
Labs Dot Google gehen, müssen
Sie Bildeffekte auswählen Und wenn wir jetzt
mein Originalbild öffnen, ist
dies der Abschlussball, mit dem
ich
dieses Bild mit
Labs-Google-Bildeffekten generiere . Sobald wir die
Referenz hochgeladen haben, haben wir drei Möglichkeiten. Entweder können wir
das gesamte Thema auswählen, wir können nur
die Phasenreferenz oder wir können
das gesamte Bild auswählen. Jetzt müssen Sie dies
berücksichtigen Wenn Sie das gesamte Bild auswählen, wechselt das Modell von 1,5 auf 1,0. Nehmen wir also an, wir wählen
das gesamte Bild aus. Ich werde das bestätigen,
und wie ihr sehen könnt, Leute, haben wir jetzt Cloud 1.0. Und wenn wir jetzt mit der Maus auf diese kleine
Vorschau dieses Bildes fahren, wenn wir hier klicken,
ist das die Bearbeitung. Wenn wir die Subjektphase auswählen und ich jetzt auf
diese bestätigte Schaltfläche klicke, wird das Modell jetzt,
wie Sie sehen können von 1,0 auf 1,5
umgestellt. Wenn wir zu 1,0 wechseln, wird
die Referenz weitergeführt. Laden wir nun die
Referenz erneut hoch. Und jetzt wähle ich
dieses Mal die Phase aus. Lass uns auf Bestätigen klicken. Sobald Sie die
Phase Ihrer Referenz ausgewählt
haben, können Sie alles eingeben,
was dieser Betreff tun soll. Wenn Sie nun Ihre
Referenzstärke auf 100 ändern, wird das exakte
Gesichtsmerkmal Ihres Motivs kopiert . Lassen Sie uns das also auf 50% ändern. Und jetzt tippe ich
einen Jungen, der auf einem Sofa
in einem Studio sitzt , und lass uns dramatische Beleuchtung
eingeben. Und wie Sie sehen können, werden für jedes Bild zwei Credits
mit der Referenz benötigt. Und wenn Sie die Referenz löschen, wird ein
Credit pro Bild benötigt. Wir haben also vier Varianten. Deshalb haben wir
acht Credits. Und jetzt lassen Sie uns
diese Bilder generieren. jetzt mit genau derselben Aufforderung Gehen
wir jetzt mit genau derselben Aufforderung zur Bearbeitung, und jetzt
wähle ich mein gesamtes Thema aus. Wenn Sie also die Phase auswählen, wird Ihr
Gesicht als Referenz kopiert. Wenn Sie jedoch das Thema auswählen, wird Ihr
gesamtes Thema kopiert. Das schließt seine
Kleidung ein und so weiter. Klicken wir auf Bestätigen und dann auf Generieren Wie ihr sehen könnt, Leute,
haben wir diese Ergebnisse. Wie Sie jetzt sehen können, haben wir
dieses wunderschöne Ergebnis erzielt. Und wenn wir
zur Originalquelle zurückkehren ,
wie ihr sehen könnt, Leute, haben
wir diese Phase
als Referenz, und das sind komplett neue
KI-generierte Bilder. Jetzt können wir auch die Referenz und die
Betreffphasenreferenz
ändern . Nun, wie ihr sehen könnt, Leute, hat es meine 45%
-Phasenreferenz dieses Bildes kopiert. Wenn wir das auf 100% ändern, wird genau diese Phase kopiert. Also lass uns das machen. Gehen wir zurück zu den Ergebnissen der
Phase Select und ich ändere
meinen Referenzwert auf 100%. Gehen wir jetzt mit genau derselben
Aufforderung zur Bearbeitung. Und dieses Mal wähle ich
das gesamte Bild aus. Und jetzt haben wir das Modell 1.0. Und mit der Referenz werden 0,30 Credits pro Bild benötigt Lassen Sie uns also
vier Varianten generieren. Also sind die Bilder jetzt generiert. Bei einer Phasenreferenz, einer Stärke von
100%, das haben wir auch mit der
Motivreferenz erreicht. Nun, mit nur der
Phasenreferenz, wie ihr sehen könnt, Leute, haben
wir das Ergebnis. Und wie ich dir schon gesagt habe, es wird nur dein Gesicht kopieren. Deshalb haben wir in
diesen vier Varianten
unterschiedliche Frisuren. Jetzt haben wir die gesamte
Bildreferenz, und das haben
wir mit 1.0 bekommen. Wählen wir nun
ein anderes Thema aus. Ich werde
diesen Betreff löschen. Wenn wir jetzt
mit dieser Aufforderung zu Labs
Dot Google Image Effects zurückkehren , habe ich dieses Bild generiert. Laden wir also dieses Bild herunter. Jetzt
wähle ich diesen Betreff aus, klicke auf Bestätigen und mit genau
der gleichen Aufforderung. Mit einer hundertprozentigen Phasenreferenz können
wir generieren, lassen
Sie uns diesen Aspekt zur Geltung bringen. Und jetzt lassen Sie uns
diese zur Variation generieren. Nun, wie ihr sehen könnt, Leute, haben
wir diese Bilder. Lassen Sie uns auch den
Betreff-Bezug auf 100% ändern, und ich werde
meinen Tempo-Bezug auf
60% ändern , weil ich möchte, dass KI die Referenz
des Subjekts übernimmt, nicht zu sehr, und ich
möchte, dass die Kleidung
des Probanden zu 100% passt. Deshalb ändere ich
meinen Bereich auf 100%. Lassen Sie uns diese Ergebnisse generieren. Wie ihr sehen könnt, Leute, haben wir diese Ergebnisse. Jetzt haben wir eine andere
Phase, weil ich einen Jungen
tippe und das Schlüsselwort
in Männer ändern und jetzt lass uns generieren. Wie ihr sehen könnt, Leute, in den neu generierten Ergebnissen zu 100% auf mein Thema Bezug genommen
. Wie ihr sehen könnt, Leute, wenn wir
zur ursprünglichen
Quellenangabe gehen , lasst uns zur Bearbeitung übergehen. Wir haben diese Jacke, und wenn wir zu den
generierten Bildern gehen, haben
wir dieselbe Jacke. Und jetzt, wie ihr sehen könnt, haben wir diese Ergebnisse. Der Grund, warum diese
Referenzbildfunktion wichtig
ist, liegt darin Sie jetzt
konsistente Bilder generieren können, dass
Sie jetzt
konsistente Bilder generieren können,
und mit diesen konsistenten Bildern können
Sie Ihre
Bilder auch in Videos umwandeln. Wenn wir also zum
animierten Korrektor zurückkehren, wie ihr seht, Leute, können wir diesen Jungen überall
hinbringen Wir können also auch tippen, auf
einem Sofa sitzen oder in einem Auto sitzen Mit dieser Aufforderung werden Bilder generiert, und jetzt können wir diese
Bilder in Videos umwandeln. Auf diese Weise können Sie
konsistente Videos mit
derselben Themenkonsistenz erstellen . Wie Sie sehen können
, haben wir jetzt dasselbe Thema in einem Auto. Wir können das Sitzen
im Auto auf Autofahren umstellen. Fügen wir ein Komma mit dramatischer Beleuchtung hinzu.
Lasst uns nach rechts abbiegen. Und jetzt, wie Sie sehen können,
haben wir diese Ergebnisse. Jetzt können wir mit
dieser
Referenzfunktion von Ling AI
konsistente
Charaktervideos erstellen mit
dieser
Referenzfunktion von Ling AI
konsistente
Charaktervideos .
9. Grundlegende Einführung in die Generierung von KI-Videos: Willkommen zurück. Jetzt musst
du hier klicken und zu den Videos gehen, um Clips mit Cling AI zu
generieren. Jetzt gibt es einige Möglichkeiten, Clips mit Cling AI zu generieren. Der erste ist Text zu Video. In Text-to-Video müssen
Sie
eine Eingabeaufforderung eingeben , um den Clip zu generieren. Also lass uns das jetzt machen.
Jetzt habe ich diese Aufforderung. Sie können genau dieselbe
Aufforderung in den Einstellungen kopieren. Wie ihr sehen könnt, Leute, müssen
wir den Slider ziehen. Wir haben Kreativität und
Relevanz. Jetzt haben
wir den Modus Standard und den Modus Professional. Wenn Sie
das kostenlose Konto verwenden, erhalten
Sie nur
den Standardmodus. Lassen Sie uns nun den
Standardmodus für dieses Beispiel überprüfen. Jetzt haben wir die Länge
fünf bis 10 Sekunden. Wir haben das Seitenverhältnis
, das Sie ebenfalls ändern können. Sie können ein beliebiges
Seitenverhältnis auswählen. Jetzt haben wir die Anzahl
der Generationen. Im Moment habe ich mich auf
eine Videogeneration eingestellt. Jetzt, unterhalb des Seitenverhältnisses, haben
wir Kamera-Momente. Wenn du hier klickst, haben wir
so viele Kameramomente. Unter den Kameramomenten haben
wir nun negative Abschlussballmomente. Also, was ist der negative Abschlussball? Ein negativer Abschlussball ist
etwas, das
du in deinem
generierten Video nicht haben willst. Wenn du zum Beispiel keine
Unschärfe in deinem Video haben möchtest , tippe
einfach die Unschärfe Wenn du keine Verzerrung oder
etwas wie eine Verletzung des
Frames möchtest , kannst
du das
Wort hier eingeben, dann wird
das nicht in deinem Video erzeugt Klicken wir nun auf
diese Schaltfläche zum Generieren. Deshalb verwende ich auch Microsoft
Designer für diese Aufforderung. Wie Sie sehen können, Leute, ist
dies das Ergebnis dieser Aufforderung in
Microsoft Designer. Jetzt denke ich
, dass wir
ein anderes Ergebnis
als dieses haben werden , weil es
in Microsoft Designer generiert wurde und wir King Eye verwenden,
bei dem zwei völlig
verschiedene Arten von Tools handelt. Während das Video
auf der rechten Seite generiert wird, werden
wir die Ergebnisse
der generierten Videos haben. Wie ihr sehen könnt, Leute, ich
generiere so viele Videos. Sie können hier klicken, um Ihre Videos
in Text in Video umzuwandeln. Das sind also alles
mein Text zum Video. Du klickst hier, du kannst
das in Bild zu Video ändern. Dies sind alle meine Bilder,
die in KI-Videos
umgewandelt wurden Sie können auch alle Videos
auswählen Alle Videos werden auf der rechten Seite
angezeigt. Sie können auch hier klicken. Sie können die Ansicht auch
von der einfachen Ansicht zur Detailansicht ändern. Wie Sie sehen können, ist
dies nun in der Detailansicht das neue Video, das ich mit diesem Tool generiere. Das sind alles meine alten Videos. In der Detailansicht haben Sie dem Abschlussball
das Referenzbild. Wenn Sie eines haben,
habe ich
in diesem Beispiel das Referenzbild, sind
also alle meine
Referenzbilder. Es wird auch
die Version angezeigt, mit der Sie das Video generiert haben. Also verwende
ich für dieses Video zum Beispiel Kling 1.0. Wenn ich
für einige Videos nach unten scrolle, verwende
ich Kling 1.5, wie in diesem Beispiel.
Lass uns das ändern. Sie können auch auf A klicken, um ein Video
oder Bild auszuwählen , das
Sie herunterladen können. Sie können das
Video oder Bild auch löschen. Sie können das auch
auf Ihren Favoriten setzen, oder Sie können erneut klicken, um das Ding als
Favorit Klicken wir jetzt erneut darauf. Jetzt wird das Video generiert. Sehen wir uns das Ergebnis an. Und es unterscheidet sich grundlegend
vom Microsoft-Designer, wie ich bereits sagte. So können Sie mit Ing AI einen Clip
generieren,
indem Sie eine Eingabeaufforderung in
Text-zu-Video verwenden. In der nächsten Vorlesung werden
wir nun darüber sprechen, was der Unterschied zwischen dem Standardmodus
und dem professionellen Modus ist.
10. Beeindruckenden Text in Video generieren: Komm zurück.
Kopieren wir jetzt diese Aufforderung. Ich habe Microsoft Designer verwendet
, um meine Eingabeaufforderung zu verbessern, und ich habe diese Ergebnisse erzielt. Gehen wir jetzt zur King
AI und fügen diese Aufforderung ein. nun für dieses Video Lassen Sie uns nun für dieses Video
den Standardmodus auswählen, und ich möchte
keine Einstellung ändern Und jetzt klicken wir auf
die Schaltfläche Generieren. Während dieses Video generiert wird, können
wir den
professionellen Modus auswählen. Übrigens, wenn Sie das Premium-Konto
verwenden, kostet Nutzung des
professionellen Modus
35 Credits. Jetzt können wir diesen Abschlussball generieren, sodass die Videos jetzt generiert werden. Das ist also das Video im
Standardmodus. Es sieht ziemlich gut aus. Und das ist ein professioneller Modus. Wie du sehen kannst, gibt
es einen großen Unterschied. Es liegt kein Frame-Verstoß vor. In diesem Video ist nichts
falsch. Es sieht aus wie ein echtes
Filmmaterial aus dem wirklichen Leben. Jetzt ändern wir den Wert von
Cling 1.0 auf 1.5. Wenn Sie jetzt 1.5 wählen, verschwindet
der Kamera-Moment. Und wir können den
professionellen Modus nicht auf Standard ändern. Also lass uns jetzt generieren. Jetzt gibt es einen großen Unterschied zwischen dem professionellen Modus
und dem Standardmodus. Der professionelle Modus bleibt konsistent und
generiert Ihr Video. Es ist nichts falsch. In diesem Clip liegt kein
Frame-Verstoß vor. Aber im Standardmodus generieren Sie
einfach Ihren Clip, was auch immer Sie fragen, und er
bleibt inkonsistent Wie ihr sehen könnt, Leute, haben wir etwas, das den Rahmen verletzt
, im Vordergrund, und im
Berg tauchen auch
komische Punkte oder Ringe Wenn Sie also
hochauflösende Ergebnisse erzielen
möchten, verwenden Sie einen professionellen Modus, aber Sie müssen auf die Pro-Version aktualisieren Übrigens, wenn Sie Ihre
generierten Videos
erneut aufrufen und sehen möchten,
welchen Modus ich verwende und
welche Einstellung ich verwende, um diesen Clip zu
generieren, dann können Sie sich diesen auch ansehen Zum Beispiel, wenn ich dieses Video
auswähle. Wie ihr sehen könnt, Leute, habe ich den Modus auf Standard
geändert. Aber wenn ich dieses Video auswähle, wurde der Modus automatisch
auf Beruf
geändert , da ich diesen Modus ausgewählt habe, als ich dieses Video generiert
habe. Nicht nur das, wenn Sie eine Kamerasteuerung
auswählen, wird sie genau hier angezeigt. Wenn Sie ein Seitenverhältnis, eine
Länge usw. ändern ,
wird es auf der linken Seite angezeigt Jetzt ist das Video regeneriert, hier haben wir das Ergebnis Ich mag das irgendwie,
weil es das generiert,
wonach ich gefragt habe Für den professionellen Modus glaube
ich, dass mir dieser gefällt, aber die neue Version
sieht
schöner und besser aus
als die vorherigen. Wenn ich dieses Video jetzt auch
regeneriere, erhalten
wir ein anderes Ergebnis Warum also nicht das tun? Wenn Sie nun nicht
das gewünschte Ergebnis erzielen,
regenerieren Sie Ihr Ergebnis In diesem Beispiel erhalten
wir also ein anderes und
besseres Ergebnis als das vorherige Dieses Video, das wir mit eins,
aber fünf
generiert haben , ist nicht schlecht. Aber das neue Video
sieht schöner aus
als das vorherige. Jetzt haben wir also das
regenerierte Videoergebnis 1.0-Perfektionsmodus Wenn Sie Videos generieren möchten, müssen
Sie Version 1.0 im
professionellen Modus
und Version 1.5 im Perf-Modus ausprobieren im
professionellen Modus
und Version 1.5 im Perf-Modus Da Sie
unterschiedliche Ergebnisse erzielen, können
Sie das Video auswählen, das Sie
in Ihren Projekten verwenden möchten Ich kann all diese
Videos außer
der Standardkarte verwenden , da der Standardmodus nicht nützlich
ist. Sie können es in Ihren
YouTube-Videos verwenden, aber es ist nicht sinnvoll, da
wir ein inkonsistentes Video haben,
wohingegen der Modus 1.5
im Pressionsmodus viel bessere Methode
zum Generieren von Videos ist
11. Kreativität vs. Relevanz: Willkommen zurück. Jetzt zeige ich
Ihnen, was der Unterschied zwischen
Kreativität und Relevanz ist. Für dieses Beispiel verwende
ich also diese Eingabeaufforderung und
generiere diese vier Ergebnisse. Dann verwende ich dieses Bild
als Referenz. Dann generiere ich
diese vier Ergebnisse. Klicken wir jetzt hier, um
dieses Bild zum Leben zu erwecken. Lassen Sie uns diesen Tab schließen. Wenn wir jetzt einfach
hier in der Mitte bleiben, wird
es
ein normales Video erzeugen, melken und Schokolade
darüber gießen Lass uns das in
Kreativität umwandeln und lass uns generieren. Auch jetzt ändere ich meinen Schieberegler nach
rechts, sodass die Relevanz angezeigt wird. Und jetzt klicken wir
auf diese Gnute-Schaltfläche. Jetzt werden die Ergebnisse generiert. Hier haben wir das Ergebnis der
Kreativität. Und hier haben wir das
Relevanzergebnis. Also, was Kreativität
angeht, wie
ihr sehen könnt , geht es einfach darum, von selbst
etwas hinzuzufügen. Was die Relevanz angeht, bleibt man einfach
beim Thema und generiert das, was
wir von ihm verlangen. Was ist nun, wenn wir
den Schieberegler
einfach nicht auf „
extreme Relevanz“
oder „extreme Kreativität“ umstellen den Schieberegler
einfach nicht auf „
extreme Relevanz“
oder „extreme ? Lassen Sie uns den Schieberegler
auf etwa 0,35 Kreativität ändern. Und dieses Mal werde ich den Standardmodus
wählen und jetzt lass uns diesen Clip
generieren Lassen Sie uns nun den Schieberegler auf
ungefähr sieben Relevanz ändern und den Clip generieren. Lassen Sie uns nun den
Ling 1.0 auf 1.5 ändern. Lassen Sie uns nun den
Schieberegler auf Kreativität umstellen. Ändern Sie den Schieberegler erneut auf Relevanz und lassen Sie uns
nun generieren. Jetzt generieren wir die
vier Videos gleichzeitig. Die Ergebnisse werden jetzt also generiert. Wenn wir also die
Folie einfach ein wenig nach links verschieben, um der Kreativität zu entsprechen, haben
wir dieses Ergebnis. Und wenn wir die
Folie der Relevanz entsprechend ein
wenig nach rechts verschieben, haben
wir dieses Ergebnis. Jetzt weiß ich, dass diese beiden
Ergebnisse ähnlich aussehen, aber es gibt einen großen Unterschied. Also, was die Relevanz angeht,
bleib beim Thema. Es geht darum, die Milch
auf dieser Seite zu sammeln, wo kreativ,
wie ihr sehen könnt, Leute, die Milch verteilt sich
auf diese Portion, nicht nur sammelt sie sich auf dieser Seite. die Relevanz angeht, wie
ihr sehen könnt, Leute, ist
die Milch jetzt auf dieser Seite
gesammelt. Lassen Sie uns nun das Ergebnis auf
die extreme Kreativität
und Relevanz von 1.5 bringen . Das ist die extreme
Kreativität, 1.5. Die Ergebnisse sind nicht schlecht. Schauen wir uns nun
das Dileman-Ergebnis an. Wenn wir nun die Folie
auf Kreativität auf 0,3 ändern, werden wir
meiner Meinung nach ein besseres Ergebnis erzielen Lassen Sie uns jetzt den Clip generieren. während der Generierung des Videos Lassen Sie uns während der Generierung des Videos ein
anderes Beispiel herausnehmen. In diesem Beispiel verwende
ich also diese Eingabeaufforderung. Ich verwende 1.5 und ändere meinen
Schieberegler, um extreme Kreativität zu erzielen. Wir haben also dieses Ergebnis. Und im nächsten Beispiel ändere
ich meinen Schieberegler mit 1.5 auf
extreme Relevanz, und wir haben dieses Ergebnis erhalten. Und wenn wir den Slider einfach gar nicht
ändern, haben
wir dieses Ergebnis. Und in diesem Beispiel verwende
ich einfach ein Bild. Ohne den Schieberegler zu ändern, haben
wir dieses Ergebnis erhalten. Jetzt
werden die Ergebnisse generiert. Wenn Sie nur ein
bisschen Kreativität einsetzen, werden
Sie einige
interessante Ergebnisse erzielen. Und ich verwende dafür den
Standardmodus, nicht den professionellen Modus. Und ich verwende die neueste Version 1.5. Die Kreativität ist auf 0,3 gesetzt, und das ist das
schlechteste Ergebnis, das wir je
mit diesem Bild erzielt haben. Also meine letzten Worte: Benutze diesen Schieberegler
nicht über
0,65 und unter bis zu 0,35 Wenn du
etwas Interessantes generieren willst, dann schiebe diesen Schieberegler nicht nach links
oder extrem rechts Und das ist der Unterschied zwischen Kreativität
und Relevanz.
12. KI-Kamerabewegung: Willkommen zurück. Gehen Sie jetzt
zu Microsoft Designer und ich möchte einen
Schokoladen-Werbespot erstellen. Also werde ich Chocolate
Commercial in einem Hotel schreiben. Jetzt können wir die Eingabeaufforderung verbessern. Ich finde diese Aufforderung gut. Kopieren wir diese Aufforderung. Gehen Sie zu Kling AI und wir können diese Aufforderung einfügen. Wenn wir jetzt nach unten scrollen, können
Sie sehen, dass der
Moment, in dem die Kamera verschwunden ist, angezeigt wird. Um also den Kamera-Moment nutzen zu
können, müssen wir den
Kling 1.5 auf Kling 1.0 umstellen. Jetzt haben wir diese
Kamera-Momentsteuerung. Wenn wir hier klicken, können
Sie sehen, dass wir
verschiedene Arten von
Kameramomenten haben . Wenn wir nach unten scrollen,
haben wir auch Master Shot. Sie können dies auswählen und Sie erhalten verschiedene
Kameramomente. Jetzt werde ich
jede Kamerabebewegung erklären. Zuallererst
haben wir also horizontal. Jetzt können wir den Schieberegler ändern und erhalten eine andere
horizontale Position. Wenn ich das
auf die linke Seite
ändere, erhalte ich einen horizontalen Moment von der Mitte zur linken Seite, und wenn ich das
auf die rechte Seite ändere, dann haben wir einen
Kamera-Moment von der
Mitte zur rechten Seite. Anstatt es zu erklären, werde
ich es dir zeigen. Wählen wir also zunächst die Horizontale aus und
ändern wir sie auf die linke Seite. In dieser Eingabeaufforderung haben
wir also einen Werbespot für Schokolade,
und im Werbespot ändert
die Kamera die Position die horizontale Position von der
Mitte zur
linken Horizontalen. Wählen wir nun 1.0, ändern den Motor Professional und lassen Sie uns den Clip generieren. Jetzt ist das Video generiert,
das ist das Ergebnis. Wie ihr sehen könnt,
Leute, in diesem Video ändert
die Kamera
die Position zur linken horizontalen
Seite. Was wir eingestellt haben. Jetzt können wir den
Kamera-Moment sehr einfach ändern. Sie müssen nur den Schieberegler so
einstellen , dass Sie Ihren Kameramoment
einstellen möchten. Lassen Sie uns also den Kamera-Moment
zum Verkleinern ausprobieren. Jetzt habe ich
verschiedene Kamera-Momente generiert. Das ist also der Zoom im extremen
Zoom im Kamera-Moment. Und das ist die Pfanne 3.4. Das ist eine Neigung von fünf und das ist
eine extreme Rolle bis minus zehn. Wie ihr bemerkt, Leute,
sind
die Videos, die wir mit
diesen Kameramomenten
generiert haben , inkonsistent Also
sind alle Clips inkonsistent. In
dem Video im Hintergrund,
im Vordergrund passiert etwas , während Sie die Kamera-Momente
verwenden Es gibt einen subtilen
Kamera-Moment, den Sie nutzen können und Sie werden weniger von
diesem Verstoß betroffen sein. Wenn Sie jedoch extreme
Kameramomente verwenden, wie wir sie bei
Zoomin verwenden , und bei extrem
minus zehn waagerechten Momenten, kommt es zu extremen Lassen Sie uns nun den
Kamera-Moment zurücksetzen. Lassen Sie uns das einfache Video generieren. Jetzt werde ich diese Aufforderung
kopieren. Dies sind die Ergebnisse
dieser Aufforderung. Und jetzt gehen wir zum Video. Lassen Sie uns diese Eingabeaufforderung einfügen. Lassen Sie uns zunächst
ohne Kameramoment generieren. Also ohne jeden
Kameramoment ist das das Ergebnis. Und wie du sehen kannst, ist
das Video konsistent. In dem Video
passiert nichts Seltsames,
und dies ist das Video mit drei
D-Charakteren
ohne Kameramoment ohne Kameramoment Aber wie du sehen kannst, Alter, sind
die Ergebnisse ziemlich beeindruckend Für dieses Video haben
wir also dieselbe Eingabeaufforderung, die wir in drei D-Zeichen verwenden, und ich verwende Master Shot, Move Left und Zoom in. Und hier haben wir das Ergebnis. Wie du sehen kannst, ist das
Ergebnis inkonsistent. In der Aufnahme ist etwas Seltsames
passiert. Wir haben ein anderes Beispiel: Master Shot, Move
Forward und Zoom Up Das Video enthält nicht viele
Details, deshalb haben wir
dieses reibungslose Ergebnis. Und wir haben ein weiteres
Beispiel für Master Shot, bewegen Sie sich nach rechts und vergrößern Sie es. Auch hier Inkonsistenz
im Video. Ich glaube also nicht, dass wir
derzeit
mit den Kameramomenten ein konsistentes Ergebnis
erzielen können mit den Kameramomenten ein konsistentes Ergebnis
erzielen Wenn Sie
mit dem Kameramoment experimentieren möchten, können
Sie das auch tun. Mit der kostenlosen Version können
Sie einfach
Ihren Standardmodus auswählen und jeden Kameramoment verwenden. Und ich glaube nicht
, dass Sie zusätzliches
Guthaben verlieren werden , wenn Sie den Kameramoment
nutzen. Wenn Sie jedoch ein
konsistentes Ergebnis erzielen
möchten, empfehle ich, keinen Kameramoment zu
verwenden , da der
Kameramoment momentan nicht nutzbar ist.
13. Negative Aufforderung: Willkommen zurück. Jetzt haben
wir in diesem Tool eine weitere tolle Option
namens negative Eingabeaufforderung. Wenn Sie also
nichts in Ihrem Video sehen möchten, geben Sie
einfach dieses Wort ein
und es wird
ohne das generiert , was
Sie hier eingeben. Also, in diesem Video, wie ihr sehen könnt, Leute,
haben wir diese seltsame Verzerrung. In diesem Beispiel gebe ich also
Rechtsverletzung und Bewegungsunschärfe , die ich in meinem Video nicht sehen
möchte, und hier haben wir das Ergebnis Wie du sehen kannst, Alter, gibt es in unserem Video
keine Verzerrung. Wir haben ein anderes Beispiel, bei dem
ich nur Verstoß eintippe. Wir haben also diesen reibungslosen
Übergang zwischen zwei Frames. Wenn ich dieses Video abspiele, haben
wir dagegen diesen seltsamen
Verstoß. So wie dieser. Auch in diesem Beispiel tippe ich einfach Verletzung ein
und wir haben reibungsloses Übergangsergebnis. Übrigens, wenn Sie den Standardmodus
verwenden, können
Sie auch
erstaunliche Ergebnisse erzielen. Wie bei diesem verwende ich meinen Standardmodus und
wähle diese Masteraufnahme aus. Und ich tippe einfach „Entstellung“, „
Bewegungsunschärfe Bewegungsunschärfe Und hier haben wir das Ergebnis. Es liegt ein kleiner
Verstoß vor, aber nicht viel. Wir haben auch dieses Ergebnis und wir haben auch dieses. Wir haben noch
einen. Für diesen verwende
ich den Standardmodus und wir haben dieses Ergebnis erhalten. Wie ihr sehen könnt, Leute, schließt der
Charakter sein Auge und es
passiert etwas Verzerrtes im Kurzfilm Um diese Verzerrung zu vermeiden, gebe ich bei der negativen Eingabeaufforderung einfach Distortion Und wie ihr sehen könnt, Leute, haben wir
jetzt dieses glatte Ergebnis. Übrigens verwende ich
den Standardmodus, nicht den professionellen Modus. Wie ihr sehen könnt, Leute, erscheinen die
zehn Credits in der Generierung. Wenn ihr also negative Eingabeaufforderung
eintippt, alles, was ihr nicht in eurem Video sehen
wollt, werdet ihr ein
atemberaubendes Ergebnis erzielen, selbst wenn ihr
den Standardmodus benutzt. Und nachdem ich das mit
diesem Kamera-Moment,
mit diesen negativen Keywords,
die ich nicht in meinem Video sehen
möchte, erneut regeneriert mit
diesem Kamera-Moment,
mit diesen negativen Keywords,
die ich nicht in meinem Video sehen
möchte, erneut mit diesen negativen Keywords habe, habe ich dieses Ergebnis erhalten, und es gibt fast keine
Verstöße im Video So können Sie mit Ling AI ein atemberaubendes Ergebnis
erzielen, indem Sie eine negative
Eingabeaufforderung eingeben
14. Generieren von Bild zu KI-Video: Willkommen zurück. Der nächste Weg, Videos zu
generieren,
ist also die Verwendung von Bildern. Gehe zum Bild zum Video. Wir können das
Bild hochladen oder zu
den AI-Bildern gehen und ein beliebiges Bild auswählen. Sie können ein beliebiges Bild auswählen und dann
hier klicken, um es zum Leben zu erwecken. Sie können
mit Ihrem Bild ein Video generieren. Also haben wir das schon gemacht, also lasst uns das löschen. Gehen Sie jetzt zum
Microsoft-Designer. Sie können eine beliebige Eingabeaufforderung
eingeben Ihre Eingabeaufforderung
verbessern. Sie können Ihre Größe auswählen, was die Größe
Ihres Bildes sein soll. Sie können eine beliebige Größe wählen. Und jetzt klicken wir auf
diese Warte-Taste der Generation. Nun, hier haben wir das Ergebnis. Sie können jedes
Bild auswählen, das Ihnen gefällt. Also ich mag diesen irgendwie. Sie können hier klicken, um ein
beliebiges Bild herunterzuladen. Gehen Sie jetzt zurück zu Cling Eye, gehen Sie zum Bild zum Video, klicken Sie hier und wählen Sie das
Bild aus, das wir gerade heruntergeladen haben. Klicken Sie darauf, um es zu öffnen. Sie können Ihr
Bild auch
per Drag & Drop verschieben. Jetzt können wir dieses Bild auch per Drag
& Drop verschieben. Sie können jede
Aufforderung eingeben, die optional ist. Es gibt auch einige andere
Einstellungen. Und für dieses Beispiel wählen
wir den Standardmodus. Jetzt können wir klicken, um dieses Video zu
generieren. Das Video ist jetzt also generiert. Hier haben wir das Ergebnis. Sie können jedes Bild zum Leben erwecken. Sie können jedes Bild hochladen.
Es spielt keine Rolle. Sie können sich auch selbst hochladen. In diesem Beispiel lade
ich jetzt mein Bild und hier haben wir das Ergebnis. Nicht nur das, Sie können auch
Ihr altes Foto zum Leben erwecken. Sie können auch
Ihr manipuliertes Foto hochladen. Wie ihr sehen könnt, Leute, habe ich dieses Bild mit Photoshop
selbst bearbeitet und dieses Bild auch
zum Leben erweckt Dies ist auch ein weiteres Beispiel. Wir haben auch dieses Beispiel. Und wir haben auch dieses
Beispiel. Ihr könnt also sehen, Leute, es ist
ziemlich erstaunlich, wie ihr euer
Kindheitsfoto zum Leben erwecken
könnt. Nicht nur das, Sie können
ihm auch sagen , dass er mit Ihrem Foto alles machen soll, was
Sie wollen. In diesem Beispiel gebe
ich Messer ein, das
Orange in zwei Stücke schneidet. Und jetzt haben wir hier das Ergebnis. Das Messer schneidet jetzt die Orange. Und in diesem Beispiel bitte
ich ihn, dieses
Videoset im Cyberpunk-Stil zu machen Und das habe ich bekommen. Ziemlich erstaunlich, oder? So können Sie Ihre
Videos mit dem Bild generieren.
15. Start- und Endrahmen: Willkommen zurück. In Killing A haben
wir also eine weitere tolle
Funktion namens Add Ndframe Wenn wir es aktivieren, können
Sie sehen, dass wir zwei
Fenster zum Hochladen der Bilder haben Dies ist der Startframe
und dies ist der Endrahmen. Gehen Sie jetzt zum
Microsoft-Designer. Sie können diese Eingabeaufforderung eingeben. Sie können diese Bilder generieren. Für dieses Beispiel werde
ich dieses Bild herunterladen. Jetzt müssen Sie Ihren Endframe
entsprechend der Perspektive
Ihres ersten Frames
auswählen entsprechend der Perspektive ,
um atemberaubende Ergebnisse zu erzielen. Ich denke also, dass das Bild Nummer vier dem orangefarbenen Bild sehr ähnlich
ist. Also lass uns das auch herunterladen. Jetzt können wir hier klicken, um den Startframe
hochzuladen. Jetzt klicken wir hier, um den letzten Frame
hochzuladen. Und für dieses Beispiel wähle
ich
diesen Modus mit zehn aus, und jetzt klicken wir auf
diese Schaltfläche mit zehn Wt. Also hier haben wir das Ergebnis. Wie ihr sehen könnt,
Leute, verwandelt sich Orange jetzt in Apple. Jetzt erweitere ich dieses
Video auch automatisch, und jetzt haben wir dieses
generierte Video. Dann verlängere ich
das Video um fünf Sekunden mit der Aufforderung
, Äpfel zu pürieren, und jetzt haben wir dieses Ergebnis Sie können
ihn auch bitten, alles zu tun. In diesem Beispiel gebe ich
Apple Transforming Camera Stay Static ein. Die Kamera bewegt sich also nicht, die Kamera bleibt
in der Position. Es gibt zwei verschiedene
Perspektiven. Deshalb haben wir
dieses seltsame Ergebnis erzielt. Aber wenn Sie die
richtige Perspektive gewählt haben und die
Tabellenposition dieselbe ist, erhalten
Sie ein atemberaubendes
Transformationsvideo. In diesem Beispiel gebe ich einfach Apple
Transforming ein. Vorher hatten wir die Orange
am Startframe, jetzt haben wir den Apfel am Startframe und die
Orange am Endrahmen. der
End-Frame-Funktion dieses Tools können Sie verschiedene Arten Mit der
End-Frame-Funktion dieses Tools können Sie verschiedene Arten von
verrückten Dingen machen. Lassen Sie mich Ihnen
einige Beispiele zeigen. Wir haben also dieses Beispiel. Das ist mein Start-Frame
und das ist mein Ende-Frame. Ich habe den Pro
Car Crash durch
die Wand getippt und bin
zwischen zwei Wänden hängen geblieben Setze meinen Schieberegler auf
Relevanz 0,8 und verwende
den Standardmodus für diese Generation In diesem Beispiel verwende ich diesen Frame und füge
mich selbst dem Venom hinzu, und dann verwende ich ihn
am Ende des Frames Wie ihr sehen könnt, Leute, und
ich tippe Mann, der Gift wird. Ich habe keine Einstellungen geändert, auch den Standardmodus für
diese Generation
verwendet habe auch den Standardmodus für
diese Generation
verwendet
und dieses Ergebnis erzielt Nachdem ich das Video generiert habe, verbessere ich etwas
Licht in meinem Gesicht, füge das Giftgesicht
im Startbild und mein Gesicht
im Endbild hinzu
und gebe ein, dass ein Symbiont einen Mann darin
enthüllt Benutze auch hier den Dan-Modus, und ich habe
dieses Danach regeneriere ich mein Video
erneut und habe dieses verrückte Ergebnis erzielt Sie werden also ein anderes Ergebnis erzielen, wenn Sie sich regenerieren Ich verwende meine beiden Bilder auch
am selben Ort, aber mit unterschiedlichen Winkeln verwende
ich auch den Standardmodus
für diese Generation, und das ist das Ergebnis im
professionellen Modus Wie ihr sehen könnt, Leute, ist mein
Gesicht jetzt konsistent. Und jetzt haben wir dieses Beispiel. Wenn Sie dasselbe Bild
mit derselben Perspektive haben, erhalten
Sie
ein solches Ergebnis. Wie Sie sehen können, gebe ich
Camera Stay Static ein und wir erhalten
dieses verrückte Ergebnis. Wenn Sie jetzt einen
professionellen Modus
mit der Funktion „Endbild hinzufügen“ verwenden , erhalten
Sie ein konsistentes Ergebnis. Das ist also das Video im
Standardmodus. Und wie ihr sehen könnt, Leute, ist
mein Gesicht nicht richtig sichtbar, und das ist das Ergebnis
eines professionellen Modus. Das Video wird konsistent bleiben. Wir haben auch dieses Beispiel. Und dies ist ein weiteres Beispiel
für die End-Frame-Funktion von Kling AI mit einem
professionellen Modus. Und wir haben ein weiteres Beispiel mit einem professionellen Modus
mit diesen beiden Bildern. Wie Sie sehen können, sehen die
Ergebnisse realistisch aus, und wir haben auch dieses
Beispiel. Mit dem Frame-Switch erhalten
Sie diesen Effekt. Jetzt müssen Sie
in dieser Kombination, bei
der
wir einen weißen
Winkel
und
einen Nahaufnahmewinkel haben, nicht den ersten und den letzten Frame verwenden der
wir einen weißen
Winkel
und
einen Nahaufnahmewinkel haben, nicht den ersten und den letzten Frame in dieser Kombination, bei wir einen weißen
Winkel
und
einen Nahaufnahmewinkel haben, nicht den ersten und , da Sie so
etwas erhalten. Sie werden einen extremen
Franseneffekt wie diesen erzielen. Und wir haben auch dieses Beispiel. Und wie Sie in der Anleitung sehen können, haben
wir einige ziemlich
tolle Laser. Sogar die Leute,
die im Hintergrund sind,
bewegen sich sehr korrekt. Mit diesem Schalter können Sie also alles erstellen. Sie müssen nur einen Sternrahmen
hinzufügen und Sie müssen einen Endrahmen
hinzufügen, und es wird etwas
dazwischen erstellt.
16. Verwandle dich in Iron Man: Willkommen zurück.
Selbst wenn Sie die kostenlose Version von Killing
AI im Standardmodus verwenden, können
Sie jetzt so
etwas erstellen. So können
Sie auch ohne besondere Fähigkeiten atemberaubende
visuelle Effekte erzielen. Und wenn Sie einen
professionellen Modus verwenden, können
Sie auch
atemberaubende Ergebnisse erzielen. Jetzt zeige ich Ihnen, wie wir so etwas erstellen
können. Gehen Sie zunächst
zu photob.com. Dies ist eine kostenlose
Alternative zu Photoshop. Wir haben zwei Screenshots
von Ironman. Deaktivieren Sie zunächst Autoselect und dann die
Transformationskontrolle aktivieren, erhalten
Sie die Transformationskontrolle Wir können Control
C drücken, um diese Ebene zu kopieren. Gehe zum Iron Man und drücke
Control V, um dich einzufügen. Jetzt können wir diese
Ebene in ein intelligentes Objekt konvertieren. Drücken Sie nun die Strg-Taste und halten Sie sie gedrückt. Benutze deine Maus,
um die Ansicht zu verkleinern. Und jetzt können wir die Größe dieser
Person oder des Motivs ändern, Inter
drücken und wir können erneut Strg
plus drücken oder sie gedrückt halten, Scrollen zu vergrößern Jetzt werde ich meine Deckkraft
verringern und jetzt können wir die Phase an die Ironman-Phase Jetzt können wir die
Opazität auf etwa 100% ändern. Klicke hier. Und jetzt
richten wir das hier aus. Jetzt
aktiviere ich die Rastermaske, klicke hier, wähle
zuerst deine Ebene aus und klicke dann hier. Jetzt können wir
darauf klicken und gedrückt halten und
den Farbfehler auswählen Wir können auch die Farbe austauschen, die Farbe auf Schwarz
ändern und jetzt klicken wir auf
die Maske auswählen und klicken Jetzt können wir den
Pinsel auswählen und mit der rechten Maustaste klicken. Wir können die Größe
des Pinsels hier ändern und
jetzt können wir die Farbe wechseln. Also klicke hier. Jetzt
haben wir die weiße Farbe. Jetzt können wir wieder Strg und T
verwenden, sie
gedrückt halten und die
Scrolltaste verwenden, um sie zu vergrößern. Wählen Sie die Rastermaske aus
und jetzt können wir malen. Drücken Sie Kontozi, um den Vorgang rückgängig zu machen. Klicken Sie mit der rechten Maustaste, und wir können die Größe des Pinsels
verringern. Und jetzt kann ich genau hier bürsten. Du musst also vorsichtig putzen. Darin befindet sich die Maske „Ich habe es gemacht“. Jetzt sind wir fertig. Wir können das Verschiebewerkzeug auswählen, die
Steuerung drücken oder die Ansicht verkleinern. Jetzt sind wir fast fertig. Jetzt klicke ich
hier und füge
diese Einstellungsebene hinzu, klicke mit der
rechten Maustaste auf die
Einstellungsebene und erstelle eine Schnittmaske Es wird sich also nur auf die
Phase auswirken, nicht auf die ganze Sache. Zuerst werde ich meinen Kontrast
erhöhen und meine Helligkeit
verringern. Wir können das ein- und ausschalten. Lassen Sie uns diese Ebene ausblenden
, um die richtige Farbe zu erhalten. Lassen Sie uns die
Helligkeit etwas verringern. Ich werde auch
eine selektive Farbe hinzufügen. Wenn Sie
diese Eclipsing-Maske nicht erstellen, neutrale Farbe auswählen wirkt sich das auf
das gesamte Bild aus,
wenn wir die Wie ihr sehen könnt, Leute, wirkt es sich jetzt auf
das gesamte Bild aus Und wenn ich das
in eine Schnittmaske ändere, wirkt sich das nur auf die Ebene aus, die sich unter dieser Ebene befindet Jetzt können wir diese
Ebene zurücksetzen und die Farbe an
die Farbe von Iron Man anpassen die Farbe von Iron Man Jetzt glaube ich, wir sind fertig. Platzieren wir das auf etwa. Jetzt sind wir fertig. Das
Letzte, was wir tun müssen, ist, mit der rechten Maustaste auf das
Gesicht der Person zu klicken und zur Option Überblenden zu
wechseln, ohne
inneren Schatten Gehen Sie in den Mischmodus, ändern Sie den Mischmodus auf Normal, klicken Sie hier und ändern Sie
die Farbe auf Schwarz Jetzt können wir die
Größe erhöhen, die Opazität erhöhen. Lassen Sie uns die Vergangenheit ein
wenig herunterspielen. Jetzt sind wir fertig. Gehen Sie nun zu diesem
Screenshot, klicken Sie hier, drücken Sie Strg C, um
ihn zu kopieren, und drücken Sie V. Jetzt können wir
diesen Screenshot unter
allen Ebenen platzieren . Jetzt können wir
all diese Ebenen auswählen, diese Ebene auswählen, die Umschalttaste drücken und die erste Ebene auswählen. Es werden also
alle Ebenen ausgewählt. Klicken Sie mit der rechten Maustaste und konvertieren Sie
dies in ein intelligentes Objekt. Wählen Sie dies aus und klicken Sie mit der rechten Maustaste und konvertieren Sie
es
ebenfalls in ein intelligentes Objekt. Jetzt können wir hier klicken und auch Control drücken
und dieses auswählen. Klicken Sie mit der rechten Maustaste und konvertieren Sie
dies in ein intelligentes Objekt. Jetzt können wir zum Filter gehen, zum Geräusch gehen und etwas Rauschen hinzufügen. Also werde ich 5% Rauschen hinzufügen. Vielleicht ändere ich das auf 3%. Klicken Sie jetzt hier erneut auf
den Filter, gehen Sie zur Schärfe und
wählen Sie Intelligente Schärfe Klicken Sie auf Okay. Und jetzt sind wir fertig. Sie können Ihre
Bilder auch farblich korrigieren, wenn Sie möchten. Also füge ich einfach
etwas Grünes hinzu und füge
etwas wie Merchant hinzu. Und wenn wir das ein- und
ausschalten, könnt ihr sehen, Leute, wir haben einige
Farbkorrekturen, die uns
helfen , das
Gesicht der Szene zuzuordnen Jetzt können wir
hier auf die Datei klicken, zum Export gehen und diese Datei als JPEC
speichern Wir können die Qualität auf
100% ändern und jetzt
auf die Schaltfläche Speichern klicken Wählen Sie nun diese
Ebene aus und doppelklicken Sie darauf. Wir können diese Ebene ausschalten. Jetzt haben wir diese Ebene, wir können die Strg-Taste drücken, um sie zu speichern und jetzt haben wir
diese Update-Version. Jetzt können wir zu der Datei gehen
und sie als JPA speichern. Der Grund, warum ich
diesen Screenshot unter
diesem Screenshot hinzufüge , ist,
sie zu einer Ebene zu machen, einem intelligenten Objekt Dann können wir eine
Farbkorrektur vornehmen und wir können einen Effekt über
dieser Ebene hinzufügen, der sich auf alle Ebenen auswirkt , die sich
unter den Hauptebenen befinden. Und jetzt gehe zum Link KI, wir können diese Bilder löschen und wir können
die neuen Bilder hochladen. Jetzt können Sie auch den
Standardmodus verwenden, wenn Sie
möchten , und wir können
auf die Schaltfläche Erstellen klicken. Die Videos sind jetzt generiert. Wenn ich das nun
als ersten Frame und
das als letzten Frame nehme, ist das im Standardmodus das Ergebnis. Und wenn wir diesen ersten Frame setzen
und diesen als letzten Frame setzen, dann haben wir dieses Ergebnis auch mit
dem Standardmodus erhalten. Also habe ich
dieses Video
im professionellen Modus gelesen und gelesen und
wir haben dieses erstaunliche Ergebnis erzielt. Das sieht realistischer aus als
die anderen generierten Videos. Mit dieser Technik habe ich mich auch
selbst als Gift erschaffen Jetzt kannst
du dich mit Hilfe der KI in
jeden Superhelden
ohne besondere Fähigkeiten verwandeln jeden Superhelden
ohne besondere
17. Bewegungspinsel: Willkommen zurück. Jetzt sprechen wir
über den Bewegungspinsel, und diese Funktion
ist ein entscheidender Faktor für die Branche der
KI-Videogenerierung Zuerst müssen wir unser Bild
hochladen. Sobald Sie Ihr Bild hochgeladen haben, müssen
Sie Cling 1.5 auf
1.0 ändern , da diese Funktion in 1.5 derzeit nicht verfügbar
ist. Jetzt müssen wir hier klicken. Und wie ihr sehen könnt, Leute, haben
wir diese einfache Anleitung. Lassen Sie mich Ihnen zeigen,
wie es funktioniert hat. Zuerst haben wir diesen Pinsel. Wir können etwas zeichnen, wir
können alles zeichnen, was du bewegen
willst. Und
wir haben Radiergummi Wenn du
zum Beispiel deinen Pinsel löschen willst, wenn ich diesen Stein
zeichne, und wenn ich meinen Pinsel löschen möchte, muss
ich den Radiergummi auswählen und dann muss ich den Stein
entfernen Ich kann den
Pinsel auch vergrößern. Jetzt haben wir die automatische Segmentierung. Also, wie ihr sehen könnt,
Leute, putze ich mich gerade selbst. Aber wenn ich zurücksetze, kannst
du auch
deinen Pinselbereich zurücksetzen Ich kann mich automatisch
selbst auswählen , indem ich die
automatische Segmentierung aktiviere Jetzt wähle ich auch
meine Haare, meine Brille, meine Hose und meine Schuhe Jetzt kann ich das Häkchen entfernen und die
fehlenden Teile bürsten Wir werden also das genaue
Ergebnis erhalten. Jetzt sind wir fertig. Also auf der rechten Seite haben
wir die Strecke, und das ist für diesen
Bereich, den grünen Bereich. Im Moment wähle ich meinen Track aus
und wir müssen
die Richtung
vorgeben, und wir müssen
die Richtung
vorgeben in die ich mich bewegen
möchte. Ich möchte mich also in
diese Richtung bewegen, oder? Lassen Sie uns diesen Pinsel löschen und dann auf diese Seite zeichnen. Jetzt kannst du auch deinen
Pfad löschen, auch deinen Track. Du musst hier auf das
Kreuz klicken, um deinen Pfad zu löschen. Jetzt werden wir verschiedene Bereiche bekommen. Sie können mehrere
Bereiche auswählen, die verschoben werden
sollen, aber im Moment habe ich nur
mich selbst auf diesem Bild, also ist das genug. Jetzt, am Ende, haben wir
das Hinzufügen eines statischen Bereichs. Der statische Bereich bewegt sich also nicht. Dafür muss ich also alles
in meinem Bild
auswählen, was ich nicht verschieben möchte. Ich denke, das ist genug. Nun, genau hier, wie ihr sehen
könnt, Leute, wenn ihr etwas auswählt,
das ihr verschieben wollt, aber versehentlich als statischen Bereich auswählt
, dann könnt ihr das auch rückgängig machen. Wie ihr jetzt sehen könnt, ist dieser
Bereich jetzt leer. Sie können den Vorgang auch wiederholen. Oder Sie können
alles zurücksetzen, wenn Sie möchten. Jetzt sind wir fertig. Wir können
das bestätigen und wir sind fertig. Übrigens werde ich den Motion Brush
wieder öffnen Wenn du zum Beispiel
keinen Zug zeichnest,
wenn du keinen Pfad zeichnest und auf die
bestätigte Schaltfläche klickst, haben
wir diese Nachricht hinzugefügt,
nicht gezeichnet, nicht gepaart Bewegungspinsel
wirken sich nicht auf das Senden aus. Sie reichen also ein, wenn
Sie dies bestätigen Wenn Sie diesen Pinselbereich einreichen, hat
das keinerlei Auswirkungen, da Sie die Richtung nicht angegeben haben. Um also
etwas in deinem Bild zu bewegen, musst
du dieses Ding zeichnen
und du musst einen Pfad zeichnen. Wenn du keinen Pfad gezeichnet hast, wird es das Objekt, eine Person
oder eine Sache nicht bewegen. Lassen Sie uns das jetzt bestätigen. Und jetzt verwenden wir dafür
den
Standardmodus und wir können dieses Video
generieren. Und jetzt haben wir hier das Ergebnis. Wie ihr sehen könnt, Leute, wenn wir den professionellen Modus
verwenden, werden
wir ein
konsistentes Ergebnis erzielen. Im Moment ist es nicht konsistent, aber es sieht gut aus. Jetzt müssen wir nicht mehr einfach
zurückgehen und auf
das Video klicken , um
Videos aus dem Bild zu generieren. Wir können das auch löschen. Keine Sorge, dein Video wird
dadurch nicht gelöscht. Und jetzt für dieses Beispiel werde
ich
auf den Bewegungspinsel klicken. Lassen Sie ihn also zuerst
Ihr Bild analysieren, und jetzt können wir die Segmentierung
aktivieren Ich kann mich selbst auswählen. Lassen Sie uns das Häkchen entfernen. Wählen wir nun den Track aus und
zeichnen wir hier einen Pfad Jetzt wähle ich den statischen Bereich aus und aktiviere die
automatische Segmentierung Und wir sind fertig. Lassen
Sie uns auch diese Person auswählen. Klicken Sie nun auf
Bestätigen und Generieren. Jetzt haben wir dieses Video. Manchmal generiert es also etwas, von dem Sie nicht
erwartet hatten, dass er es generiert Keine Sorge, ich denke,
wir können das reparieren. Während dieses Video generiert
wird, können
wir das Bild löschen. Wir können ein anderes Bild hochladen. Und in diesem Beispiel werden
wir mehrere Objekte zeichnen,
um sie zu verschieben. Jetzt ist das Bild hochgeladen, klicken Sie auf die Zeichenbewegung. Lass ihn das Bild analysieren. Wir können die automatische Segmentierung aktivieren und die Idee Nummer eins
auswählen Wir können das zeichnen, den Bereich Nummer
zwei auswählen, diesen auswählen Jetzt
wähle ich Spur zwei und lass uns diesen
Weg zu dieser Position bewegen, den ersten Track
auswählen und diesen zu
dieser Position bewegen. Jetzt müssen wir den
Hintergrund als statischen Bereich zeichnen, sodass sich der Hintergrund nicht bewegt. Jetzt sind wir fertig. Wir können auf Bestätigen
klicken und diesen Clip generieren. Und ich habe dieses
Beispiel für euch, und ich möchte etwas erklären. Lassen Sie ihn zuerst das Bild analysieren. Nehmen wir zum Beispiel die
automatische Segmentierung. Wenn Sie auf den Hintergrund klicken, wenn Sie den Hintergrund
als Bewegungsbereich,
Momentbereich,
Momentpfad zeichnen , wenn Sie den statischen Bereich auswählen, können
Sie
den Hintergrund nicht als
statischen Bereich zeichnen den Hintergrund nicht als
statischen Bereich da wir den Hintergrund
als Bewegungspfad zeichnen .
Wir können es also zurücksetzen. Lassen Sie uns das noch einmal zurücksetzen. Und wenn du zum Beispiel deinen Charakter
als statischen Pfad
zeichnest wenn
ich zum Beispiel für
den Bereich Nummer eins mein Gesicht zeichnen muss, dann kann
ich mein Gesicht nicht zeichnen weil dieser Bereich jetzt auf den statischen Bereich
eingestellt ist. Achten Sie also darauf,
sehr vorsichtig zu bürsten. Und
wenn ich in diesem Fall zum Beispiel diesen Teil,
diesen Teil des Charakters, auswähle, wird auch der gesamte
Hintergrund ausgewählt. Um diesen Bereich zeichnen zu
können, müssen Sie diesen Bereich manuell
auswählen. Und wenn wir die
automatische Segmentierung den
Hintergrund als statisch festlegen, bleibt er
der Momentpfad Es wird dies nicht
als statischen Bereich betrachten. Lassen Sie uns also alles zurücksetzen. Und in diesem Clip möchte ich einen Teil
meines Charakters
bewegen, nicht einen ganzen Charakter. Also werde ich meinen Arm dieses Charakters
auswählen. Lass uns diesen Arm an sein Gesicht ziehen, den Bereich Nummer zwei
auswählen und ich werde den
Arm dieses Charakters zeichnen. Lassen Sie uns das auch
zeichnen Deaktivieren Sie Lassen Sie uns auch diesen Arm
zeichnen Und jetzt werde ich
das blockieren und jetzt sind wir fertig. Lassen wir den Hintergrund
zunächst das Häkchen entfernen Lass uns das zeichnen. Lass uns nur sein Gesicht
zeichnen. Und jetzt, glaube ich, drehen
wir uns um, wir können den statischen Bereich auswählen, auf Bestätigen
klicken und
lassen Sie uns diesen Clip generieren. Das Video ist jetzt also generiert. Hier haben wir das Ergebnis. Wie ihr sehen könnt, Leute, bewegt
sich einer zu dieser Position, der
andere bewegt sich zu dieser Position,
während wir den Bewegungspinsel eingegeben haben andere bewegt sich zu dieser Position . In diesem Beispiel zeichne
ich einen Pfad in der Erwartung, dass ich in diesem Video fliegen werde, aber stattdessen haben wir dieses Ergebnis erhalten. Was nicht schlecht ist. Und
im nächsten Beispiel ziehe
ich eine Grenze und erwarte, dass
er mich zum Sitzen zwingt, aber wir haben dieses Ergebnis. Im nächsten Beispiel habe ich
eine Lösung für dieses Problem gefunden . In diesem Beispiel zeichne
ich also diesen Pfad, und jetzt
stehe ich im Video. Und in diesem Beispiel sitze
ich jetzt endlich. Jetzt zeige ich Ihnen,
wie Motion Barrage funktioniert. Also, wenn wir uns den Pfad
genau ansehen, wie ihr sehen könnt, Leute, zeichne ich
einen Pfad zwischen meinen Beinen Also
versteht die KI jetzt , dass ich ihn
bitte, mich sitzen zu lassen. Und jetzt werde ich darüber sprechen, was
das Problem mit der
anderen Generation ist. Wenn Sie also genau hinschauen, überzeichne
ich meinen Pfeil
auf die Zeichenfläche.
Deshalb haben wir dieses Ergebnis erhalten, Deshalb haben wir dieses Ergebnis weil die KI jetzt verwirrt ist Wie ihr sehen könnt, Leute, in diesem Video, in dem
ich sitze, zeichne ich
in diesem Video, in dem
ich sitze,
auf der statischen Fläche Und jetzt, in diesem Beispiel, haben
wir dieses Ergebnis erhalten.
Dieser Roboter hebt seine Hand nicht. Er erhöht seine Schlagkraft nicht. Also im nächsten
Beispiel, was ich gemacht habe, habe ich einfach diesen Pfeil gezeichnet
und wir haben dieses Ergebnis erhalten. Also musst du Bewegung zeichnen. In diesem Beispiel
haben wir nun dieses Ergebnis erhalten. Und ich habe den
Pfeil ein wenig verändert. Wie ihr sehen könnt, Leute,
ändere ich jetzt meine
Pfeilbahn ein wenig und wir haben dieses Ergebnis. Ich habe auch dieses Beispiel. Wie ihr sehen könnt, Leute, wenn
wir den Bewegungspinsel öffnen, zeichne
ich diesen Charakter
komplett und ich zeichne einen Pfad. Ich möchte, dass sich dieser Charakter an diese Position
bewegt. Und für diesen Charakter zeichne
ich nur die Schläge und
den Kopf dieses Charakters
und stelle den
Hintergrund als statisch Wenn du genau hinschaust,
ist
dieser Charakter nicht vollständig auf diese Statik
eingestellt, nur seine Schläge und
der Kopf sind jetzt gezeichnet, nicht der ganze Charakter, und ich zeichne diesen Pfad, wohin
ich ihn bewegen möchte Und das ist ein Ergebnis
dieser Zeichnung. Und das ist ein weiteres
einfaches Beispiel Wenn wir den Bewegungspinsel öffnen, zeichne
ich einfach mein Auto und
ich zeichne einfach einen Pfad. Stellen Sie den Hintergrund als statisch ein. Wir haben ein anderes
Beispiel: Wir kämpfen mit Robotern. Wenn wir den Bewegungspinsel öffnen, zeichne
ich diese Figur, ich möchte diese Figur stanzen und gleichzeitig möchte
ich, dass sich diese Figur ein wenig
zurücklehnt. Und für diesen Charakter ziehe
ich diesen Schlag. Ich möchte
, dass dieser Charakter diesen Charakter und sich auch ein
bisschen zurücklehnt. Und wir haben dieses Ergebnis erzielt. Sie können auch
mehrere Bereiche zeichnen, und Sie erhalten
unterschiedliche Ergebnisse. Dies ist auch ein weiteres einfaches
Beispiel. Wenn wir den Bewegungspinsel öffnen, zeichne
ich diesen Charakter
auf diese Seite, zeichne den Bus und bewege
den Bus auf diese Seite, stelle den Hintergrund als statisch und jetzt haben wir dieses Ergebnis. Der Roboter bewegt sich nicht
, weil die KI vielleicht denkt , dass ich möchte, dass der Bus
diesen Roboter zerquetscht. Im Moment
ist die KI also auch sensibel. Wir haben auch ein anderes
Roboter-Beispiel. Wenn ich Ihnen den Bewegungspinsel zeige, haben wir
hier den Bewegungspinsel. Jetzt haben wir hier das Ergebnis. Wie du sehen kannst, Alter, die
Ergebnisse sind umwerfend. Wenn Sie jetzt einen
professionellen Modus verwenden, erhalten
Sie ein genaues Ergebnis. In diesem Beispiel zeichne
ich also den linken Arm von diesem und auch den linken Arm
dieses Roboters, und ich zeichne diesen Pfad. Wenn Sie den Hintergrund als statisch festlegen, wird dieses Ergebnis generiert. Das Ergebnis ist jetzt präzise. Im Gegensatz zum Standardmodus mit derselben Zeichnung, wenn ich es Ihnen mit
derselben Zeichnung zeige, erstelle
ich dieses Video
im Standardmodus, und der Charakter bewegt sich auch ein wenig und der
Hintergrund bewegt sich ebenfalls. Aber im professionellen
Modus könnt ihr sehen, Leute, dass genau nur
der Teil bewegt wird, den ich gezeichnet habe. Mit dieser Zeichnung
haben wir also dieses Ergebnis
im professionellen Modus erzielt. Wie ihr sehen könnt, Leute, ist jetzt
alles konsistent
und mit derselben Zeichnung. Aber mit dem Standardmodus haben wir dieses Ergebnis erzielt. Jetzt können Sie
Ihr bearbeitetes Bild auch verschieben. Wie ihr sehen könnt, Leute,
bearbeite ich mich selbst im Studio und zeichne diesen einfachen
Bewegungspinsel. Wir haben diesen Effekt. Wir haben ein anderes Beispiel. Wenn ich Ihnen den Bewegungspinsel zeige, ist
dies der Bewegungspinsel, und das ist das Ergebnis
im professionellen Modus. Das
Video im professionellen Modus sieht komisch aus , weil es
das generiert, worum ich ihn bitte. Wie ihr sehen könnt,
Leute, bitte ich ihn,
den Schnauzenblitz und auch
seinen Arm zu bewegen , und es ist einfach gemacht
und es sieht komisch aus Aber mit derselben Zeichnung
im Standardmodus erhalten
Sie ein anderes Ergebnis Und das ist das Ergebnis
mit dem Standardmodus. Wie ihr sehen könnt, Leute, hat es
den Arm bewegt und auch die
Schnauze blinken Der Motion-Pinsel
mit Standardmodus sieht realistischer und atemberaubender aus als
der professionelle Modus Die Videos werden jedoch inkonsistent, wenn Sie
den Standardmodus verwenden Im professionellen Modus müssen
Sie jedoch präzise
mit Ihren Pinseln umgehen, da nur der Teil bewegt
wird,
an dem Sie den Bereich bürsten Wenn Sie sich also fragen, wie ich die
Boardpunching-Videos
erstellt habe , ist
dies die Aufforderung und das Ergebnis mit dem
Microsoft-Designer In diesem Beispiel habe ich nur den Blitz der
Pistole gezeichnet und wir haben dieses Ergebnis Lass mich dir
den Bewegungspinsel zeigen. Wie ihr sehen könnt, Leute, ist nicht
alles
statisch eingestellt , außer dem Gesicht und
dem Körper dieser Person. Mein Punkt ist also, dass Sie
bei der Verwendung des
professionellen Modus präzise sein
müssen bei der Verwendung des
professionellen Modus wenn Sie den Bewegungspinsel verwenden, wenn Sie
die Bewegung richtig machen wollen. Und so können Sie den Bewegungspinsel
verwenden.
18. Lippensynchronisierungs-Videos mit KI: Willkommen zurück. Jetzt
haben wir also das letzte Feature, das Lip Sync heißt. Wenn Ihr
von Ino generiertes Video ein Tempo enthält, können
Sie die Lippen dieser Person synchronisieren. Sie müssen nur Ihr Video
auswählen. Du musst
auf den Lippensynchronisator klicken. Es wird zuerst dein Video
identifizieren. Dann haben wir diese Schnittstelle. Wie Sie in der Anleitung sehen können,
gibt es so viele Stimmen. Sie können eine beliebige auswählen. Hallo da. Du kannst spielen und du kannst es tun. Du kannst auf diese Stimme hören. Sie können jedes Geschlecht wählen, z. B. männlich, junger Mann. Hallo da. Wunderschön. Sobald Sie Ihre Stimme
ausgewählt haben, können Sie alles eingeben
, was er sagen soll. Sobald Sie Ihre Sprache eingegeben
haben, können Sie auch hier klicken,
um eine Vorschau Ihrer Wörter anzuzeigen. Hallo, da. Ich komme aus der
Vergangenheit. Ich heiße Alex. Sie können auch die Geschwindigkeit
Ihrer Stimme ändern. Hallo, da. Ich komme aus der Vergangenheit. Lass uns das auf ein X ändern, was die normale Geschwindigkeit ist. Und jetzt kannst du
auf die Lippensynchronisation klicken und das kostet
deine fünf Credits. Jetzt können Sie auch
Ihr Audio hochladen ,
um die Lippen zu synchronisieren. Im Moment klicke ich
hier, Lippensynchronisierung und gehe zum Upload. Lokales Verdummeln. Wir
können eine Datei hochladen Und wie ihr sehen könnt, Leute, wenn eure Aufnahme
länger als 5 Sekunden dauert, dann müsst ihr
euer Audio kürzen. Hallo, da. Mein Name ist Faizan und
ich komme aus der Vergangenheit. Hallo, meins. Sie müssen also
einen Teil aus
Ihrem Audio auswählen , weil die
Videolänge fünf Sekunden beträgt, also müssen wir den
Ton unter fünf Sekunden auswählen. Jetzt
bestätige ich meinen Zuschnitt und lasse uns nun auch
diesen Clip mit den Lippen synchronisieren. Es spielt keine Rolle, ob Sie die
Bild-zu-Video- oder die
Text-zu-Video-Generierung verwenden . Wenn es eine Phase gibt, können
Sie dieses Video per Lippensynchronisierung synchronisieren. Also wähle ich zum Beispiel diesen Roboter und klicken wir jetzt
auf die Lippensynchronisation. Zunächst wird nun
erkannt, ob es
eine Phase für die Lippensynchronisation gibt. Wenn es nun
kein Tempo in Ihrem Clip identifizieren kann, erhalten
Sie diesen Fehler. Lassen Sie uns dieses Video identifizieren, und jetzt, wie Sie sehen können, Leute, haben wir
jetzt diese Schnittstelle. Wenn Sie nun möchten, dass eine Person
sehr langsam spricht, können
Sie die Sprechgeschwindigkeit
auf 0,8 einstellen , was die niedrigste ist. Und bevor Sie etwas eingeben, können
Sie eine Vorschau dieser Stimme anzeigen. Gehen wir zu dieser Seite und vielleicht stecke ich meine
Hände in meine Tasche. Wie ihr sehen könnt, Leute, der Text spricht jetzt sehr langsam, und wenn ich will, dass er schnell spricht,
müsst ihr
die Sprechgeschwindigkeit erhöhen Gehen wir auf diese Seite. Und vielleicht stecke ich meine
Hände in meine Tasche. Und hier
oben auf der rechten
Seite der Stimme gibt es eine Zeitbegrenzung . Gehen wir auf diese Seite. Also diese Stimme ist jetzt 4,5 Sekunden lang. Also müssen wir vielleicht
die Sprechgeschwindigkeit auf 0,9 ändern. Gehen wir auf diese Seite. Jetzt haben wir eine Stimme von 5,3 Sekunden. Jetzt können wir uns eine Vorschau dieser Stimme ansehen. Gehen wir auf diese Seite. Nun, wenn Sie möchten, dass eine Person
sehr schnell spricht, dann erhöhen Sie einfach
die Sprechgeschwindigkeit. Gehen wir auf diese Seite und
vielleicht stecke ich meine
Hände in meine Tasche. Für mich stelle ich meine Sprechgeschwindigkeit auf 0,9 ein und klicke auf Lippensynchronisation. Das Lippensynchronisationsvideo
wird jetzt also generiert. Hier haben wir das Ergebnis. Hallo da. Ich komme aus der
Vergangenheit. Ich heiße Alex. Nun, wie ihr sehen könnt, Leute, sind
die Ergebnisse jetzt
ziemlich beeindruckend. Nun, wenn Sie ein
perspektivisches Video
wie dieses mit der Frontkamera haben , aber wenn Sie eine Seitenkamera haben, dann ist die Lippensynchronisation
auch sehr beeindruckend. Hallo, mein Name ist Faizan
und ich komme aus der Vergangenheit. Wie ihr sehen könnt, Leute, meine
Perspektive ändert sich gerade, aber mein Mund bewegt Mein Name ist Fazan und
ich komme aus der Vergangenheit. Wir haben auch dieses Beispiel. Gehen wir auf diese Seite und vielleicht stecke ich meine
Hände in meine Tasche. Ich finde, mein Mund
sieht viel zu groß als er sein sollte,
aber das ist okay. Es ist nicht so schlimm, und das ist das letzte Video, das
wir mit Lippen gemacht haben. Oh, ich werde fett. Meine Lungen, meine Lungen. Jetzt kannst du
dein Video auch reduplizieren, wenn du willst. Sie müssen nur
hier klicken, Redub, Sie können
Ihr Audio hochladen oder Sie
können
Text-to-Speech verwenden, um Ihren Clip mit den
Lippen zu synchronisieren So können Sie die Lippensynchronisierung
verwenden um Ihre
Videos mit Cling AI Lippensynchronisation
19. KI-Videogenerierung erweitern: Willkommen zurück. Wenn
Sie jetzt ein Video generieren, können
Sie dieses Video auch erweitern. In diesem Beispiel wähle
ich
meinen Burger genau hier aus. Ich werde
diesen Burger verbessern. Jetzt ist der Burger verbessert. Lass uns das zum Leben erwecken. Jetzt wähle ich den
professionellen Modus und lass uns Cling 1.0 wählen,
denn wenn du 1.5
verwendest, kannst du deinen Clip nicht wirklich
erweitern. Es gibt keine Option.
Wenn Sie 1.5 verwenden, können
Sie Ihren Clip nicht wirklich
erweitern. Das Video wird also generiert. Hier haben wir das Ergebnis. Wenn Sie genau hinschauen, haben
wir eine Option namens Extend, und wir haben zwei
Optionen in Extend. Eine davon ist Auto Extend. Die andere Option ist die
benutzerdefinierte Erweiterung. Wenn Sie jetzt
die Standardversion verwenden, können
Sie auch diese
verwenden. Und
wenn Sie den Standardmodus verwenden, werden zehn Credits benötigt. Und wenn Sie den
professionellen Modus verwenden, werden
erneut 35 Credits benötigt. Lassen Sie uns also automatisch verlängern. Jetzt wähle ich
erneut
mein generiertes Video aus und dieses Mal wähle
ich
anpassen und erweitern. Jetzt gebe ich Catchup Pouring on top of the Jetzt wird das Video verlängert. Wir haben also das Ergebnis. Wie ihr sehen könnt, Leute,
ist das Video jetzt auf neun Sekunden verlängert. Und das ist das Ergebnis der automatischen Verlängerung. Jetzt haben wir den Nachtisch
für den Kunden. Und nach 5 Sekunden, wie ihr sehen könnt, haben wir diesen Fänger
auf den Burger geschüttet Und einfach so
kannst du deinen Clip verlängern. Sie können alles, was
Sie wollen, in Ihr Video eingeben. Jetzt habe ich auch andere
Beispiele. In diesem Clip
haben wir also diese Aufforderung. Ich habe dieses
Video mit
Text-zu-Video generiert . Übrigens, dies ist der Standardmodus, nicht der professionelle Modus. Und das ist auch
der Standardmodus. Und wir können die Maus
auch in die Erweiterungshistorie aufnehmen. Und wie ihr sehen könnt, Leute, habe ich eine Hand getippt, die Milch
antreibt Also haben wir dieses Ergebnis. Wir haben keine Milch, aber Sie können es erneut versuchen,
um das gewünschte Ergebnis zu erzielen. Manchmal verlängert es nicht,
was Sie von ihm verlangen. In diesem Clip tippe ich
dunkle Wolken, die den Himmel bedecken, und wie ihr sehen könnt, Leute, passiert
nach 5 Sekunden nichts Es ist nur ein normales
Zoom-Video. Es
passiert nichts am Himmel. Dies ist ein weiteres Beispiel, bei dem ich
gesehen habe , wie ich mich auf einen Parkplatz begeben habe. Und wenn ich dieses Video abspiele,
wie ihr sehen könnt, Leute, haben wir
nach fünf Sekunden
ein Auto hinter dem Charakter. Das ist übrigens
die automatische Verlängerung. Wir haben nur einen normalen
Zoom-Out-Clip. Und ich tippe, ein futuristisches Fahrrad
steht vor dem Arrektor. Und nach fünf Sekunden kannst
du sehen, dass wir ein Fahrrad haben Dies ist auch ein Video im
Standardmodus. Ich habe Autounfall getippt
und nach fünf Sekunden können
Sie sehen, dass
Rauch aus dem Auto kommt Manchmal
generiert es nicht das , worum Sie ihn
bitten In diesem Beispiel bitte
ich ihn also, die
Buchstaben vom Burger zu nehmen, und es hat gerade
dieses Video generiert. Und in einem anderen Beispiel fügt
eine Hand zusätzliches
Patty in den Burger,
und wir haben diese Hand, die den Burger
zupasst,
nicht das Patty hinzugibt Und in diesem Beispiel tippe
ich, dass Imodi
rot wird und wütend wird Nach 5 Sekunden haben
wir also dieses Ergebnis. Er wird wütend, aber
er wird nicht rot. Sie können Ihr
Video nicht nur auf bis zu 10 Sekunden verlängern, Sie können es auf so
viel verlängern, wie Sie möchten. Wie in diesem Beispiel in meinem Erweiterungsverlauf ist
dies die ursprüngliche Aufforderung, mit der wir
dieses Video generiert haben. Und nachdem ich ein vorbeifliegendes
Flugzeug hinzugefügt habe, füge ich hinzu, dass ein Flugzeug in einiger Entfernung
fliegt Dann füge
ich in der letzten Aufforderung hinzu, dass der Himmel dunkler wird Es wird bald regnen. Das ist also das ganze Video. Es wird überhaupt kein
Flugzeug hinzugefügt, aber der Himmel wird
dunkler, was ich merke Hier haben wir es nach 15 Sekunden, der Himmel wird dunkler So können Sie Ihren Clip mit King
erweitern.
20. kling 1.0 vs. kling 1.5: Willkommen zurück. Jetzt haben wir also alle Videos, die mit
Kling AI mit unterschiedlichen Modi generiert wurden . Und in diesem Vortrag werden
wir 1,0
pro Fraktionsmodus mit
1,5 pro Fraktionsmodus vergleichen pro Fraktionsmodus mit
1,5 pro Fraktionsmodus Hier
haben wir also die Einstellung
für das folgende
generierte Video Das erste Ergebnis ist 1,0 pro
Fraktionsmodus. Und jetzt haben wir 1,5 Ergebnisse im
professionellen Modus. Wie Sie sehen können,
liefert der 1.5, worum ich ihn bitte, während der 1.0 nur
ein Video von einem Autounfall liefert. Wir haben ein anderes Beispiel. Hier haben wir die Eingabeaufforderung, hier haben wir die
Einstellungen, und das ist das Ergebnis im professionellen Modus 1.0. Und mit den gleichen Einstellungen ist
dies der 1.5 Pro-Modus. Und wir haben ein anderes Beispiel. Mit dieser Einstellung
haben wir 1,0 Promde-Ergebnis und jetzt 1,5 Promote Es gibt also einen großen
Unterschied zwischen 1,0 Promote und 1,5 Promote. Sehen wir uns ein anderes Beispiel an. Mit diesen Einstellungen
haben wir ein Promo-Ergebnis von 1,0. Und mit genau der
gleichen Einstellung mit 1,5 haben wir dieses Ergebnis erhalten. Also hast du etwas bemerkt? Sehen wir uns auch ein anderes
Beispiel an. Mit dieser Einstellung
ist das ein Werbeergebnis von 1,0, und mit genau derselben Einstellung haben
wir ein Werbeergebnis von 1,5. Bei dieser Einstellung entspricht
das Werbeergebnis 1,0. Und mit exakt derselben Einstellung haben wir 1,5 Promote-Ergebnis erhalten. , wenn wir mit einem animierten
Charaktervideo fertig würden wir
aussehen, wenn wir mit einem animierten
Charaktervideo fertig wären? Mit dieser Einstellung
haben wir ein Promo-Ergebnis von 1,0 erhalten. Wie ihr sehen könnt, Leute,
haben wir unsere Gesichtsanimation und mit exakt derselben Einstellung haben
wir 1,5 Promote. Lassen Sie uns nun darüber sprechen, wie Ihre Bilder aussehen würden,
wenn Sie sie zum Leben
erwecken würden. Das ist also das Ergebnis
von 1.0 promote, und das ist das Ergebnis
von 1.5 promote. Wenn Sie also davon
sprechen Ihre Bilder zum Leben zu erwecken, gibt es keinen großen
Unterschied zwischen
1.0 und 1.5 Promote. 1,5 Promde ist also
konsistenter als 1,0 Promote. 1.0 generiert atemberaubende Videos, aber es gibt einige Verzerrungen in den Videos, die bemerkt werden
können Es gibt jedoch keine
großen Verzerrungen. Wenn Sie den Standardmodus verwenden, treten starke
Verzerrungen oder Verstöße auf. Wenn Sie jedoch den 1.0-Promo verwenden, werden
Sie keine großen
Verzerrungen oder Verstöße feststellen. Aber wenn Sie 1.5 Promod in Betracht ziehen, wäre
es besser, es zu
verwenden, da ich kaum Verzerrungen oder
Verstöße feststelle. Beim Vergleich dieser
beiden Punkte stelle ich fest, dass 1,5
konsistenter ist und
die beste Werbewirkung bietet als 1,0 1,0 werben schneidet in einigen Szenarien besser ab als 1,5. Das ist also die Schlussfolgerung
, ob Sie 1.5 oder 1.0 Promote verwenden
möchten.
21. Kling 1.5 VS Kling 1.0 Standardmodus: Willkommen zurück, alle zusammen. Das neue Update von
Kling AI ermöglicht es uns also, Kling 1.5
im Standardmodus zu verwenden. Vor diesem Update können
wir also nur den
professionellen Modus verwenden. Jetzt können wir den
Standardmodus verwenden, was gut ist. Und der Standardmodus
benötigt 20 Credits. Zunächst wähle ich Bild
zu
Videomodell aus und lass uns ein Bild
auswählen. Jetzt
wähle ich mein Bild aus
und tippe jetzt
diesen braunen Mann ein, der in einem Anzug
im Cyberpunk-Stil durch
eine Cyberpunk-Stadt rennt der in einem Anzug
im Cyberpunk-Stil durch
eine Cyberpunk-Stadt Wählen wir nun
den Standardmodus und klicken wir auf Generieren Jetzt habe ich
einige Beispiele generiert, und jetzt werden wir
den Standardmodus von Kling
1.1 mit dem 1.5-Standardmodus vergleichen . Dies ist das erste Beispiel:
Männer, die in einer
Cyberpunk-Umgebung laufen und einen Cyberpunk-Stil
tragen Und wie ihr sehen könnt, Leute, verwende
ich Kling 1.0 und ich habe den
Standardmodus verwendet Und das ist das Ergebnis. Und mit demselben Bild
mit derselben Eingabeaufforderung ist
das Kling 1.5. Und wie du sehen kannst, Alter, ist
das Ergebnis stark verbessert. Ich habe dafür nicht einmal den
professionellen Modus verwendet, wie Sie hier sehen können, ich habe den Stand-in-Modus verwendet. Schauen wir uns nun ein anderes Beispiel an. Riesiger Schleim, der weit von der Decke entfernt war und den Körper
des Mannes bedeckte Jetzt verwende ich dafür den
professionellen Modus von Kling 1.5, und das ist das Ergebnis des professionellen
Modus Kling 1.5 Und mit demselben Bild
und derselben Aufforderung verwende
ich einfach den
Stand-in-Modus von Kling 1.5, und hier ist das Ergebnis. Sie können also den Standardmodus von Kling
1.5 verwenden und Sie werden einige
ziemlich erstaunliche Ergebnisse erzielen. Hier haben wir ein weiteres Beispiel, einen
Mann, der vor dem Tsunami davonläuft aus
dem Hintergrund kommt Ich verwende das Modell Kling 1.0
und den Standardmodus. Und hier haben wir das Ergebnis. Und mit demselben Bild
und derselben Aufforderung ist
dies das Ergebnis von Kling 1.5. Und wie ihr sehen könnt,
Leute,
sind die Ergebnisse ziemlich konsistent. Hier haben wir ein weiteres Beispiel Standardmodus ING 1.0, einen
Mann,
der vor
der großen Explosion davonläuft, die sich in der
Hintergrundkamera ereignet und ihm folgt. Mit demselben Bild
und derselben Eingabeaufforderung ist
dies das Ergebnis des Standardmodus von
Kling 1.5. Y. Das
ist nun das letzte Beispiel Jeder fängt an zu kämpfen und
schlägt sich gegenseitig. Ich benutze Kling 1.0 und verwende den
Standardmodus für diesen, und hier haben wir das Ergebnis Und mit Kling 1.5 haben wir
hier dieses Ergebnis. Jetzt können Sie den Standardmodus von Kling
1.5 verwenden und Sie werden einige ziemlich erstaunliche
Ergebnisse erzielen, wenn Sie kein professionelles
Konto für Kling AI haben.
22. Start- und Endframe-Kling 1.5: Willkommen zurück.
Im neuen Update können
Sie also auch Start- und
Endframe verwenden , indem Sie das 1.5
Cling AI-Modell verwenden. Jetzt generiere ich diesen Clip
mit diesen beiden Frames, das ist der Start-Frame
und das ist der End-Frame. Übrigens können Sie auch das Ende- und
das
Start-Frame austauschen , wenn Sie möchten. Und ich verwende den professionellen
Modus für diese Generation, und das ist das Ergebnis. Und wie ihr sehen könnt, Leute, ist so
ziemlich die gesamte Bewegung
meines Körpers inkonsistent Also lasst uns
das Modell auf 1.5 ändern
und schauen, ob das Video konsistent
oder inkonsistent
bleibt Wir haben ein weiteres Beispiel
für Start und Frame. Wenn Sie den Standardmodus verwenden, ist
dies das Ergebnis. Lassen Sie uns nun mehr
auf Professional
umsteigen und das Modell auf 1.5 ändern. Wir haben auch dieses Beispiel. den professionellen Modus 1.0 verwenden, ist
dies der Start-Frame und dies ist der End-Frame. Und wir haben dieses Ergebnis erzielt. Lassen Sie uns nun sehen, ob wir mit 1.5
ein konsistentes
Ergebnis erzielt haben . Lassen Sie uns also mehr auf 1.5 ändern und dann auf Konzentrieren klicken. Die Videos sind jetzt also generiert. Hier haben wir das Endergebnis. Das Video ist also
ziemlich konsistent. Aber in meinem
Gesicht gibt es Widersprüche , die ich nicht sehe Aber es hat den Antrag richtig gemacht. Er ist besser als der
professionelle Modus von 1.0. Schauen wir uns nun
das zweite Beispiel an. Und ich finde, dieses
Ergebnis ist ziemlich beeindruckend als der
Standmodus von 1.0. Wenn Sie nun
inkonsistente Bilder verwenden, wenn Sie das erste Bild verwenden und zweite Bild völlig
anders ist als das erste Bild, dann werden Sie
ein seltsames Ergebnis erzielen Und das ist das erste
Beispiel dafür. Auf beiden Bildern steckt das
Auto in der Wand fest. Deshalb haben wir dieses Ergebnis erhalten. Selbst wenn Sie 1.5 verwenden, werden
Sie ein seltsames Ergebnis erzielen. Nun, das ist das zweite Beispiel. Wenn Sie völlig
unterschiedliche Bilder verwenden, unterscheidet sich
der Start-Frame
vom End-Frame. Deshalb haben wir dieses Ergebnis erhalten. Und wie Sie sehen können,
verwende ich den professionellen Modus 115. In diesem Beispiel verwende
ich jetzt einen Ferrari. Wenn Sie
konsistente Bilder generieren
möchten, gehen Sie zunächst zu
Designer dotmicrosoft.com Und für den Ferrari tippe ich einfach eine große
Ansicht eines Ferrari-Autos ein Und wenn Sie dieses Wort eingeben, müssen
Sie nur die Eingabeaufforderung verbessern, auf diese erweiterte Eingabeaufforderung
klicken und
die Eingabeaufforderung wird für Sie geschrieben. Jetzt können Sie die Bilder vom
Designer dotmicrosoft.com kopieren oder die Größe auswählen oder sie
generieren Aber die Bilder von
Designer Microsoft sehen
karikaturhaft aus Sie sehen nicht realistisch aus. realistische Bilder zu generieren, gehen Sie zu Labs Dot Google
und dann zu Bildeffekten. Wie ihr sehen könnt, Leute,
habe ich Bildeffekte ausgewählt. Lass uns in Meine Bibliothek gehen. Und wie Sie sehen können, die Bilder von Labors Dot
Google ziemlich realistisch. jetzt hier klicken, können
Sie zum
Bildeffekt gehen ,
Ihre Eingabeaufforderung einfügen und auf dieses Generieren
klicken während
der Generierung der Bilder zum Designer, Gehen
wir während
der Generierung der Bilder zum Designer,
und wie Sie sehen können, Leute, sehen die Designerbilder karikaturhaft
aus Wenn Sie dagegen in
die Labore von Google gehen, haben wir realistische Ergebnisse Lass uns dieses Bild herunterladen. Und wenn du
in deiner Eingabeaufforderung nach oben scrollst, wie du sehen kannst, ist
das ein Weitwinkelobjektiv. Wir können
das auch ändern, um es zu schließen. Wir können auch die
Farbe des Ferrari ändern. Wir können den Markennamen ändern. Sie können das farbige
Schlüsselwort ändern, wenn Sie möchten. Jetzt können wir auf Generieren klicken. Bevor wir einen Weitwinkel erzeugen, können wir
jetzt eine
Nahaufnahme eines Ferrari erstellen. Und wenn Sie das tun, werden Sie,
wie Sie sehen können , einige
konsistente Bilder erhalten. Klicken wir nun auf
diesen Download-Button. Und wenn wir jetzt die Bilder öffnen, sehen
diese beiden Bilder
konsistent aus. Sie sehen gleich aus. Nachdem wir
die Bilder heruntergeladen haben, wähle
ich
im Startbild die Nahaufnahme und im Endbild die weiße
Aufnahme aus, und wir haben dieses Ergebnis erhalten. Und
das wird übrigens im
Standardmodus 1.0 generiert . Und mit den gleichen Bildern haben wir dieses Ergebnis erzielt. Wie Sie sehen können, ist das
Ergebnis konsistent. Wenn Sie möchten, dass sich die Kamera bewegt, können
Sie auch den Rahmen austauschen. Und in diesem Ergebnis tausche ich einfach den Rahmen aus. Ich wähle die weiße Aufnahme
am Startbild aus und ändere die
Nahaufnahme am Endbild. Und das ist das
Ergebnis, das wir erzielt haben. Und diese beiden Bilder
wurden auch mit
dem Kartenpunkt Google generiert, und wir haben dieses Ergebnis Es gibt also eine andere
Methode, wenn Sie konsistente Bilder generieren
möchten Gehen Sie zunächst zum Chat GBD und
bitten Sie ihn, eine Aufforderung zur
Bilderzeugung zu schreiben, in Paris
eine Wasserflasche
vom Himmel fällt Und wir haben diese Aufforderung bekommen
und bitten ihn nun, eine Aufforderung zur zweiten Szene zu schreiben Jetzt bitte ich ihn nur,
diese beiden Eingabeaufforderungen konsistent zu halten und mir diese beiden Eingabeaufforderungen zu geben. Ich kopiere diese Aufforderung und füge
sie in Labs Dot Google ein. Wie Sie sehen können, sind dies
das erste Prompt-Ergebnis und dies ist das
zweite Prompt-Ergebnis. Die Flasche fällt
vom Himmel und in der zweiten Aufforderung
ist sie auf dem Boden gelandet. Und hier haben wir das Ergebnis. Jetzt habe ich den 1,0 Zapfenmodus verwendet,
aber Sie können Ihr Modell auf 1,5 ändern und den
professionellen Modus auswählen, und dann erhalten Sie professionelle
, konsistente Ergebnisse Jetzt können Sie JA GPT auch bitten, Bilder für Sie
zu generieren. Wie ihr sehen könnt, Leute, bitte ich
ihn, sechs Prompt zu schreiben und die Konsistenz in sechs
beizubehalten, ein Zeitraffer, in dem eine Pflanze zu einem ausgewachsenen Baum
heranwächst Und das sind sechs Eingabeaufforderungen, aber ich bitte ihn, diese Bilder zu generieren und
diese Bilder zu
generieren Und dann frage ich ihn, kannst
du sie realistisch machen? Und wir haben diese Ergebnisse? Dann habe ich ihn gebeten, sie
ultrarealistisch zu machen , und
wir haben diese Ergebnisse erhalten. Dann füge ich diese beiden Bilder hinzu
und schaue mir das Ergebnis an. also die
konsistenten Bilder verwenden, erhalten
Sie ein
professionelles Ergebnis. Hier ist ein weiteres Beispiel: Wenn Sie den Rahmen des Formulars austauschen, haben
wir diesen Fade-Out-Übergang zwischen diesen beiden Frames. Und wenn Sie diesen
Frame am Anfang
und diesen Frame am Ende verwenden und Standard 1.0 verwenden, haben
wir dieses Ergebnis erhalten, haben
wir dieses Ergebnis besser ist als
das Ergebnis 1,5,
aber das Ergebnis 1,5 ist konsistent. Ich hoffe, du hast
eine Idee, wie du
die Start- und
Endframe-Videos professionell generieren kannst . Halte die Bilder einfach konsistent. Wenn Sie nun zwei
konsistente Bilder haben, können
Sie ein
ziemlich erstaunliches Ergebnis erzielen. Ich habe zum Beispiel diese beiden Bilder ,
die identisch aussehen. Im ersten Bild haben
wir einen Samen und im letzten Bild haben wir
eine kleine Pflanze oder einen Baum. Jetzt verwende ich den Link
1.0-Standardmodus und wir haben dieses Ergebnis erhalten. Aus einem Samen wird eine
Pflanze oder ein kleiner Baum. Jetzt ändere ich mein Modell einfach
auf den professionellen Modus 1.5 und habe dieses seltsame Ergebnis. Der Samen verwandelt sich nicht. Wir haben nur zwei Clips
in einem Video zusammengefasst. Wenn Sie also ein
solches Ergebnis erhalten, versuchen
Sie, eine Eingabeaufforderung einzugeben. Also verwende ich einfach
wieder diese beiden Bilder und tippe eine Eingabeaufforderung ein, wobei sich der Samen
in einen kleinen Baum verwandelt. Und dann habe ich dieses
erstaunliche Ergebnis erzielt.
23. Bewegungspinsel von Kling 1.5: Willkommen zurück. Das
neue Update von Kling AI ermöglicht es uns also, Kling 1.5
mit der Draw Brush-Funktion zu verwenden. Jetzt können Sie die Draw
Brush-Funktion mit Kling 1.5 verwenden. Jetzt haben wir dieses Beispiel. Wie ihr sehen könnt, Leute,
habe ich
das mit der Draw
Brush-Funktion generiert . Und das ist mein Zeichenpinselpfad, und das ist ein Ergebnis des
Kling 1.0-Standardmodus. Jetzt verwende
ich
mit demselben Bild
und demselben gezeichneten Pfad den
professionellen Modus, wähle Cling
1.5 und lass uns generieren. Jetzt haben wir ein anderes Beispiel. Und wenn ich den
Weg gehe, wie ihr sehen könnt, Leute, ist das mein Weg. Jetzt verwende ich
den professionellen Modus und lasse uns
das Modell auf 1.5 umstellen und auf Generieren klicken. Jetzt haben wir diesmal dasselbe
Bild. Aber ich habe nur den Blitz
der Pistole gezeichnet, wie Sie sehen können. Jetzt wähle ich den professionellen Modus und
lass uns Clean 1.5 auswählen und dann auf Generieren klicken. Dies ist ein weiteres Beispiel für einen
Bewegungspinsel mit
professionellem Modus und Verwendung, und dies ist
ein weiteres Beispiel für einen
Bewegungspinsel unter Verwendung des Clean 1.0-Modells und des professionellen Modus. Und wenn wir zu dem Pfad gehen, ist
das der Pfad, den ich gezeichnet habe, und hier haben wir das Ergebnis. Lassen Sie uns nun das Modell mit
demselben gezeichneten
Bewegungspinselpfad ändern . Klicken wir auf Generieren. Und wir haben auch dieses
Beispiel. Wenn wir bei diesem Bild zum
Bewegungspinselpfad gehen, ist
dies der Pfad, den ich gezeichnet habe. Bei einem professionellen Modus von
1.0 ist dies das Ergebnis. Wenn Sie sich meinen vorherigen
Vortrag über Motion Brush ansehen, versuche
ich wirklich sehr, mich
zum Sitzen zu bringen. Und am Ende habe ich nach ein paar Versuchen dieses
Ergebnis erzielt. Versuchen wir es jetzt mit
demselben Motion-Pinsel-Pfad, aber mit Kling 1.5, und verwenden wir den
professionellen Modus, um
Zugriff auf Motion Brush von 1.5 zu erhalten . Und das ist jetzt das Ergebnis des professionellen Modus von Kling 1.5. Und wie ihr sehen könnt, Leute, ist jetzt
alles
konsistent. Und dies ist das
zweite Beispiel für 1.5 Motion Brush
im professionellen Modus. Und wie Sie in der Anleitung sehen können, ist
das Ergebnis ziemlich beeindruckend. Und das ist ein weiteres
Beispiel, bei dem ich einfach den Blitz der Pistole putze. Und dieser ist ziemlich wild. Und das ist ein weiteres
Beispiel für deinen Stiefel. Und wie ihr sehen könnt, Leute, ist
die Bewegung ihres
Körpers konsistent. Es liegt
in keinem Frame ein Verstoß gegen das Video vor. Es sieht irgendwie aus wie eine
echte Drei-D-Animation. Selbst in diesem Beispiel hatten im professionellen Modus von 1.0 wir
im professionellen Modus von 1.0 eine seltsame Handbewegung, aber in 1.5 habe ich bemerkt, dass die
Handbewegung jetzt behoben ist Also 1.5
wurde in Motion Brush tatsächlich verbessert, und das ist das Ergebnis meines
Versuchs, mich mit
der KI zu positionieren. Und ich finde, dieses Ergebnis
ist ziemlich beeindruckend Und hier haben wir noch einige
weitere tolle Beispiele. Also verwende ich dieses Bild, und wenn wir zum
Bewegungspinsel gehen, zeichne
ich diesen Pfad. Zuerst zeichne ich das Pedal und verfolge dieses Pedal bis zu dieser Seite. Dann zeichne ich das ganze Wasser und folge dem Wasser
bis zu dieser Seite. Dann entferne ich diese Seite
des Wassers, denn wenn
wir uns das Bild ansehen, haben
wir diese Wellen
im Wasser Also entferne ich diesen Teil. Also entferne ich diesen Pfad
mit dem Array-Werkzeug und wähle dann
den dritten Bereich aus, zeichne diesen Pfad und verfolge das Pad bis zu
dieser Seite Und zum Schluss wähle ich mein Host-Thema aus und verfolge
mein Thema nach oben. Jetzt, im Finale, zeichne ich
dieses Brett als statischen Bereich. Und ich verwende den Standardmodus für diese
Motion-Pinsel-Generation und verwende 1.0. Und wenn ich mein Video abspiele, ist
das Ergebnis 1.0. Sogar 1.0 sieht fantastisch aus. nun 1.5
mit demselben Bild und
demselben Motion-Pinselpfad verwenden, haben
wir dieses konsistente Ergebnis erzielt. Ist es nicht unglaublich? Jetzt
kannst du noch eine Sache tun. Falls du merkst, dass wir ein Problem haben. Das Boot bewegt sich überhaupt nicht. Sie können also auch das
As-Werkzeug auswählen, die automatische Segmentierung
aktivieren
und den statischen Bereich löschen Weil wir das
Boot als statischen Bereich zeichnen, bewegt sich
das
Boot deshalb nicht Jetzt können wir
das Pinselwerkzeug auswählen. Wir können Bereich fünf auswählen. Wir können das ganze Boot zeichnen. Und wir können das
Boot bis zu diesem Ort verfolgen. Jetzt lassen Sie uns das bestätigen. Und dafür verwende
ich meinen
Standardmodus und wähle 1.0. ein anderes Beispiel an, während das Video generiert Sehen
wir uns ein anderes Beispiel an, während das Video generiert wird. Ich verwende also dieses Bild, und wenn wir zum
Bewegungspinselpfad wechseln, der sich
jetzt im Bewegungspinselpfad , zeichne
ich mein Auto und möchte mein Auto
durch diese Seite bewegen. Und ich zeichne den gesamten
Bereich als statische Idee. 1.0-Standardmodus ist
dies das Endergebnis. Wie Sie sehen können, fährt das
Auto in diese Richtung. Also repariere ich mein Gebiet in
der nächsten Generation. Wenn wir zum Bewegungspinsel gehen, ziehe
ich meine Linie auf diese Seite. In der Vergangenheit habe ich
meine Linie so gezogen. Jetzt habe ich mich auf diese Seite gezogen. Und hier haben wir das Ergebnis
des 1.0-Standardmodus. Und es sieht so aus, als ob das
Auto irgendwie driftet. Und mit dem professionellen Modus 1.0, mit diesem aktualisierten Pfad, haben wir
hier das Ergebnis Und mit demselben Auto mit
demselben Bild, demselben Weg. Aber dieses Mal verwende ich den professionellen Modus
1.5, und das ist das Endergebnis. Jetzt haben wir auch ein anderes
Beispiel. Ich verwende dieses Bild, und wenn wir
zum Bewegungspinsel gehen, zeichne
ich mein Auto und
dann diesen Pfad. Ich möchte dieses
Auto auf diese Seite bewegen, und ich zeichne den gesamten Ozean
und ich verschiebe den Ozean auf diese Seite und zeichne den
gesamten Bereich als statischen Bereich. Und das ist das Ergebnis. Das habe ich nicht erwartet. Das Auto fährt rückwärts
statt vorwärts. In meiner nächsten Generation behebe
ich dieses Problem Ich zeichne diesen Pfad auf diese Seite, ich zeichne den Pfeil auf diese Seite. In der vorherigen Generation habe ich
den Pfeil wie diese Seite gezeichnet. Indem ich also den Pfeil auf
diese Seite des Bodens gezogen
habe, habe ich dieses Ergebnis erzielt. Wir beheben dieses Problem. Wenn Sie also ein
solches Problem haben, können
Sie es leicht beheben,
indem Sie Ihren Bereich untersuchen. Und wenn Sie den
professionellen Modus 1.5 verwenden, ist
dies das Endergebnis. Wie Sie sehen können, ist das
Video konsistent. Es liegt kein Verstoß vor. Alles sieht realistisch aus. Und wir haben dieses Beispiel
, wo wir einen Tiger haben. Und wenn du zum
Bewegungspinsel gehst, zeichne
ich den Tiger und
richte den Pfeil ins Wasser und ich zeichne das ganze Wasser und richte
den Pfeil auf diese Seite. Ich möchte, dass sich das Wasser auf diese Seite
bewegt, und ich möchte, dass mein Tiger
ins Wasser geht. Und das
haben wir mit 1.0 erreicht.
Wenn Sie nun zum Bewegungspinsel gehen, zeichne
ich diesen Stein als Dachboden. Aber in meiner nächsten Generation, wenn wir zum Bewegungspinsel übergehen, entferne
ich das als Dachboden. Und ich korrigiere auch meine
Pfeilpositionierung des Tigers, und im professionellen Modus 1.5 ist
das das Endergebnis. Das ist das Ergebnis, das wir wollen. Das Boot bewegt sich irgendwie. Nicht das Boot, aber wir haben einen
Kamera-Moment im Video. Verwenden wir jetzt einen
professionellen Modus und verwenden wir 1.5
und lassen Sie uns generieren. Wenn du also
keine zusätzlichen Credits verlieren möchtest ,
habe ich einen Tipp für dich. Wenn du Motion Brush verwenden möchtest, dann verwende den 1.0-Tendon-Modus Wenn Sie auf diese Weise etwas falsch gemacht
haben, können
Sie Ihr Problem
in Ihrer nächsten Generation beheben Und wenn das Problem behoben ist, können
Sie den
professionellen Modus 1.5 verwenden, und Sie erhalten
Ihre Generation, und das Video
bleibt konsistent. Mit dieser Methode können Sie
Ihre Credits speichern. Wenn Sie in
Ihrer ersten Generation den
professionellen Modus 1.5 verwenden , verlieren
Sie 25
zusätzliche Credits. Das ist also meine Art, die Credits zu
sparen. Sie können dieselbe Methode auch verwenden
, um Ihre Credits zu speichern. Das
1.5-Video im professionellen Modus wird jetzt generiert, und hier haben wir das Ergebnis. So können Sie das Motion Brush-Tool
verwenden, indem professionellen Modus 1.5
verwenden.
24. Kamerabewegungen mit Kling 1.5: Willkommen zurück. In der
vorherigen Version von Ling AI können
wir den
Kamera-Moment also nicht wirklich nutzen, wenn Sie das Bild auch
auf Video Inkling 1.5 oder
Inkling 1.0 umschalten auf Video Inkling 1.5 oder
Inkling 1.0 Aber jetzt können wir
den Kamera-Moment in
Cling 1.5 nutzen , indem wir den
professionellen Modus verwenden Um Bilder zu generieren, verwende
ich den Designer domicrosoft.com,
kopiere diese Eingabeaufforderung Dann füge ich die Eingabeaufforderung
in Labs Dot Google ein. Und wähle Bild links aus. Jetzt können Sie auch
das hervorgehobene Schlüsselwort ändern. Wenn ich in meine Bibliothek gehe, sind dies, wie Sie sehen können,
meine ursprünglichen Prompt-Ergebnisse, und ich wähle das
hervorgehobene Schlüsselwort und ändere einige Stichwörter, und dann habe ich diese Ergebnisse erhalten. Wenn Sie zum
Microsoft-Designer gehen, wähle
ich dieses Bild aus,
Sie können hier klicken, gesamten Abschlussball
bearbeiten, Sie
können diese Aufforderung kopieren, und ich füge die Eingabeaufforderung
in Labs do Google ein, und ich habe diese Ergebnisse erhalten. Gehen Sie zu Cling AI und wählen Sie
Ihr Modell auf 1.5 aus. Gehe zum Bild zum Video. Jetzt
wähle ich zuerst das mobile Bild aus. Sie können nach unten scrollen und den professionellen Modus auswählen. Und sobald ihr
euren professionellen Modus ausgewählt habt, wie ihr sehen könnt, haben
wir Kamera-Moment. Du kannst
deinen Kamera-Moment
aus diesem Drop-down-Menü auswählen , wenn
du noch weiter nach unten scrollst, da du sehen kannst, Alter, das ist
mein Kamera-Moment. Wenn du
das auswählst, kannst du
den Schieberegler ändern , um
deinen Kamera-Moment zu bekommen. Wenn Sie diesen Wert auf die
linke Seite auf minus zehn ändern, erhalten
Sie den linken
horizontalen Kameramoment. Wenn Sie Vertikal wählen, erhalten
Sie den
vertikalen Kameramoment. Wir haben den Zoom, wir haben den Stift und wir haben Tilt and Roll. Also wähle ich
diesen Stift minus zehn. Lass uns die zwei minus fünf ändern. Lasst uns nicht ins Extreme gehen. Gehen wir vielleicht ins Extrem. Klicken wir jetzt auf Content Rate. Wählen wir nun dieses Bild und laden wir dieses Bild herunter. Und für dieses Bild wähle
ich Tilt und ändere
das auf minus zehn. Oder vielleicht können wir dieses Bild
auswählen. Laden wir dieses Bild herunter
und scrollen wir nach unten, und ich
ändere meine Neigung auf zehn. Klicken wir nun auf Generieren. Ich generiere auch dieses Bild, und das ist die
Aufforderung zu diesem Bild. Für dieses Bild ändere
ich nun die Pfanne auf zehn. Während dieses Video generiert wird, werde
ich Ihnen
einige Beispiele für
Kamera-Momente zeigen , indem ich
1,5 Bild-zu-Video verwende. In diesem Beispiel wähle
ich also dieses Bild aus und ändere meinen Kameramoment
auf vertikal zehn, und ich habe dieses Ergebnis erhalten. Jetzt ändere
ich im zweiten Bild den
Kameramoment auf Schwenk minus zehn, und wir haben dieses Ergebnis erhalten. Und für dieses Bild verwende
ich den Zoom-Kameramoment, Wert zehn, und das
ist das Ergebnis. Wie ihr sehen könnt, Leute,
ist 1.5 ziemlich konsistent. Und für dieses Bild verwende
ich meinen
Kamera-Moment-Pan, Wert zehn. Die Kamera schwenkt
in Richtung Himmel. Und wenn Sie feststellen, dass das Video keine
Inkonsistenz aufweist, ist
das Video
ziemlich Und in diesem Beispiel verwende
ich den Rollenwert zehn Das ist der extreme
Kamera-Moment. Und trotzdem haben wir hier
einige Verstöße, aber nicht zu viele. Übrigens können Sie diese Arten von
Kamera-Moment-Videos jetzt auch miteinander
mischen. Zum Beispiel kann ich dieses
Video mit diesem Video mischen Laden
wir diese beiden Videos herunter. Jetzt zeige ich
Ihnen, wie wir
diese Art von
Kameravideos zusammenmischen können . Öffnen Sie zunächst den Kappenschnitt. Dies ist die beste
Video-Editor-Software
für Anfänger auf dem Markt. Erstellen Sie jetzt ein neues Projekt. Klicken Sie hier, um
ein neues Projekt zu erstellen. Wählen Sie nun diese beiden
Videos aus und importieren sie direkt hier auf
der Medienseite. Jetzt kann ich
dieses Video zuerst importieren und lassen Sie uns dieses Video
neben dem ersten Clip importieren. Jetzt können wir die Leertaste drücken
, um eine Vorschau dieses Clips anzuzeigen. Die Kamera
schwenkt also auf diese Seite, sodass wir
diesen Clip auch umkehren können Aber ich denke, anstatt den Clip
umzukehren, platzieren
wir diesen Clip
genau hier und wir können diesen Clip
genau hier umkehren. Klicken Sie hier. Wählen Sie zuerst Ihren
Clip aus und klicken Sie hier , um Ihren Videoclip umzukehren. Und jetzt, wie Sie sehen können, können wir dieses Video hier
platzieren. Wir können diesen Clip auch auswählen, zur Maske
gehen und
die horizontale Maske auswählen. Wir können diese
Maske umkehren, indem wir hier klicken, und wir können diesen
Pfeil auswählen und ihn nach oben bewegen , um
diese Feder zu
erstellen Jetzt können wir diese Linie
auf diese Seite ziehen und die Feder
ändern Zwei 0%. Fügen Sie jetzt genau hier einen
Keyframe hinzu, und wir können den
Keyframe auch an der richtigen Position hinzufügen Gehen Sie nun ein paar Frames weiter, ändern Sie diese Seite auf diese Seite und
ändern Sie auch die Feder Und jetzt, wenn Sie
sich das Video ansehen, haben
wir dieses erstaunliche Ergebnis. Lassen Sie uns das zuschneiden,
wählen Sie diesen Clip gehen wir zur Animation, gehen wir zur Out-Animation und wir können eine
Ausblendanimation hinzufügen. Und wenn ich diesen
Clip abspiele, wie ihr sehen könnt, Leute, ist das das Endergebnis. So könnt ihr
eure Kamera-Moment-Clips
von Kling AI verwenden und
sie so zusammenfügen. Dies ist ein
weiteres Beispiel Kamera-Moment im professionellen Modus von Kling
1.5. Dies ist der Wert für das
Kamera-Moment minus zehn, und das ist das Ergebnis. Jetzt empfehle ich dringend, den extremen Wert
Ihres Kamera-Moments nicht
zu sehr zu verwenden . Sagen Sie einfach wie hier, wenn Sie
ein realistisches Ergebnis erzielen möchten, zwei minus drei oder
zwei plus drei, wenn Sie
ein fantastisches Ergebnis erzielen möchten. Jetzt haben wir das
zweite Beispiel, bei dem ich die extreme Neigungsposition zehn verwende, und das ist das Ergebnis. Nun, das ist das letzte Beispiel. Ich verwende Pan Plus Ten, und das ist auch ein
extremer Kamera-Moment. Aber für diese Aufnahme
funktioniert es ziemlich gut. So können Sie den Kamera-Moment
nutzen, indem Sie den professionellen Modus 1.5
verwenden.
25. Kling 1.6 vs. 1.5 vs. 1.0 Text-to-Video: Willkommen zurück. Deshalb hat Kling AI gerade ihr neues Modell , Kling 1.6, und es wird sich gegenüber der Vorgängerversion verbessern
. Wie bei Kling 1.5 können Sie auch mit Kling 1.6 den Standardmodus
verwenden. Derzeit können wir Motion Brush jedoch nicht
wirklich verwenden, und wir können
Camera Moment mit Kling 1.6 nicht wirklich verwenden. Ich habe also dieses Beispiel. Dies ist eine Aufforderung, und ich verwende den professionellen Modus von
Kling 1.0, und das ist das Ergebnis. Jetzt verwende
ich mit derselben Aufforderung Cling 1.5, und das ist das Ergebnis des professionellen Modus
1.5. Gehen wir nun zur
Bearbeitung und generieren wir
das mit einer neuen Version von 1.6. Jetzt können wir auf Generieren klicken. Das Video ist jetzt generiert
und hier haben wir das Ergebnis. Sehen wir uns das Ergebnis an. Bei weitem ist 1.6 ziemlich erstaunlich. Es ist viel besser. Es ist weitaus besser als 1.5 und 1.0, da Sie keine
Frame-Verletzung finden
können oder Sie können
keine Frame-Verletzung
wirklich feststellen Ihren generierten Clips keine
Frame-Verletzung finden
können oder Sie können
keine Frame-Verletzung
wirklich feststellen. Jetzt habe ich noch ein Beispiel , das ich
mit euch teilen möchte. Das ist die Aufforderung, und ich verwende 1.6 Promote für diese Generation, und hier haben wir das Ergebnis. Wie Sie feststellen, liegt in den generierten Clips
kein Frame-Verstoß vor. Und wie ihr sehen könnt, Leute, ist 1.6 klarer und in 1.6 gibt es keinen
Inframe-Verstoß In 1.0 und 1.5 haben
wir einen kleinen
Frame-Verstoß, aber in 1.6 gibt es im generierten Ergebnis
keinen Frame-Verstoß Nun, hier haben wir
ein weiteres Beispiel. Dies ist die Aufforderung, und ich verwende auch den Pro-Modus
für diese Generation. Und das Ergebnis sieht realistisch aus. Hier liegt ein kleiner
Frame-Verstoß vor, aber alles sieht gut aus. Und das ist das Ergebnis 1,0 und 1,5. Nun, bevor ihr euch aufregt
und anfängt, 1.6 zu verwenden möchte
ich dieses Geheimnis mit
euch teilen. Bei 1.6 handelt es sich um vier realistische Clips. Wenn Sie eine unrealistische Eingabeaufforderung verwenden, werden
Sie kaum ein besseres
Ergebnis als 1,5 oder 1,0 Lassen Sie mich Ihnen ein Beispiel zeigen. Dieselbe Eingabeaufforderung, wir haben
sowohl ein Ergebnis von 1,0 als auch ein Ergebnis von 1,5. Und jetzt mit derselben Eingabeaufforderung ist
dies das Ergebnis im Pro-Modus 1.6. Es liegt kein Frame-Verstoß vor, aber mir hat
der Stil von 1.6 nicht gefallen. 1.5 ist weitaus besser, wenn Sie animierte Clips
generieren möchten, aber 1.6 ist für realistische Clips. Bei diesem Abschlussball ist
dies also das Ergebnis
des 1.5 Pro-Modus. Und mit derselben Aufforderung ist
dies das Ergebnis
des 1.6 Pro-Modus. Nun, all diese Videos wurden im
professionellen Modus 1.6 generiert, aber ist der 1.6-Standardmodus auch
gut für die Videogenerierung geeignet? Ich werde Ihnen
einige Beispiele zeigen und die Standardmodi 1.0,
1.5 und 1.6 vergleichen Standardmodi 1.0,
1.5 und 1.6 da all diese Videos im
professionellen Modus
generiert wurden. Lassen Sie uns nun sehen, ob der Standardmodus auch für die
Videogenerierung gut genug ist oder nicht. Das ist also die Aufforderung, und das ist das Ergebnis
des 1.0-Standardmodus. Jetzt mit derselben Eingabeaufforderung ist
dies das Ergebnis
im Standardmodus 1.5. Und 1.5 eignet sich auch gut
für die Videogenerierung. Und jetzt haben wir den
endgültigen 1.6-Standardmodus. Wie ich Ihnen bereits gesagt habe, ist
1.6 weitaus realistischer
als das andere, weil das 1.5-Video großartig aussieht, aber für mich ist es unrealistisch 1.6 ist also für die
realistische Generierung vorgesehen, aber wenn Sie zwischen
Realismus und Unrealismus
generieren möchten , Das ist nun ein weiteres Beispiel. Dies ist die Eingabeaufforderung, und
dies ist das Ergebnis von 1.5. Und hier haben wir das Ergebnis
des 1.6-Standardmodus. Und für dieses Beispiel denke
ich, dass 1.6 ein klarer Gewinner ist,
denn in der 1.6-Generation kann
man deutlich ein
bisschen Kameramoment erkennen und alles
sieht knackig klar Mit dieser Eingabeaufforderung ist das Ergebnis nun 1,0 Und das ist das Ergebnis im
Standardmodus 1.5. Und jetzt ist das Ergebnis
von 1.6 mit derselben Eingabeaufforderung. Und für dieses Beispiel ist
1.6 auch der Gewinner für diese Generation,
weil
das Gebäude im Hintergrund auch wirklich
toll aussieht und auch toll aussehen kann. Jetzt haben wir ein anderes Beispiel. Dies ist die Aufforderung,
und dies ist das Ergebnis des 1.0-Standardmodus. Bei derselben Eingabeaufforderung ist
dies das Ergebnis des 1.5-Standardmodus. Jetzt haben wir endlich das Ergebnis im
Standardmodus 1.6. Und wie ihr sehen könnt,
Leute, 1.6 ist großartig. Es sieht so aus, als würden wir
diese Kugel mit
dem Handy fotografieren . Und wie ich Ihnen bereits sagte, liegt
1,5 zwischen
Realismus und Unrealismus Jetzt haben wir das zweitletzte Beispiel. Dies ist die Aufforderung,
und zuallererst ist
dies das Ergebnis des
1.0-Standardmodus. Und wie wir erwartet hatten, sieht
alles Mist aus. Gehen wir nun zu 1.5 über. Mit derselben Aufforderung
gelingt es 1.5, dieses Meisterwerk zu generieren. Wir haben einen kleinen
Verstoß, aber alles sieht gut aus. Jetzt haben wir endlich ein Ergebnis von 1,6. Und das ist ein unerwartetes
Ergebnis für mich. Weil ich glaube, dass 1.5 in diesem Beispiel
gut aussieht. Weil man in 1.5
deutlich im Hintergrund sehen kann, dass
wir ein gewisses
Publikum haben, aber in 1.6 gibt es kein Publikum. Und wie ich Ihnen bereits gesagt habe, wenn Sie
realistische Videos erstellen möchten, verwenden Sie 1.6. Wenn Sie jedoch kein realistisches Video
generieren möchten, sondern auch einen Teil des Realismus
im Video erzeugen möchten, verwenden Sie 1.5 Wenn Sie nun versuchen, diese Aufforderung zu
regenerieren, ist
dies das Ergebnis von 1.5 Und überraschenderweise
schneidet 1.6 jetzt etwas besser ab. Und wenn Sie bemerken, dass der Roboter anfängt, sich auf
den roten Roboter zuzubewegen, wackelt
der Boden
und mit der Kamera am Boden wackelt auch ein wenig Und jetzt haben wir das
Publikum im Hintergrund. Für diese Generation ist
es meiner Meinung nach ein Unentschieden zwischen 1,6 und 1,5. Jetzt haben wir das letzte Beispiel. Heat ist die Eingabeaufforderung,
und mit dieser Aufforderung ist
dies der 1.0-Standardmodus. Und mit derselben Eingabeaufforderung ist
dies das Ergebnis von 1.5. Und jetzt haben wir endlich 1.6. Und wie ihr bemerkt, Leute, auch mit diesem Standardmodus ist
1.6
auch mit diesem Standardmodus herausragend. Jetzt habe ich
diese Aufforderung versehentlich mit 1.5 regeneriert, und das ist das
regenerierte Ergebnis Und 1.5 sieht in
diesem
regenerierten Clip besser aus als zuvor Bei dieser Spende ist
1,6 also auch der Gewinner weitem ist das, was ich verwendet
habe , weitaus besser, wenn Sie realistische Clips
generieren möchten.
26. Kling 1.6 vs. Kling 1.5 Pro-Modus: Willkommen zurück.
Lassen Sie uns nun über die Bild-zu-Video-Generierung von
1.6 sprechen. Ist 1,6 besser bei der
Bild-zu-Video-Generierung als 1,5? Lassen Sie mich Ihnen
einige Beispiele zeigen. Zuallererst haben
wir in diesem Beispiel dieses Bild, und ich schreibe eine Aufforderung, ein Messer zu schreiben, das einen Apfel in zwei Stücke
schneidet. Und wie Sie sehen können, verwende
ich das Modell 1.5 und für diese Generation den professionellen
Modus. Jetzt sieht sogar der Profi-Modus, wie ihr sehen könnt, Leute
, unrealistisch aus Jetzt verwende
ich
mit demselben Bild und derselben Aufforderung einfach den
professionellen Modus 1.6, und das ist das Ergebnis von 1.6 Und nachdem ich
diese Generation gesehen habe, ist
1.6 weitaus besser als die anderen Tools, die derzeit auf dem Markt erhältlich
sind , weil die Bewegung
großartig ist und Apple Slice
Slide realistisch aussieht. Sehen wir uns nun auch ein
anderes Beispiel an. In diesem Beispiel verwende
ich nun mein Bild
und tippe einen Abschlussball ein. Der Raum wird sehr schnell
dunkler und der Kopf der Person brennt und
beleuchtet danach den Raum. Also möchte ich, dass der Raum
dunkel wird und ich möchte, dass mein
Gesicht in Brand gerät. Und wie Sie sehen können, verwende
ich den professionellen Modus 1.5, und das ist das Ergebnis. Sieht gut aus, aber es sieht
nicht realistisch aus. Lassen Sie uns nun das Ergebnis von
1.6 mit derselben Eingabeaufforderung
und demselben Bild herausnehmen . Ich verwende den professionellen
Modus für 1.6. Sogar das Video ist unrealistisch, aber visuell
ist 1.6 weitaus besser Jetzt haben wir ein anderes Beispiel. Und bei diesem
Bild tippe ich Man, der vor dem
Roboter
wegläuft, der ihm folgt. Ich verwende den professionellen Modus 1.5
und habe dieses seltsame Ergebnis erzielt. Und nachdem ich dieses
Ergebnis gesehen habe, dachte ich mir, warum diesen Clip nicht im professionellen
Modus 1.6 regenerieren 1.6 wird besser
sein, oder? Wenn ich meinen Clip abspiele, wie Sie sehen können, rennt die
Person, alles sieht
realistisch aus, aber der Clip enthält keinen Roboter. Ich bitte ihn, einen Roboter hinzuzufügen, aber der Clip enthält keinen
Roboter. Das ist also eine
kleine Enttäuschung. Also möchte ich dieses Problem beheben. Also habe ich mir überlegt, wie ich dieses Problem
beheben kann. Also in diesem Beispiel ändere ich einfach den Abschlussball. Person, die auf die Kamera zuläuft, unser riesiger Roboter verfolgt ihn Ich verwende ein anderes Bild,
weil
man auf dem vorherigen Bild mein Gesicht nicht wirklich sehen kann Und ich verwende den professionellen Modus 1.6, und jetzt haben wir ein besseres Ergebnis. Die Person rennt und der
Roboter verfolgt ihn auch. Und wie du sehen kannst, sieht das Ergebnis
wirklich toll Und ich bin
mit diesem Ergebnis zufrieden. Wenn Sie also Probleme
mit Ihrer Generation haben, ändern Sie
einfach die Eingabeaufforderung. Sie erhalten
das gewünschte Ergebnis. Wenn Sie nun nicht das gewünschte
Ergebnis erzielen, wie in diesem Beispiel, mit demselben Bild
und demselben Abschlussball, habe ich dieses Ergebnis erhalten. Aber ich regeneriere dieses Ergebnis und habe dieses Ergebnis erhalten,
das sich
sowohl in der Qualität als auch in der Bewegung verbessert Wenn Sie nicht das gewünschte
Ergebnis erzielen,
auch wenn Sie eine
sehr präzise Eingabeaufforderung eingeben,
ein qualitativ hochwertiges Bild
von sich selbst oder jemandem erhalten auch wenn Sie eine
sehr präzise Eingabeaufforderung eingeben, haben,
versuchen Sie, dick zu regenerieren, da
Sie dadurch auch die Qualität
oder die Bewegung verbessern Jetzt haben wir ein anderes Beispiel. Mit diesem Bild tippe ich diesen bunten Ballon, der von der Decke
fällt. Einige von ihnen fallen auf das Licht der Person, das
den Raum mit einem Farbballon beleuchtet den Raum mit einem Farbballon Und das ist das Ergebnis, das
ich bekommen habe, das ist übrigens der 1.5 Profi-Modus, und
alles sieht gut aus Und jetzt haben wir 1.6 mit demselben Pro
mit demselben Bild und auch mit demselben Modus,
dem professionellen Modus.
Schauen wir uns das Ergebnis an. 1.6 ist weitaus
realistischer als 1.5. Aber in 1.6 haben wir einige Details. Wenn ihr auf dem LCD bemerkt,
wie ihr sehen könnt, Leute, sobald ein Ballon von der Decke
fällt, haben
wir die Spiegelung auf
diesem LCD. Und wir haben auch
realistische Ballons, aber sie erscheinen für einen
kürzeren Zeitraum. 1.6 ist ein bisschen
besser als 1.5. Wenn Sie das Ergebnis vergleichen, ist
1,6 ein bisschen besser, nicht zu viel, aber ein
bisschen besser. Aber wenn du über
das Gefühl sprichst, 1.6, zerstöre
einfach 1.5, weil 1.6-Bewegung
realistisch aussieht, dann 1.5. Wenn du dir 1.5 Emotionen ansiehst, haben sie nur das Gefühl
, dass das nicht real ist. Aber in 1.6
sieht alles gut aus. Aber ich mag
beide Ergebnisse irgendwie. Also wenn du 1.5 verwenden willst, dann kannst du das
auf jeden Fall verwenden. Nun ist 1.6 auch
in Bezug auf den Ausdruck besser. ,
tippe ich bei diesem Bild Wie Sie sehen können,
tippe ich bei diesem Bild eine Aufforderung ein,
eine Person steht mit neutralem Gesichtsausdruck da, geht zu
einem traurigen
Gesichtsausdruck über, dann zu einem glücklichen Gesichtsausdruck und
dann lächelt sie Und das ist das Ergebnis. Jetzt, nach diesem Ergebnis, regeneriere
ich
das Ergebnis mit demselben Modus und
demselben Modell, nämlich 1,6 Hier haben wir das Ergebnis
regeneriert, und mir gefällt dieses
Ergebnis mehr als das vorherige Wenn Sie also nicht das erwartete Ergebnis erzielen
, versuchen
Sie es zu regenerieren Wir haben ein weiteres Beispiel
für den professionellen Modus 1.6. Mit demselben Bild tippe
ich Mann, der in
einem Cyberpunk-Anzug durch
eine Cyberpunk-Stadt rennt , und das ist das
Ergebnis, das ich Wenn Sie etwas
Unrealistisches versuchen, könnten
Sie
in Ihren generierten
Clips einige Verstöße feststellen Aber visuell finde
ich, dass 1.6 großartig aussieht Und jetzt ist dies
das letzte Beispiel für den professionellen Modus 1.6. Ich verwende dieses Bild und tippe Karte,
die sich in ein weißes Auto verwandelt, und das ist das Ergebnis des professionellen Modus
1.6. Was die Videoqualität
und den Realismus angeht, versuche
1.6 nun, so realistisch wie möglich zu sein
27. Kling 1.6 vs. Kling 1.5 Standardmodus: Willkommen zurück. Der professionelle Modus
1.6 ist also besser als
andere KI-Modelle. Aber ist der 1.6-Tener-Modus auch
gut für die Videogenerierung geeignet? Lassen Sie uns das anhand
einiger Beispiele herausfinden. Genau hier haben wir
dieses Bild und wir haben das gleiche Problem, das wir
im professionellen Modus verwenden. Nun, was die Ausdrucksweise angeht, ist
1.5 nicht wirklich gut darin. Jetzt mit demselben Bild mit derselben Eingabeaufforderung
mit demselben Modus, was der Standardmodus ist, aber ich verwende 1.6, und selbst im Standardmodus ist
1.6 besser als 1.5. Jetzt haben wir ein anderes Beispiel. Auf diesem Bild, auf dem diese aufforderte Person auf die Kamera
zuläuft, verfolgt ihn
ein riesiger Roboter Ich verwende den 1.5-Standardmodus und das ist das Ergebnis Für diese Spende hat
1.5 meiner Meinung nach wirklich gute Arbeit geleistet. Aber der Roboter verfolgt mich nicht. Er jagt diese Leute. Und jetzt mit demselben
Bild mit demselben Abschlussball, aber mit dem 1.6-Modell
mit Standardmodus, ist
dies das Ergebnis Und ich denke, 1.6 hat wirklich
gute Arbeit geleistet. Auch in dieser
Generation hat es 1,5 übertroffen. Wir haben ein anderes Beispiel. Stellen Sie sich vor, bei diesem Abschlussball fangen alle an zu kämpfen und sich gegenseitig zu
schlagen Ich verwende den 1.5-Standardmodus und das ist das Ergebnis Jetzt mit demselben Bild
mit demselben Abschlussball, verwende
einfach 1.6 für dieses, und ich verwende dafür auch
den Standardmodus. Und das ist das Ergebnis. Ich sehe etwas besser aus als 1,5, weil es weniger
Verstöße als 1,5 gibt. Lassen Sie uns auch ein
anderes Beispiel herausnehmen. Erinnerst du dich an diesen Typen? Ich verwende dieses Monster-Bild
für den Vergleich des
professionellen Modus 1.0 und 1.5 Aber beide schaffen es nicht,
den Ausdruck dieses Ungeheuers auszudrücken. Jetzt, mit dem 1.6-Standardmodus, hat
1.6 wirklich gute Arbeit geleistet um den
Gesichtsausdruck dieses Monsters zum Ausdruck Sehen wir uns nun ein
anderes Beispiel an. Bei diesem Bild
ist dies der 1.5-Standardmodus. Bei dieser Aufforderung
fällt ein dünner Schleim von der Decke und
bedeckt den Körper des Mannes Jetzt mit demselben Bild
mit derselben Eingabeaufforderung, mit dem 1.6-Standardmodus, ist
dies das Ergebnis Nun, ich denke, 1,5 in dieser Generation hat
wirklich gute Arbeit geleistet, dann 1,6. Jetzt haben wir ein weiteres Beispiel
mit demselben Bild, bei dem dieser Ballmann in
einer Cyberpunk-Stadt läuft und
einen Anzug im Cyberpunk-Stil trägt 1,5-Standardmodus ist das
das Ergebnis Und ich werde nicht lügen. Mir gefällt das Ergebnis
, das ich mit 1.5 erzielt habe, auch im Standardmodus. Aber meine Frage ist, es hat
keine Cyberpungität erzeugt Wir haben nur einen futuristischen
Würfel oder so etwas bekommen, aber wir haben keine Jetzt mit demselben Bild
und derselben Aufforderung, dem
1.6-Standardmodus, ist dies
das Ergebnis, das wir erhalten Und selbst im Standardmodus übertraf
1,6 1,5 in Bezug auf die visuelle Qualität und die Videoqualität. Jetzt mit demselben Bild, auf
dem dieser Profi-Mann vor einer großen Explosion davonläuft vor einer großen Explosion davonläuft die
in der
Hintergrundkamera ihm folgt. 1.5-Standardmodus ist
dies das Ergebnis. Und mit demselben Bild
mit derselben Aufforderung, dem 1.6 Tender-Modus, ist
dies das Ergebnis. 1.6 schneiden besser ab, was
das visuelle Erscheinungsbild und die
Ausdrucksweise der Menschen angeht . Wie Sie sehen können,
bemerkt diese Person die Explosion
und rennt auf die Explosion zu, um Menschen zu retten oder
etwas Ähnliches. Ich denke, 1.6 hat in
dieser Generation
einen wirklich fantastischen Job gemacht. Jetzt könnten Sie eine Frage stellen
, welches Modell Sie verwenden sollten? 1.6, 1.5 oder 1.0. Was den Realismus angeht Wenn Sie
realistische Videos erstellen möchten,
verwenden Sie 1.6, da 1.6
weitaus realistischer ist als 1.5 Wenn Sie jedoch einen Clip generieren
möchten
, der eine Mischung aus
realistischem oder realistischem und unrealistischem Clip ist ,
dann versuchen Sie es mit 1.5, weil 1.5 zwischen beiden
generiert Aber wenn Sie Ihre Eingabeaufforderung
ausprobieren möchten, wenn Sie
mit der Aufforderung experimentieren möchten und gleichzeitig keine zusätzlichen Credits verlieren möchten,
dann verwenden
Sie 1.0, weil 1.0 mit zehn Credits generiert wird, was 1,5
war und 1,6 Sie
20 Credits pro Generation kosten wird Nachdem Sie
mit der Generation 1.0 experimentiert
haben, bekommen Sie vielleicht eine Vorstellung davon, wie das 1.5- und 1.6-Video aussehen
würde. Das ist also meine Schlussfolgerung. Ich hoffe, ich beantworte deine Frage. Wenn Sie nun eine andere
Frage zu diesem Kurs haben, Sie mich gerne stellen. Ich stehe Ihnen jederzeit zur Verfügung, um Ihre Frage zu
beantworten.
28. So synchronisiert man die Lippen mit Kling KI: Willkommen zurück. Jetzt haben wir
ein neues Update von Lip Sync. Jetzt haben wir einen speziellen
Bereich nur für Lippensynchronisation. Was in
diesem Update neu ist, ist, dass wir das Video hochladen
können,
um diese Lippensynchronisation auszuprobieren. Vor diesem Update können wir
wirklich kein Video hochladen. Wir müssen ein Video generieren,
um dieses Video mit den Lippen zu synchronisieren. Wenn Sie nun einige
Videos verwenden, die
mehrere Phasen enthalten , wie
in diesem Beispiel, haben wir,
wie Sie sehen können, mehrere Gesichter, dann erkennt
die KI keine Phase. Ich empfehle daher,
das Video zu verwenden , das Ihr Gesicht
deutlich zeigt und das nur eine Phase
enthält. Jetzt werde ich mein Video
hochladen. Sobald Sie Ihr Video hochgeladen haben, analysiert
AI Ihr
Video und
bestätigt dann, ob dieses Video die
Lippensynchronisationsfunktion verwendet oder nicht. Sie können
mein Gesicht in diesem Video also deutlich sehen,
sodass wir dieses Video jetzt mit den Lippen
singen können. Wenn Sie nun Ihr Video
wechseln möchten, wenn Sie
beispielsweise Ihr Video
ändern möchten,
möchte ich dieses Video nicht verwenden. Wenn ich mein Video ändern muss, muss ich hier klicken,
um mein Video erneut auszuwählen. Und jetzt, wie Sie sehen, können wir jedes gewünschte Video
auswählen. Jetzt gibt es zwei Möglichkeiten, Ihr Video mit den
Lippen zu synchronisieren. Sie können entweder
Text-to-Speech verwenden, das mehrere
Stimmen enthält, oder Sie können Ihr eigenes Audio
hochladen, um die Lippen zu synchronisieren. Jetzt habe ich diese Zeile getippt. Gehen wir jetzt zur Mail
und lassen Sie uns dieses Audio abspielen. Hallo da. Ich heiße
Faison. Ich benutze King A. Jetzt können manche Stimmen Emotionen nicht
wirklich gebrauchen, und jetzt haben wir diese Botschaft Neutrale Emotionen sind mit dieser Stimme nicht
verfügbar. Wir haben also mehrere
Stimmen, die neutrale Emotionen nicht
wirklich gebrauchen können . Sie müssen also
eine andere Stimme wählen ,
um neutrale Emotionen zu verwenden. Hallo da. Ich heiße Faison Ich benutze King AI. Hallo da. Ich heiße Faison Manchmal haben
wir in einigen Stimmen diese Botschaft, sodass du diese Stimme nicht wirklich
benutzen kannst Du musst
eine andere Stimme wählen. Hallo da. Ich heiße Faizan Ich benutze Kling Ai. Lass uns jetzt diese Stimme benutzen. Jetzt kannst du auch
deine Emotionen ändern. Wählen wir wütende Emotionen aus. Hallo da. Ich heiße Faizan Ich benutze King Ai. Jetzt lass uns rot werden. Jetzt haben wir die Lippensynchronisation. Schauen wir uns
die endgültige Ausgabe an. Hallo da. Ich heiße Pasan Ich benutze King Ai. Jetzt stehen wir vor einem Problem. Wie Sie sehen können, ist die
Lippensynchronisation ungewöhnlich. Denn wenn Sie
im Originalvideo genau hinschauen, bewegt sich
mein Mund zu sehr. Aus diesem Grund hat die KI
Schwierigkeiten,
meine Lippen neu zu formen ,
um die Lippensynchronisation auszuprobieren In diesem Beispiel, dem ich überhaupt nicht gesprochen habe, wie ihr sehen könnt, Leute, bewegt sich mein
Mund überhaupt nicht Ich habe dieses Video mit
Bild-zu-Video-KI generiert. Jetzt versuche ich die Lippensynchronisation dieses Video und das
ist die endgültige Ausgabe. Leute, es gibt so viele
Luftballons in meinem Zimmer. Nein, glaub mir, sieh dir das an. Nun, wie ihr sehen könnt,
Leute,
ist die Lippensynchronisation bei diesem Video verrückt. Jetzt haben wir ein anderes Beispiel. Also bei diesem Video,
wenn ich diesen Clip abspiele, bewegt sich
der Mund ein
bisschen, nicht zu sehr. Und ich versuche es mit
Lippensynchronisation bei diesem Video, wir haben dieses Ergebnis erzielt. Hallo, da. Mein Name ist Faison und ich werde
Pixar Animation erstellen Wie du sehen kannst, Alter,
die Lippensynchronisation ist verrückt. nun, wie ich Ihnen bereits gesagt habe, kein Video hoch
, das zwei Phasen enthält. Nun, ich versuche das
und überraschenderweise wähle ich
in KI nur eine Phase aus. Der Grund dafür ist, dass
dieser spricht. diesem Grund konzentriert sich der Link
auf diese Phase
und ich versuche, die Lippensynchronisation
für diesen Charakter zu
verwenden, und das ist das Endergebnis. Glaubst du, du kannst
Anime ohne
besondere Fähigkeiten erstellen ? Nun ja, und ich
werde dir zeigen, wie. Glaubst du, du kannst
Anime ohne
besondere Fähigkeiten erstellen ? Nun ja, und ich
werde dir zeigen, wie. Jetzt haben wir ein weiteres Beispiel
für Animationen im Anime-Stil. Dies ist die Originalquelle,
in der der Charakter spricht, aber nicht zu viel, und dies ist das endgültige
Ergebnis von Lip Sync. In Ordnung, eine Stunde Arbeit
und ich kann loslegen. Das ist ein weiteres Beispiel, und das ist meine
ursprüngliche Quelle, wo der Mund bei diesem Charakter
überhaupt nicht bewegt, und das ist das Ergebnis der Lippensynchronisation Was für ein toller Tag für eine Fahrt. Ich muss den Schwung aufrechterhalten. Jetzt haben wir ein weiteres
Beispiel für schlechten Lippensynchronismus. Wie ich Ihnen bereits gesagt habe, wenn sich Ihr Mund
zu stark bewegt, wie in diesem Video und in meinem
vorherigen Originalclip, erhalten
Sie ein
schlechtes Lippensynchronisationsergebnis. Wie oft muss ich dasselbe
sagen? Hörst
du überhaupt zu? Wenn du also die
Lippensynchronisation richtig ausprobieren willst, wenn du die
Lippensynchronisation auf dein Video übertragen willst,
dann wende Lippensynchronisation auf das Video an, das
weniger Gesichtslippenbewegungen enthält. Wenn Sie also in Ihrem Video
zu viel Mundbewegung haben, werden
Sie bei der Lippensynchronisierung ein
schlechtes Ergebnis erzielen. So können Sie also
die Lippensynchronisierung mithilfe von Cling AI verwenden.
29. Elemente: Willkommen zurück, alle zusammen. Wenn wir jetzt zu KI-Videos gehen, haben
wir eine neue Funktion
namens Elements. Und dabei können Sie mehrere Bilder
auswählen und es werden Videos
mit dieser Bildreferenz generiert. Nehmen wir zum Beispiel ein einfaches Beispiel. Jetzt haben wir diese beiden Bilder. Wie Sie sehen können, können
Sie von hier aus Ihr Bild löschen, ein anderes Bild hochladen und hier Ihr Element
auswählen. In meinem Beispiel möchte ich das gesamte Bild
auswählen, aber wenn Sie beispielsweise nur diesen Truck auswählen
möchten, können Sie auch diesen Truck
auswählen. Sie können auf Bestätigen klicken und dann
Ihre Videos mit
diesen Elementen generieren . Jetzt wähle ich
mein gesamtes Bild aus. Für mein zweites Bild habe ich
dieses Ferrari-Auto ausgewählt. Jetzt werden wir
ein Video mit diesen beiden Bildern machen . Also werde ich einen einfachen Abschlussball
wie ein Ferrari-Auto in ein Feld
tippen . Also
funktioniert die Elementfunktion nur mit einem 1,6-Liter-Modell. Wenn Sie Ihr Modell auf 1,5 ändern, können
Sie
dieses Elementvideo nicht wirklich generieren. Wenn Sie dies auf 1.0 ändern, haben
wir dasselbe Problem. Jetzt können wir
diese Elementvideos nur noch
mit dem Modell 1.6 generieren . Wenn der professionelle
Modus ausgewählt ist, können
wir dieses Video generieren. Das Video ist jetzt generiert
und hier haben wir das Ergebnis. Wie Sie sehen können, haben wir dieses
Ferrari-Auto auf einem Feld. Und wenn ich dieses Video pausiere, wenn wir das Originalbild öffnen, wie Sie auf
dem Originalbild sehen können, haben
wir keine Cloud. Wenn wir dieses Bild öffnen, möchte
ich, dass ihr euch
auf das Wolkenmuster konzentriert. Und in dem generierten Clip haben
wir,
wie ihr sehen könnt , genau hier am Himmel dasselbe
Wolkenmuster. Und wir haben dieses Feld
in diesem generierten Video. Also hoffe ich, du verstehst die Idee. Sehen wir uns einige andere Beispiele an, um
diese Elementfunktion
besser zu verstehen. In diesem Beispiel haben
wir also zwei Bilder. Wir haben dieses Bild,
ein fliegendes Flugzeug. Das ist die Referenz. Das ist das Element, und
wir haben noch ein anderes Element. Wir haben einen Vektorstil für
fahrende Motorradfiguren. Jetzt habe ich dieses Problem eingegeben: Mann fährt Fahrrad und
Flugzeug fährt vorbei Mit dem Standardmodus von 1.6 haben wir dieses Ergebnis Lass das Flugzeug vorbeifliegen und wir haben den Motorradfahrer diese Art von Bildern zu generieren, können
Sie nun Labstt
Google-Bildeffekte verwenden Und wie ihr sehen könnt, Leute, wenn wir zum Labstt-Google gehen, sind
dies Eingabeaufforderungsdaten, die verwendet werden, um dieses Bild
zu generieren,
und dies ist eine Aufforderung zum Bild eines
Motorradfahrers Jetzt können wir auch
ein Objekt hinzufügen und mit diesem Objekt
alles machen Also zum Beispiel, genau hier, wie ihr sehen könnt, Leute, das
ist mein Originalbild. Genau hier haben wir
dieses Objekt, einen SWOT-,
IATI-Mann, der im Standardmodus auf einem
SWOT herumschwingt Wie ihr sehen könnt, Leute, in
diesem generierten Video schwinge ich Wir haben ein anderes Beispiel. Diesmal wurde auch
der Hintergrund
dieses Objekts kopiert . In diesem Beispiel
habe ich jetzt drei Elemente. Was wir haben ist dieses Bild
von einem Auto im Nirgendwo. Wir haben diesen Hintergrund und wir haben dieses Thema. Und mit dieser Aufforderung, mit dem professionellen Modus
1.6,
haben wir genau das bekommen. Manchmal generiert es also
diese Art von Videos. In meiner nächsten Generation habe ich diese Aufforderung eingegeben und im
Standardmodus haben wir das bekommen Jetzt entferne ich ein Element
aus diesen Elementen, und in meiner nächsten Generation habe ich das nur mit
diesen beiden Elementen bekommen In diesem Beispiel
habe ich also nur zwei Elemente,
einen Mann, der auf einer Couch sitzt, und wir haben dieses Auto, und ich tippe diese
Person ein, die auf
einem Sofa neben einem verlassenen
Auto in der Wüste sitzt . Und selbst im Standardmodus, wie ihr sehen könnt, Leute, ist
das Ergebnis erstaunlich. Der Grund, warum ich euch
dieses Beispiel gezeigt habe , ist, dass
wir
mit ein paar einfachen Eingabeaufforderungen auch erstaunliche Ergebnisse
mit den Elementen erzielen können . Um Ihre Probleme zu beheben, können
Sie also mehr Videos generieren. Sie können Ihre Keywords
von hier und da aus optimieren. Jetzt haben wir ein weiteres Beispiel
mit demselben Bild, und dieses Mal haben wir
dieses andere Auto, und wir haben dieses Ergebnis Karte auf dem Feld.
Schau dir das an. Und dieses Mal, wenn wir in den
Zuschneidemodus wechseln, habe ich, wie
ihr sehen könnt , nur
diesen Teil dieses Bildes ausgewählt. Das ist mein Element
, das ich ausgewählt habe. In diesem Beispiel
haben wir zwei Anime-Charaktere, und ich habe beide im Standardmodus
gekämpft .
Das haben wir bekommen Wenn Sie nun manchmal Videos mit einem Element
erstellen, wird die Referenz genau dieses Element
notieren Ich nehme die Referenz
dieses Elements und es wird ein brandneues Video
generiert. Mit den gleichen Bildern
habe ich also beide Kämpfe
miteinander verknüpft. Mit dem Standardmodus haben wir das. Wie Sie sehen können,
wird anhand der Referenz dieser beiden Charaktere ein ganz neues Video
generiert. Nun, bei
diesen beiden Elementen, wenn ich mein Bild öffne, ist
das mein Element Nummer eins, und das ist mein
Element Nummer zwei. Wenn man auf einem Stuhl sitzt, passiert
im Hintergrund
eine große Explosion. Das sind also die Abschlussballdaten, die
verwendet wurden, um dieses Video zu generieren. Selbst mit dem Stehbrett ist
das Ergebnis ziemlich überzeugend. Schau dir das an. Das ist verrückt Ein weiterer Grund, warum
Sie nicht das
gewünschte
Ergebnis erzielen, ist, dass Sie die falschen Bilder
verwenden Also in diesem Beispiel, wie ihr sehen könnt,
habe ich diese Bilder
und wir haben diese
beiden Kinder, die Rad fahren, und das ist ein seltsamer Zyklus , den ich
mit Labs Google generiert habe. Das ist das Problem, und
das ist das seltsame Ergebnis. Dies ist ein weiteres Beispiel, und dies ist das letzte Beispiel. Stellen Sie also sicher, dass Sie die richtigen Bilder
ausgewählt haben. Jetzt haben wir dieses Beispiel. In diesem Beispiel
habe ich das Element for verwendet,
was das meiste
Element ist, das Sie verwenden können um Videos
mithilfe der Elements-Funktion zu generieren. Also zuerst haben wir diese Person. Wir haben dieses Mikrofon.
Wir haben dieses Auto und wir haben das
als Hintergrund. Nun zu meiner Aufforderung: Ich habe
Boy getippt, der ein Mikrofon hält, in einem Auto
sitzt, das in der Wüste
geparkt Kamera langsam heranzoomt Im Standardmodus haben wir
das. Mit einem
professionellen Modus mit genau
den gleichen Eingabeaufforderungen und
Elementen ist dies das Ergebnis Jetzt haben wir ein weiteres Beispiel für
das am häufigsten verwendete Element. Wir haben also diese vier Elemente, und ich habe die Kamera auf einen Radfahrer
fokussiert, dann auf das Flugzeug und dann auf den Stand des Menschen
fokussiert Im Standardmodus haben wir
das. Wir haben ein Flugzeug für Radfahrer. Und genau hier
haben wir einen Mann, diesen. Für mein nächstes generiertes Video entferne
ich den Hintergrund, und das ist es, was wir haben. Wir haben dieses seltsame Ergebnis. Der Grund, warum wir
diesen Morphing-Effekt
im Video bekommen diesen Morphing-Effekt
im , ist, dass ich den Standardmodus
verwende Deshalb haben wir
diesen Morphing-Effekt. Jetzt, in meinem nächsten generierten Video,
korrigiere ich hier und da mein
Eingabeaufforderungswort, und dieses Mal hat es
das Ergebnis ein wenig verbessert Wir haben das Standing Man-Flugzeug und wir haben den Radfahrer Sie können also auch
eine dynamische Szene
wie diese
mit den Elementen erstellen auch
eine dynamische Szene
wie diese
mit den Elementen In diesem Beispiel
habe ich jetzt auch den
Hintergrund wieder gelöscht. Und mit dieser Aufforderung im Standardmodus haben wir das bekommen. Aus irgendeinem Grund
habe ich jetzt den
professionellen Modus mit genau
der gleichen Eingabeaufforderung
und dem gleichen Element verwendet , und das haben wir bekommen. Es hat gerade
dieses brandneue Video generiert. Es nimmt die Referenz
aus meinen Elementen, generiert
kein Video mit genau
demselben Element, sondern nimmt die Referenz
von meinem Element. Sie können auch Ihr
generiertes Video verbessern. Wie Sie hier mit genau
derselben Aufforderung bei
diesen Bildern mit diesem Element sehen können genau
derselben Aufforderung bei
diesen Bildern mit ,
habe ich, wenn Sie zur
negativen Eingabeaufforderung wechseln, das wenn Sie zur
negativen Eingabeaufforderung wechseln, das Schlüsselwort eingegeben,
dass ich dieses Ding nicht in meinem
generierten Video haben möchte ,
Entstellung, Verzerrung und Wir schauen uns das ursprüngliche Ergebnis an, das ist mein Originalclip,
und ich habe
diesen Clip mit der negativen Eingabeaufforderung regeneriert ,
und
das ist, und Wie Sie sehen können, wurde das
Ergebnis erheblich verbessert. Wir haben in diesem
Video weniger
Verzerrungen, Entstellungen und Morphing-Effekte als im Original Dies ist das
Originalvideo. Schauen Sie sich
die Verzerrung und Entstellung Und jetzt schau dir das neueste Video
an. Jetzt erhalten Sie auch ein anderes Ergebnis, wenn Sie Ihren Clip
regenerieren Wie
ihr in diesem Beispiel sehen könnt, haben
wir diesen Hintergrund Wir haben die Ferrati-Karte
und wir haben diese Aufforderung. Mit dem professionellen Modus haben wir dieses Im Standardmodus entferne
ich jetzt einfach mein
Schlüsselwort Ferratic von hier,
platziere zuerst mein Auto und dann meinen Hintergrund.
Das haben wir In diesem Beispiel
platziere ich mein Auto wieder an erster Stelle
und dann
meinen Hintergrund mit genau derselben
Aufforderung. Das haben wir bekommen. Der Grund, warum
ich euch
das zeige , ist, dass, wenn ihr
euren Hintergrund zuerst platziert, es
das Element aus
eurem Hintergrund kopiert und
dieses Element auf
eurem zweiten Bild platziert , auf eurem zweiten Element. Lass uns damit experimentieren
, damit du besser verstehst,
wovon ich spreche. Lass uns dieses Bild löschen. Lassen Sie uns auch dieses Bild löschen. Und dieses Mal werde ich mein Element
eindämmen. Lassen Sie uns diesen Teppich entfernen. Klicken
wir auf Bestätigen. Und wir haben das gleiche Bild. uns
mit derselben Aufforderung im Standmodus Lassen Sie uns
mit derselben Aufforderung im Standmodus dieses Video erstellen. Das Video ist jetzt also generiert. Dies ist eine Vorschau, und wie
ich euch bereits gesagt habe, Leute, wenn ihr euren
Hintergrund zuerst platziert und euer Auto an zweiter
Stelle, euer Auto an zweiter
Stelle, bekommen
wir weniger Hintergrund
als im vorherigen Beispiel. Dies ist das vorherige Beispiel, und wie ihr sehen könnt, Leute, haben
wir den Hintergrund an zweiter Stelle. Deshalb bekommen wir dieses ganze
Hintergrundelement in diesem Video. Meine Empfehlung lautet also, wenn Sie möchten, dass Ihr Hintergrund im gesamten Video
statisch ist, platzieren
Sie Ihren Hintergrund
am Ende Ihrer Elemente. Wenn du vier Elemente hast, platziere deinen Hintergrund genau
hier im vierten Element. Wenn Sie zwei Bilder haben und einen Hintergrund haben möchten, platzieren Sie Ihr Element als Hintergrund auf dem
zweiten. Und wenn Sie zwei Elemente haben und wenn Sie einen Hintergrund
platzieren
möchten, platzieren Sie Ihr Element
am dritten Elementplatz. Wenn wir jetzt zu
den Labs gehen, Google, sind das meine generierten Bilder , die ich in der
Elemente-Vorlesung verwende. Das ist meine Aufforderung
für dieses Bild. Für diesen Hintergrund haben
wir diese Aufforderung. Für das Auto
haben wir diese Aufforderung. Für den Anime-Hintergrund haben
wir diese Aufforderung. Für den Hintergrund des
Feldes haben wir diese Eingabeaufforderung. Für das Autobild haben wir diese Aufforderung bekommen. Der Anime-Mann, wir haben
diese einfache Aufforderung. Wir haben diese Aufforderung und
wir haben dieses Ergebnis. Wir haben dieses Bild, und
das ist die Aufforderung. Und für dieses Bild gebe ich diese Eingabeaufforderung ein. Für das endgültige Bild mit dieser Eingabeaufforderung haben wir das bekommen. Sie können also Labs oder Google verwenden , um beeindruckende Bilder zu generieren. So können Sie die
Elements-Funktion von Ling AI verwenden.