Transkripte
1. EINFÜHRUNG: Entdeckte die
Macht von Kling AI. Das führende Tool zur
Videogenerierung , das einfache Texte
und Bilder mühelos in
professionelle und fesselnde
Videos verwandelt und Bilder mühelos in professionelle und fesselnde
Videos Hallo, alle zusammen. Mein Name
ist Faizan Amjad Und in diesem Kurs lernst
du, Videos von Grund auf neu
zu erstellen und dabei die atemberaubenden Funktionen
von King AI wie
Text-zu-Video und Bild-zu-Video-Generierung
zu
nutzen Text-zu-Video und Bild-zu-Video-Generierung
zu Ich führe Sie durch
jeden Schritt, von der Generierung hyperrealistischer
Bilder bis hin zur nahtlosen Integration in Videos Am Ende dieses Kurses werden
Sie
mit den Fähigkeiten ausgestattet sein, mühelos atemberaubende
Videoinhalte zu produzieren Worauf warten Sie also noch? Melden Sie sich jetzt an und entfalten Sie Ihr kreatives Potenzial
mit Kling AI.
3. Neue Benutzeroberfläche von Kling AI: Willkommen zurück alle. Also haben die Link-KI
ihre Schnittstelle geändert. Wenn Sie Ling AI von
der vorherigen Oberfläche lernen, sich
keine Sorgen, sie
polieren nur die Oberfläche. Sie haben es nicht
komplett geändert. Wenn Sie jetzt auf
die Kling AI-Website gehen, ist
dies eine neue Oberfläche. Jetzt können Sie mit der Maus
zu diesem Kreativstudio springen, und wie Sie in AI Tools sehen können, können
wir sehen, dass wir
Videogenerierung und Bilderzeugung haben. Wir haben sogar eine neue Funktion
namens Sound Generation. Ab sofort können Sie sogar
Sound erzeugen. Wir haben Effec und wenn
du hier auf Metols
klickst, werden dir alle Tools angezeigt
, die auf dieser Website verfügbar sind Jetzt können wir einfach hier
auf diese Schaltfläche „Erstellen“ klicken. Wir können diesen Tab vorerst schließen. Und jetzt, wie Sie sehen können, haben
wir diese Schnittstelle. Jetzt haben wir diese Homepage. Du kannst erkunden.
Wir haben das Kapital. Wenn Sie zum Asset gehen, dies alle Videos, die ich mit Cling AI erstellt
habe, und wir haben auch
die Bilder. Sie können zu den Effekten gehen
, um einige Effekte zu erstellen. Sie können zum Bild gehen. Wir haben ein neues Modell für das
Bild namens Colors 2.0. Wir haben sogar eine Funktion
namens Bildbearbeitung. Wir haben ein neues Cling 2.0-Modell. Wenn Sie zu den
Videos gehen, ist
dies, wie Sie sehen können, eine brandneue Oberfläche
für die Videogenerierung. Dies ist der Text zum Video. Das ist Bild zu Video. Von hier aus können Sie sogar
das Modell wechseln. Wie in der vorherigen
Oberfläche haben wir es getan. Jetzt ist dieser Abschnitt
komplett geändert. Wie Sie sehen können, ist dieser
Abschnitt jetzt ausgefeilt. Jetzt können wir hier klicken. Wir können nur die Bilder ansehen. Wir können hier klicken. Wir
können zu Videos wechseln, und jetzt werden Ihnen nur
alle Videos angezeigt , die wir mit Clean AI
erstellt haben. Jetzt können Sie Ihr Video
aus den kleinen Vorschaubildern auswählen. Sie können sogar das Audio anzeigen. Derzeit habe ich also kein Audio
generiert. Deshalb haben wir hier
keine Audioshows. Genau hier, wie Sie
sehen können, haben wir Effekte. Wenn Sie hier klicken, gelangen Sie zur Startseite,
die Sie
erkunden können , oder Sie können sogar zu Ihren Vermögenswerten
gehen. Jetzt
können wir das Video hier erweitern. Genau hier
haben wir die Lippensynchronisation. Wir haben KI, die die Tonerzeugung
ausprobieren wird, wir haben die Videogenerierung. Derzeit befinden wir uns hier
in der Videogeneration. Deshalb haben wir dieses
grüne Logo genau hier. Wenn Sie zur
Bildgenerierung gehen, wird das
Logo zur Bilderzeugung
jetzt grün. Im Grunde ist dies also eine neue
polnische Oberfläche von Ling AI.
4. So erzeugst du ein Bild in einer neuen Benutzeroberfläche: Willkommen zurück, alle zusammen. Also hat die Kling AI kürzlich die Oberfläche
geändert. Sie polieren nur die Oberfläche. Wenn Sie also
Bilder in der neuen Oberfläche generieren möchten, gehen Sie
einfach zu Bild, und wie Sie sehen können,
haben wir diese Oberfläche. Jetzt haben wir auch die Videos
, die hier gezeigt werden. Wenn Sie also nur die Bilder
verwenden möchten, können
Sie hier klicken und
zu Bildern wechseln. Und jetzt werden
Ihnen nur die Bilder angezeigt
, die Sie
mit Kling AI generiert haben. Jetzt haben wir sogar ein neues Modell für die Bilderzeugung
namens Colors 2.0. Color 2.0 verfügt über eine integrierte
Funktion namens Restyle. der Neugestaltung
wird also Ihr
Bild als Referenz verwendet,
und wenn Sie einen Stil eingeben, wird Ihr Bild
entsprechend diesem Stil geändert Jetzt können wir hier
den Standardmodus
auf hohe Auflösung umstellen den Standardmodus
auf hohe Auflösung Sie können die Ausgabe ändern. Von hier aus können Sie die Auflösung und das
Seitenverhältnis ändern. Wenn Sie jetzt zum
Motiv wechseln, wird, wie Sie sehen
, automatisch
zu den verfügbaren Modellen gewechselt, was 1,5 Farben entspricht. Wenn Sie auf Durchgang umschalten, wird auch auf
1,5 umgeschaltet, da das
Modell mit 2,0 Farben die
Motivphase und die
gesamte Bildreferenz nicht erkennt . Wenn Sie zur gesamten
Bildreferenz wechseln, wechselt
das Modell wieder
automatisch zu den Farben 1.0 , da die gesamte
Bildreferenz nur
für Farben 1.0 verfügbar
ist. Wenn Sie zu Restyle wechseln, wird automatisch zu Farben 2.0
gewechselt Jetzt können Sie eine beliebige Eingabeaufforderung eingeben und Ihr Bild generieren So können Sie
Bilder in der neuen
Oberfläche von Cling AI generieren .
6. So erstellst du Videos in einer neuen Benutzeroberfläche: Willkommen zurück, alle zusammen. Wie generieren wir also Videos in der neuen
Oberfläche von Kling AI? Also hat Kling AI kürzlich die Benutzeroberfläche
geändert. Sie polieren einfach
die Oberfläche für Videogenerierung, gehen zu Videos. Und wie Sie sehen können, haben wir
sogar ein neues Modell für Kling namens
Kling 2.0 Master. Jetzt können Sie
zum Text zum Video gehen und auch das Preset
auswählen. Sie können Ihr
Objektiv, den Showtyp, die
Beleuchtung, den Rahmen, die
Atmosphäre usw. auswählen . Wenn Sie jetzt
die Motion-Pinsel-Funktion verwenden möchten, können
Sie von
Bild zu Video wechseln Wie Sie sehen, haben wir keine
Motion-Pinsel-Funktion Um auf die
Motion Brush-Funktion zuzugreifen , müssen
Sie hier klicken. Sie müssen Ihr
Modell auf Cling 1.5 ändern. Wie Sie sehen können,
unterstützt der
Standardmodus Cling 1.5 die Motion Bridge nicht Sie müssen also Ihr
Modell auf Professional umstellen, was für VIPs bestimmt ist Jetzt können Sie auf die
Motion Brush-Funktion zugreifen. Sie können auch
auf Kamerabewegungen zugreifen. Jetzt haben wir also diese
polnische Oberfläche. Diese Funktion
für Kreativität und Relevanz finden Sie hier. Sie können Ihre Ausgänge auswählen und sogar
Ihre zweiten 5 bis 10 ändern. Wenn Sie jetzt Ihr
Modell auf Kling 1.6 umstellen, sobald wir
unser Modell auf Kling 1.6 umstellen
, wie Sie sehen können, diese Meldung. Derzeit nicht
auf Kling 1.6 verfügbar, bitte wechseln Sie zu 1.5. Jetzt müssen Sie nicht mehr in
diesen Bereich gehen und
Ihr Modell auf 1.5 umstellen. Von hier aus können Sie Ihr
Modell wechseln. Jetzt können wir es bestätigen. Und wie Sie sehen können, stellen wir unser
Modell jetzt auf 1.5 um, und jetzt stehen uns die
Motion Bridge und Kamera-Momente zur Verfügung. Jetzt können Sie wieder zu den Elementen
gehen, und wenn Sie Ihr Modell auf
Kling 2.0 Master umstellen , enthält
es derzeit keine Elemente, aber wir haben
mehrere Elemente, und es ist auch
für Kling 1.6 verfügbar. Kling
2.0-Mastermodell von Kling bietet also nur eine Auflösung von Text zu
Video und von Bild zu Video mit einer Auflösung von nur 4720 p. Im Grunde ist dies also eine
neue Schnittstelle von Kling AI.
7. Atemberaubende Bilder generieren: Willkommen zurück. Klicken Sie nun zunächst auf A und gehen Sie zu AI-Bildern. Es gibt zwei Möglichkeiten, Ihr Bild zu
generieren. Schreiben Sie zunächst Ihre Eingabeaufforderung. Zweitens können Sie
auf ein Bild verweisen. Wenn Sie ein ähnliches Ergebnis erzielen
möchten, können
Sie
auf ein Bild verweisen, um Ihr Ergebnis
entsprechend diesem Bild zu
erstellen. Nun, wie ihr sehen könnt, Leute, habe ich mit diesem Tool so viele
tolle Bilder generiert weil ich
mehr als ein paar Wörter schreibe , um meine
beeindruckenden Ergebnisse zu erzielen. Wenn Sie jetzt
das Premium-Konto verwenden, können
Sie auch
Ihr Image verbessern. Wenn
Sie also zum Beispiel hier klicken, können
Sie mit der Maus darüber fahren, und wir haben eine Option
namens Verbessern Wenn ich darauf klicke,
wird mein Bild verbessert. Dadurch wird das Bild
in eine höhere Auflösung umgewandelt. Nun, wie ihr sehen könnt, Leute, ist
das mein Ergebnis. Dies ist das vorherige Ergebnis und das ist mein neues Ergebnis. Sie können hier auch die
Maus bewegen. Wenn Sie das
Premium-Konto verwenden, können
Sie
dieses Ergebnis auch
ohne Wasserzeichen herunterladen dieses Ergebnis auch
ohne Wasserzeichen In einem kostenlosen Konto können
Sie jedes gewünschte
Bild herunterladen, aber Sie haben auch ein Wasserzeichen
mit diesem Bild Dies ist ein Premium-Konto, wir haben
kein Wasserzeichen. Und wenn Sie ein kostenloses Konto verwenden, haben
Sie ein
Wasserzeichen wie dieses Wenn Sie nun
beeindruckende Ergebnisse erzielen
möchten, müssen Sie
mehr als ein paar Wörter schreiben Wie kannst du also deine Worte finden? Gehen Sie zu designer.microsoft.com,
melden Sie sich an, klicken Sie hier und Sie müssen Bilder Jetzt können wir diesen Tab schließen. Was Sie nun
tun müssen, Sie müssen
hier klicken und Ihre Aufforderung
schreiben. Also
werde ich zum Beispiel schreiben. Das ist also nur eine
einfache Nahaufnahme eines Burgers in einem Hotel Jetzt gibt es eine Option
namens Enhanced Prompt. Und was sie macht, wenn ich
auf diese erweiterte Eingabeaufforderung klicke
, werden einige Wörter hinzugefügt, um
diese Aufforderung beeindruckend zu machen. Jetzt können wir diese Aufforderung kopieren. Wir können zur tötenden KI gehen. Wir fügen diese Eingabeaufforderung und wir können
unsere Auflösung wählen. Sie können Ihr Verhältnis wählen. Also werde ich diesen auswählen. Sie können die Anzahl der
Generationen auswählen , die Sie generieren
möchten. Ich werde vier auswählen. Und jetzt klicken wir
auf diesen Generator. Gehen wir nun zurück zu
Microsoft Designer und wir können hier eine beliebige
Auflösung auswählen. Jetzt können wir auf diese Schaltfläche zum
Generieren klicken und es wird dieses Ergebnis generiert. Dies sind alle unsere Bilder, die wir mit
dieser Aufforderung generiert haben. Jetzt können wir dieses Bild verbessern
und es auch referenzieren, wenn Sie möchten. Wir können dieses
Bild auch zum Leben erwecken. Nun, das ist das Ergebnis von Microsoft
Designer, und dieses gefällt mir.
Dann die Ling AI. Also was wir tun können, wir können
einfach auf diesen Download klicken und zur Ling AI
gehen. Wir können auf A klicken, um auf dieses Bild zu
verweisen. Bevor wir das Ergebnis
gemäß dem
Referenzbild
generieren , gibt es einen Schieberegler. Wir haben Null Plus und wir haben drei
Plus, genau hier haben
wir Minus und wir
haben drei Minus. Das ist also die Stärke
Ihrer Referenz. Wenn Sie Ihre Stärke
auf die Nullposition
legen, wird Ihr Ergebnis genau diesem Bild entsprechen. Wenn du deinen Slider
auf die positive Seite legst, wird
er deinem Bild einfach
etwas hinzufügen. Und wenn du deinen
Slider auf die Minus-Seite legst, dann wird er
etwas von By nehmen, ich zeige
dir alle Ergebnisse
, die diesem Slider entsprechen. Lassen Sie uns also zunächst diese Nullposition
ausprobieren. Übrigens, wenn Sie auf ein Bild
verweisen, werden 0,40 Credits benötigt, um auf dieses Bild
zu verweisen. Ohne jegliche Referenz können
Sie also vier
Bilder mit 0,80 Credits generieren, aber wir haben eine Referenz,
also haben wir jetzt 1,20 Klicken Sie nun auf diese Schaltfläche zum
Generieren, um die Ergebnisse
gemäß der Referenz zu
generieren Wir müssen nicht warten, bis
das Ergebnis generiert wird. Wir können diesen Schieberegler
auf die Plusseite und jetzt auf
diesen Strang-Button klicken. Jetzt kann ich den Schieberegler
auf die Größe Drei plus stellen, und jetzt können wir Ergebnisse erzielen. Stellen Sie jetzt den Schieberegler
auf das Minus. Jetzt haben wir diese Ergebnisse. Die Stärke ist auf Null gesetzt und die Ergebnisse sind erstaunlich. Wenn Sie nun
Ihre Stärke auf Plus setzen
, werden Ihre Bilder etwas
verändert. Wie ihr sehen könnt,
Leute, wenn ihr zum
Originalbild geht und
die Stärke auf Null gesetzt ist, haben wir nichts
in unseren Platten, aber wenn ihr zur
Plusstärke übergeht, wie ihr sehen könnt, Leute, hat das eurem Bild einfach wie ihr sehen könnt, Leute, hat das eurem Bild einfach etwas
hinzugefügt. Also haben wir diese
Brotstücke zu unserem Burger hinzugefügt. Und wenn wir zum Le Plus gehen, würde das Ihrem Image etwas
mehr hinzufügen. Im Triple Minus ignoriert
es einfach mein Hotelzimmer und legt
meinen Burger auf einen Tisch. Und bei nur einem Minus nimmt
es einfach
etwas aus dem Bild. Um diese Stärke zu erklären Wenn Sie Ihre
Stärke auf Null setzen, wird genau
das gleiche Ergebnis
gemäß Ihrer Referenz generiert . Wenn Sie Ihren
Schieberegler jedoch auf die positive Seite
legen, fügt er Ihrem Bild etwas
hinzu Wenn du deinen Slider
auf die linke Seite bewegst, wird er
etwas von deinem Bild nehmen Es gibt noch ein Beispiel, das
ich dir erklären möchte. Mit der Aufforderung habe ich diese Ergebnisse
generiert. Mit dem Referenzbild, bei dem die Stärke auf das Pluszeichen gesetzt ist, wie ihr sehen könnt, Leute, wird einfach etwas in meinem Bild
bearbeitet. Wenn die Stärke auf Null gesetzt
ist, werden
genau die gleichen Ergebnisse erzielt. Und wenn diese Stärke auf das dreifache Minus
gesetzt
ist, nimmt es alles
aus meinem Bild und generiert nur den
Vektor des Bildes. Jetzt, als ich
meine Ergebnisse überprüfte , fiel mir etwas Bei dieser Stärke Null können
Sie sehen, dass wir normale Bilder haben,
aber wenn
diese Stärke auf Plus
eingestellt ist, schauen Sie sich die Größe
des Burgers Die Größe des Burgers wird
ebenfalls größer. Das ist also eine normale Größe. Das ist eine Übergröße, und das ist eine Übergröße von drei. Schau dir die Burger-Größe an. Die Burgergröße wird
ebenfalls größer. Wenn wir jetzt zu
den drei Minus gehen, wird
die Burgergröße
kleiner. Und das ist nur
ein Minus-Ergebnis. Jetzt, in meinem zweiten Beispiel, merke
ich das auch. Mit dieser Referenz sind
meine Ziele gering, aber wenn die Stärke auf drei Pluspunkte
eingestellt ist, wie Sie sehen können, Leute, wird mein
Gold fett Bei einer Stärke von Null haben
wir eine normale Größe und bei Minus-Sinus wird
sie immer kleiner Und es entfernt auch etwas
aus meiner Referenz und generiert einfach dieses Bild. Sie müssen dies also auch
berücksichtigen, wenn Sie die Referenzstärke verwenden
, um Ihr Bild zu erzeugen. So können Sie
KI-Bilder in cling.com generieren . Auf Wiedersehen Wir sehen uns in
meiner nächsten Vorlesung.
8. KI-Virtuelles Ausprobieren: Willkommen zurück, alle zusammen. Wenn Sie also zu den KI-Bildern gehen, haben
wir eine neue Funktion
namens AI Virtual Tryon Du kannst also jedes Hemd, jeden Stift anprobieren, du kannst
jedes
Kleidungsstück an dir selbst anprobieren. Oder wenn Sie nach unten scrollen, können
Sie auch dieses Modell verwenden Und wie ihr sehen könnt, Leute, sind einige Beispiele. Wir haben also zwei Möglichkeiten. Zuerst haben wir einzelne Kleidungsstücke
und dann haben wir
mehrere Kleidungsstücke Zuallererst werde ich dieses
Shirt auswählen. Wenn Sie jetzt nach unten scrollen, werde
ich dieses Modell verwenden. Und jetzt lass uns generieren. Lassen Sie uns eine Ausgabe generieren. Und wie ihr sehen könnt, Leute, ist
es gerade dabei, dieses
Kleidungsstück für dieses Modell zu Und wie ihr sehen könnt,
Leute, einfach so, wir haben dieses Kleidungsstück für diese
Person oder für dieses Modell Lass uns jetzt
mehrere Kleidungsstücke anprobieren. Also
werde ich zuerst das Top hochladen, also werde ich dieses Shirt
auswählen Du musst den
Hintergrund des Kleidungsstücks nicht entfernen. Sie können dieses Bild auch verwenden. Jetzt kann ich diesen schwarzen Stift benutzen. Wenn Sie jetzt nach unten scrollen, haben
wir eine weitere Option namens Benutzerdefiniert. Jetzt
lade ich mein Bild hier hoch. Jetzt wurde das Bild erfolgreich
hochgeladen. Lass uns dieses
Kleidungsstück für mich selbst generieren. Und wie ihr sehen könnt, Leute, haben
wir dieses Shirt
und die Farbe genau hier. Wenn Sie nun mit dem
Mund auf Ihr Bild zeigen, haben
wir eine weitere
Option namens Erweitern Jetzt können wir darauf klicken und
es bis zu einem bestimmten Verhältnis erweitern. Also werde ich dieses Verhältnis
auswählen und sofort auf
Bild erweitern klicken. Auf diese Weise können Sie
Ihre vertikalen Bilder in
horizontale Bilder ändern. Sie können Ihr Bild in ein
anderes Seitenverhältnis ändern. Und wie Sie in der Anleitung sehen können, ist
dies die endgültige Ausgabe. Jetzt zeige ich
Ihnen ein anderes Beispiel. Wie Sie in der Anleitung sehen können, ist
dies die Unterseite
und dies ist die Oberseite. Ich werde
auf diesen erneuten Upload klicken. Und wenn Sie ein
Bild wie dieses haben, können
Sie dieses Bild auswählen, und es wird das Bild automatisch zuschneiden und das untere Bild
auswählen Und wenn ich dieses Bild erneut hochlade
und auswähle, wird
es jetzt automatisch das obere Bild
auswählen, wie Sie sehen können Klicken wir nun auf Generieren. Und wie ihr sehen könnt, Leute, haben
wir dieses Ergebnis. Wenn Sie nun dieses Bild öffnen, laden
wir dieses Bild herunter. Lass uns dieses Bild öffnen. Und wenn wir heranzoomen, damit ihr sehen könnt, Leute, haben
wir hier ein kleines
Problem. Wenn Sie
in dem Modell einen Bart haben, werden
Sie ein
solches Ergebnis erzielen. Aber lassen Sie uns das
Modell ändern, um es zu empfehlen. Und dieses Mal wählen wir dieses Modell aus und klicken
auf „Generieren“. Wie ihr sehen könnt, Leute, haben
wir dieses Ergebnis. Jetzt wähle ich diesmal ein
anderes Bild aus, und jetzt klicken wir auf Generieren und erhöhen
die Anzahl der Ausgaben. Und wie ihr sehen könnt, Leute, haben wir
jetzt diese Ausgaben. Die Ergebnisse sind jetzt
ziemlich beeindruckend. Lassen Sie uns das weiter
auf eine vertikale Form ausdehnen und los geht's. So können wir mithilfe
der virtuellen
KI-Tryon-Funktion von Kling AI
verschiedene Kleidungsstücke am Modell oder von Kling AI
verschiedene Kleidungsstücke am Modell oder
an Ihnen selbst anprobieren
9. FARBEN 1,5 vs. FARBEN 1,0: Komm zurück. Also haben wir ein neues Modell für die Bilderzeugung
namens Close 1.5. Vor diesem Modell hatten wir 1.0. Jetzt werde ich
beide mit
derselben Aufforderung vergleichen . Nun, diese Beispiele sind für
1.5, und wie ihr sehen könnt, Leute, mit dieser Aufforderung haben
wir diese Ergebnisse erhalten. Jetzt haben wir mit genau derselben Eingabeaufforderung, mit 1.0, diese Ergebnisse erhalten. Sehen wir uns nun ein anderes Beispiel an. Bei dieser Eingabeaufforderung ist das 1,0, was nicht schlecht ist, aber mit 1,5 haben
wir diese Ergebnisse erhalten. Der Hauptunterschied
zwischen 1.5 und
1.0 besteht nun darin, dass 1.5
realistische Bilder erzeugt. Auf der anderen Seite
generiert 1.0 beeindruckende Bilder, aber sie sehen aus, als wären
sie mit KI generiert worden. Und wie Sie sehen können, sieht das
wie ein künstliches Bild aus. Aber wenn Sie sich
das Ergebnis von 1,5 ansehen, ist
es für mich
realistischer als 1,0. Wir haben ein anderes Beispiel. Mit dieser Eingabeaufforderung sind das 1,5 Ergebnisse. Und wie du sehen kannst
, sehen
die Ergebnisse ziemlich gut aus. Jetzt haben wir mit derselben
Eingabeaufforderung 1.0. Und wie ich Ihnen bereits sagte, das für
mich künstlicher als 1,5, ist
das für
mich künstlicher als 1,5,
weil 1,5 eher einem
realistischen Bild ähnelt als 1,0. Jetzt haben wir ein anderes Beispiel. Mit dieser Aufforderung haben wir dieses
Ergebnis erhalten, das nicht schlecht ist. Aber mit genau der
gleichen Aufforderung mit 1.5 haben wir diese Ergebnisse erhalten. Jetzt sagst du mir,
welcher gut ist, dieser oder dieser. Offensichtlich
sieht 1.5 ziemlich gut aus. Mit dieser Eingabeaufforderung haben
wir diese Ergebnisse erhalten und mit genau derselben
Aufforderung mit 1.0 haben
wir dieses Ergebnis erhalten. Mit dieser Aufforderung, mit 1.0, haben
wir diese Ergebnisse erhalten
und mit 1.5 haben
wir diese Ergebnisse erhalten. In diesem Beispiel sieht
1.0 wunderschön aus,
aber in 1.5, von dem ich Ihnen bereits
erzählt habe, wird das Bild dadurch
eher dem Realismus
als der Fantasie 1.5 bringt das Bild quasi in die
Vorstellungskraft, aber 1.5 erzeugt ein
realistisches Bild Wenn ihr nun etwas wie reine Fantasie in diese Eingabeaufforderung eintippt, wie ihr sehen könnt, Leute, dann ist das ein reines Einfalls-Szenario. Mit 1.0 haben wir diese Ergebnisse erhalten. Mit 1,5 haben wir diese Ergebnisse erzielt. In diesem Beispiel generiert
1.0 also
einige beeindruckende Ergebnisse, weil das
reine Fantasie ist als die reale Welt. Aber 1.5 versucht,
realistische Ergebnisse zu erzielen, aber ich denke, 1.0 gewinnt in diesem Fall. Bei diesem Abschlussball ist das ein
reines Fantasieszenario. Das sind 1,0 Wüsten und bei 1,5 mit exakt
derselben Aufforderung ist
das echt, was wir bekommen haben Und 1.5 macht einfach 1.0 kaputt,
denn wie ihr sehen könnt,
Leute, sieht es nach
einem realistischen Auf der anderen Seite
sehen 1.0 wie eine Konzeptgrafik aus. Jetzt haben wir ein anderes Beispiel. Bei dieser Eingabeaufforderung sind
dies 1,0 Ergebnisse, und bei exakt derselben
Eingabeaufforderung ist dies 1,5. Und wie ihr sehen könnt,
generiert 1.5 ein realistisches Bild. Jetzt versuche ich, mit dieser Aufforderung
Vektorgrafiken zu generieren, und wie Sie sehen können,
Leute mit 1.0 haben
wir diese Ergebnisse erzielt,
was nicht schlecht ist. Aber mit 1.5 generiert es das,
worum ich ihn bitte. Weil ich diese Aufforderung kopiere, stehle
ich diesen Abschlussball vom
Designer domicrosoft.com AzkacGuide, das ist ein Microsoft-Designer-Ergebnis. Und ich habe diese Aufforderung kopiert und diese
Aufforderung hier eingefügt, und wir haben Mit dieser Eingabeaufforderung, mit 1.0, haben wir diese Ergebnisse erhalten. Und wenn wir zu 1,5 gehen, erhalten
wir diese Ergebnisse, was beeindruckend ist, denn wenn Sie sich die
Farbkombination und das Diagramm ansehen, erzeugt
1.5 ein realistisches
Bild und dann 1,0. Wie Sie sehen können, ist
das Diagramm in 1.0 nicht richtig
ausgerichtet, aber in 1.5 haben wir ein realistisches Diagramm und wir
haben eine realistische Zahl, und wir haben eine gute
Farbkombination, dann 1,0. Jetzt versuche ich, drei animierte
D-Bilder zu erzeugen . Mit dieser Aufforderung. Wir haben 1,0 Ergebnisse. Wie Sie sehen können, sind dies einige gruselige Ergebnisse, weil ich ihn bitte,
Drei-D-Animationen zu generieren Aber mit 1.5 haben wir
dieses wunderschöne Ergebnis erzielt, weil
1.5 ein dualistisches Bild erzeugen Deshalb bekommen wir das,
worum wir ihn bitten. Wenn Sie versuchen,
einige Bilder im Anime-Stil zu generieren, können
Sie das auch tun. Mit dieser Aufforderung sind es, wie
Sie in der Anleitung sehen können, 1,5 Ergebnisse, was sehr beeindruckend ist. In diesem Beispiel sehen 1.5 wie ein fertiges Bild im Anime-Stil aus, aber 1.0 sieht aus wie eine Konzeptgrafik. Wir haben ein anderes Beispiel. Mit dieser Eingabeaufforderung, mit 1.0, haben
wir diese Ergebnisse erhalten, und mit genau derselben
Aufforderung haben wir 1.5 Ergebnisse. Mit dieser Eingabeaufforderung haben
wir jetzt ein Ergebnis von 1,0, und mit genau derselben Eingabeaufforderung haben
wir ein Ergebnis von 1,5. Und 1.5 generiere, worum
ich ihn bitte Ich frage ihn nach einem Mann
mit Skimaske der auf einer Couch
sitzt und im Hintergrund
ein großes Feuer passiert. Und das ist es, was 1.5 generiert, und 1.0 generiert einfach diese Art von Bildern
, die ich wirklich nicht mag. Eine weitere Sache, die mir
in 1.5 gegenüber 1.0 auffällt
, ist , dass 1.0 eine
gewisse künstliche
Weichzeichnung in diesen Bildern enthält , 1.5
aber Bilder
ohne künstliche Weichzeichnung erzeugt Wie ihr sehen könnt, Leute,
sieht das aus wie eine Kinokamera. Und wenn wir zum Ergebnis 1.0 gehen, enthalten diese Bilder eine
künstliche Weichzeichnung Jetzt haben wir ein weiteres
Beispiel für 1.5. Ich ändere einfach einige Keywords in meiner Eingabeaufforderung und wir haben
diese Ergebnisse von 1.5 erhalten. Nun, wie Sie bei den Jungs in 1.0 sehen können, haben wir
wieder ein gewisses Maß an
künstlicher Weichheit Es sieht so aus, als ob ich
ein Bild mit niedriger Qualität
hochskaliere, und das ist das
Endergebnis Mit diesem Abschlussball
haben wir 1,5 Ergebnisse, und mit exakt demselben Abschlussball es 1,0 Ergebnisse Lassen Sie uns nun über
die Vektorbilder sprechen. Mit 1,5 bei diesem Abschlussball haben wir diese Ergebnisse erzielt. Mit 1,0 haben wir diese Ergebnisse erzielt, was beeindruckend ist als 1,5. Die Farbkombination ist gut. Im Hintergrund
ist die rote Farbe gut, aber andererseits töten
1,5 rote Farben meine Augen. Nun, mit dieser einfachen Aufforderung,
1.0, generieren Sie diese Bilder,
die, wie ich Ihnen bereits gesagt habe, etwas künstlich sind. Aber 1.5 macht auch
in diesem Beispiel einfach 1.0 kaputt. Mit dieser Eingabeaufforderung
haben wir nun 1,0 Ergebnisse und mit genau
derselben Aufforderung haben
wir 1,5 Ergebnisse Jetzt haben wir ein anderes Beispiel. Mit dieser Aufforderung
habe ich ein Ergebnis von 1,0. Mit genau derselben Eingabeaufforderung haben
wir ein Ergebnis von 1,5. Nun, 1.5 sieht so aus, als würde ich mit meiner Kamera ein Bild von
dieser Szene machen , aber in 1.0 haben
wir das Gefühl, dass es
durch künstliche
Intelligenz generiert wird . Jetzt haben wir ein anderes Beispiel. Mit dieser Eingabeaufforderung haben wir Ergebnis von
1,0 und mit genau
demselben Abschlussball haben
wir ein Ergebnis von 1,5. Und wie Sie sehen, 1.5,
versuchen Sie, so viel wie möglich
ein realistisches Bild zu erzeugen. Jetzt haben wir ein anderes Beispiel. Dies ist die Eingabeaufforderung, und
das ist das Ergebnis 1.0. Und bei exakt demselben Abschlussball ist
das Ergebnis 1,5. Und wie ihr sehen könnt, Leute, 1,5 allgemeines realistisches
Bild, dann 1,0. Jetzt haben wir ein anderes Beispiel. W 1.0, das ist die Eingabeaufforderung. Dies sind einige Ergebnisse von 1,0, und bei exakt demselben Prom haben
wir ein Ergebnis von 1,5. Bei diesem einfachen
Abschlussball-POE eines Autos ist das 1,5, und bei exakt
demselben Abschlussball ist
das Ergebnis 1,0. Jetzt haben wir auch wieder ein
Vektorbild. Mit dieser Eingabeaufforderung haben
wir ein Ergebnis von 1,0, aber mit genau derselben Eingabeaufforderung haben
wir ein Ergebnis von 1,5. 1.5 versuchen also, einen
realistischen Vektor zu erzeugen, aber 1.0 enthält einige Details. Wenn wir also versuchen, diese
beiden Modelle zu vergleichen, wenn Sie
Vektorbilder generieren möchten, dann denke ich, dass 1.0
die beste Option ist. Aber wenn du deinen Vektor
vereinfachen willst, dann versuche 1.5 zu verwenden, weil 1.5 deine Vektorbilder
so weit wie möglich
vereinfacht, aber 1.0 einige Details
in seinen Vektorbildern hat. Lassen Sie uns nun dieses
Bild mit Link-AI neu erstellen, also werde ich diese Aufforderung
kopieren Dies sind das Ergebnis
dieses Abschlussballs mit
Microsoft Designer Fügen wir nun diese Eingabeaufforderung ein
und generieren wir nun ein Bild. Ein weiterer großer
Unterschied zwischen 1.0 und 1.5 besteht darin, dass, wenn Sie ein Bild mit 1.0
generieren möchten, Ihre 0,20 Credits Wenn Sie
Ihr Modell jedoch auf 1,5 umstellen, wird ein
Credit pro Bild benötigt Wenn Sie also vier Bilder
generieren möchten, werden
dafür Ihre vier Credits benötigt. Lassen Sie uns nun klicken, um mit 1.5 zu
generieren. Das ist jetzt ein Ergebnis von
1,0 mit dieser Aufforderung, und die Ergebnisse sind nicht schlecht. Ich bin wirklich beeindruckt der Ausgabe dieses
Abschlussballs mit 1.0. Jetzt mit 1.5 und
genau derselben Aufforderung haben wir diese Ergebnisse erhalten. Was auch nicht schlecht ist, aber aus irgendeinem Grund mag
ich das Ergebnis 1.0. Wenn wir andererseits zur
Originalquelle zurückkehren ,
denke
ich, dass 1.5 versuchen, ein realistisches Bild
gemäß dieser Aufforderung zu generieren. Aber 1.0 generiert eine eigene
Version dieser Aufforderung. Wenn Sie Ihre Credits
sparen möchten, empfehle
ich Ihnen, ein Bild zu verwenden, beide Modellergebnisse zu
generieren, und wenn Ihnen dann
ein Modellergebnis gefällt, verwenden Sie dieses Modell und generieren Sie
vier Ergebnisse, wenn Sie möchten. Denn wenn Sie vier Bilder
generieren, erhalten
Sie eine
andere Variante. Wenn wir diese vier Bilder vergleichen, haben
wir einige winzige Unterschiede
zwischen diesen Bildern. Dies gilt
auch für dieses 1.5-Modell. Wir haben winzige Änderungen
in vier Bildern. Und in der endgültigen Ausgabe wurde
nur
der Kamerawinkel geändert.
10. Bilder mit konsistenten Motiven erstellen: Willkommen zurück, alle zusammen. Wenn ihr also euer Modell
von Cro 1.0 auf oder 1.5 ändert, wenn ihr zu Text zu Bild geht, genau hier, wie ihr sehen
könnt, Mädels, haben
wir eine neue Funktion für 1.5
namens Referenz hochladen. Wenn ihr jetzt also eine Referenz
hochladet, müsst ihr ein Thema auswählen. Jetzt haben wir dieses
Bild als Referenz. Um diese
Art von Bildern zu erstellen, müssen
Sie also zu AbstodGoogle gehen Sobald Sie zu
Labs Dot Google gehen, müssen
Sie Bildeffekte auswählen Und wenn wir jetzt
mein Originalbild öffnen, ist
dies der Abschlussball, mit dem
ich
dieses Bild mit
Labs-Google-Bildeffekten generiere . Sobald wir die
Referenz hochgeladen haben, haben wir drei Möglichkeiten. Entweder können wir
das gesamte Thema auswählen, wir können nur
die Phasenreferenz oder wir können
das gesamte Bild auswählen. Jetzt müssen Sie dies
berücksichtigen Wenn Sie das gesamte Bild auswählen, wechselt das Modell von 1,5 auf 1,0. Nehmen wir also an, wir wählen
das gesamte Bild aus. Ich werde das bestätigen,
und wie ihr sehen könnt, Leute, haben wir jetzt Cloud 1.0. Und wenn wir jetzt mit der Maus auf diese kleine
Vorschau dieses Bildes fahren, wenn wir hier klicken,
ist das die Bearbeitung. Wenn wir die Subjektphase auswählen und ich jetzt auf
diese bestätigte Schaltfläche klicke, wird das Modell jetzt,
wie Sie sehen können von 1,0 auf 1,5
umgestellt. Wenn wir zu 1,0 wechseln, wird
die Referenz weitergeführt. Laden wir nun die
Referenz erneut hoch. Und jetzt wähle ich
dieses Mal die Phase aus. Lass uns auf Bestätigen klicken. Sobald Sie die
Phase Ihrer Referenz ausgewählt
haben, können Sie alles eingeben,
was dieser Betreff tun soll. Wenn Sie nun Ihre
Referenzstärke auf 100 ändern, wird das exakte
Gesichtsmerkmal Ihres Motivs kopiert . Lassen Sie uns das also auf 50% ändern. Und jetzt tippe ich
einen Jungen, der auf einem Sofa
in einem Studio sitzt , und lass uns dramatische Beleuchtung
eingeben. Und wie Sie sehen können, werden für jedes Bild zwei Credits
mit der Referenz benötigt. Und wenn Sie die Referenz löschen, wird ein
Credit pro Bild benötigt. Wir haben also vier Varianten. Deshalb haben wir
acht Credits. Und jetzt lassen Sie uns
diese Bilder generieren. jetzt mit genau derselben Aufforderung Gehen
wir jetzt mit genau derselben Aufforderung zur Bearbeitung, und jetzt
wähle ich mein gesamtes Thema aus. Wenn Sie also die Phase auswählen, wird Ihr
Gesicht als Referenz kopiert. Wenn Sie jedoch das Thema auswählen, wird Ihr
gesamtes Thema kopiert. Das schließt seine
Kleidung ein und so weiter. Klicken wir auf Bestätigen und dann auf Generieren Wie ihr sehen könnt, Leute,
haben wir diese Ergebnisse. Wie Sie jetzt sehen können, haben wir
dieses wunderschöne Ergebnis erzielt. Und wenn wir
zur Originalquelle zurückkehren ,
wie ihr sehen könnt, Leute, haben
wir diese Phase
als Referenz, und das sind komplett neue
KI-generierte Bilder. Jetzt können wir auch die Referenz und die
Betreffphasenreferenz
ändern . Nun, wie ihr sehen könnt, Leute, hat es meine 45%
-Phasenreferenz dieses Bildes kopiert. Wenn wir das auf 100% ändern, wird genau diese Phase kopiert. Also lass uns das machen. Gehen wir zurück zu den Ergebnissen der
Phase Select und ich ändere
meinen Referenzwert auf 100%. Gehen wir jetzt mit genau derselben
Aufforderung zur Bearbeitung. Und dieses Mal wähle ich
das gesamte Bild aus. Und jetzt haben wir das Modell 1.0. Und mit der Referenz werden 0,30 Credits pro Bild benötigt Lassen Sie uns also
vier Varianten generieren. Also sind die Bilder jetzt generiert. Bei einer Phasenreferenz, einer Stärke von
100%, das haben wir auch mit der
Motivreferenz erreicht. Nun, mit nur der
Phasenreferenz, wie ihr sehen könnt, Leute, haben
wir das Ergebnis. Und wie ich dir schon gesagt habe, es wird nur dein Gesicht kopieren. Deshalb haben wir in
diesen vier Varianten
unterschiedliche Frisuren. Jetzt haben wir die gesamte
Bildreferenz, und das haben
wir mit 1.0 bekommen. Wählen wir nun
ein anderes Thema aus. Ich werde
diesen Betreff löschen. Wenn wir jetzt
mit dieser Aufforderung zu Labs
Dot Google Image Effects zurückkehren , habe ich dieses Bild generiert. Laden wir also dieses Bild herunter. Jetzt
wähle ich diesen Betreff aus, klicke auf Bestätigen und mit genau
der gleichen Aufforderung. Mit einer hundertprozentigen Phasenreferenz können
wir generieren, lassen
Sie uns diesen Aspekt zur Geltung bringen. Und jetzt lassen Sie uns
diese zur Variation generieren. Nun, wie ihr sehen könnt, Leute, haben
wir diese Bilder. Lassen Sie uns auch den
Betreff-Bezug auf 100% ändern, und ich werde
meinen Tempo-Bezug auf
60% ändern , weil ich möchte, dass KI die Referenz
des Subjekts übernimmt, nicht zu sehr, und ich
möchte, dass die Kleidung
des Probanden zu 100% passt. Deshalb ändere ich
meinen Bereich auf 100%. Lassen Sie uns diese Ergebnisse generieren. Wie ihr sehen könnt, Leute, haben wir diese Ergebnisse. Jetzt haben wir eine andere
Phase, weil ich einen Jungen
tippe und das Schlüsselwort
in Männer ändern und jetzt lass uns generieren. Wie ihr sehen könnt, Leute, in den neu generierten Ergebnissen zu 100% auf mein Thema Bezug genommen
. Wie ihr sehen könnt, Leute, wenn wir
zur ursprünglichen
Quellenangabe gehen , lasst uns zur Bearbeitung übergehen. Wir haben diese Jacke, und wenn wir zu den
generierten Bildern gehen, haben
wir dieselbe Jacke. Und jetzt, wie ihr sehen könnt, haben wir diese Ergebnisse. Der Grund, warum diese
Referenzbildfunktion wichtig
ist, liegt darin Sie jetzt
konsistente Bilder generieren können, dass
Sie jetzt
konsistente Bilder generieren können,
und mit diesen konsistenten Bildern können
Sie Ihre
Bilder auch in Videos umwandeln. Wenn wir also zum
animierten Korrektor zurückkehren, wie ihr seht, Leute, können wir diesen Jungen überall
hinbringen Wir können also auch tippen, auf
einem Sofa sitzen oder in einem Auto sitzen Mit dieser Aufforderung werden Bilder generiert, und jetzt können wir diese
Bilder in Videos umwandeln. Auf diese Weise können Sie
konsistente Videos mit
derselben Themenkonsistenz erstellen . Wie Sie sehen können
, haben wir jetzt dasselbe Thema in einem Auto. Wir können das Sitzen
im Auto auf Autofahren umstellen. Fügen wir ein Komma mit dramatischer Beleuchtung hinzu.
Lasst uns nach rechts abbiegen. Und jetzt, wie Sie sehen können,
haben wir diese Ergebnisse. Jetzt können wir mit
dieser
Referenzfunktion von Ling AI
konsistente
Charaktervideos erstellen mit
dieser
Referenzfunktion von Ling AI
konsistente
Charaktervideos .
12. FARBEN 2.0: Willkommen zurück, alle zusammen. Deshalb bringt Cling AI
ihr neues Bildmodell auf den Markt, das Colors 2.0 heißt. Um nun auf Color 2.0 zuzugreifen, müssen
Sie auf die
Homepage von Cling AI gehen Dies
ist übrigens eine neue Oberfläche. Wir können das Bild auswählen und von hier aus
das Modell wechseln. Ich wähle Colors 2.0, das neueste Modell. Jetzt können wir jede Eingabeaufforderung eingeben. Sie können zum Chat GBT gehen und ihn nach einigen Ideen fragen Wie in dieser Aufforderung habe ich
mir Ideen für Mini World
für die Videogenerierung gegeben , und ich habe diese Eingabeaufforderungen
für Mini World bekommen Jetzt können wir jede Aufforderung kopieren. Also werde ich diese Aufforderung
kopieren. Jetzt können Sie
diese Aufforderung testen, bevor Sie diese
Aufforderung in Cling AI einfügen, zu Bildeffekten
von Labs zu Google
wechseln und diese Aufforderung einfügen Dies ist eine kostenlose Bildgenerierung
mit unbegrenzten Credits, sodass Sie kein Guthaben verlieren Sie können also zuerst Ihre
Eingabeaufforderung hier testen und diese
Aufforderung dann später im Cling-KI-Modell ausprobieren. Sie verlieren also keine Credits. Also, wie Sie sehen können,
haben wir diese wunderschöne Welt. Jetzt können wir diese Aufforderung einfügen. Jetzt können Sie von hier aus Ihr
Seitenverhältnis ändern und Sie können auch die
Ausgaben Ihrer Eingabeaufforderung ändern. Jetzt können Sie das Modell
von hoher Auflösung
auf Standard umstellen . Ich werde
hohe Auflösung wählen. Lassen Sie uns vier und
einen Standard generieren, damit wir sie später vergleichen können. Die Bilder sind jetzt also generiert. Schauen wir uns zuerst die hohe
Auflösung an. Wenn Sie also ein
Bild öffnen, haben
wir, wie Sie sehen können, diese neue Oberfläche zum Anzeigen
eines Bildes. Dies sind die
Ergebnisse der Höhenauflösung von Clers 2.0. Jetzt haben wir diese
Standardbilder, was auch nicht schlecht ist, aber die Höhenauflösung hat eine
gewisse Schärfentiefe Sie können
Ihr Bild auch hochskalieren. Sie können Ihr
Bild auch erweitern. Dies ist eine weitere Aufforderung, die ich mit der
hohen Auflösung von Colors 2.0
versuche. Wir haben dieses Ergebnis. Ich habe diese normale
Limonade, die Superkräfte
wie fliegende Laser-Philis gewonnen wie fliegende Laser-Philis ,
und mit 1,5
haben wir dieses Ergebnis Wir haben hier
das Ergebnis von Colors 2.0 und wir haben dieses Beispiel, das realistisch aussieht Und wir haben auch dieses
Beispiel. Wenn Sie jetzt
nur die Bilder anzeigen
möchten, können Sie
von allen zu Bildern wechseln. Und jetzt, wie Sie sehen können, haben wir
jetzt nur die Bilder. Und wir haben auch noch eine
andere Aufforderung. Wie in dieser Aufforderung
haben wir diese Beispiele. Wie Sie sehen können, sehen die Bilder mit Farben 2.0 verrückt aus. Wir haben dieses Beispiel. Schauen Sie sich die Details an. Und mit dieser Aufforderung haben
wir diese Bilder. Und mit dieser Aufforderung haben wir diese verrückten Bilder bekommen. M Lass uns die
Farben aller Modelle vergleichen. Wie Sie sehen können, haben wir
Farben 1.0 mit derselben Eingabeaufforderung. Wenn ich dieses Bild öffne, ist
dies das Ergebnis, das
wir mit dieser Eingabeaufforderung erhalten haben. Jetzt mit Farbe 1.5 haben wir dieses Ergebnis erhalten. Und mit derselben Aufforderung, mit der hohen Auflösung von Colors 2.0, haben
wir diese Ergebnisse erhalten. Das habe ich von Colors 2.0 nicht
erwartet, aber so ist es. Und jetzt mit Farben
1.0, mit dieser Eingabeaufforderung, haben
wir diese Ergebnisse erhalten und mit genau
derselben Eingabeaufforderung mit
1.5 machen wir das. Und mit der
hohen Auflösung von Colors 2.0 haben
wir dieses wahnsinnige Upgrade Ich meine, es sieht aus wie
ein echtes Bild. Jetzt haben wir diese Eingabeaufforderung, und mit Farben 1.0 haben wir
das bekommen. Und mit genau derselben Aufforderung sind das 1,5 Bilder. Und mit 2.0 haben wir diese Bilder
bekommen. Ich meine, in diesem Fall sah 1,5 für mich
realistischer aus als 2,0. 2.0 sehen insgesamt fantastisch aus. Ich denke, wir haben hier etwas Kunst. Wir haben fünf Finger
und wir haben einen Daumen. Bei dieser Aufforderung denke
ich, dass 1,5 der klare Gewinner ist. In einigen Fällen
schneiden 1,5 besser ab. Aber wenn Sie es insgesamt betrachten, 2,0 die Werte von 1,5 und
1,0 im Durchschnittsszenario. Jetzt haben wir diese
Eingabeaufforderung mit 1.0, wir haben diese Bilder und mit derselben Eingabeaufforderung haben
wir 1,5 Bilder. Jetzt haben
wir mit genau derselben Aufforderung dieses Bild, und 2.0 schneidet unglaublich besser ab als alle
anderen Modelle. Wie Sie sehen können, haben wir ein
flaches Daptofeld. Wir haben eine Filmszene. Sie können
dieses Bild sogar in ein Video umwandeln, und es wird fantastisch aussehen Jetzt haben wir diese Aufforderung mit
1.0. Das haben wir bekommen. Und mit 1.5 haben wir diese Bilder
ein wenig verbessert
. Aber wenn ich Ihnen das Ergebnis 2.0 zeige, werden
Sie überrascht sein. Ich meine, sieh dir diese Bilder an. Für mich sehen sie aus wie
echte Bilder. Jetzt haben wir diese
Aufforderung mit 1.0, wir haben diese Bilder. Und mit genau der gleichen
Aufforderung ist das 1.5. 1.5 gib mir die Bilder, die
ich von dieser Eingabeaufforderung haben möchte. Und mit derselben Eingabeaufforderung haben
wir ein Ergebnis von 2.0. Ich meine, alles sieht
realistisch aus, außer den Vögeln. Ich denke, 1.5 schneidet bei dieser Aufforderung
besser ab. Es gibt mir die
Vogelform, die ich will, aber alles andere, wenn
Sie die Vögel ignorieren, denke
ich, dass alles andere
in 2.0 besser aussieht. Wir haben diese Eingabeaufforderung mit 1.0, wir haben diese Bilder und mit derselben Eingabeaufforderung haben
wir ein Ergebnis von 1,5, was ein großer Sprung
von hier zu hier ist. Und mit derselben Eingabeaufforderung haben
wir ein Ergebnis von 2.0. In dieser Aufforderung gefällt mir auch das Ergebnis
1,5 besser als das Ergebnis 2,0. Wie ich Ihnen bereits gesagt habe,
schneidet 1,5 in
einigen Fällen besser ab als 2,0. Jetzt haben wir diese Aufforderung,
und das ist 1.0. Und mit derselben
Eingabeaufforderung haben wir 1.5. Wie Sie sehen können, haben wir das Bild
ein wenig verbessert
. Und mit derselben
Aufforderung ist dies 2.0, und es gibt einen riesigen Sprung von 1.5 auf 2.0. Es sieht realistisch aus. Aber auch hier denke ich, dass
1.5
in diesem Fall auch
etwas besser abschneidet als 2.0. Weil es auch wie
ein künstliches Bild aussieht. Aber wenn Sie sich das 1,5-Bild ansehen, sieht
das Bild gut aus und ich scheine
keinen Fehler im Bild zu bemerken. Bei diesem Abschlussball ist
1,5 also auch wieder ein Gewinner. Jetzt haben wir diesen
Abschlussball und wieder haben
wir
wieder Tomaten auf dem Bild. Mit 1.0 haben wir diese Bilder, was auch nicht schlecht ist. Und mit 1.5
haben wir diese Bilder. Und mit Colors 2.0 haben
wir dieses verrückte Bild Und wie Sie sehen können, haben
wir hier eindeutig einen Gewinner 2.0 schneidet in diesen
Bildern besser ab als 1.5 und 1.0. Jetzt haben wir dieses Beispiel, und bevor ich Ihnen das Ergebnis
1,0 und 1,5 zeige, ist
dies das Bild, und
das ist das Ergebnis 2,0. Wie Sie sehen können, sieht es aus
wie ein Spielbild, und bei demselben Abschlussball ist
das 1,0 und das ist 1,5. Und ich glaube nicht, dass diese Aufforderung bei allen Modellen
funktioniert,
denn alle Modelle geben mir
die Konzeptgrafiken außer 2.0, sie geben mir ein spielähnliches Bild. Jetzt haben wir diese Aufforderung
und wir haben 1,0 Bilder, und ich habe auch von 1.0 wirklich
beeindruckt. In diesem Bild schnitt es besser ab. Und mit 1.5 haben wir
dieses verrückte Upgrade. Wie Sie sehen können, ist von hier
bis hier ein riesiges Upgrade. Und mit derselben
Aufforderung haben wir 2.0, und wie Sie sehen können, schneidet 2.0 besser ab als alle
anderen Modelle. Jetzt haben wir auch ein Upgrade
, um das Bild anzuzeigen. Wie Sie sehen können, haben
wir hier ein kleines Vorschaubild
aller generierten Bilder Wir können sie uns ansehen, indem Weise nach unten oder oben scrollen Wenn Sie jetzt ein Bild öffnen, können
wir das Bild auch mit
dem Scrollen anzeigen Sie können auf diese Weise nach unten oder nach oben scrollen. Jetzt können Sie auch
die
Abwärtspfeiltaste auf der Tastatur verwenden , um das
Bild nach unten anzuzeigen, oder Sie können die
Aufwärtspfeiltaste verwenden , um die Bilder nach oben anzuzeigen
14. Bilder im Ghibli-Stil neu gestalten: Willkommen zurück, alle zusammen. Deshalb bietet das KI-Bildmodell Colors
2.0 von Kling eine neue
Funktion namens Restyle Sie können Ihr Bild
in einen beliebigen Stil umgestalten. Ich gebe dieses Bild ein und tippe es im
Anime-Stil der 90er Jahre Und das haben wir bekommen. Um Ihr
Bild neu zu gestalten, können Sie zunächst
alles, was Sie benötigen,
Ihr Modell auf Farben 2.0 umstellen Und Sie können
Ihre Referenz hochladen. Sobald Sie
Ihre Referenz hochgeladen haben, können
Sie entweder den Stil auswählen. Ich werde diesen
Stil auswählen, und standardmäßig haben
wir den Standardmodus, und Sie können auch Ihre Ausgaben
ändern. Also werde ich zwei Ausgänge
auswählen. Jetzt kannst du auch
hier klicken und die Hinweise
aktualisieren, die dir die Cling-KI bietet. Und wie Sie sehen können, haben wir dieses
Mal den Stil. Also wähle ich Pizle Art und lass uns wieder
vier Bilder generieren Auch hier können wir aktualisieren,
und dieses Mal wähle
ich Comic aus und lasse uns erneut
vier Bilder generieren Und wie Sie sehen können, haben
wir diese Bilder. Sie sehen nicht fantastisch aus, aber das haben wir. Jetzt, mit dem Pixel-Art-Stil, haben wir das. Und ich mag
den Pixel-Art-Stil sehr. Und mit dem Comic-Stil haben
wir diese Bilder bekommen
und ich bin wirklich
beeindruckt vom Comic-Stil und
vom Pixel-Stil. Bei diesem Stil haben wir so
viele Fehler im Bild. Lass uns einen anderen Stil ausprobieren. Lassen Sie uns den Anime-Stil wählen, und ich werde auch drei D-Stil
wählen. Jetzt, mit dem
Drei-D-Cartoon-Stil, haben wir das. Und mit dem Wechsel zum
Anime-Cartoon-Stil haben wir genau
das bekommen. So können Sie also die Restyle-Funktion
des neuen
Farbmodells 2.0 von King AI
nutzen des neuen
Farbmodells 2.0 von King AI
15. Bildbearbeitung: Willkommen zurück, alle zusammen. Also Cling AI Das neue Update
bietet Ihnen eine neue Funktion, die als Bildbearbeitung bezeichnet wird. Wenn Sie auf die
Ling AI-Homepage gehen
und, wie Sie sehen können, genau hier, haben
wir Bildbearbeitung. Wenn Sie darauf klicken,
haben wir diese Oberfläche. Nun, so funktioniert es. Du musst ein Bild hochladen. Jetzt wird mein Bild hochgeladen. Sobald Ihr Bild hochgeladen ist, ist
dies die Schnittstelle zur
Bildbearbeitung beim Malen Wie Sie jetzt sehen können, können wir das Bild mit
der Schriftrolle verschieben. Jetzt kann ich das Bild mit meiner
Scrolltaste verschieben. Wir können die Strg-Taste drücken,
gedrückt halten das Bild mit dem Scrollen vergrößern
und verkleinern. Sie können
Ihren Bildschirm auch von hier aus ändern. Dies sind nun alle
Tastenkombinationen , die
für diese Oberfläche verfügbar sind. Nun, genau hier, wie Sie
sehen können, haben wir ein Tool. Wir haben eine Auswahl an Pinseln. Im Grunde können
wir von hier aus zunächst die Pinselgröße erhöhen oder verringern, und jetzt kann ich die
Pinselauswahl auswählen. Jetzt wähle ich meine Uhr aus und gebe eine
Aufforderung ein. Wenn Sie die goldene Uhr drehen,
können wir den Ausgang auswählen. Also werde ich zwei Ausgänge
auswählen. Und wie Sie sehen können, können Sie,
wenn
Sie hier klicken , die Intensität erhöhen,
wenn Sie möchten dass der Effekt stärker oder geringer wird. Also werde ich meinen
Effekt auf das Mittel einstellen. Sie können
Ihre Auswahl auch rückgängig machen, indem hier
klicken, und Sie können Ihre Auswahl
auch löschen, und Sie können diese Aktion auch rückgängig machen
oder wiederholen Jetzt können wir hier klicken, um diesen
Effekt zu malen. Und sobald Sie
Ihre Auswahl eingereicht
haben, erscheint dieses Fenster wird
, dass
der Effekt generiert wird , um den wir ihn
bitten. Jetzt können Sie hier klicken,
um mit der Bearbeitung fortzufahren. Sie können auch wieder nach Änderungen
an Ihrem Bild fragen. Jetzt haben wir drei Auswahlmöglichkeiten. Wir haben Bush-Auswahl, wir haben Box-Auswahl und wir haben Schnellauswahl. Jetzt werde ich meine Auswahl
löschen, und ich werde auch meine Eingabeaufforderung
löschen. Schauen wir uns zunächst das
Ergebnis an. Und wie Sie sehen können, haben wir hier
eine goldene Rolex-Uhr. Jetzt können Sie
dieselbe Auswahl auch verwenden indem Sie auf dieses Bild klicken. Und wenn Sie einen Aktualisierungsstart wünschen, können Sie
Ihre Auswahl löschen. Wir haben die Zuchtauswahl und wir haben zwei weitere Auswahlen. Sie können also einfach
das Auswahlfeld auswählen, und wenn Sie die Uhr wechseln
möchten, können
Sie einfach die Uhr auswählen. Und wenn Sie diesen Teil
auswählen möchten, müssen
Sie diese Auswahl nicht
rückgängig machen. Sie können auch
einen anderen Bereich wie diesen zeichnen. Und jetzt können wir dieses
Mal
auf eine moderne Caso-Uhr umstellen auf eine moderne Caso-Uhr Wie Sie sehen können,
erzeugt es den Effekt nicht. Jetzt haben wir eine schnelle Auswahl. Ich lösche meine Auswahl und wähle
Schnellauswahl. Zunächst wird Ihr Bild
analysiert. Sobald Ihr
Bild analysiert wurde, können
wir, wie Sie sehen, einen beliebigen Teil des
Bildes auswählen, um diesen Teil zu ändern. Wir können auch
den Hintergrund oder
das Shirt auswählen. Ich werde mein Hemd auswählen, und es hat auch den Bart ausgewählt. Wir können
diesen Teil also auch löschen , indem
wir
auf dieses Radierwerkzeug klicken, die Pinselgröße
erhöhen die Pinselgröße
erhöhen und diese Auswahl löschen Und jetzt haben wir das. Jetzt kann ich mein
Hemd wechseln, weißes Hemd. Also, während das Shirt
generiert wird, schauen wir uns die Uhr an,
und wie Sie sehen können, haben
wir diese
Cassie-Uhr an meinem Handgelenk Wie Sie sehen können, ändert das
nichts an meinem Shirt. Also nochmal, wir haben ein
paar Änderungen am Shirt vorgenommen, aber das macht das
Shirt nicht zu reinem Weiß. Also können wir
diese Eingabe erneut auswählen und ihn erneut bitten, die Farbe des
Shirts auf schlichtes Weiß
umzustellen. Diesmal bitten wir ihn also die
Farbe des Hemdes
richtig zu ändern. Jetzt, während sich die
Farbe des Shirts ändert, können
wir die
Auswahl löschen und das Motiv auf diese Weise bürsten, die Pinselgröße
erhöhen und das
gesamte Motiv auf diese Weise auswählen. Oder der Grund, warum ich
das mache, ist, dass ich Ihnen
zeigen werde , wie wir die umgekehrte
Auswahl richtig verwenden können Wenn Sie den Hintergrund entfernen oder Ihren Hintergrund ändern möchten, wählen Sie einfach zuerst Ihr Thema und kehren Sie dann Ihre Auswahl Auf diese Weise müssen
Sie also nicht Ihren gesamten Hintergrund malen Also können wir einfach ein
bisschen malen, nicht zu viel. Die Ränder des Motivs. Lass uns diesen Teil löschen. Und jetzt kann ich ihn bitten, den Hintergrund eines Studios
zu ändern, Licht und Schatten
dieses Atmosphärenfeldes
aufeinander abzustimmen. Lassen Sie uns ihn also bitten,
den Hintergrund eines Studios zu ändern und Licht und Schatten
dieser Atmosphäre
aufeinander abzustimmen. also, während es
den Hintergrund generiert, Schauen
wir uns also, während es
den Hintergrund generiert, das Ergebnis an. Und wieder
haben wir kein weißes Hemd. Bitten wir ihn also,
die Hemdfarbe zu ändern. Also bitte ich ihn dieses Mal, die Farbe des
Hemdes auf schlichtes Schwarz
umzustellen. Während es wieder die Farbe des Shirts
ändert, schauen wir uns den Hintergrund an. Wie Sie sehen können,
ändert sich dadurch mein Hintergrund. Und wenn du dir
das Shirtergebnis ansiehst, bleibt
das Shirt gleich. Ich denke, wir müssen das Hemd manuell bürsten,
damit ich meine Auswahl löschen, die Pinselgröße
erhöhen und wir das Hemd bemalen können. Jetzt können Sie auch die
Haarfarbe ändern. Also wähle ich
meine Haare aus und lasse uns die Haarfarbe auf Rot
ändern. Wie Sie sehen können, haben
wir dieses Mal das schlichte schwarze Hemd. Der Grund, warum
wir
den Fehler erhalten haben , ist, dass wir
das Shirt nicht richtig ausgewählt haben. Also werde
ich ihn auch dieses Mal bitten, die Farbe des
Shirts auf schlichtes Weiß zu ändern, und ich hoffe, dass wir
das gewünschte Ergebnis erzielen. Nun, wie Sie sehen können,
verändert es die Farbe meiner Haare, aber es hat auch
den Haarschnitt verändert. Also werde ich diesen Eingang
auswählen. Ich werde meine Auswahl löschen und ich werde diese Hand zeichnen, und ich werde auch
diesen Bereich meiner Hand zeichnen. Also habe ich dieses
Ball-Pfeil-Tattoo auf beiden Händen. Also, dieses Mal
haben wir dieses blaue Hemd und endlich haben wir
das weiße Hemd. Um also
ein Objekt oder ein Subjekt zu ändern, müssen
Sie diesen Bereich richtig
auswählen. Wie Sie sehen können, haben
wir jetzt dieses
Pfeil-Tattoo auf meiner Handkasse. Wir haben ein anderes Beispiel. Wenn ich dieses Bild öffne,
ändere ich,
wie Sie sehen können , auch den
Hintergrund von mir. In diesem Beispiel habe ich
den Studiohintergrund. Wenn Sie in Paint wechseln,
ersetzen Sie den Hintergrund, der zur Beleuchtung der
Szene
passt , durch das
Motiv und fügen Sie ein Studio hinzu. Und wie Sie sehen können,
haben wir dieses Ergebnis erzielt. Und in diesem Beispiel haben
wir
den Hintergrund, der der Beleuchtung der Szene
entspricht, durch
das Motiv ersetzt . Fügen Sie einen Studiohintergrund
mit mittelalterlichem Zeug hinzu, und das ist es, was wir haben. Und in diesem Beispiel habe ich
den Bart und meine Haare ausgewählt, das Haar und die
seltsame Farbe zu Blau
geändert, und das ist es, was wir bekommen haben. Und dieses Mal habe ich nur die
Haarfarbe auf Blau geändert und wir haben diese Bilder bekommen. Und in diesem Beispiel ändere
ich die
Hemdfarbe in schlichtes Schwarz und verwende die Boxauswahl. Falls Sie es jetzt bemerken,
wähle ich auch mein Gesicht aus. Deshalb haben wir genau hier diesen seltsamen
Gesichtseffekt. Wenn Sie diese Auswahl also vermeiden, wird sich die Farbe
des Shirts entsprechend ändern. In diesem Beispiel verwende
ich also auch eine Schnellauswahl,
um mein Shirt auszuwählen. Deshalb wurde die Farbe
meines Hemdes nicht auf Rot
geändert. Wie Sie sehen können,
bekommen wir nicht die Farbe eines roten Hemdes. In diesem Beispiel
haben wir diese Änderungen. Jetzt können Sie auch
mehrere Objekte auswählen und
diese ändern. In diesem Beispiel
habe ich also meinen Gürtel,
meine Uhr und meine Brille ausgewählt und diese Eingabeaufforderung eingegeben Ändere die Uhr in Casseo, ändere die Brille in eine Sonnenbrille, ändere den Gürtel in Braun Und wie Sie sehen können,
haben wir den Gürtel von WA Change und wir haben auch eine Sonnenbrille So können Sie mehrere
Objekte in einem Bild gleichzeitig auswählen. Sie müssen kein
einzelnes Objekt auswählen. Sie können mehrere
Objekte gleichzeitig auswählen. Und in diesem Beispiel
ändere ich meinen Hintergrund in
einen leeren Raum, und das ist, was wir haben. Ich male wieder meinen gesamten
Hintergrund, einschließlich mir selbst, und ich tippe diesen Abschlussball,
lösche den Hintergrund und
mache daraus einen leeren, cremefarbenen Raum Und wie Sie sehen können, haben
wir diese Bilder. Wenn Sie den
Fehler nicht in Ihrem Bild haben möchten, können Sie die
Schnellauswahl verwenden, um Ihr Hemd oder ein beliebiges Objekt
auszuwählen, und dann können Sie
die BHs verwenden, um die Wirbel
auszuwählen, denn wie Sie in der
Schnellauswahl sehen können, wählen
wir das Objekt aus, aber es wählt nicht die
Kanten dieses Objekts aus In diesem Beispiel wird
mein Hemd ausgewählt, aber nicht
die Kanten meines Hemdes Aus diesem Grund erhalten wir
diese Art von Fehler. Und deshalb haben wir den Fehler
bekommen. Bürsten Sie die Kanten also manuell ab, und Sie erhalten
hoffentlich das gewünschte Ergebnis. Bildbearbeitung, wir haben eine weitere
Funktion namens Erweitern. Sie können Ihr
Bild auch erweitern. In diesem Beispiel
habe ich also einen freien Erweiterungsbereich ausgewählt, also habe ich diesen Bereich ausgewählt,
und wie Sie sehen können, mir
ohne Aufforderung diese Bilder angezeigt. Und wenn Sie zum Beispiel einen Abschlussball eingeben, habe ich auch
diesen Bereich ausgewählt und gebe verlassenen
Flur mit Kratzern und
Graffiti an der Wand ein und
schaue mir das Ergebnis Jetzt können wir zum Expand gehen. Wir können ein beliebiges Bild auswählen. Also wähle ich dieses
Bild aus und gehe zu Erweitern. Wir können das Original oder
ein benutzerdefiniertes Verhältnis verwenden. Also werde ich dieses Verhältnis
wählen und mein Bild auch genau hier
platzieren. Und ohne Aufforderung erweitern
wir den Hintergrund und geben auch eine Eingabeaufforderung ein. Ohne Aufforderung haben
wir also dieses Bild. Nun, ich mag
diese beiden Bilder wirklich außer diesem und diesem
, weil
ich glaube, dass wir in diesem Bild
den Zusammenführungseffekt genau hier sehen können. Jetzt tippe ich diese Eingabeaufforderung:
Studio Lights and Plants spielt im Hintergrund,
wie Sie sehen können Wir haben die Pflanze und wir haben
Studiolicht genau hier. Es verbindet
diese Dinge auf wunderbare Weise und platziert sie
, um den Hintergrund zu erweitern Ich mag diesen
und diesen wirklich , denn wie
Sie an dieser Pflanze sehen können, haben
wir auch diesen
Lichteffekt So kannst du also deinen Hintergrund
erweitern, und so kannst du
die Bildbearbeitung von Kling Ai nutzen
17. Grundlegende Einführung in die Generierung von KI-Videos: Willkommen zurück. Jetzt musst
du hier klicken und zu den Videos gehen, um Clips mit Cling AI zu
generieren. Jetzt gibt es einige Möglichkeiten, Clips mit Cling AI zu generieren. Der erste ist Text zu Video. In Text-to-Video müssen
Sie
eine Eingabeaufforderung eingeben , um den Clip zu generieren. Also lass uns das jetzt machen.
Jetzt habe ich diese Aufforderung. Sie können genau dieselbe
Aufforderung in den Einstellungen kopieren. Wie ihr sehen könnt, Leute, müssen
wir den Slider ziehen. Wir haben Kreativität und
Relevanz. Jetzt haben
wir den Modus Standard und den Modus Professional. Wenn Sie
das kostenlose Konto verwenden, erhalten
Sie nur
den Standardmodus. Lassen Sie uns nun den
Standardmodus für dieses Beispiel überprüfen. Jetzt haben wir die Länge
fünf bis 10 Sekunden. Wir haben das Seitenverhältnis
, das Sie ebenfalls ändern können. Sie können ein beliebiges
Seitenverhältnis auswählen. Jetzt haben wir die Anzahl
der Generationen. Im Moment habe ich mich auf
eine Videogeneration eingestellt. Jetzt, unterhalb des Seitenverhältnisses, haben
wir Kamera-Momente. Wenn du hier klickst, haben wir
so viele Kameramomente. Unter den Kameramomenten haben
wir nun negative Abschlussballmomente. Also, was ist der negative Abschlussball? Ein negativer Abschlussball ist
etwas, das
du in deinem
generierten Video nicht haben willst. Wenn du zum Beispiel keine
Unschärfe in deinem Video haben möchtest , tippe
einfach die Unschärfe Wenn du keine Verzerrung oder
etwas wie eine Verletzung des
Frames möchtest , kannst
du das
Wort hier eingeben, dann wird
das nicht in deinem Video erzeugt Klicken wir nun auf
diese Schaltfläche zum Generieren. Deshalb verwende ich auch Microsoft
Designer für diese Aufforderung. Wie Sie sehen können, Leute, ist
dies das Ergebnis dieser Aufforderung in
Microsoft Designer. Jetzt denke ich
, dass wir
ein anderes Ergebnis
als dieses haben werden , weil es
in Microsoft Designer generiert wurde und wir King Eye verwenden,
bei dem zwei völlig
verschiedene Arten von Tools handelt. Während das Video
auf der rechten Seite generiert wird, werden
wir die Ergebnisse
der generierten Videos haben. Wie ihr sehen könnt, Leute, ich
generiere so viele Videos. Sie können hier klicken, um Ihre Videos
in Text in Video umzuwandeln. Das sind also alles
mein Text zum Video. Du klickst hier, du kannst
das in Bild zu Video ändern. Dies sind alle meine Bilder,
die in KI-Videos
umgewandelt wurden Sie können auch alle Videos
auswählen Alle Videos werden auf der rechten Seite
angezeigt. Sie können auch hier klicken. Sie können die Ansicht auch
von der einfachen Ansicht zur Detailansicht ändern. Wie Sie sehen können, ist
dies nun in der Detailansicht das neue Video, das ich mit diesem Tool generiere. Das sind alles meine alten Videos. In der Detailansicht haben Sie dem Abschlussball
das Referenzbild. Wenn Sie eines haben,
habe ich
in diesem Beispiel das Referenzbild, sind
also alle meine
Referenzbilder. Es wird auch
die Version angezeigt, mit der Sie das Video generiert haben. Also verwende
ich für dieses Video zum Beispiel Kling 1.0. Wenn ich
für einige Videos nach unten scrolle, verwende
ich Kling 1.5, wie in diesem Beispiel.
Lass uns das ändern. Sie können auch auf A klicken, um ein Video
oder Bild auszuwählen , das
Sie herunterladen können. Sie können das
Video oder Bild auch löschen. Sie können das auch
auf Ihren Favoriten setzen, oder Sie können erneut klicken, um das Ding als
Favorit Klicken wir jetzt erneut darauf. Jetzt wird das Video generiert. Sehen wir uns das Ergebnis an. Und es unterscheidet sich grundlegend
vom Microsoft-Designer, wie ich bereits sagte. So können Sie mit Ing AI einen Clip
generieren,
indem Sie eine Eingabeaufforderung in
Text-zu-Video verwenden. In der nächsten Vorlesung werden
wir nun darüber sprechen, was der Unterschied zwischen dem Standardmodus
und dem professionellen Modus ist.
18. Beeindruckenden Text in Video generieren: Komm zurück.
Kopieren wir jetzt diese Aufforderung. Ich habe Microsoft Designer verwendet
, um meine Eingabeaufforderung zu verbessern, und ich habe diese Ergebnisse erzielt. Gehen wir jetzt zur King
AI und fügen diese Aufforderung ein. nun für dieses Video Lassen Sie uns nun für dieses Video
den Standardmodus auswählen, und ich möchte
keine Einstellung ändern Und jetzt klicken wir auf
die Schaltfläche Generieren. Während dieses Video generiert wird, können
wir den
professionellen Modus auswählen. Übrigens, wenn Sie das Premium-Konto
verwenden, kostet Nutzung des
professionellen Modus
35 Credits. Jetzt können wir diesen Abschlussball generieren, sodass die Videos jetzt generiert werden. Das ist also das Video im
Standardmodus. Es sieht ziemlich gut aus. Und das ist ein professioneller Modus. Wie du sehen kannst, gibt
es einen großen Unterschied. Es liegt kein Frame-Verstoß vor. In diesem Video ist nichts
falsch. Es sieht aus wie ein echtes
Filmmaterial aus dem wirklichen Leben. Jetzt ändern wir den Wert von
Cling 1.0 auf 1.5. Wenn Sie jetzt 1.5 wählen, verschwindet
der Kamera-Moment. Und wir können den
professionellen Modus nicht auf Standard ändern. Also lass uns jetzt generieren. Jetzt gibt es einen großen Unterschied zwischen dem professionellen Modus
und dem Standardmodus. Der professionelle Modus bleibt konsistent und
generiert Ihr Video. Es ist nichts falsch. In diesem Clip liegt kein
Frame-Verstoß vor. Aber im Standardmodus generieren Sie
einfach Ihren Clip, was auch immer Sie fragen, und er
bleibt inkonsistent Wie ihr sehen könnt, Leute, haben wir etwas, das den Rahmen verletzt
, im Vordergrund, und im
Berg tauchen auch
komische Punkte oder Ringe Wenn Sie also
hochauflösende Ergebnisse erzielen
möchten, verwenden Sie einen professionellen Modus, aber Sie müssen auf die Pro-Version aktualisieren Übrigens, wenn Sie Ihre
generierten Videos
erneut aufrufen und sehen möchten,
welchen Modus ich verwende und
welche Einstellung ich verwende, um diesen Clip zu
generieren, dann können Sie sich diesen auch ansehen Zum Beispiel, wenn ich dieses Video
auswähle. Wie ihr sehen könnt, Leute, habe ich den Modus auf Standard
geändert. Aber wenn ich dieses Video auswähle, wurde der Modus automatisch
auf Beruf
geändert , da ich diesen Modus ausgewählt habe, als ich dieses Video generiert
habe. Nicht nur das, wenn Sie eine Kamerasteuerung
auswählen, wird sie genau hier angezeigt. Wenn Sie ein Seitenverhältnis, eine
Länge usw. ändern ,
wird es auf der linken Seite angezeigt Jetzt ist das Video regeneriert, hier haben wir das Ergebnis Ich mag das irgendwie,
weil es das generiert,
wonach ich gefragt habe Für den professionellen Modus glaube
ich, dass mir dieser gefällt, aber die neue Version
sieht
schöner und besser aus
als die vorherigen. Wenn ich dieses Video jetzt auch
regeneriere, erhalten
wir ein anderes Ergebnis Warum also nicht das tun? Wenn Sie nun nicht
das gewünschte Ergebnis erzielen,
regenerieren Sie Ihr Ergebnis In diesem Beispiel erhalten
wir also ein anderes und
besseres Ergebnis als das vorherige Dieses Video, das wir mit eins,
aber fünf
generiert haben , ist nicht schlecht. Aber das neue Video
sieht schöner aus
als das vorherige. Jetzt haben wir also das
regenerierte Videoergebnis 1.0-Perfektionsmodus Wenn Sie Videos generieren möchten, müssen
Sie Version 1.0 im
professionellen Modus
und Version 1.5 im Perf-Modus ausprobieren im
professionellen Modus
und Version 1.5 im Perf-Modus Da Sie
unterschiedliche Ergebnisse erzielen, können
Sie das Video auswählen, das Sie
in Ihren Projekten verwenden möchten Ich kann all diese
Videos außer
der Standardkarte verwenden , da der Standardmodus nicht nützlich
ist. Sie können es in Ihren
YouTube-Videos verwenden, aber es ist nicht sinnvoll, da
wir ein inkonsistentes Video haben,
wohingegen der Modus 1.5
im Pressionsmodus viel bessere Methode
zum Generieren von Videos ist
19. Kreativität vs. Relevanz: Willkommen zurück. Jetzt zeige ich
Ihnen, was der Unterschied zwischen
Kreativität und Relevanz ist. Für dieses Beispiel verwende
ich also diese Eingabeaufforderung und
generiere diese vier Ergebnisse. Dann verwende ich dieses Bild
als Referenz. Dann generiere ich
diese vier Ergebnisse. Klicken wir jetzt hier, um
dieses Bild zum Leben zu erwecken. Lassen Sie uns diesen Tab schließen. Wenn wir jetzt einfach
hier in der Mitte bleiben, wird
es
ein normales Video erzeugen, melken und Schokolade
darüber gießen Lass uns das in
Kreativität umwandeln und lass uns generieren. Auch jetzt ändere ich meinen Schieberegler nach
rechts, sodass die Relevanz angezeigt wird. Und jetzt klicken wir
auf diese Gnute-Schaltfläche. Jetzt werden die Ergebnisse generiert. Hier haben wir das Ergebnis der
Kreativität. Und hier haben wir das
Relevanzergebnis. Also, was Kreativität
angeht, wie
ihr sehen könnt , geht es einfach darum, von selbst
etwas hinzuzufügen. Was die Relevanz angeht, bleibt man einfach
beim Thema und generiert das, was
wir von ihm verlangen. Was ist nun, wenn wir
den Schieberegler
einfach nicht auf „
extreme Relevanz“
oder „extreme Kreativität“ umstellen den Schieberegler
einfach nicht auf „
extreme Relevanz“
oder „extreme ? Lassen Sie uns den Schieberegler
auf etwa 0,35 Kreativität ändern. Und dieses Mal werde ich den Standardmodus
wählen und jetzt lass uns diesen Clip
generieren Lassen Sie uns nun den Schieberegler auf
ungefähr sieben Relevanz ändern und den Clip generieren. Lassen Sie uns nun den
Ling 1.0 auf 1.5 ändern. Lassen Sie uns nun den
Schieberegler auf Kreativität umstellen. Ändern Sie den Schieberegler erneut auf Relevanz und lassen Sie uns
nun generieren. Jetzt generieren wir die
vier Videos gleichzeitig. Die Ergebnisse werden jetzt also generiert. Wenn wir also die
Folie einfach ein wenig nach links verschieben, um der Kreativität zu entsprechen, haben
wir dieses Ergebnis. Und wenn wir die
Folie der Relevanz entsprechend ein
wenig nach rechts verschieben, haben
wir dieses Ergebnis. Jetzt weiß ich, dass diese beiden
Ergebnisse ähnlich aussehen, aber es gibt einen großen Unterschied. Also, was die Relevanz angeht,
bleib beim Thema. Es geht darum, die Milch
auf dieser Seite zu sammeln, wo kreativ,
wie ihr sehen könnt, Leute, die Milch verteilt sich
auf diese Portion, nicht nur sammelt sie sich auf dieser Seite. die Relevanz angeht, wie
ihr sehen könnt, Leute, ist
die Milch jetzt auf dieser Seite
gesammelt. Lassen Sie uns nun das Ergebnis auf
die extreme Kreativität
und Relevanz von 1.5 bringen . Das ist die extreme
Kreativität, 1.5. Die Ergebnisse sind nicht schlecht. Schauen wir uns nun
das Dileman-Ergebnis an. Wenn wir nun die Folie
auf Kreativität auf 0,3 ändern, werden wir
meiner Meinung nach ein besseres Ergebnis erzielen Lassen Sie uns jetzt den Clip generieren. während der Generierung des Videos Lassen Sie uns während der Generierung des Videos ein
anderes Beispiel herausnehmen. In diesem Beispiel verwende
ich also diese Eingabeaufforderung. Ich verwende 1.5 und ändere meinen
Schieberegler, um extreme Kreativität zu erzielen. Wir haben also dieses Ergebnis. Und im nächsten Beispiel ändere
ich meinen Schieberegler mit 1.5 auf
extreme Relevanz, und wir haben dieses Ergebnis erhalten. Und wenn wir den Slider einfach gar nicht
ändern, haben
wir dieses Ergebnis. Und in diesem Beispiel verwende
ich einfach ein Bild. Ohne den Schieberegler zu ändern, haben
wir dieses Ergebnis erhalten. Jetzt
werden die Ergebnisse generiert. Wenn Sie nur ein
bisschen Kreativität einsetzen, werden
Sie einige
interessante Ergebnisse erzielen. Und ich verwende dafür den
Standardmodus, nicht den professionellen Modus. Und ich verwende die neueste Version 1.5. Die Kreativität ist auf 0,3 gesetzt, und das ist das
schlechteste Ergebnis, das wir je
mit diesem Bild erzielt haben. Also meine letzten Worte: Benutze diesen Schieberegler
nicht über
0,65 und unter bis zu 0,35 Wenn du
etwas Interessantes generieren willst, dann schiebe diesen Schieberegler nicht nach links
oder extrem rechts Und das ist der Unterschied zwischen Kreativität
und Relevanz.
20. KI-Kamerabewegung: Willkommen zurück. Gehen Sie jetzt
zu Microsoft Designer und ich möchte einen
Schokoladen-Werbespot erstellen. Also werde ich Chocolate
Commercial in einem Hotel schreiben. Jetzt können wir die Eingabeaufforderung verbessern. Ich finde diese Aufforderung gut. Kopieren wir diese Aufforderung. Gehen Sie zu Kling AI und wir können diese Aufforderung einfügen. Wenn wir jetzt nach unten scrollen, können
Sie sehen, dass der
Moment, in dem die Kamera verschwunden ist, angezeigt wird. Um also den Kamera-Moment nutzen zu
können, müssen wir den
Kling 1.5 auf Kling 1.0 umstellen. Jetzt haben wir diese
Kamera-Momentsteuerung. Wenn wir hier klicken, können
Sie sehen, dass wir
verschiedene Arten von
Kameramomenten haben . Wenn wir nach unten scrollen,
haben wir auch Master Shot. Sie können dies auswählen und Sie erhalten verschiedene
Kameramomente. Jetzt werde ich
jede Kamerabebewegung erklären. Zuallererst
haben wir also horizontal. Jetzt können wir den Schieberegler ändern und erhalten eine andere
horizontale Position. Wenn ich das
auf die linke Seite
ändere, erhalte ich einen horizontalen Moment von der Mitte zur linken Seite, und wenn ich das
auf die rechte Seite ändere, dann haben wir einen
Kamera-Moment von der
Mitte zur rechten Seite. Anstatt es zu erklären, werde
ich es dir zeigen. Wählen wir also zunächst die Horizontale aus und
ändern wir sie auf die linke Seite. In dieser Eingabeaufforderung haben
wir also einen Werbespot für Schokolade,
und im Werbespot ändert
die Kamera die Position die horizontale Position von der
Mitte zur
linken Horizontalen. Wählen wir nun 1.0, ändern den Motor Professional und lassen Sie uns den Clip generieren. Jetzt ist das Video generiert,
das ist das Ergebnis. Wie ihr sehen könnt,
Leute, in diesem Video ändert
die Kamera
die Position zur linken horizontalen
Seite. Was wir eingestellt haben. Jetzt können wir den
Kamera-Moment sehr einfach ändern. Sie müssen nur den Schieberegler so
einstellen , dass Sie Ihren Kameramoment
einstellen möchten. Lassen Sie uns also den Kamera-Moment
zum Verkleinern ausprobieren. Jetzt habe ich
verschiedene Kamera-Momente generiert. Das ist also der Zoom im extremen
Zoom im Kamera-Moment. Und das ist die Pfanne 3.4. Das ist eine Neigung von fünf und das ist
eine extreme Rolle bis minus zehn. Wie ihr bemerkt, Leute,
sind
die Videos, die wir mit
diesen Kameramomenten
generiert haben , inkonsistent Also
sind alle Clips inkonsistent. In
dem Video im Hintergrund,
im Vordergrund passiert etwas , während Sie die Kamera-Momente
verwenden Es gibt einen subtilen
Kamera-Moment, den Sie nutzen können und Sie werden weniger von
diesem Verstoß betroffen sein. Wenn Sie jedoch extreme
Kameramomente verwenden, wie wir sie bei
Zoomin verwenden , und bei extrem
minus zehn waagerechten Momenten, kommt es zu extremen Lassen Sie uns nun den
Kamera-Moment zurücksetzen. Lassen Sie uns das einfache Video generieren. Jetzt werde ich diese Aufforderung
kopieren. Dies sind die Ergebnisse
dieser Aufforderung. Und jetzt gehen wir zum Video. Lassen Sie uns diese Eingabeaufforderung einfügen. Lassen Sie uns zunächst
ohne Kameramoment generieren. Also ohne jeden
Kameramoment ist das das Ergebnis. Und wie du sehen kannst, ist
das Video konsistent. In dem Video
passiert nichts Seltsames,
und dies ist das Video mit drei
D-Charakteren
ohne Kameramoment ohne Kameramoment Aber wie du sehen kannst, Alter, sind
die Ergebnisse ziemlich beeindruckend Für dieses Video haben
wir also dieselbe Eingabeaufforderung, die wir in drei D-Zeichen verwenden, und ich verwende Master Shot, Move Left und Zoom in. Und hier haben wir das Ergebnis. Wie du sehen kannst, ist das
Ergebnis inkonsistent. In der Aufnahme ist etwas Seltsames
passiert. Wir haben ein anderes Beispiel: Master Shot, Move
Forward und Zoom Up Das Video enthält nicht viele
Details, deshalb haben wir
dieses reibungslose Ergebnis. Und wir haben ein weiteres
Beispiel für Master Shot, bewegen Sie sich nach rechts und vergrößern Sie es. Auch hier Inkonsistenz
im Video. Ich glaube also nicht, dass wir
derzeit
mit den Kameramomenten ein konsistentes Ergebnis
erzielen können mit den Kameramomenten ein konsistentes Ergebnis
erzielen Wenn Sie
mit dem Kameramoment experimentieren möchten, können
Sie das auch tun. Mit der kostenlosen Version können
Sie einfach
Ihren Standardmodus auswählen und jeden Kameramoment verwenden. Und ich glaube nicht
, dass Sie zusätzliches
Guthaben verlieren werden , wenn Sie den Kameramoment
nutzen. Wenn Sie jedoch ein
konsistentes Ergebnis erzielen
möchten, empfehle ich, keinen Kameramoment zu
verwenden , da der
Kameramoment momentan nicht nutzbar ist.
21. Negative Aufforderung: Willkommen zurück. Jetzt haben
wir in diesem Tool eine weitere tolle Option
namens negative Eingabeaufforderung. Wenn Sie also
nichts in Ihrem Video sehen möchten, geben Sie
einfach dieses Wort ein
und es wird
ohne das generiert , was
Sie hier eingeben. Also, in diesem Video, wie ihr sehen könnt, Leute,
haben wir diese seltsame Verzerrung. In diesem Beispiel gebe ich also
Rechtsverletzung und Bewegungsunschärfe , die ich in meinem Video nicht sehen
möchte, und hier haben wir das Ergebnis Wie du sehen kannst, Alter, gibt es in unserem Video
keine Verzerrung. Wir haben ein anderes Beispiel, bei dem
ich nur Verstoß eintippe. Wir haben also diesen reibungslosen
Übergang zwischen zwei Frames. Wenn ich dieses Video abspiele, haben
wir dagegen diesen seltsamen
Verstoß. So wie dieser. Auch in diesem Beispiel tippe ich einfach Verletzung ein
und wir haben reibungsloses Übergangsergebnis. Übrigens, wenn Sie den Standardmodus
verwenden, können
Sie auch
erstaunliche Ergebnisse erzielen. Wie bei diesem verwende ich meinen Standardmodus und
wähle diese Masteraufnahme aus. Und ich tippe einfach „Entstellung“, „
Bewegungsunschärfe Bewegungsunschärfe Und hier haben wir das Ergebnis. Es liegt ein kleiner
Verstoß vor, aber nicht viel. Wir haben auch dieses Ergebnis und wir haben auch dieses. Wir haben noch
einen. Für diesen verwende
ich den Standardmodus und wir haben dieses Ergebnis erhalten. Wie ihr sehen könnt, Leute, schließt der
Charakter sein Auge und es
passiert etwas Verzerrtes im Kurzfilm Um diese Verzerrung zu vermeiden, gebe ich bei der negativen Eingabeaufforderung einfach Distortion Und wie ihr sehen könnt, Leute, haben wir
jetzt dieses glatte Ergebnis. Übrigens verwende ich
den Standardmodus, nicht den professionellen Modus. Wie ihr sehen könnt, Leute, erscheinen die
zehn Credits in der Generierung. Wenn ihr also negative Eingabeaufforderung
eintippt, alles, was ihr nicht in eurem Video sehen
wollt, werdet ihr ein
atemberaubendes Ergebnis erzielen, selbst wenn ihr
den Standardmodus benutzt. Und nachdem ich das mit
diesem Kamera-Moment,
mit diesen negativen Keywords,
die ich nicht in meinem Video sehen
möchte, erneut regeneriert mit
diesem Kamera-Moment,
mit diesen negativen Keywords,
die ich nicht in meinem Video sehen
möchte, erneut mit diesen negativen Keywords habe, habe ich dieses Ergebnis erhalten, und es gibt fast keine
Verstöße im Video So können Sie mit Ling AI ein atemberaubendes Ergebnis
erzielen, indem Sie eine negative
Eingabeaufforderung eingeben
22. Generieren von Bild zu KI-Video: Willkommen zurück. Der nächste Weg, Videos zu
generieren,
ist also die Verwendung von Bildern. Gehe zum Bild zum Video. Wir können das
Bild hochladen oder zu
den AI-Bildern gehen und ein beliebiges Bild auswählen. Sie können ein beliebiges Bild auswählen und dann
hier klicken, um es zum Leben zu erwecken. Sie können
mit Ihrem Bild ein Video generieren. Also haben wir das schon gemacht, also lasst uns das löschen. Gehen Sie jetzt zum
Microsoft-Designer. Sie können eine beliebige Eingabeaufforderung
eingeben Ihre Eingabeaufforderung
verbessern. Sie können Ihre Größe auswählen, was die Größe
Ihres Bildes sein soll. Sie können eine beliebige Größe wählen. Und jetzt klicken wir auf
diese Warte-Taste der Generation. Nun, hier haben wir das Ergebnis. Sie können jedes
Bild auswählen, das Ihnen gefällt. Also ich mag diesen irgendwie. Sie können hier klicken, um ein
beliebiges Bild herunterzuladen. Gehen Sie jetzt zurück zu Cling Eye, gehen Sie zum Bild zum Video, klicken Sie hier und wählen Sie das
Bild aus, das wir gerade heruntergeladen haben. Klicken Sie darauf, um es zu öffnen. Sie können Ihr
Bild auch
per Drag & Drop verschieben. Jetzt können wir dieses Bild auch per Drag
& Drop verschieben. Sie können jede
Aufforderung eingeben, die optional ist. Es gibt auch einige andere
Einstellungen. Und für dieses Beispiel wählen
wir den Standardmodus. Jetzt können wir klicken, um dieses Video zu
generieren. Das Video ist jetzt also generiert. Hier haben wir das Ergebnis. Sie können jedes Bild zum Leben erwecken. Sie können jedes Bild hochladen.
Es spielt keine Rolle. Sie können sich auch selbst hochladen. In diesem Beispiel lade
ich jetzt mein Bild und hier haben wir das Ergebnis. Nicht nur das, Sie können auch
Ihr altes Foto zum Leben erwecken. Sie können auch
Ihr manipuliertes Foto hochladen. Wie ihr sehen könnt, Leute, habe ich dieses Bild mit Photoshop
selbst bearbeitet und dieses Bild auch
zum Leben erweckt Dies ist auch ein weiteres Beispiel. Wir haben auch dieses Beispiel. Und wir haben auch dieses
Beispiel. Ihr könnt also sehen, Leute, es ist
ziemlich erstaunlich, wie ihr euer
Kindheitsfoto zum Leben erwecken
könnt. Nicht nur das, Sie können
ihm auch sagen , dass er mit Ihrem Foto alles machen soll, was
Sie wollen. In diesem Beispiel gebe
ich Messer ein, das
Orange in zwei Stücke schneidet. Und jetzt haben wir hier das Ergebnis. Das Messer schneidet jetzt die Orange. Und in diesem Beispiel bitte
ich ihn, dieses
Videoset im Cyberpunk-Stil zu machen Und das habe ich bekommen. Ziemlich erstaunlich, oder? So können Sie Ihre
Videos mit dem Bild generieren.
23. Start- und Endrahmen: Willkommen zurück. In Killing A haben
wir also eine weitere tolle
Funktion namens Add Ndframe Wenn wir es aktivieren, können
Sie sehen, dass wir zwei
Fenster zum Hochladen der Bilder haben Dies ist der Startframe
und dies ist der Endrahmen. Gehen Sie jetzt zum
Microsoft-Designer. Sie können diese Eingabeaufforderung eingeben. Sie können diese Bilder generieren. Für dieses Beispiel werde
ich dieses Bild herunterladen. Jetzt müssen Sie Ihren Endframe
entsprechend der Perspektive
Ihres ersten Frames
auswählen entsprechend der Perspektive ,
um atemberaubende Ergebnisse zu erzielen. Ich denke also, dass das Bild Nummer vier dem orangefarbenen Bild sehr ähnlich
ist. Also lass uns das auch herunterladen. Jetzt können wir hier klicken, um den Startframe
hochzuladen. Jetzt klicken wir hier, um den letzten Frame
hochzuladen. Und für dieses Beispiel wähle
ich
diesen Modus mit zehn aus, und jetzt klicken wir auf
diese Schaltfläche mit zehn Wt. Also hier haben wir das Ergebnis. Wie ihr sehen könnt,
Leute, verwandelt sich Orange jetzt in Apple. Jetzt erweitere ich dieses
Video auch automatisch, und jetzt haben wir dieses
generierte Video. Dann verlängere ich
das Video um fünf Sekunden mit der Aufforderung
, Äpfel zu pürieren, und jetzt haben wir dieses Ergebnis Sie können
ihn auch bitten, alles zu tun. In diesem Beispiel gebe ich
Apple Transforming Camera Stay Static ein. Die Kamera bewegt sich also nicht, die Kamera bleibt
in der Position. Es gibt zwei verschiedene
Perspektiven. Deshalb haben wir
dieses seltsame Ergebnis erzielt. Aber wenn Sie die
richtige Perspektive gewählt haben und die
Tabellenposition dieselbe ist, erhalten
Sie ein atemberaubendes
Transformationsvideo. In diesem Beispiel gebe ich einfach Apple
Transforming ein. Vorher hatten wir die Orange
am Startframe, jetzt haben wir den Apfel am Startframe und die
Orange am Endrahmen. der
End-Frame-Funktion dieses Tools können Sie verschiedene Arten Mit der
End-Frame-Funktion dieses Tools können Sie verschiedene Arten von
verrückten Dingen machen. Lassen Sie mich Ihnen
einige Beispiele zeigen. Wir haben also dieses Beispiel. Das ist mein Start-Frame
und das ist mein Ende-Frame. Ich habe den Pro
Car Crash durch
die Wand getippt und bin
zwischen zwei Wänden hängen geblieben Setze meinen Schieberegler auf
Relevanz 0,8 und verwende
den Standardmodus für diese Generation In diesem Beispiel verwende ich diesen Frame und füge
mich selbst dem Venom hinzu, und dann verwende ich ihn
am Ende des Frames Wie ihr sehen könnt, Leute, und
ich tippe Mann, der Gift wird. Ich habe keine Einstellungen geändert, auch den Standardmodus für
diese Generation
verwendet habe auch den Standardmodus für
diese Generation
verwendet
und dieses Ergebnis erzielt Nachdem ich das Video generiert habe, verbessere ich etwas
Licht in meinem Gesicht, füge das Giftgesicht
im Startbild und mein Gesicht
im Endbild hinzu
und gebe ein, dass ein Symbiont einen Mann darin
enthüllt Benutze auch hier den Dan-Modus, und ich habe
dieses Danach regeneriere ich mein Video
erneut und habe dieses verrückte Ergebnis erzielt Sie werden also ein anderes Ergebnis erzielen, wenn Sie sich regenerieren Ich verwende meine beiden Bilder auch
am selben Ort, aber mit unterschiedlichen Winkeln verwende
ich auch den Standardmodus
für diese Generation, und das ist das Ergebnis im
professionellen Modus Wie ihr sehen könnt, Leute, ist mein
Gesicht jetzt konsistent. Und jetzt haben wir dieses Beispiel. Wenn Sie dasselbe Bild
mit derselben Perspektive haben, erhalten
Sie
ein solches Ergebnis. Wie Sie sehen können, gebe ich
Camera Stay Static ein und wir erhalten
dieses verrückte Ergebnis. Wenn Sie jetzt einen
professionellen Modus
mit der Funktion „Endbild hinzufügen“ verwenden , erhalten
Sie ein konsistentes Ergebnis. Das ist also das Video im
Standardmodus. Und wie ihr sehen könnt, Leute, ist
mein Gesicht nicht richtig sichtbar, und das ist das Ergebnis
eines professionellen Modus. Das Video wird konsistent bleiben. Wir haben auch dieses Beispiel. Und dies ist ein weiteres Beispiel
für die End-Frame-Funktion von Kling AI mit einem
professionellen Modus. Und wir haben ein weiteres Beispiel mit einem professionellen Modus
mit diesen beiden Bildern. Wie Sie sehen können, sehen die
Ergebnisse realistisch aus, und wir haben auch dieses
Beispiel. Mit dem Frame-Switch erhalten
Sie diesen Effekt. Jetzt müssen Sie
in dieser Kombination, bei
der
wir einen weißen
Winkel
und
einen Nahaufnahmewinkel haben, nicht den ersten und den letzten Frame verwenden der
wir einen weißen
Winkel
und
einen Nahaufnahmewinkel haben, nicht den ersten und den letzten Frame in dieser Kombination, bei wir einen weißen
Winkel
und
einen Nahaufnahmewinkel haben, nicht den ersten und , da Sie so
etwas erhalten. Sie werden einen extremen
Franseneffekt wie diesen erzielen. Und wir haben auch dieses Beispiel. Und wie Sie in der Anleitung sehen können, haben
wir einige ziemlich
tolle Laser. Sogar die Leute,
die im Hintergrund sind,
bewegen sich sehr korrekt. Mit diesem Schalter können Sie also alles erstellen. Sie müssen nur einen Sternrahmen
hinzufügen und Sie müssen einen Endrahmen
hinzufügen, und es wird etwas
dazwischen erstellt.
24. Verwandle dich in Iron Man: Willkommen zurück.
Selbst wenn Sie die kostenlose Version von Killing
AI im Standardmodus verwenden, können
Sie jetzt so
etwas erstellen. So können
Sie auch ohne besondere Fähigkeiten atemberaubende
visuelle Effekte erzielen. Und wenn Sie einen
professionellen Modus verwenden, können
Sie auch
atemberaubende Ergebnisse erzielen. Jetzt zeige ich Ihnen, wie wir so etwas erstellen
können. Gehen Sie zunächst
zu photob.com. Dies ist eine kostenlose
Alternative zu Photoshop. Wir haben zwei Screenshots
von Ironman. Deaktivieren Sie zunächst Autoselect und dann die
Transformationskontrolle aktivieren, erhalten
Sie die Transformationskontrolle Wir können Control
C drücken, um diese Ebene zu kopieren. Gehe zum Iron Man und drücke
Control V, um dich einzufügen. Jetzt können wir diese
Ebene in ein intelligentes Objekt konvertieren. Drücken Sie nun die Strg-Taste und halten Sie sie gedrückt. Benutze deine Maus,
um die Ansicht zu verkleinern. Und jetzt können wir die Größe dieser
Person oder des Motivs ändern, Inter
drücken und wir können erneut Strg
plus drücken oder sie gedrückt halten, Scrollen zu vergrößern Jetzt werde ich meine Deckkraft
verringern und jetzt können wir die Phase an die Ironman-Phase Jetzt können wir die
Opazität auf etwa 100% ändern. Klicke hier. Und jetzt
richten wir das hier aus. Jetzt
aktiviere ich die Rastermaske, klicke hier, wähle
zuerst deine Ebene aus und klicke dann hier. Jetzt können wir
darauf klicken und gedrückt halten und
den Farbfehler auswählen Wir können auch die Farbe austauschen, die Farbe auf Schwarz
ändern und jetzt klicken wir auf
die Maske auswählen und klicken Jetzt können wir den
Pinsel auswählen und mit der rechten Maustaste klicken. Wir können die Größe
des Pinsels hier ändern und
jetzt können wir die Farbe wechseln. Also klicke hier. Jetzt
haben wir die weiße Farbe. Jetzt können wir wieder Strg und T
verwenden, sie
gedrückt halten und die
Scrolltaste verwenden, um sie zu vergrößern. Wählen Sie die Rastermaske aus
und jetzt können wir malen. Drücken Sie Kontozi, um den Vorgang rückgängig zu machen. Klicken Sie mit der rechten Maustaste, und wir können die Größe des Pinsels
verringern. Und jetzt kann ich genau hier bürsten. Du musst also vorsichtig putzen. Darin befindet sich die Maske „Ich habe es gemacht“. Jetzt sind wir fertig. Wir können das Verschiebewerkzeug auswählen, die
Steuerung drücken oder die Ansicht verkleinern. Jetzt sind wir fast fertig. Jetzt klicke ich
hier und füge
diese Einstellungsebene hinzu, klicke mit der
rechten Maustaste auf die
Einstellungsebene und erstelle eine Schnittmaske Es wird sich also nur auf die
Phase auswirken, nicht auf die ganze Sache. Zuerst werde ich meinen Kontrast
erhöhen und meine Helligkeit
verringern. Wir können das ein- und ausschalten. Lassen Sie uns diese Ebene ausblenden
, um die richtige Farbe zu erhalten. Lassen Sie uns die
Helligkeit etwas verringern. Ich werde auch
eine selektive Farbe hinzufügen. Wenn Sie
diese Eclipsing-Maske nicht erstellen, neutrale Farbe auswählen wirkt sich das auf
das gesamte Bild aus,
wenn wir die Wie ihr sehen könnt, Leute, wirkt es sich jetzt auf
das gesamte Bild aus Und wenn ich das
in eine Schnittmaske ändere, wirkt sich das nur auf die Ebene aus, die sich unter dieser Ebene befindet Jetzt können wir diese
Ebene zurücksetzen und die Farbe an
die Farbe von Iron Man anpassen die Farbe von Iron Man Jetzt glaube ich, wir sind fertig. Platzieren wir das auf etwa. Jetzt sind wir fertig. Das
Letzte, was wir tun müssen, ist, mit der rechten Maustaste auf das
Gesicht der Person zu klicken und zur Option Überblenden zu
wechseln, ohne
inneren Schatten Gehen Sie in den Mischmodus, ändern Sie den Mischmodus auf Normal, klicken Sie hier und ändern Sie
die Farbe auf Schwarz Jetzt können wir die
Größe erhöhen, die Opazität erhöhen. Lassen Sie uns die Vergangenheit ein
wenig herunterspielen. Jetzt sind wir fertig. Gehen Sie nun zu diesem
Screenshot, klicken Sie hier, drücken Sie Strg C, um
ihn zu kopieren, und drücken Sie V. Jetzt können wir
diesen Screenshot unter
allen Ebenen platzieren . Jetzt können wir
all diese Ebenen auswählen, diese Ebene auswählen, die Umschalttaste drücken und die erste Ebene auswählen. Es werden also
alle Ebenen ausgewählt. Klicken Sie mit der rechten Maustaste und konvertieren Sie
dies in ein intelligentes Objekt. Wählen Sie dies aus und klicken Sie mit der rechten Maustaste und konvertieren Sie
es
ebenfalls in ein intelligentes Objekt. Jetzt können wir hier klicken und auch Control drücken
und dieses auswählen. Klicken Sie mit der rechten Maustaste und konvertieren Sie
dies in ein intelligentes Objekt. Jetzt können wir zum Filter gehen, zum Geräusch gehen und etwas Rauschen hinzufügen. Also werde ich 5% Rauschen hinzufügen. Vielleicht ändere ich das auf 3%. Klicken Sie jetzt hier erneut auf
den Filter, gehen Sie zur Schärfe und
wählen Sie Intelligente Schärfe Klicken Sie auf Okay. Und jetzt sind wir fertig. Sie können Ihre
Bilder auch farblich korrigieren, wenn Sie möchten. Also füge ich einfach
etwas Grünes hinzu und füge
etwas wie Merchant hinzu. Und wenn wir das ein- und
ausschalten, könnt ihr sehen, Leute, wir haben einige
Farbkorrekturen, die uns
helfen , das
Gesicht der Szene zuzuordnen Jetzt können wir
hier auf die Datei klicken, zum Export gehen und diese Datei als JPEC
speichern Wir können die Qualität auf
100% ändern und jetzt
auf die Schaltfläche Speichern klicken Wählen Sie nun diese
Ebene aus und doppelklicken Sie darauf. Wir können diese Ebene ausschalten. Jetzt haben wir diese Ebene, wir können die Strg-Taste drücken, um sie zu speichern und jetzt haben wir
diese Update-Version. Jetzt können wir zu der Datei gehen
und sie als JPA speichern. Der Grund, warum ich
diesen Screenshot unter
diesem Screenshot hinzufüge , ist,
sie zu einer Ebene zu machen, einem intelligenten Objekt Dann können wir eine
Farbkorrektur vornehmen und wir können einen Effekt über
dieser Ebene hinzufügen, der sich auf alle Ebenen auswirkt , die sich
unter den Hauptebenen befinden. Und jetzt gehe zum Link KI, wir können diese Bilder löschen und wir können
die neuen Bilder hochladen. Jetzt können Sie auch den
Standardmodus verwenden, wenn Sie
möchten , und wir können
auf die Schaltfläche Erstellen klicken. Die Videos sind jetzt generiert. Wenn ich das nun
als ersten Frame und
das als letzten Frame nehme, ist das im Standardmodus das Ergebnis. Und wenn wir diesen ersten Frame setzen
und diesen als letzten Frame setzen, dann haben wir dieses Ergebnis auch mit
dem Standardmodus erhalten. Also habe ich
dieses Video
im professionellen Modus gelesen und gelesen und
wir haben dieses erstaunliche Ergebnis erzielt. Das sieht realistischer aus als
die anderen generierten Videos. Mit dieser Technik habe ich mich auch
selbst als Gift erschaffen Jetzt kannst
du dich mit Hilfe der KI in
jeden Superhelden
ohne besondere Fähigkeiten verwandeln jeden Superhelden
ohne besondere
25. Bewegungspinsel: Willkommen zurück. Jetzt sprechen wir
über den Bewegungspinsel, und diese Funktion
ist ein entscheidender Faktor für die Branche der
KI-Videogenerierung Zuerst müssen wir unser Bild
hochladen. Sobald Sie Ihr Bild hochgeladen haben, müssen
Sie Cling 1.5 auf
1.0 ändern , da diese Funktion in 1.5 derzeit nicht verfügbar
ist. Jetzt müssen wir hier klicken. Und wie ihr sehen könnt, Leute, haben
wir diese einfache Anleitung. Lassen Sie mich Ihnen zeigen,
wie es funktioniert hat. Zuerst haben wir diesen Pinsel. Wir können etwas zeichnen, wir
können alles zeichnen, was du bewegen
willst. Und
wir haben Radiergummi Wenn du
zum Beispiel deinen Pinsel löschen willst, wenn ich diesen Stein
zeichne, und wenn ich meinen Pinsel löschen möchte, muss
ich den Radiergummi auswählen und dann muss ich den Stein
entfernen Ich kann den
Pinsel auch vergrößern. Jetzt haben wir die automatische Segmentierung. Also, wie ihr sehen könnt,
Leute, putze ich mich gerade selbst. Aber wenn ich zurücksetze, kannst
du auch
deinen Pinselbereich zurücksetzen Ich kann mich automatisch
selbst auswählen , indem ich die
automatische Segmentierung aktiviere Jetzt wähle ich auch
meine Haare, meine Brille, meine Hose und meine Schuhe Jetzt kann ich das Häkchen entfernen und die
fehlenden Teile bürsten Wir werden also das genaue
Ergebnis erhalten. Jetzt sind wir fertig. Also auf der rechten Seite haben
wir die Strecke, und das ist für diesen
Bereich, den grünen Bereich. Im Moment wähle ich meinen Track aus
und wir müssen
die Richtung
vorgeben, und wir müssen
die Richtung
vorgeben in die ich mich bewegen
möchte. Ich möchte mich also in
diese Richtung bewegen, oder? Lassen Sie uns diesen Pinsel löschen und dann auf diese Seite zeichnen. Jetzt kannst du auch deinen
Pfad löschen, auch deinen Track. Du musst hier auf das
Kreuz klicken, um deinen Pfad zu löschen. Jetzt werden wir verschiedene Bereiche bekommen. Sie können mehrere
Bereiche auswählen, die verschoben werden
sollen, aber im Moment habe ich nur
mich selbst auf diesem Bild, also ist das genug. Jetzt, am Ende, haben wir
das Hinzufügen eines statischen Bereichs. Der statische Bereich bewegt sich also nicht. Dafür muss ich also alles
in meinem Bild
auswählen, was ich nicht verschieben möchte. Ich denke, das ist genug. Nun, genau hier, wie ihr sehen
könnt, Leute, wenn ihr etwas auswählt,
das ihr verschieben wollt, aber versehentlich als statischen Bereich auswählt
, dann könnt ihr das auch rückgängig machen. Wie ihr jetzt sehen könnt, ist dieser
Bereich jetzt leer. Sie können den Vorgang auch wiederholen. Oder Sie können
alles zurücksetzen, wenn Sie möchten. Jetzt sind wir fertig. Wir können
das bestätigen und wir sind fertig. Übrigens werde ich den Motion Brush
wieder öffnen Wenn du zum Beispiel
keinen Zug zeichnest,
wenn du keinen Pfad zeichnest und auf die
bestätigte Schaltfläche klickst, haben
wir diese Nachricht hinzugefügt,
nicht gezeichnet, nicht gepaart Bewegungspinsel
wirken sich nicht auf das Senden aus. Sie reichen also ein, wenn
Sie dies bestätigen Wenn Sie diesen Pinselbereich einreichen, hat
das keinerlei Auswirkungen, da Sie die Richtung nicht angegeben haben. Um also
etwas in deinem Bild zu bewegen, musst
du dieses Ding zeichnen
und du musst einen Pfad zeichnen. Wenn du keinen Pfad gezeichnet hast, wird es das Objekt, eine Person
oder eine Sache nicht bewegen. Lassen Sie uns das jetzt bestätigen. Und jetzt verwenden wir dafür
den
Standardmodus und wir können dieses Video
generieren. Und jetzt haben wir hier das Ergebnis. Wie ihr sehen könnt, Leute, wenn wir den professionellen Modus
verwenden, werden
wir ein
konsistentes Ergebnis erzielen. Im Moment ist es nicht konsistent, aber es sieht gut aus. Jetzt müssen wir nicht mehr einfach
zurückgehen und auf
das Video klicken , um
Videos aus dem Bild zu generieren. Wir können das auch löschen. Keine Sorge, dein Video wird
dadurch nicht gelöscht. Und jetzt für dieses Beispiel werde
ich
auf den Bewegungspinsel klicken. Lassen Sie ihn also zuerst
Ihr Bild analysieren, und jetzt können wir die Segmentierung
aktivieren Ich kann mich selbst auswählen. Lassen Sie uns das Häkchen entfernen. Wählen wir nun den Track aus und
zeichnen wir hier einen Pfad Jetzt wähle ich den statischen Bereich aus und aktiviere die
automatische Segmentierung Und wir sind fertig. Lassen
Sie uns auch diese Person auswählen. Klicken Sie nun auf
Bestätigen und Generieren. Jetzt haben wir dieses Video. Manchmal generiert es also etwas, von dem Sie nicht
erwartet hatten, dass er es generiert Keine Sorge, ich denke,
wir können das reparieren. Während dieses Video generiert
wird, können
wir das Bild löschen. Wir können ein anderes Bild hochladen. Und in diesem Beispiel werden
wir mehrere Objekte zeichnen,
um sie zu verschieben. Jetzt ist das Bild hochgeladen, klicken Sie auf die Zeichenbewegung. Lass ihn das Bild analysieren. Wir können die automatische Segmentierung aktivieren und die Idee Nummer eins
auswählen Wir können das zeichnen, den Bereich Nummer
zwei auswählen, diesen auswählen Jetzt
wähle ich Spur zwei und lass uns diesen
Weg zu dieser Position bewegen, den ersten Track
auswählen und diesen zu
dieser Position bewegen. Jetzt müssen wir den
Hintergrund als statischen Bereich zeichnen, sodass sich der Hintergrund nicht bewegt. Jetzt sind wir fertig. Wir können auf Bestätigen
klicken und diesen Clip generieren. Und ich habe dieses
Beispiel für euch, und ich möchte etwas erklären. Lassen Sie ihn zuerst das Bild analysieren. Nehmen wir zum Beispiel die
automatische Segmentierung. Wenn Sie auf den Hintergrund klicken, wenn Sie den Hintergrund
als Bewegungsbereich,
Momentbereich,
Momentpfad zeichnen , wenn Sie den statischen Bereich auswählen, können
Sie
den Hintergrund nicht als
statischen Bereich zeichnen den Hintergrund nicht als
statischen Bereich da wir den Hintergrund
als Bewegungspfad zeichnen .
Wir können es also zurücksetzen. Lassen Sie uns das noch einmal zurücksetzen. Und wenn du zum Beispiel deinen Charakter
als statischen Pfad
zeichnest wenn
ich zum Beispiel für
den Bereich Nummer eins mein Gesicht zeichnen muss, dann kann
ich mein Gesicht nicht zeichnen weil dieser Bereich jetzt auf den statischen Bereich
eingestellt ist. Achten Sie also darauf,
sehr vorsichtig zu bürsten. Und
wenn ich in diesem Fall zum Beispiel diesen Teil,
diesen Teil des Charakters, auswähle, wird auch der gesamte
Hintergrund ausgewählt. Um diesen Bereich zeichnen zu
können, müssen Sie diesen Bereich manuell
auswählen. Und wenn wir die
automatische Segmentierung den
Hintergrund als statisch festlegen, bleibt er
der Momentpfad Es wird dies nicht
als statischen Bereich betrachten. Lassen Sie uns also alles zurücksetzen. Und in diesem Clip möchte ich einen Teil
meines Charakters
bewegen, nicht einen ganzen Charakter. Also werde ich meinen Arm dieses Charakters
auswählen. Lass uns diesen Arm an sein Gesicht ziehen, den Bereich Nummer zwei
auswählen und ich werde den
Arm dieses Charakters zeichnen. Lassen Sie uns das auch
zeichnen Deaktivieren Sie Lassen Sie uns auch diesen Arm
zeichnen Und jetzt werde ich
das blockieren und jetzt sind wir fertig. Lassen wir den Hintergrund
zunächst das Häkchen entfernen Lass uns das zeichnen. Lass uns nur sein Gesicht
zeichnen. Und jetzt, glaube ich, drehen
wir uns um, wir können den statischen Bereich auswählen, auf Bestätigen
klicken und
lassen Sie uns diesen Clip generieren. Das Video ist jetzt also generiert. Hier haben wir das Ergebnis. Wie ihr sehen könnt, Leute, bewegt
sich einer zu dieser Position, der
andere bewegt sich zu dieser Position,
während wir den Bewegungspinsel eingegeben haben andere bewegt sich zu dieser Position . In diesem Beispiel zeichne
ich einen Pfad in der Erwartung, dass ich in diesem Video fliegen werde, aber stattdessen haben wir dieses Ergebnis erhalten. Was nicht schlecht ist. Und
im nächsten Beispiel ziehe
ich eine Grenze und erwarte, dass
er mich zum Sitzen zwingt, aber wir haben dieses Ergebnis. Im nächsten Beispiel habe ich
eine Lösung für dieses Problem gefunden . In diesem Beispiel zeichne
ich also diesen Pfad, und jetzt
stehe ich im Video. Und in diesem Beispiel sitze
ich jetzt endlich. Jetzt zeige ich Ihnen,
wie Motion Barrage funktioniert. Also, wenn wir uns den Pfad
genau ansehen, wie ihr sehen könnt, Leute, zeichne ich
einen Pfad zwischen meinen Beinen Also
versteht die KI jetzt , dass ich ihn
bitte, mich sitzen zu lassen. Und jetzt werde ich darüber sprechen, was
das Problem mit der
anderen Generation ist. Wenn Sie also genau hinschauen, überzeichne
ich meinen Pfeil
auf die Zeichenfläche.
Deshalb haben wir dieses Ergebnis erhalten, Deshalb haben wir dieses Ergebnis weil die KI jetzt verwirrt ist Wie ihr sehen könnt, Leute, in diesem Video, in dem
ich sitze, zeichne ich
in diesem Video, in dem
ich sitze,
auf der statischen Fläche Und jetzt, in diesem Beispiel, haben
wir dieses Ergebnis erhalten.
Dieser Roboter hebt seine Hand nicht. Er erhöht seine Schlagkraft nicht. Also im nächsten
Beispiel, was ich gemacht habe, habe ich einfach diesen Pfeil gezeichnet
und wir haben dieses Ergebnis erhalten. Also musst du Bewegung zeichnen. In diesem Beispiel
haben wir nun dieses Ergebnis erhalten. Und ich habe den
Pfeil ein wenig verändert. Wie ihr sehen könnt, Leute,
ändere ich jetzt meine
Pfeilbahn ein wenig und wir haben dieses Ergebnis. Ich habe auch dieses Beispiel. Wie ihr sehen könnt, Leute, wenn
wir den Bewegungspinsel öffnen, zeichne
ich diesen Charakter
komplett und ich zeichne einen Pfad. Ich möchte, dass sich dieser Charakter an diese Position
bewegt. Und für diesen Charakter zeichne
ich nur die Schläge und
den Kopf dieses Charakters
und stelle den
Hintergrund als statisch Wenn du genau hinschaust,
ist
dieser Charakter nicht vollständig auf diese Statik
eingestellt, nur seine Schläge und
der Kopf sind jetzt gezeichnet, nicht der ganze Charakter, und ich zeichne diesen Pfad, wohin
ich ihn bewegen möchte Und das ist ein Ergebnis
dieser Zeichnung. Und das ist ein weiteres
einfaches Beispiel Wenn wir den Bewegungspinsel öffnen, zeichne
ich einfach mein Auto und
ich zeichne einfach einen Pfad. Stellen Sie den Hintergrund als statisch ein. Wir haben ein anderes
Beispiel: Wir kämpfen mit Robotern. Wenn wir den Bewegungspinsel öffnen, zeichne
ich diese Figur, ich möchte diese Figur stanzen und gleichzeitig möchte
ich, dass sich diese Figur ein wenig
zurücklehnt. Und für diesen Charakter ziehe
ich diesen Schlag. Ich möchte
, dass dieser Charakter diesen Charakter und sich auch ein
bisschen zurücklehnt. Und wir haben dieses Ergebnis erzielt. Sie können auch
mehrere Bereiche zeichnen, und Sie erhalten
unterschiedliche Ergebnisse. Dies ist auch ein weiteres einfaches
Beispiel. Wenn wir den Bewegungspinsel öffnen, zeichne
ich diesen Charakter
auf diese Seite, zeichne den Bus und bewege
den Bus auf diese Seite, stelle den Hintergrund als statisch und jetzt haben wir dieses Ergebnis. Der Roboter bewegt sich nicht
, weil die KI vielleicht denkt , dass ich möchte, dass der Bus
diesen Roboter zerquetscht. Im Moment
ist die KI also auch sensibel. Wir haben auch ein anderes
Roboter-Beispiel. Wenn ich Ihnen den Bewegungspinsel zeige, haben wir
hier den Bewegungspinsel. Jetzt haben wir hier das Ergebnis. Wie du sehen kannst, Alter, die
Ergebnisse sind umwerfend. Wenn Sie jetzt einen
professionellen Modus verwenden, erhalten
Sie ein genaues Ergebnis. In diesem Beispiel zeichne
ich also den linken Arm von diesem und auch den linken Arm
dieses Roboters, und ich zeichne diesen Pfad. Wenn Sie den Hintergrund als statisch festlegen, wird dieses Ergebnis generiert. Das Ergebnis ist jetzt präzise. Im Gegensatz zum Standardmodus mit derselben Zeichnung, wenn ich es Ihnen mit
derselben Zeichnung zeige, erstelle
ich dieses Video
im Standardmodus, und der Charakter bewegt sich auch ein wenig und der
Hintergrund bewegt sich ebenfalls. Aber im professionellen
Modus könnt ihr sehen, Leute, dass genau nur
der Teil bewegt wird, den ich gezeichnet habe. Mit dieser Zeichnung
haben wir also dieses Ergebnis
im professionellen Modus erzielt. Wie ihr sehen könnt, Leute, ist jetzt
alles konsistent
und mit derselben Zeichnung. Aber mit dem Standardmodus haben wir dieses Ergebnis erzielt. Jetzt können Sie
Ihr bearbeitetes Bild auch verschieben. Wie ihr sehen könnt, Leute,
bearbeite ich mich selbst im Studio und zeichne diesen einfachen
Bewegungspinsel. Wir haben diesen Effekt. Wir haben ein anderes Beispiel. Wenn ich Ihnen den Bewegungspinsel zeige, ist
dies der Bewegungspinsel, und das ist das Ergebnis
im professionellen Modus. Das
Video im professionellen Modus sieht komisch aus , weil es
das generiert, worum ich ihn bitte. Wie ihr sehen könnt,
Leute, bitte ich ihn,
den Schnauzenblitz und auch
seinen Arm zu bewegen , und es ist einfach gemacht
und es sieht komisch aus Aber mit derselben Zeichnung
im Standardmodus erhalten
Sie ein anderes Ergebnis Und das ist das Ergebnis
mit dem Standardmodus. Wie ihr sehen könnt, Leute, hat es
den Arm bewegt und auch die
Schnauze blinken Der Motion-Pinsel
mit Standardmodus sieht realistischer und atemberaubender aus als
der professionelle Modus Die Videos werden jedoch inkonsistent, wenn Sie
den Standardmodus verwenden Im professionellen Modus müssen
Sie jedoch präzise
mit Ihren Pinseln umgehen, da nur der Teil bewegt
wird,
an dem Sie den Bereich bürsten Wenn Sie sich also fragen, wie ich die
Boardpunching-Videos
erstellt habe , ist
dies die Aufforderung und das Ergebnis mit dem
Microsoft-Designer In diesem Beispiel habe ich nur den Blitz der
Pistole gezeichnet und wir haben dieses Ergebnis Lass mich dir
den Bewegungspinsel zeigen. Wie ihr sehen könnt, Leute, ist nicht
alles
statisch eingestellt , außer dem Gesicht und
dem Körper dieser Person. Mein Punkt ist also, dass Sie
bei der Verwendung des
professionellen Modus präzise sein
müssen bei der Verwendung des
professionellen Modus wenn Sie den Bewegungspinsel verwenden, wenn Sie
die Bewegung richtig machen wollen. Und so können Sie den Bewegungspinsel
verwenden.
26. Lippensynchronisierungs-Videos mit KI: Willkommen zurück. Jetzt
haben wir also das letzte Feature, das Lip Sync heißt. Wenn Ihr
von Ino generiertes Video ein Tempo enthält, können
Sie die Lippen dieser Person synchronisieren. Sie müssen nur Ihr Video
auswählen. Du musst
auf den Lippensynchronisator klicken. Es wird zuerst dein Video
identifizieren. Dann haben wir diese Schnittstelle. Wie Sie in der Anleitung sehen können,
gibt es so viele Stimmen. Sie können eine beliebige auswählen. Hallo da. Du kannst spielen und du kannst es tun. Du kannst auf diese Stimme hören. Sie können jedes Geschlecht wählen, z. B. männlich, junger Mann. Hallo da. Wunderschön. Sobald Sie Ihre Stimme
ausgewählt haben, können Sie alles eingeben
, was er sagen soll. Sobald Sie Ihre Sprache eingegeben
haben, können Sie auch hier klicken,
um eine Vorschau Ihrer Wörter anzuzeigen. Hallo, da. Ich komme aus der
Vergangenheit. Ich heiße Alex. Sie können auch die Geschwindigkeit
Ihrer Stimme ändern. Hallo, da. Ich komme aus der Vergangenheit. Lass uns das auf ein X ändern, was die normale Geschwindigkeit ist. Und jetzt kannst du
auf die Lippensynchronisation klicken und das kostet
deine fünf Credits. Jetzt können Sie auch
Ihr Audio hochladen ,
um die Lippen zu synchronisieren. Im Moment klicke ich
hier, Lippensynchronisierung und gehe zum Upload. Lokales Verdummeln. Wir
können eine Datei hochladen Und wie ihr sehen könnt, Leute, wenn eure Aufnahme
länger als 5 Sekunden dauert, dann müsst ihr
euer Audio kürzen. Hallo, da. Mein Name ist Faizan und
ich komme aus der Vergangenheit. Hallo, meins. Sie müssen also
einen Teil aus
Ihrem Audio auswählen , weil die
Videolänge fünf Sekunden beträgt, also müssen wir den
Ton unter fünf Sekunden auswählen. Jetzt
bestätige ich meinen Zuschnitt und lasse uns nun auch
diesen Clip mit den Lippen synchronisieren. Es spielt keine Rolle, ob Sie die
Bild-zu-Video- oder die
Text-zu-Video-Generierung verwenden . Wenn es eine Phase gibt, können
Sie dieses Video per Lippensynchronisierung synchronisieren. Also wähle ich zum Beispiel diesen Roboter und klicken wir jetzt
auf die Lippensynchronisation. Zunächst wird nun
erkannt, ob es
eine Phase für die Lippensynchronisation gibt. Wenn es nun
kein Tempo in Ihrem Clip identifizieren kann, erhalten
Sie diesen Fehler. Lassen Sie uns dieses Video identifizieren, und jetzt, wie Sie sehen können, Leute, haben wir
jetzt diese Schnittstelle. Wenn Sie nun möchten, dass eine Person
sehr langsam spricht, können
Sie die Sprechgeschwindigkeit
auf 0,8 einstellen , was die niedrigste ist. Und bevor Sie etwas eingeben, können
Sie eine Vorschau dieser Stimme anzeigen. Gehen wir zu dieser Seite und vielleicht stecke ich meine
Hände in meine Tasche. Wie ihr sehen könnt, Leute, der Text spricht jetzt sehr langsam, und wenn ich will, dass er schnell spricht,
müsst ihr
die Sprechgeschwindigkeit erhöhen Gehen wir auf diese Seite. Und vielleicht stecke ich meine
Hände in meine Tasche. Und hier
oben auf der rechten
Seite der Stimme gibt es eine Zeitbegrenzung . Gehen wir auf diese Seite. Also diese Stimme ist jetzt 4,5 Sekunden lang. Also müssen wir vielleicht
die Sprechgeschwindigkeit auf 0,9 ändern. Gehen wir auf diese Seite. Jetzt haben wir eine Stimme von 5,3 Sekunden. Jetzt können wir uns eine Vorschau dieser Stimme ansehen. Gehen wir auf diese Seite. Nun, wenn Sie möchten, dass eine Person
sehr schnell spricht, dann erhöhen Sie einfach
die Sprechgeschwindigkeit. Gehen wir auf diese Seite und
vielleicht stecke ich meine
Hände in meine Tasche. Für mich stelle ich meine Sprechgeschwindigkeit auf 0,9 ein und klicke auf Lippensynchronisation. Das Lippensynchronisationsvideo
wird jetzt also generiert. Hier haben wir das Ergebnis. Hallo da. Ich komme aus der
Vergangenheit. Ich heiße Alex. Nun, wie ihr sehen könnt, Leute, sind
die Ergebnisse jetzt
ziemlich beeindruckend. Nun, wenn Sie ein
perspektivisches Video
wie dieses mit der Frontkamera haben , aber wenn Sie eine Seitenkamera haben, dann ist die Lippensynchronisation
auch sehr beeindruckend. Hallo, mein Name ist Faizan
und ich komme aus der Vergangenheit. Wie ihr sehen könnt, Leute, meine
Perspektive ändert sich gerade, aber mein Mund bewegt Mein Name ist Fazan und
ich komme aus der Vergangenheit. Wir haben auch dieses Beispiel. Gehen wir auf diese Seite und vielleicht stecke ich meine
Hände in meine Tasche. Ich finde, mein Mund
sieht viel zu groß als er sein sollte,
aber das ist okay. Es ist nicht so schlimm, und das ist das letzte Video, das
wir mit Lippen gemacht haben. Oh, ich werde fett. Meine Lungen, meine Lungen. Jetzt kannst du
dein Video auch reduplizieren, wenn du willst. Sie müssen nur
hier klicken, Redub, Sie können
Ihr Audio hochladen oder Sie
können
Text-to-Speech verwenden, um Ihren Clip mit den
Lippen zu synchronisieren So können Sie die Lippensynchronisierung
verwenden um Ihre
Videos mit Cling AI Lippensynchronisation
27. KI-Videogenerierung erweitern: Willkommen zurück. Wenn
Sie jetzt ein Video generieren, können
Sie dieses Video auch erweitern. In diesem Beispiel wähle
ich
meinen Burger genau hier aus. Ich werde
diesen Burger verbessern. Jetzt ist der Burger verbessert. Lass uns das zum Leben erwecken. Jetzt wähle ich den
professionellen Modus und lass uns Cling 1.0 wählen,
denn wenn du 1.5
verwendest, kannst du deinen Clip nicht wirklich
erweitern. Es gibt keine Option.
Wenn Sie 1.5 verwenden, können
Sie Ihren Clip nicht wirklich
erweitern. Das Video wird also generiert. Hier haben wir das Ergebnis. Wenn Sie genau hinschauen, haben
wir eine Option namens Extend, und wir haben zwei
Optionen in Extend. Eine davon ist Auto Extend. Die andere Option ist die
benutzerdefinierte Erweiterung. Wenn Sie jetzt
die Standardversion verwenden, können
Sie auch diese
verwenden. Und
wenn Sie den Standardmodus verwenden, werden zehn Credits benötigt. Und wenn Sie den
professionellen Modus verwenden, werden
erneut 35 Credits benötigt. Lassen Sie uns also automatisch verlängern. Jetzt wähle ich
erneut
mein generiertes Video aus und dieses Mal wähle
ich
anpassen und erweitern. Jetzt gebe ich Catchup Pouring on top of the Jetzt wird das Video verlängert. Wir haben also das Ergebnis. Wie ihr sehen könnt, Leute,
ist das Video jetzt auf neun Sekunden verlängert. Und das ist das Ergebnis der automatischen Verlängerung. Jetzt haben wir den Nachtisch
für den Kunden. Und nach 5 Sekunden, wie ihr sehen könnt, haben wir diesen Fänger
auf den Burger geschüttet Und einfach so
kannst du deinen Clip verlängern. Sie können alles, was
Sie wollen, in Ihr Video eingeben. Jetzt habe ich auch andere
Beispiele. In diesem Clip
haben wir also diese Aufforderung. Ich habe dieses
Video mit
Text-zu-Video generiert . Übrigens, dies ist der Standardmodus, nicht der professionelle Modus. Und das ist auch
der Standardmodus. Und wir können die Maus
auch in die Erweiterungshistorie aufnehmen. Und wie ihr sehen könnt, Leute, habe ich eine Hand getippt, die Milch
antreibt Also haben wir dieses Ergebnis. Wir haben keine Milch, aber Sie können es erneut versuchen,
um das gewünschte Ergebnis zu erzielen. Manchmal verlängert es nicht,
was Sie von ihm verlangen. In diesem Clip tippe ich
dunkle Wolken, die den Himmel bedecken, und wie ihr sehen könnt, Leute, passiert
nach 5 Sekunden nichts Es ist nur ein normales
Zoom-Video. Es
passiert nichts am Himmel. Dies ist ein weiteres Beispiel, bei dem ich
gesehen habe , wie ich mich auf einen Parkplatz begeben habe. Und wenn ich dieses Video abspiele,
wie ihr sehen könnt, Leute, haben wir
nach fünf Sekunden
ein Auto hinter dem Charakter. Das ist übrigens
die automatische Verlängerung. Wir haben nur einen normalen
Zoom-Out-Clip. Und ich tippe, ein futuristisches Fahrrad
steht vor dem Arrektor. Und nach fünf Sekunden kannst
du sehen, dass wir ein Fahrrad haben Dies ist auch ein Video im
Standardmodus. Ich habe Autounfall getippt
und nach fünf Sekunden können
Sie sehen, dass
Rauch aus dem Auto kommt Manchmal
generiert es nicht das , worum Sie ihn
bitten In diesem Beispiel bitte
ich ihn also, die
Buchstaben vom Burger zu nehmen, und es hat gerade
dieses Video generiert. Und in einem anderen Beispiel fügt
eine Hand zusätzliches
Patty in den Burger,
und wir haben diese Hand, die den Burger
zupasst,
nicht das Patty hinzugibt Und in diesem Beispiel tippe
ich, dass Imodi
rot wird und wütend wird Nach 5 Sekunden haben
wir also dieses Ergebnis. Er wird wütend, aber
er wird nicht rot. Sie können Ihr
Video nicht nur auf bis zu 10 Sekunden verlängern, Sie können es auf so
viel verlängern, wie Sie möchten. Wie in diesem Beispiel in meinem Erweiterungsverlauf ist
dies die ursprüngliche Aufforderung, mit der wir
dieses Video generiert haben. Und nachdem ich ein vorbeifliegendes
Flugzeug hinzugefügt habe, füge ich hinzu, dass ein Flugzeug in einiger Entfernung
fliegt Dann füge
ich in der letzten Aufforderung hinzu, dass der Himmel dunkler wird Es wird bald regnen. Das ist also das ganze Video. Es wird überhaupt kein
Flugzeug hinzugefügt, aber der Himmel wird
dunkler, was ich merke Hier haben wir es nach 15 Sekunden, der Himmel wird dunkler So können Sie Ihren Clip mit King
erweitern.
28. kling 1.0 vs. kling 1.5: Willkommen zurück. Jetzt haben wir also alle Videos, die mit
Kling AI mit unterschiedlichen Modi generiert wurden . Und in diesem Vortrag werden
wir 1,0
pro Fraktionsmodus mit
1,5 pro Fraktionsmodus vergleichen pro Fraktionsmodus mit
1,5 pro Fraktionsmodus Hier
haben wir also die Einstellung
für das folgende
generierte Video Das erste Ergebnis ist 1,0 pro
Fraktionsmodus. Und jetzt haben wir 1,5 Ergebnisse im
professionellen Modus. Wie Sie sehen können,
liefert der 1.5, worum ich ihn bitte, während der 1.0 nur
ein Video von einem Autounfall liefert. Wir haben ein anderes Beispiel. Hier haben wir die Eingabeaufforderung, hier haben wir die
Einstellungen, und das ist das Ergebnis im professionellen Modus 1.0. Und mit den gleichen Einstellungen ist
dies der 1.5 Pro-Modus. Und wir haben ein anderes Beispiel. Mit dieser Einstellung
haben wir 1,0 Promde-Ergebnis und jetzt 1,5 Promote Es gibt also einen großen
Unterschied zwischen 1,0 Promote und 1,5 Promote. Sehen wir uns ein anderes Beispiel an. Mit diesen Einstellungen
haben wir ein Promo-Ergebnis von 1,0. Und mit genau der
gleichen Einstellung mit 1,5 haben wir dieses Ergebnis erhalten. Also hast du etwas bemerkt? Sehen wir uns auch ein anderes
Beispiel an. Mit dieser Einstellung
ist das ein Werbeergebnis von 1,0, und mit genau derselben Einstellung haben
wir ein Werbeergebnis von 1,5. Bei dieser Einstellung entspricht
das Werbeergebnis 1,0. Und mit exakt derselben Einstellung haben wir 1,5 Promote-Ergebnis erhalten. , wenn wir mit einem animierten
Charaktervideo fertig würden wir
aussehen, wenn wir mit einem animierten
Charaktervideo fertig wären? Mit dieser Einstellung
haben wir ein Promo-Ergebnis von 1,0 erhalten. Wie ihr sehen könnt, Leute,
haben wir unsere Gesichtsanimation und mit exakt derselben Einstellung haben
wir 1,5 Promote. Lassen Sie uns nun darüber sprechen, wie Ihre Bilder aussehen würden,
wenn Sie sie zum Leben
erwecken würden. Das ist also das Ergebnis
von 1.0 promote, und das ist das Ergebnis
von 1.5 promote. Wenn Sie also davon
sprechen Ihre Bilder zum Leben zu erwecken, gibt es keinen großen
Unterschied zwischen
1.0 und 1.5 Promote. 1,5 Promde ist also
konsistenter als 1,0 Promote. 1.0 generiert atemberaubende Videos, aber es gibt einige Verzerrungen in den Videos, die bemerkt werden
können Es gibt jedoch keine
großen Verzerrungen. Wenn Sie den Standardmodus verwenden, treten starke
Verzerrungen oder Verstöße auf. Wenn Sie jedoch den 1.0-Promo verwenden, werden
Sie keine großen
Verzerrungen oder Verstöße feststellen. Aber wenn Sie 1.5 Promod in Betracht ziehen, wäre
es besser, es zu
verwenden, da ich kaum Verzerrungen oder
Verstöße feststelle. Beim Vergleich dieser
beiden Punkte stelle ich fest, dass 1,5
konsistenter ist und
die beste Werbewirkung bietet als 1,0 1,0 werben schneidet in einigen Szenarien besser ab als 1,5. Das ist also die Schlussfolgerung
, ob Sie 1.5 oder 1.0 Promote verwenden
möchten.
29. Kling 1.5 VS Kling 1.0 Standardmodus: Willkommen zurück, alle zusammen. Das neue Update von
Kling AI ermöglicht es uns also, Kling 1.5
im Standardmodus zu verwenden. Vor diesem Update können
wir also nur den
professionellen Modus verwenden. Jetzt können wir den
Standardmodus verwenden, was gut ist. Und der Standardmodus
benötigt 20 Credits. Zunächst wähle ich Bild
zu
Videomodell aus und lass uns ein Bild
auswählen. Jetzt
wähle ich mein Bild aus
und tippe jetzt
diesen braunen Mann ein, der in einem Anzug
im Cyberpunk-Stil durch
eine Cyberpunk-Stadt rennt der in einem Anzug
im Cyberpunk-Stil durch
eine Cyberpunk-Stadt Wählen wir nun
den Standardmodus und klicken wir auf Generieren Jetzt habe ich
einige Beispiele generiert, und jetzt werden wir
den Standardmodus von Kling
1.1 mit dem 1.5-Standardmodus vergleichen . Dies ist das erste Beispiel:
Männer, die in einer
Cyberpunk-Umgebung laufen und einen Cyberpunk-Stil
tragen Und wie ihr sehen könnt, Leute, verwende
ich Kling 1.0 und ich habe den
Standardmodus verwendet Und das ist das Ergebnis. Und mit demselben Bild
mit derselben Eingabeaufforderung ist
das Kling 1.5. Und wie du sehen kannst, Alter, ist
das Ergebnis stark verbessert. Ich habe dafür nicht einmal den
professionellen Modus verwendet, wie Sie hier sehen können, ich habe den Stand-in-Modus verwendet. Schauen wir uns nun ein anderes Beispiel an. Riesiger Schleim, der weit von der Decke entfernt war und den Körper
des Mannes bedeckte Jetzt verwende ich dafür den
professionellen Modus von Kling 1.5, und das ist das Ergebnis des professionellen
Modus Kling 1.5 Und mit demselben Bild
und derselben Aufforderung verwende
ich einfach den
Stand-in-Modus von Kling 1.5, und hier ist das Ergebnis. Sie können also den Standardmodus von Kling
1.5 verwenden und Sie werden einige
ziemlich erstaunliche Ergebnisse erzielen. Hier haben wir ein weiteres Beispiel, einen
Mann, der vor dem Tsunami davonläuft aus
dem Hintergrund kommt Ich verwende das Modell Kling 1.0
und den Standardmodus. Und hier haben wir das Ergebnis. Und mit demselben Bild
und derselben Aufforderung ist
dies das Ergebnis von Kling 1.5. Und wie ihr sehen könnt,
Leute,
sind die Ergebnisse ziemlich konsistent. Hier haben wir ein weiteres Beispiel Standardmodus ING 1.0, einen
Mann,
der vor
der großen Explosion davonläuft, die sich in der
Hintergrundkamera ereignet und ihm folgt. Mit demselben Bild
und derselben Eingabeaufforderung ist
dies das Ergebnis des Standardmodus von
Kling 1.5. Y. Das
ist nun das letzte Beispiel Jeder fängt an zu kämpfen und
schlägt sich gegenseitig. Ich benutze Kling 1.0 und verwende den
Standardmodus für diesen, und hier haben wir das Ergebnis Und mit Kling 1.5 haben wir
hier dieses Ergebnis. Jetzt können Sie den Standardmodus von Kling
1.5 verwenden und Sie werden einige ziemlich erstaunliche
Ergebnisse erzielen, wenn Sie kein professionelles
Konto für Kling AI haben.
30. Start- und Endframe-Kling 1.5: Willkommen zurück.
Im neuen Update können
Sie also auch Start- und
Endframe verwenden , indem Sie das 1.5
Cling AI-Modell verwenden. Jetzt generiere ich diesen Clip
mit diesen beiden Frames, das ist der Start-Frame
und das ist der End-Frame. Übrigens können Sie auch das Ende- und
das
Start-Frame austauschen , wenn Sie möchten. Und ich verwende den professionellen
Modus für diese Generation, und das ist das Ergebnis. Und wie ihr sehen könnt, Leute, ist so
ziemlich die gesamte Bewegung
meines Körpers inkonsistent Also lasst uns
das Modell auf 1.5 ändern
und schauen, ob das Video konsistent
oder inkonsistent
bleibt Wir haben ein weiteres Beispiel
für Start und Frame. Wenn Sie den Standardmodus verwenden, ist
dies das Ergebnis. Lassen Sie uns nun mehr
auf Professional
umsteigen und das Modell auf 1.5 ändern. Wir haben auch dieses Beispiel. den professionellen Modus 1.0 verwenden, ist
dies der Start-Frame und dies ist der End-Frame. Und wir haben dieses Ergebnis erzielt. Lassen Sie uns nun sehen, ob wir mit 1.5
ein konsistentes
Ergebnis erzielt haben . Lassen Sie uns also mehr auf 1.5 ändern und dann auf Konzentrieren klicken. Die Videos sind jetzt also generiert. Hier haben wir das Endergebnis. Das Video ist also
ziemlich konsistent. Aber in meinem
Gesicht gibt es Widersprüche , die ich nicht sehe Aber es hat den Antrag richtig gemacht. Er ist besser als der
professionelle Modus von 1.0. Schauen wir uns nun
das zweite Beispiel an. Und ich finde, dieses
Ergebnis ist ziemlich beeindruckend als der
Standmodus von 1.0. Wenn Sie nun
inkonsistente Bilder verwenden, wenn Sie das erste Bild verwenden und zweite Bild völlig
anders ist als das erste Bild, dann werden Sie
ein seltsames Ergebnis erzielen Und das ist das erste
Beispiel dafür. Auf beiden Bildern steckt das
Auto in der Wand fest. Deshalb haben wir dieses Ergebnis erhalten. Selbst wenn Sie 1.5 verwenden, werden
Sie ein seltsames Ergebnis erzielen. Nun, das ist das zweite Beispiel. Wenn Sie völlig
unterschiedliche Bilder verwenden, unterscheidet sich
der Start-Frame
vom End-Frame. Deshalb haben wir dieses Ergebnis erhalten. Und wie Sie sehen können,
verwende ich den professionellen Modus 115. In diesem Beispiel verwende
ich jetzt einen Ferrari. Wenn Sie
konsistente Bilder generieren
möchten, gehen Sie zunächst zu
Designer dotmicrosoft.com Und für den Ferrari tippe ich einfach eine große
Ansicht eines Ferrari-Autos ein Und wenn Sie dieses Wort eingeben, müssen
Sie nur die Eingabeaufforderung verbessern, auf diese erweiterte Eingabeaufforderung
klicken und
die Eingabeaufforderung wird für Sie geschrieben. Jetzt können Sie die Bilder vom
Designer dotmicrosoft.com kopieren oder die Größe auswählen oder sie
generieren Aber die Bilder von
Designer Microsoft sehen
karikaturhaft aus Sie sehen nicht realistisch aus. realistische Bilder zu generieren, gehen Sie zu Labs Dot Google
und dann zu Bildeffekten. Wie ihr sehen könnt, Leute,
habe ich Bildeffekte ausgewählt. Lass uns in Meine Bibliothek gehen. Und wie Sie sehen können, die Bilder von Labors Dot
Google ziemlich realistisch. jetzt hier klicken, können
Sie zum
Bildeffekt gehen ,
Ihre Eingabeaufforderung einfügen und auf dieses Generieren
klicken während
der Generierung der Bilder zum Designer, Gehen
wir während
der Generierung der Bilder zum Designer,
und wie Sie sehen können, Leute, sehen die Designerbilder karikaturhaft
aus Wenn Sie dagegen in
die Labore von Google gehen, haben wir realistische Ergebnisse Lass uns dieses Bild herunterladen. Und wenn du
in deiner Eingabeaufforderung nach oben scrollst, wie du sehen kannst, ist
das ein Weitwinkelobjektiv. Wir können
das auch ändern, um es zu schließen. Wir können auch die
Farbe des Ferrari ändern. Wir können den Markennamen ändern. Sie können das farbige
Schlüsselwort ändern, wenn Sie möchten. Jetzt können wir auf Generieren klicken. Bevor wir einen Weitwinkel erzeugen, können wir
jetzt eine
Nahaufnahme eines Ferrari erstellen. Und wenn Sie das tun, werden Sie,
wie Sie sehen können , einige
konsistente Bilder erhalten. Klicken wir nun auf
diesen Download-Button. Und wenn wir jetzt die Bilder öffnen, sehen
diese beiden Bilder
konsistent aus. Sie sehen gleich aus. Nachdem wir
die Bilder heruntergeladen haben, wähle
ich
im Startbild die Nahaufnahme und im Endbild die weiße
Aufnahme aus, und wir haben dieses Ergebnis erhalten. Und
das wird übrigens im
Standardmodus 1.0 generiert . Und mit den gleichen Bildern haben wir dieses Ergebnis erzielt. Wie Sie sehen können, ist das
Ergebnis konsistent. Wenn Sie möchten, dass sich die Kamera bewegt, können
Sie auch den Rahmen austauschen. Und in diesem Ergebnis tausche ich einfach den Rahmen aus. Ich wähle die weiße Aufnahme
am Startbild aus und ändere die
Nahaufnahme am Endbild. Und das ist das
Ergebnis, das wir erzielt haben. Und diese beiden Bilder
wurden auch mit
dem Kartenpunkt Google generiert, und wir haben dieses Ergebnis Es gibt also eine andere
Methode, wenn Sie konsistente Bilder generieren
möchten Gehen Sie zunächst zum Chat GBD und
bitten Sie ihn, eine Aufforderung zur
Bilderzeugung zu schreiben, in Paris
eine Wasserflasche
vom Himmel fällt Und wir haben diese Aufforderung bekommen
und bitten ihn nun, eine Aufforderung zur zweiten Szene zu schreiben Jetzt bitte ich ihn nur,
diese beiden Eingabeaufforderungen konsistent zu halten und mir diese beiden Eingabeaufforderungen zu geben. Ich kopiere diese Aufforderung und füge
sie in Labs Dot Google ein. Wie Sie sehen können, sind dies
das erste Prompt-Ergebnis und dies ist das
zweite Prompt-Ergebnis. Die Flasche fällt
vom Himmel und in der zweiten Aufforderung
ist sie auf dem Boden gelandet. Und hier haben wir das Ergebnis. Jetzt habe ich den 1,0 Zapfenmodus verwendet,
aber Sie können Ihr Modell auf 1,5 ändern und den
professionellen Modus auswählen, und dann erhalten Sie professionelle
, konsistente Ergebnisse Jetzt können Sie JA GPT auch bitten, Bilder für Sie
zu generieren. Wie ihr sehen könnt, Leute, bitte ich
ihn, sechs Prompt zu schreiben und die Konsistenz in sechs
beizubehalten, ein Zeitraffer, in dem eine Pflanze zu einem ausgewachsenen Baum
heranwächst Und das sind sechs Eingabeaufforderungen, aber ich bitte ihn, diese Bilder zu generieren und
diese Bilder zu
generieren Und dann frage ich ihn, kannst
du sie realistisch machen? Und wir haben diese Ergebnisse? Dann habe ich ihn gebeten, sie
ultrarealistisch zu machen , und
wir haben diese Ergebnisse erhalten. Dann füge ich diese beiden Bilder hinzu
und schaue mir das Ergebnis an. also die
konsistenten Bilder verwenden, erhalten
Sie ein
professionelles Ergebnis. Hier ist ein weiteres Beispiel: Wenn Sie den Rahmen des Formulars austauschen, haben
wir diesen Fade-Out-Übergang zwischen diesen beiden Frames. Und wenn Sie diesen
Frame am Anfang
und diesen Frame am Ende verwenden und Standard 1.0 verwenden, haben
wir dieses Ergebnis erhalten, haben
wir dieses Ergebnis besser ist als
das Ergebnis 1,5,
aber das Ergebnis 1,5 ist konsistent. Ich hoffe, du hast
eine Idee, wie du
die Start- und
Endframe-Videos professionell generieren kannst . Halte die Bilder einfach konsistent. Wenn Sie nun zwei
konsistente Bilder haben, können
Sie ein
ziemlich erstaunliches Ergebnis erzielen. Ich habe zum Beispiel diese beiden Bilder ,
die identisch aussehen. Im ersten Bild haben
wir einen Samen und im letzten Bild haben wir
eine kleine Pflanze oder einen Baum. Jetzt verwende ich den Link
1.0-Standardmodus und wir haben dieses Ergebnis erhalten. Aus einem Samen wird eine
Pflanze oder ein kleiner Baum. Jetzt ändere ich mein Modell einfach
auf den professionellen Modus 1.5 und habe dieses seltsame Ergebnis. Der Samen verwandelt sich nicht. Wir haben nur zwei Clips
in einem Video zusammengefasst. Wenn Sie also ein
solches Ergebnis erhalten, versuchen
Sie, eine Eingabeaufforderung einzugeben. Also verwende ich einfach
wieder diese beiden Bilder und tippe eine Eingabeaufforderung ein, wobei sich der Samen
in einen kleinen Baum verwandelt. Und dann habe ich dieses
erstaunliche Ergebnis erzielt.
31. Bewegungspinsel von Kling 1.5: Willkommen zurück. Das
neue Update von Kling AI ermöglicht es uns also, Kling 1.5
mit der Draw Brush-Funktion zu verwenden. Jetzt können Sie die Draw
Brush-Funktion mit Kling 1.5 verwenden. Jetzt haben wir dieses Beispiel. Wie ihr sehen könnt, Leute,
habe ich
das mit der Draw
Brush-Funktion generiert . Und das ist mein Zeichenpinselpfad, und das ist ein Ergebnis des
Kling 1.0-Standardmodus. Jetzt verwende
ich
mit demselben Bild
und demselben gezeichneten Pfad den
professionellen Modus, wähle Cling
1.5 und lass uns generieren. Jetzt haben wir ein anderes Beispiel. Und wenn ich den
Weg gehe, wie ihr sehen könnt, Leute, ist das mein Weg. Jetzt verwende ich
den professionellen Modus und lasse uns
das Modell auf 1.5 umstellen und auf Generieren klicken. Jetzt haben wir diesmal dasselbe
Bild. Aber ich habe nur den Blitz
der Pistole gezeichnet, wie Sie sehen können. Jetzt wähle ich den professionellen Modus und
lass uns Clean 1.5 auswählen und dann auf Generieren klicken. Dies ist ein weiteres Beispiel für einen
Bewegungspinsel mit
professionellem Modus und Verwendung, und dies ist
ein weiteres Beispiel für einen
Bewegungspinsel unter Verwendung des Clean 1.0-Modells und des professionellen Modus. Und wenn wir zu dem Pfad gehen, ist
das der Pfad, den ich gezeichnet habe, und hier haben wir das Ergebnis. Lassen Sie uns nun das Modell mit
demselben gezeichneten
Bewegungspinselpfad ändern . Klicken wir auf Generieren. Und wir haben auch dieses
Beispiel. Wenn wir bei diesem Bild zum
Bewegungspinselpfad gehen, ist
dies der Pfad, den ich gezeichnet habe. Bei einem professionellen Modus von
1.0 ist dies das Ergebnis. Wenn Sie sich meinen vorherigen
Vortrag über Motion Brush ansehen, versuche
ich wirklich sehr, mich
zum Sitzen zu bringen. Und am Ende habe ich nach ein paar Versuchen dieses
Ergebnis erzielt. Versuchen wir es jetzt mit
demselben Motion-Pinsel-Pfad, aber mit Kling 1.5, und verwenden wir den
professionellen Modus, um
Zugriff auf Motion Brush von 1.5 zu erhalten . Und das ist jetzt das Ergebnis des professionellen Modus von Kling 1.5. Und wie ihr sehen könnt, Leute, ist jetzt
alles
konsistent. Und dies ist das
zweite Beispiel für 1.5 Motion Brush
im professionellen Modus. Und wie Sie in der Anleitung sehen können, ist
das Ergebnis ziemlich beeindruckend. Und das ist ein weiteres
Beispiel, bei dem ich einfach den Blitz der Pistole putze. Und dieser ist ziemlich wild. Und das ist ein weiteres
Beispiel für deinen Stiefel. Und wie ihr sehen könnt, Leute, ist
die Bewegung ihres
Körpers konsistent. Es liegt
in keinem Frame ein Verstoß gegen das Video vor. Es sieht irgendwie aus wie eine
echte Drei-D-Animation. Selbst in diesem Beispiel hatten im professionellen Modus von 1.0 wir
im professionellen Modus von 1.0 eine seltsame Handbewegung, aber in 1.5 habe ich bemerkt, dass die
Handbewegung jetzt behoben ist Also 1.5
wurde in Motion Brush tatsächlich verbessert, und das ist das Ergebnis meines
Versuchs, mich mit
der KI zu positionieren. Und ich finde, dieses Ergebnis
ist ziemlich beeindruckend Und hier haben wir noch einige
weitere tolle Beispiele. Also verwende ich dieses Bild, und wenn wir zum
Bewegungspinsel gehen, zeichne
ich diesen Pfad. Zuerst zeichne ich das Pedal und verfolge dieses Pedal bis zu dieser Seite. Dann zeichne ich das ganze Wasser und folge dem Wasser
bis zu dieser Seite. Dann entferne ich diese Seite
des Wassers, denn wenn
wir uns das Bild ansehen, haben
wir diese Wellen
im Wasser Also entferne ich diesen Teil. Also entferne ich diesen Pfad
mit dem Array-Werkzeug und wähle dann
den dritten Bereich aus, zeichne diesen Pfad und verfolge das Pad bis zu
dieser Seite Und zum Schluss wähle ich mein Host-Thema aus und verfolge
mein Thema nach oben. Jetzt, im Finale, zeichne ich
dieses Brett als statischen Bereich. Und ich verwende den Standardmodus für diese
Motion-Pinsel-Generation und verwende 1.0. Und wenn ich mein Video abspiele, ist
das Ergebnis 1.0. Sogar 1.0 sieht fantastisch aus. nun 1.5
mit demselben Bild und
demselben Motion-Pinselpfad verwenden, haben
wir dieses konsistente Ergebnis erzielt. Ist es nicht unglaublich? Jetzt
kannst du noch eine Sache tun. Falls du merkst, dass wir ein Problem haben. Das Boot bewegt sich überhaupt nicht. Sie können also auch das
As-Werkzeug auswählen, die automatische Segmentierung
aktivieren
und den statischen Bereich löschen Weil wir das
Boot als statischen Bereich zeichnen, bewegt sich
das
Boot deshalb nicht Jetzt können wir
das Pinselwerkzeug auswählen. Wir können Bereich fünf auswählen. Wir können das ganze Boot zeichnen. Und wir können das
Boot bis zu diesem Ort verfolgen. Jetzt lassen Sie uns das bestätigen. Und dafür verwende
ich meinen
Standardmodus und wähle 1.0. ein anderes Beispiel an, während das Video generiert Sehen
wir uns ein anderes Beispiel an, während das Video generiert wird. Ich verwende also dieses Bild, und wenn wir zum
Bewegungspinselpfad wechseln, der sich
jetzt im Bewegungspinselpfad , zeichne
ich mein Auto und möchte mein Auto
durch diese Seite bewegen. Und ich zeichne den gesamten
Bereich als statische Idee. 1.0-Standardmodus ist
dies das Endergebnis. Wie Sie sehen können, fährt das
Auto in diese Richtung. Also repariere ich mein Gebiet in
der nächsten Generation. Wenn wir zum Bewegungspinsel gehen, ziehe
ich meine Linie auf diese Seite. In der Vergangenheit habe ich
meine Linie so gezogen. Jetzt habe ich mich auf diese Seite gezogen. Und hier haben wir das Ergebnis
des 1.0-Standardmodus. Und es sieht so aus, als ob das
Auto irgendwie driftet. Und mit dem professionellen Modus 1.0, mit diesem aktualisierten Pfad, haben wir
hier das Ergebnis Und mit demselben Auto mit
demselben Bild, demselben Weg. Aber dieses Mal verwende ich den professionellen Modus
1.5, und das ist das Endergebnis. Jetzt haben wir auch ein anderes
Beispiel. Ich verwende dieses Bild, und wenn wir
zum Bewegungspinsel gehen, zeichne
ich mein Auto und
dann diesen Pfad. Ich möchte dieses
Auto auf diese Seite bewegen, und ich zeichne den gesamten Ozean
und ich verschiebe den Ozean auf diese Seite und zeichne den
gesamten Bereich als statischen Bereich. Und das ist das Ergebnis. Das habe ich nicht erwartet. Das Auto fährt rückwärts
statt vorwärts. In meiner nächsten Generation behebe
ich dieses Problem Ich zeichne diesen Pfad auf diese Seite, ich zeichne den Pfeil auf diese Seite. In der vorherigen Generation habe ich
den Pfeil wie diese Seite gezeichnet. Indem ich also den Pfeil auf
diese Seite des Bodens gezogen
habe, habe ich dieses Ergebnis erzielt. Wir beheben dieses Problem. Wenn Sie also ein
solches Problem haben, können
Sie es leicht beheben,
indem Sie Ihren Bereich untersuchen. Und wenn Sie den
professionellen Modus 1.5 verwenden, ist
dies das Endergebnis. Wie Sie sehen können, ist das
Video konsistent. Es liegt kein Verstoß vor. Alles sieht realistisch aus. Und wir haben dieses Beispiel
, wo wir einen Tiger haben. Und wenn du zum
Bewegungspinsel gehst, zeichne
ich den Tiger und
richte den Pfeil ins Wasser und ich zeichne das ganze Wasser und richte
den Pfeil auf diese Seite. Ich möchte, dass sich das Wasser auf diese Seite
bewegt, und ich möchte, dass mein Tiger
ins Wasser geht. Und das
haben wir mit 1.0 erreicht.
Wenn Sie nun zum Bewegungspinsel gehen, zeichne
ich diesen Stein als Dachboden. Aber in meiner nächsten Generation, wenn wir zum Bewegungspinsel übergehen, entferne
ich das als Dachboden. Und ich korrigiere auch meine
Pfeilpositionierung des Tigers, und im professionellen Modus 1.5 ist
das das Endergebnis. Das ist das Ergebnis, das wir wollen. Das Boot bewegt sich irgendwie. Nicht das Boot, aber wir haben einen
Kamera-Moment im Video. Verwenden wir jetzt einen
professionellen Modus und verwenden wir 1.5
und lassen Sie uns generieren. Wenn du also
keine zusätzlichen Credits verlieren möchtest ,
habe ich einen Tipp für dich. Wenn du Motion Brush verwenden möchtest, dann verwende den 1.0-Tendon-Modus Wenn Sie auf diese Weise etwas falsch gemacht
haben, können
Sie Ihr Problem
in Ihrer nächsten Generation beheben Und wenn das Problem behoben ist, können
Sie den
professionellen Modus 1.5 verwenden, und Sie erhalten
Ihre Generation, und das Video
bleibt konsistent. Mit dieser Methode können Sie
Ihre Credits speichern. Wenn Sie in
Ihrer ersten Generation den
professionellen Modus 1.5 verwenden , verlieren
Sie 25
zusätzliche Credits. Das ist also meine Art, die Credits zu
sparen. Sie können dieselbe Methode auch verwenden
, um Ihre Credits zu speichern. Das
1.5-Video im professionellen Modus wird jetzt generiert, und hier haben wir das Ergebnis. So können Sie das Motion Brush-Tool
verwenden, indem professionellen Modus 1.5
verwenden.
32. Kamerabewegungen mit Kling 1.5: Willkommen zurück. In der
vorherigen Version von Ling AI können
wir den
Kamera-Moment also nicht wirklich nutzen, wenn Sie das Bild auch
auf Video Inkling 1.5 oder
Inkling 1.0 umschalten auf Video Inkling 1.5 oder
Inkling 1.0 Aber jetzt können wir
den Kamera-Moment in
Cling 1.5 nutzen , indem wir den
professionellen Modus verwenden Um Bilder zu generieren, verwende
ich den Designer domicrosoft.com,
kopiere diese Eingabeaufforderung Dann füge ich die Eingabeaufforderung
in Labs Dot Google ein. Und wähle Bild links aus. Jetzt können Sie auch
das hervorgehobene Schlüsselwort ändern. Wenn ich in meine Bibliothek gehe, sind dies, wie Sie sehen können,
meine ursprünglichen Prompt-Ergebnisse, und ich wähle das
hervorgehobene Schlüsselwort und ändere einige Stichwörter, und dann habe ich diese Ergebnisse erhalten. Wenn Sie zum
Microsoft-Designer gehen, wähle
ich dieses Bild aus,
Sie können hier klicken, gesamten Abschlussball
bearbeiten, Sie
können diese Aufforderung kopieren, und ich füge die Eingabeaufforderung
in Labs do Google ein, und ich habe diese Ergebnisse erhalten. Gehen Sie zu Cling AI und wählen Sie
Ihr Modell auf 1.5 aus. Gehe zum Bild zum Video. Jetzt
wähle ich zuerst das mobile Bild aus. Sie können nach unten scrollen und den professionellen Modus auswählen. Und sobald ihr
euren professionellen Modus ausgewählt habt, wie ihr sehen könnt, haben
wir Kamera-Moment. Du kannst
deinen Kamera-Moment
aus diesem Drop-down-Menü auswählen , wenn
du noch weiter nach unten scrollst, da du sehen kannst, Alter, das ist
mein Kamera-Moment. Wenn du
das auswählst, kannst du
den Schieberegler ändern , um
deinen Kamera-Moment zu bekommen. Wenn Sie diesen Wert auf die
linke Seite auf minus zehn ändern, erhalten
Sie den linken
horizontalen Kameramoment. Wenn Sie Vertikal wählen, erhalten
Sie den
vertikalen Kameramoment. Wir haben den Zoom, wir haben den Stift und wir haben Tilt and Roll. Also wähle ich
diesen Stift minus zehn. Lass uns die zwei minus fünf ändern. Lasst uns nicht ins Extreme gehen. Gehen wir vielleicht ins Extrem. Klicken wir jetzt auf Content Rate. Wählen wir nun dieses Bild und laden wir dieses Bild herunter. Und für dieses Bild wähle
ich Tilt und ändere
das auf minus zehn. Oder vielleicht können wir dieses Bild
auswählen. Laden wir dieses Bild herunter
und scrollen wir nach unten, und ich
ändere meine Neigung auf zehn. Klicken wir nun auf Generieren. Ich generiere auch dieses Bild, und das ist die
Aufforderung zu diesem Bild. Für dieses Bild ändere
ich nun die Pfanne auf zehn. Während dieses Video generiert wird, werde
ich Ihnen
einige Beispiele für
Kamera-Momente zeigen , indem ich
1,5 Bild-zu-Video verwende. In diesem Beispiel wähle
ich also dieses Bild aus und ändere meinen Kameramoment
auf vertikal zehn, und ich habe dieses Ergebnis erhalten. Jetzt ändere
ich im zweiten Bild den
Kameramoment auf Schwenk minus zehn, und wir haben dieses Ergebnis erhalten. Und für dieses Bild verwende
ich den Zoom-Kameramoment, Wert zehn, und das
ist das Ergebnis. Wie ihr sehen könnt, Leute,
ist 1.5 ziemlich konsistent. Und für dieses Bild verwende
ich meinen
Kamera-Moment-Pan, Wert zehn. Die Kamera schwenkt
in Richtung Himmel. Und wenn Sie feststellen, dass das Video keine
Inkonsistenz aufweist, ist
das Video
ziemlich Und in diesem Beispiel verwende
ich den Rollenwert zehn Das ist der extreme
Kamera-Moment. Und trotzdem haben wir hier
einige Verstöße, aber nicht zu viele. Übrigens können Sie diese Arten von
Kamera-Moment-Videos jetzt auch miteinander
mischen. Zum Beispiel kann ich dieses
Video mit diesem Video mischen Laden
wir diese beiden Videos herunter. Jetzt zeige ich
Ihnen, wie wir
diese Art von
Kameravideos zusammenmischen können . Öffnen Sie zunächst den Kappenschnitt. Dies ist die beste
Video-Editor-Software
für Anfänger auf dem Markt. Erstellen Sie jetzt ein neues Projekt. Klicken Sie hier, um
ein neues Projekt zu erstellen. Wählen Sie nun diese beiden
Videos aus und importieren sie direkt hier auf
der Medienseite. Jetzt kann ich
dieses Video zuerst importieren und lassen Sie uns dieses Video
neben dem ersten Clip importieren. Jetzt können wir die Leertaste drücken
, um eine Vorschau dieses Clips anzuzeigen. Die Kamera
schwenkt also auf diese Seite, sodass wir
diesen Clip auch umkehren können Aber ich denke, anstatt den Clip
umzukehren, platzieren
wir diesen Clip
genau hier und wir können diesen Clip
genau hier umkehren. Klicken Sie hier. Wählen Sie zuerst Ihren
Clip aus und klicken Sie hier , um Ihren Videoclip umzukehren. Und jetzt, wie Sie sehen können, können wir dieses Video hier
platzieren. Wir können diesen Clip auch auswählen, zur Maske
gehen und
die horizontale Maske auswählen. Wir können diese
Maske umkehren, indem wir hier klicken, und wir können diesen
Pfeil auswählen und ihn nach oben bewegen , um
diese Feder zu
erstellen Jetzt können wir diese Linie
auf diese Seite ziehen und die Feder
ändern Zwei 0%. Fügen Sie jetzt genau hier einen
Keyframe hinzu, und wir können den
Keyframe auch an der richtigen Position hinzufügen Gehen Sie nun ein paar Frames weiter, ändern Sie diese Seite auf diese Seite und
ändern Sie auch die Feder Und jetzt, wenn Sie
sich das Video ansehen, haben
wir dieses erstaunliche Ergebnis. Lassen Sie uns das zuschneiden,
wählen Sie diesen Clip gehen wir zur Animation, gehen wir zur Out-Animation und wir können eine
Ausblendanimation hinzufügen. Und wenn ich diesen
Clip abspiele, wie ihr sehen könnt, Leute, ist das das Endergebnis. So könnt ihr
eure Kamera-Moment-Clips
von Kling AI verwenden und
sie so zusammenfügen. Dies ist ein
weiteres Beispiel Kamera-Moment im professionellen Modus von Kling
1.5. Dies ist der Wert für das
Kamera-Moment minus zehn, und das ist das Ergebnis. Jetzt empfehle ich dringend, den extremen Wert
Ihres Kamera-Moments nicht
zu sehr zu verwenden . Sagen Sie einfach wie hier, wenn Sie
ein realistisches Ergebnis erzielen möchten, zwei minus drei oder
zwei plus drei, wenn Sie
ein fantastisches Ergebnis erzielen möchten. Jetzt haben wir das
zweite Beispiel, bei dem ich die extreme Neigungsposition zehn verwende, und das ist das Ergebnis. Nun, das ist das letzte Beispiel. Ich verwende Pan Plus Ten, und das ist auch ein
extremer Kamera-Moment. Aber für diese Aufnahme
funktioniert es ziemlich gut. So können Sie den Kamera-Moment
nutzen, indem Sie den professionellen Modus 1.5
verwenden.
33. Kling 1.6 vs. 1.5 vs. 1.0 Text-to-Video: Willkommen zurück. Deshalb hat Kling AI gerade ihr neues Modell , Kling 1.6, und es wird sich gegenüber der Vorgängerversion verbessern
. Wie bei Kling 1.5 können Sie auch mit Kling 1.6 den Standardmodus
verwenden. Derzeit können wir Motion Brush jedoch nicht
wirklich verwenden, und wir können
Camera Moment mit Kling 1.6 nicht wirklich verwenden. Ich habe also dieses Beispiel. Dies ist eine Aufforderung, und ich verwende den professionellen Modus von
Kling 1.0, und das ist das Ergebnis. Jetzt verwende
ich mit derselben Aufforderung Cling 1.5, und das ist das Ergebnis des professionellen Modus
1.5. Gehen wir nun zur
Bearbeitung und generieren wir
das mit einer neuen Version von 1.6. Jetzt können wir auf Generieren klicken. Das Video ist jetzt generiert
und hier haben wir das Ergebnis. Sehen wir uns das Ergebnis an. Bei weitem ist 1.6 ziemlich erstaunlich. Es ist viel besser. Es ist weitaus besser als 1.5 und 1.0, da Sie keine
Frame-Verletzung finden
können oder Sie können
keine Frame-Verletzung
wirklich feststellen Ihren generierten Clips keine
Frame-Verletzung finden
können oder Sie können
keine Frame-Verletzung
wirklich feststellen. Jetzt habe ich noch ein Beispiel , das ich
mit euch teilen möchte. Das ist die Aufforderung, und ich verwende 1.6 Promote für diese Generation, und hier haben wir das Ergebnis. Wie Sie feststellen, liegt in den generierten Clips
kein Frame-Verstoß vor. Und wie ihr sehen könnt, Leute, ist 1.6 klarer und in 1.6 gibt es keinen
Inframe-Verstoß In 1.0 und 1.5 haben
wir einen kleinen
Frame-Verstoß, aber in 1.6 gibt es im generierten Ergebnis
keinen Frame-Verstoß Nun, hier haben wir
ein weiteres Beispiel. Dies ist die Aufforderung, und ich verwende auch den Pro-Modus
für diese Generation. Und das Ergebnis sieht realistisch aus. Hier liegt ein kleiner
Frame-Verstoß vor, aber alles sieht gut aus. Und das ist das Ergebnis 1,0 und 1,5. Nun, bevor ihr euch aufregt
und anfängt, 1.6 zu verwenden möchte
ich dieses Geheimnis mit
euch teilen. Bei 1.6 handelt es sich um vier realistische Clips. Wenn Sie eine unrealistische Eingabeaufforderung verwenden, werden
Sie kaum ein besseres
Ergebnis als 1,5 oder 1,0 Lassen Sie mich Ihnen ein Beispiel zeigen. Dieselbe Eingabeaufforderung, wir haben
sowohl ein Ergebnis von 1,0 als auch ein Ergebnis von 1,5. Und jetzt mit derselben Eingabeaufforderung ist
dies das Ergebnis im Pro-Modus 1.6. Es liegt kein Frame-Verstoß vor, aber mir hat
der Stil von 1.6 nicht gefallen. 1.5 ist weitaus besser, wenn Sie animierte Clips
generieren möchten, aber 1.6 ist für realistische Clips. Bei diesem Abschlussball ist
dies also das Ergebnis
des 1.5 Pro-Modus. Und mit derselben Aufforderung ist
dies das Ergebnis
des 1.6 Pro-Modus. Nun, all diese Videos wurden im
professionellen Modus 1.6 generiert, aber ist der 1.6-Standardmodus auch
gut für die Videogenerierung geeignet? Ich werde Ihnen
einige Beispiele zeigen und die Standardmodi 1.0,
1.5 und 1.6 vergleichen Standardmodi 1.0,
1.5 und 1.6 da all diese Videos im
professionellen Modus
generiert wurden. Lassen Sie uns nun sehen, ob der Standardmodus auch für die
Videogenerierung gut genug ist oder nicht. Das ist also die Aufforderung, und das ist das Ergebnis
des 1.0-Standardmodus. Jetzt mit derselben Eingabeaufforderung ist
dies das Ergebnis
im Standardmodus 1.5. Und 1.5 eignet sich auch gut
für die Videogenerierung. Und jetzt haben wir den
endgültigen 1.6-Standardmodus. Wie ich Ihnen bereits gesagt habe, ist
1.6 weitaus realistischer
als das andere, weil das 1.5-Video großartig aussieht, aber für mich ist es unrealistisch 1.6 ist also für die
realistische Generierung vorgesehen, aber wenn Sie zwischen
Realismus und Unrealismus
generieren möchten , Das ist nun ein weiteres Beispiel. Dies ist die Eingabeaufforderung, und
dies ist das Ergebnis von 1.5. Und hier haben wir das Ergebnis
des 1.6-Standardmodus. Und für dieses Beispiel denke
ich, dass 1.6 ein klarer Gewinner ist,
denn in der 1.6-Generation kann
man deutlich ein
bisschen Kameramoment erkennen und alles
sieht knackig klar Mit dieser Eingabeaufforderung ist das Ergebnis nun 1,0 Und das ist das Ergebnis im
Standardmodus 1.5. Und jetzt ist das Ergebnis
von 1.6 mit derselben Eingabeaufforderung. Und für dieses Beispiel ist
1.6 auch der Gewinner für diese Generation,
weil
das Gebäude im Hintergrund auch wirklich
toll aussieht und auch toll aussehen kann. Jetzt haben wir ein anderes Beispiel. Dies ist die Aufforderung,
und dies ist das Ergebnis des 1.0-Standardmodus. Bei derselben Eingabeaufforderung ist
dies das Ergebnis des 1.5-Standardmodus. Jetzt haben wir endlich das Ergebnis im
Standardmodus 1.6. Und wie ihr sehen könnt,
Leute, 1.6 ist großartig. Es sieht so aus, als würden wir
diese Kugel mit
dem Handy fotografieren . Und wie ich Ihnen bereits sagte, liegt
1,5 zwischen
Realismus und Unrealismus Jetzt haben wir das zweitletzte Beispiel. Dies ist die Aufforderung,
und zuallererst ist
dies das Ergebnis des
1.0-Standardmodus. Und wie wir erwartet hatten, sieht
alles Mist aus. Gehen wir nun zu 1.5 über. Mit derselben Aufforderung
gelingt es 1.5, dieses Meisterwerk zu generieren. Wir haben einen kleinen
Verstoß, aber alles sieht gut aus. Jetzt haben wir endlich ein Ergebnis von 1,6. Und das ist ein unerwartetes
Ergebnis für mich. Weil ich glaube, dass 1.5 in diesem Beispiel
gut aussieht. Weil man in 1.5
deutlich im Hintergrund sehen kann, dass
wir ein gewisses
Publikum haben, aber in 1.6 gibt es kein Publikum. Und wie ich Ihnen bereits gesagt habe, wenn Sie
realistische Videos erstellen möchten, verwenden Sie 1.6. Wenn Sie jedoch kein realistisches Video
generieren möchten, sondern auch einen Teil des Realismus
im Video erzeugen möchten, verwenden Sie 1.5 Wenn Sie nun versuchen, diese Aufforderung zu
regenerieren, ist
dies das Ergebnis von 1.5 Und überraschenderweise
schneidet 1.6 jetzt etwas besser ab. Und wenn Sie bemerken, dass der Roboter anfängt, sich auf
den roten Roboter zuzubewegen, wackelt
der Boden
und mit der Kamera am Boden wackelt auch ein wenig Und jetzt haben wir das
Publikum im Hintergrund. Für diese Generation ist
es meiner Meinung nach ein Unentschieden zwischen 1,6 und 1,5. Jetzt haben wir das letzte Beispiel. Heat ist die Eingabeaufforderung,
und mit dieser Aufforderung ist
dies der 1.0-Standardmodus. Und mit derselben Eingabeaufforderung ist
dies das Ergebnis von 1.5. Und jetzt haben wir endlich 1.6. Und wie ihr bemerkt, Leute, auch mit diesem Standardmodus ist
1.6
auch mit diesem Standardmodus herausragend. Jetzt habe ich
diese Aufforderung versehentlich mit 1.5 regeneriert, und das ist das
regenerierte Ergebnis Und 1.5 sieht in
diesem
regenerierten Clip besser aus als zuvor Bei dieser Spende ist
1,6 also auch der Gewinner weitem ist das, was ich verwendet
habe , weitaus besser, wenn Sie realistische Clips
generieren möchten.
34. Kling 1.6 vs. Kling 1.5 Pro-Modus: Willkommen zurück.
Lassen Sie uns nun über die Bild-zu-Video-Generierung von
1.6 sprechen. Ist 1,6 besser bei der
Bild-zu-Video-Generierung als 1,5? Lassen Sie mich Ihnen
einige Beispiele zeigen. Zuallererst haben
wir in diesem Beispiel dieses Bild, und ich schreibe eine Aufforderung, ein Messer zu schreiben, das einen Apfel in zwei Stücke
schneidet. Und wie Sie sehen können, verwende
ich das Modell 1.5 und für diese Generation den professionellen
Modus. Jetzt sieht sogar der Profi-Modus, wie ihr sehen könnt, Leute
, unrealistisch aus Jetzt verwende
ich
mit demselben Bild und derselben Aufforderung einfach den
professionellen Modus 1.6, und das ist das Ergebnis von 1.6 Und nachdem ich
diese Generation gesehen habe, ist
1.6 weitaus besser als die anderen Tools, die derzeit auf dem Markt erhältlich
sind , weil die Bewegung
großartig ist und Apple Slice
Slide realistisch aussieht. Sehen wir uns nun auch ein
anderes Beispiel an. In diesem Beispiel verwende
ich nun mein Bild
und tippe einen Abschlussball ein. Der Raum wird sehr schnell
dunkler und der Kopf der Person brennt und
beleuchtet danach den Raum. Also möchte ich, dass der Raum
dunkel wird und ich möchte, dass mein
Gesicht in Brand gerät. Und wie Sie sehen können, verwende
ich den professionellen Modus 1.5, und das ist das Ergebnis. Sieht gut aus, aber es sieht
nicht realistisch aus. Lassen Sie uns nun das Ergebnis von
1.6 mit derselben Eingabeaufforderung
und demselben Bild herausnehmen . Ich verwende den professionellen
Modus für 1.6. Sogar das Video ist unrealistisch, aber visuell
ist 1.6 weitaus besser Jetzt haben wir ein anderes Beispiel. Und bei diesem
Bild tippe ich Man, der vor dem
Roboter
wegläuft, der ihm folgt. Ich verwende den professionellen Modus 1.5
und habe dieses seltsame Ergebnis erzielt. Und nachdem ich dieses
Ergebnis gesehen habe, dachte ich mir, warum diesen Clip nicht im professionellen
Modus 1.6 regenerieren 1.6 wird besser
sein, oder? Wenn ich meinen Clip abspiele, wie Sie sehen können, rennt die
Person, alles sieht
realistisch aus, aber der Clip enthält keinen Roboter. Ich bitte ihn, einen Roboter hinzuzufügen, aber der Clip enthält keinen
Roboter. Das ist also eine
kleine Enttäuschung. Also möchte ich dieses Problem beheben. Also habe ich mir überlegt, wie ich dieses Problem
beheben kann. Also in diesem Beispiel ändere ich einfach den Abschlussball. Person, die auf die Kamera zuläuft, unser riesiger Roboter verfolgt ihn Ich verwende ein anderes Bild,
weil
man auf dem vorherigen Bild mein Gesicht nicht wirklich sehen kann Und ich verwende den professionellen Modus 1.6, und jetzt haben wir ein besseres Ergebnis. Die Person rennt und der
Roboter verfolgt ihn auch. Und wie du sehen kannst, sieht das Ergebnis
wirklich toll Und ich bin
mit diesem Ergebnis zufrieden. Wenn Sie also Probleme
mit Ihrer Generation haben, ändern Sie
einfach die Eingabeaufforderung. Sie erhalten
das gewünschte Ergebnis. Wenn Sie nun nicht das gewünschte
Ergebnis erzielen, wie in diesem Beispiel, mit demselben Bild
und demselben Abschlussball, habe ich dieses Ergebnis erhalten. Aber ich regeneriere dieses Ergebnis und habe dieses Ergebnis erhalten,
das sich
sowohl in der Qualität als auch in der Bewegung verbessert Wenn Sie nicht das gewünschte
Ergebnis erzielen,
auch wenn Sie eine
sehr präzise Eingabeaufforderung eingeben,
ein qualitativ hochwertiges Bild
von sich selbst oder jemandem erhalten auch wenn Sie eine
sehr präzise Eingabeaufforderung eingeben, haben,
versuchen Sie, dick zu regenerieren, da
Sie dadurch auch die Qualität
oder die Bewegung verbessern Jetzt haben wir ein anderes Beispiel. Mit diesem Bild tippe ich diesen bunten Ballon, der von der Decke
fällt. Einige von ihnen fallen auf das Licht der Person, das
den Raum mit einem Farbballon beleuchtet den Raum mit einem Farbballon Und das ist das Ergebnis, das
ich bekommen habe, das ist übrigens der 1.5 Profi-Modus, und
alles sieht gut aus Und jetzt haben wir 1.6 mit demselben Pro
mit demselben Bild und auch mit demselben Modus,
dem professionellen Modus.
Schauen wir uns das Ergebnis an. 1.6 ist weitaus
realistischer als 1.5. Aber in 1.6 haben wir einige Details. Wenn ihr auf dem LCD bemerkt,
wie ihr sehen könnt, Leute, sobald ein Ballon von der Decke
fällt, haben
wir die Spiegelung auf
diesem LCD. Und wir haben auch
realistische Ballons, aber sie erscheinen für einen
kürzeren Zeitraum. 1.6 ist ein bisschen
besser als 1.5. Wenn Sie das Ergebnis vergleichen, ist
1,6 ein bisschen besser, nicht zu viel, aber ein
bisschen besser. Aber wenn du über
das Gefühl sprichst, 1.6, zerstöre
einfach 1.5, weil 1.6-Bewegung
realistisch aussieht, dann 1.5. Wenn du dir 1.5 Emotionen ansiehst, haben sie nur das Gefühl
, dass das nicht real ist. Aber in 1.6
sieht alles gut aus. Aber ich mag
beide Ergebnisse irgendwie. Also wenn du 1.5 verwenden willst, dann kannst du das
auf jeden Fall verwenden. Nun ist 1.6 auch
in Bezug auf den Ausdruck besser. ,
tippe ich bei diesem Bild Wie Sie sehen können,
tippe ich bei diesem Bild eine Aufforderung ein,
eine Person steht mit neutralem Gesichtsausdruck da, geht zu
einem traurigen
Gesichtsausdruck über, dann zu einem glücklichen Gesichtsausdruck und
dann lächelt sie Und das ist das Ergebnis. Jetzt, nach diesem Ergebnis, regeneriere
ich
das Ergebnis mit demselben Modus und
demselben Modell, nämlich 1,6 Hier haben wir das Ergebnis
regeneriert, und mir gefällt dieses
Ergebnis mehr als das vorherige Wenn Sie also nicht das erwartete Ergebnis erzielen
, versuchen
Sie es zu regenerieren Wir haben ein weiteres Beispiel
für den professionellen Modus 1.6. Mit demselben Bild tippe
ich Mann, der in
einem Cyberpunk-Anzug durch
eine Cyberpunk-Stadt rennt , und das ist das
Ergebnis, das ich Wenn Sie etwas
Unrealistisches versuchen, könnten
Sie
in Ihren generierten
Clips einige Verstöße feststellen Aber visuell finde
ich, dass 1.6 großartig aussieht Und jetzt ist dies
das letzte Beispiel für den professionellen Modus 1.6. Ich verwende dieses Bild und tippe Karte,
die sich in ein weißes Auto verwandelt, und das ist das Ergebnis des professionellen Modus
1.6. Was die Videoqualität
und den Realismus angeht, versuche
1.6 nun, so realistisch wie möglich zu sein
35. Kling 1.6 vs. Kling 1.5 Standardmodus: Willkommen zurück. Der professionelle Modus
1.6 ist also besser als
andere KI-Modelle. Aber ist der 1.6-Tener-Modus auch
gut für die Videogenerierung geeignet? Lassen Sie uns das anhand
einiger Beispiele herausfinden. Genau hier haben wir
dieses Bild und wir haben das gleiche Problem, das wir
im professionellen Modus verwenden. Nun, was die Ausdrucksweise angeht, ist
1.5 nicht wirklich gut darin. Jetzt mit demselben Bild mit derselben Eingabeaufforderung
mit demselben Modus, was der Standardmodus ist, aber ich verwende 1.6, und selbst im Standardmodus ist
1.6 besser als 1.5. Jetzt haben wir ein anderes Beispiel. Auf diesem Bild, auf dem diese aufforderte Person auf die Kamera
zuläuft, verfolgt ihn
ein riesiger Roboter Ich verwende den 1.5-Standardmodus und das ist das Ergebnis Für diese Spende hat
1.5 meiner Meinung nach wirklich gute Arbeit geleistet. Aber der Roboter verfolgt mich nicht. Er jagt diese Leute. Und jetzt mit demselben
Bild mit demselben Abschlussball, aber mit dem 1.6-Modell
mit Standardmodus, ist
dies das Ergebnis Und ich denke, 1.6 hat wirklich
gute Arbeit geleistet. Auch in dieser
Generation hat es 1,5 übertroffen. Wir haben ein anderes Beispiel. Stellen Sie sich vor, bei diesem Abschlussball fangen alle an zu kämpfen und sich gegenseitig zu
schlagen Ich verwende den 1.5-Standardmodus und das ist das Ergebnis Jetzt mit demselben Bild
mit demselben Abschlussball, verwende
einfach 1.6 für dieses, und ich verwende dafür auch
den Standardmodus. Und das ist das Ergebnis. Ich sehe etwas besser aus als 1,5, weil es weniger
Verstöße als 1,5 gibt. Lassen Sie uns auch ein
anderes Beispiel herausnehmen. Erinnerst du dich an diesen Typen? Ich verwende dieses Monster-Bild
für den Vergleich des
professionellen Modus 1.0 und 1.5 Aber beide schaffen es nicht,
den Ausdruck dieses Ungeheuers auszudrücken. Jetzt, mit dem 1.6-Standardmodus, hat
1.6 wirklich gute Arbeit geleistet um den
Gesichtsausdruck dieses Monsters zum Ausdruck Sehen wir uns nun ein
anderes Beispiel an. Bei diesem Bild
ist dies der 1.5-Standardmodus. Bei dieser Aufforderung
fällt ein dünner Schleim von der Decke und
bedeckt den Körper des Mannes Jetzt mit demselben Bild
mit derselben Eingabeaufforderung, mit dem 1.6-Standardmodus, ist
dies das Ergebnis Nun, ich denke, 1,5 in dieser Generation hat
wirklich gute Arbeit geleistet, dann 1,6. Jetzt haben wir ein weiteres Beispiel
mit demselben Bild, bei dem dieser Ballmann in
einer Cyberpunk-Stadt läuft und
einen Anzug im Cyberpunk-Stil trägt 1,5-Standardmodus ist das
das Ergebnis Und ich werde nicht lügen. Mir gefällt das Ergebnis
, das ich mit 1.5 erzielt habe, auch im Standardmodus. Aber meine Frage ist, es hat
keine Cyberpungität erzeugt Wir haben nur einen futuristischen
Würfel oder so etwas bekommen, aber wir haben keine Jetzt mit demselben Bild
und derselben Aufforderung, dem
1.6-Standardmodus, ist dies
das Ergebnis, das wir erhalten Und selbst im Standardmodus übertraf
1,6 1,5 in Bezug auf die visuelle Qualität und die Videoqualität. Jetzt mit demselben Bild, auf
dem dieser Profi-Mann vor einer großen Explosion davonläuft vor einer großen Explosion davonläuft die
in der
Hintergrundkamera ihm folgt. 1.5-Standardmodus ist
dies das Ergebnis. Und mit demselben Bild
mit derselben Aufforderung, dem 1.6 Tender-Modus, ist
dies das Ergebnis. 1.6 schneiden besser ab, was
das visuelle Erscheinungsbild und die
Ausdrucksweise der Menschen angeht . Wie Sie sehen können,
bemerkt diese Person die Explosion
und rennt auf die Explosion zu, um Menschen zu retten oder
etwas Ähnliches. Ich denke, 1.6 hat in
dieser Generation
einen wirklich fantastischen Job gemacht. Jetzt könnten Sie eine Frage stellen
, welches Modell Sie verwenden sollten? 1.6, 1.5 oder 1.0. Was den Realismus angeht Wenn Sie
realistische Videos erstellen möchten,
verwenden Sie 1.6, da 1.6
weitaus realistischer ist als 1.5 Wenn Sie jedoch einen Clip generieren
möchten
, der eine Mischung aus
realistischem oder realistischem und unrealistischem Clip ist ,
dann versuchen Sie es mit 1.5, weil 1.5 zwischen beiden
generiert Aber wenn Sie Ihre Eingabeaufforderung
ausprobieren möchten, wenn Sie
mit der Aufforderung experimentieren möchten und gleichzeitig keine zusätzlichen Credits verlieren möchten,
dann verwenden
Sie 1.0, weil 1.0 mit zehn Credits generiert wird, was 1,5
war und 1,6 Sie
20 Credits pro Generation kosten wird Nachdem Sie
mit der Generation 1.0 experimentiert
haben, bekommen Sie vielleicht eine Vorstellung davon, wie das 1.5- und 1.6-Video aussehen
würde. Das ist also meine Schlussfolgerung. Ich hoffe, ich beantworte deine Frage. Wenn Sie nun eine andere
Frage zu diesem Kurs haben, Sie mich gerne stellen. Ich stehe Ihnen jederzeit zur Verfügung, um Ihre Frage zu
beantworten.
36. So synchronisiert man die Lippen mit Kling KI: Willkommen zurück. Jetzt haben wir
ein neues Update von Lip Sync. Jetzt haben wir einen speziellen
Bereich nur für Lippensynchronisation. Was in
diesem Update neu ist, ist, dass wir das Video hochladen
können,
um diese Lippensynchronisation auszuprobieren. Vor diesem Update können wir
wirklich kein Video hochladen. Wir müssen ein Video generieren,
um dieses Video mit den Lippen zu synchronisieren. Wenn Sie nun einige
Videos verwenden, die
mehrere Phasen enthalten , wie
in diesem Beispiel, haben wir,
wie Sie sehen können, mehrere Gesichter, dann erkennt
die KI keine Phase. Ich empfehle daher,
das Video zu verwenden , das Ihr Gesicht
deutlich zeigt und das nur eine Phase
enthält. Jetzt werde ich mein Video
hochladen. Sobald Sie Ihr Video hochgeladen haben, analysiert
AI Ihr
Video und
bestätigt dann, ob dieses Video die
Lippensynchronisationsfunktion verwendet oder nicht. Sie können
mein Gesicht in diesem Video also deutlich sehen,
sodass wir dieses Video jetzt mit den Lippen
singen können. Wenn Sie nun Ihr Video
wechseln möchten, wenn Sie
beispielsweise Ihr Video
ändern möchten,
möchte ich dieses Video nicht verwenden. Wenn ich mein Video ändern muss, muss ich hier klicken,
um mein Video erneut auszuwählen. Und jetzt, wie Sie sehen, können wir jedes gewünschte Video
auswählen. Jetzt gibt es zwei Möglichkeiten, Ihr Video mit den
Lippen zu synchronisieren. Sie können entweder
Text-to-Speech verwenden, das mehrere
Stimmen enthält, oder Sie können Ihr eigenes Audio
hochladen, um die Lippen zu synchronisieren. Jetzt habe ich diese Zeile getippt. Gehen wir jetzt zur Mail
und lassen Sie uns dieses Audio abspielen. Hallo da. Ich heiße
Faison. Ich benutze King A. Jetzt können manche Stimmen Emotionen nicht
wirklich gebrauchen, und jetzt haben wir diese Botschaft Neutrale Emotionen sind mit dieser Stimme nicht
verfügbar. Wir haben also mehrere
Stimmen, die neutrale Emotionen nicht
wirklich gebrauchen können . Sie müssen also
eine andere Stimme wählen ,
um neutrale Emotionen zu verwenden. Hallo da. Ich heiße Faison Ich benutze King AI. Hallo da. Ich heiße Faison Manchmal haben
wir in einigen Stimmen diese Botschaft, sodass du diese Stimme nicht wirklich
benutzen kannst Du musst
eine andere Stimme wählen. Hallo da. Ich heiße Faizan Ich benutze Kling Ai. Lass uns jetzt diese Stimme benutzen. Jetzt kannst du auch
deine Emotionen ändern. Wählen wir wütende Emotionen aus. Hallo da. Ich heiße Faizan Ich benutze King Ai. Jetzt lass uns rot werden. Jetzt haben wir die Lippensynchronisation. Schauen wir uns
die endgültige Ausgabe an. Hallo da. Ich heiße Pasan Ich benutze King Ai. Jetzt stehen wir vor einem Problem. Wie Sie sehen können, ist die
Lippensynchronisation ungewöhnlich. Denn wenn Sie
im Originalvideo genau hinschauen, bewegt sich
mein Mund zu sehr. Aus diesem Grund hat die KI
Schwierigkeiten,
meine Lippen neu zu formen ,
um die Lippensynchronisation auszuprobieren In diesem Beispiel, dem ich überhaupt nicht gesprochen habe, wie ihr sehen könnt, Leute, bewegt sich mein
Mund überhaupt nicht Ich habe dieses Video mit
Bild-zu-Video-KI generiert. Jetzt versuche ich die Lippensynchronisation dieses Video und das
ist die endgültige Ausgabe. Leute, es gibt so viele
Luftballons in meinem Zimmer. Nein, glaub mir, sieh dir das an. Nun, wie ihr sehen könnt,
Leute,
ist die Lippensynchronisation bei diesem Video verrückt. Jetzt haben wir ein anderes Beispiel. Also bei diesem Video,
wenn ich diesen Clip abspiele, bewegt sich
der Mund ein
bisschen, nicht zu sehr. Und ich versuche es mit
Lippensynchronisation bei diesem Video, wir haben dieses Ergebnis erzielt. Hallo, da. Mein Name ist Faison und ich werde
Pixar Animation erstellen Wie du sehen kannst, Alter,
die Lippensynchronisation ist verrückt. nun, wie ich Ihnen bereits gesagt habe, kein Video hoch
, das zwei Phasen enthält. Nun, ich versuche das
und überraschenderweise wähle ich
in KI nur eine Phase aus. Der Grund dafür ist, dass
dieser spricht. diesem Grund konzentriert sich der Link
auf diese Phase
und ich versuche, die Lippensynchronisation
für diesen Charakter zu
verwenden, und das ist das Endergebnis. Glaubst du, du kannst
Anime ohne
besondere Fähigkeiten erstellen ? Nun ja, und ich
werde dir zeigen, wie. Glaubst du, du kannst
Anime ohne
besondere Fähigkeiten erstellen ? Nun ja, und ich
werde dir zeigen, wie. Jetzt haben wir ein weiteres Beispiel
für Animationen im Anime-Stil. Dies ist die Originalquelle,
in der der Charakter spricht, aber nicht zu viel, und dies ist das endgültige
Ergebnis von Lip Sync. In Ordnung, eine Stunde Arbeit
und ich kann loslegen. Das ist ein weiteres Beispiel, und das ist meine
ursprüngliche Quelle, wo der Mund bei diesem Charakter
überhaupt nicht bewegt, und das ist das Ergebnis der Lippensynchronisation Was für ein toller Tag für eine Fahrt. Ich muss den Schwung aufrechterhalten. Jetzt haben wir ein weiteres
Beispiel für schlechten Lippensynchronismus. Wie ich Ihnen bereits gesagt habe, wenn sich Ihr Mund
zu stark bewegt, wie in diesem Video und in meinem
vorherigen Originalclip, erhalten
Sie ein
schlechtes Lippensynchronisationsergebnis. Wie oft muss ich dasselbe
sagen? Hörst
du überhaupt zu? Wenn du also die
Lippensynchronisation richtig ausprobieren willst, wenn du die
Lippensynchronisation auf dein Video übertragen willst,
dann wende Lippensynchronisation auf das Video an, das
weniger Gesichtslippenbewegungen enthält. Wenn Sie also in Ihrem Video
zu viel Mundbewegung haben, werden
Sie bei der Lippensynchronisierung ein
schlechtes Ergebnis erzielen. So können Sie also
die Lippensynchronisierung mithilfe von Cling AI verwenden.
37. Elemente: Willkommen zurück, alle zusammen. Wenn wir jetzt zu KI-Videos gehen, haben
wir eine neue Funktion
namens Elements. Und dabei können Sie mehrere Bilder
auswählen und es werden Videos
mit dieser Bildreferenz generiert. Nehmen wir zum Beispiel ein einfaches Beispiel. Jetzt haben wir diese beiden Bilder. Wie Sie sehen können, können
Sie von hier aus Ihr Bild löschen, ein anderes Bild hochladen und hier Ihr Element
auswählen. In meinem Beispiel möchte ich das gesamte Bild
auswählen, aber wenn Sie beispielsweise nur diesen Truck auswählen
möchten, können Sie auch diesen Truck
auswählen. Sie können auf Bestätigen klicken und dann
Ihre Videos mit
diesen Elementen generieren . Jetzt wähle ich
mein gesamtes Bild aus. Für mein zweites Bild habe ich
dieses Ferrari-Auto ausgewählt. Jetzt werden wir
ein Video mit diesen beiden Bildern machen . Also werde ich einen einfachen Abschlussball
wie ein Ferrari-Auto in ein Feld
tippen . Also
funktioniert die Elementfunktion nur mit einem 1,6-Liter-Modell. Wenn Sie Ihr Modell auf 1,5 ändern, können
Sie
dieses Elementvideo nicht wirklich generieren. Wenn Sie dies auf 1.0 ändern, haben
wir dasselbe Problem. Jetzt können wir
diese Elementvideos nur noch
mit dem Modell 1.6 generieren . Wenn der professionelle
Modus ausgewählt ist, können
wir dieses Video generieren. Das Video ist jetzt generiert
und hier haben wir das Ergebnis. Wie Sie sehen können, haben wir dieses
Ferrari-Auto auf einem Feld. Und wenn ich dieses Video pausiere, wenn wir das Originalbild öffnen, wie Sie auf
dem Originalbild sehen können, haben
wir keine Cloud. Wenn wir dieses Bild öffnen, möchte
ich, dass ihr euch
auf das Wolkenmuster konzentriert. Und in dem generierten Clip haben
wir,
wie ihr sehen könnt , genau hier am Himmel dasselbe
Wolkenmuster. Und wir haben dieses Feld
in diesem generierten Video. Also hoffe ich, du verstehst die Idee. Sehen wir uns einige andere Beispiele an, um
diese Elementfunktion
besser zu verstehen. In diesem Beispiel haben
wir also zwei Bilder. Wir haben dieses Bild,
ein fliegendes Flugzeug. Das ist die Referenz. Das ist das Element, und
wir haben noch ein anderes Element. Wir haben einen Vektorstil für
fahrende Motorradfiguren. Jetzt habe ich dieses Problem eingegeben: Mann fährt Fahrrad und
Flugzeug fährt vorbei Mit dem Standardmodus von 1.6 haben wir dieses Ergebnis Lass das Flugzeug vorbeifliegen und wir haben den Motorradfahrer diese Art von Bildern zu generieren, können
Sie nun Labstt
Google-Bildeffekte verwenden Und wie ihr sehen könnt, Leute, wenn wir zum Labstt-Google gehen, sind
dies Eingabeaufforderungsdaten, die verwendet werden, um dieses Bild
zu generieren,
und dies ist eine Aufforderung zum Bild eines
Motorradfahrers Jetzt können wir auch
ein Objekt hinzufügen und mit diesem Objekt
alles machen Also zum Beispiel, genau hier, wie ihr sehen könnt, Leute, das
ist mein Originalbild. Genau hier haben wir
dieses Objekt, einen SWOT-,
IATI-Mann, der im Standardmodus auf einem
SWOT herumschwingt Wie ihr sehen könnt, Leute, in
diesem generierten Video schwinge ich Wir haben ein anderes Beispiel. Diesmal wurde auch
der Hintergrund
dieses Objekts kopiert . In diesem Beispiel
habe ich jetzt drei Elemente. Was wir haben ist dieses Bild
von einem Auto im Nirgendwo. Wir haben diesen Hintergrund und wir haben dieses Thema. Und mit dieser Aufforderung, mit dem professionellen Modus
1.6,
haben wir genau das bekommen. Manchmal generiert es also
diese Art von Videos. In meiner nächsten Generation habe ich diese Aufforderung eingegeben und im
Standardmodus haben wir das bekommen Jetzt entferne ich ein Element
aus diesen Elementen, und in meiner nächsten Generation habe ich das nur mit
diesen beiden Elementen bekommen In diesem Beispiel
habe ich also nur zwei Elemente,
einen Mann, der auf einer Couch sitzt, und wir haben dieses Auto, und ich tippe diese
Person ein, die auf
einem Sofa neben einem verlassenen
Auto in der Wüste sitzt . Und selbst im Standardmodus, wie ihr sehen könnt, Leute, ist
das Ergebnis erstaunlich. Der Grund, warum ich euch
dieses Beispiel gezeigt habe , ist, dass
wir
mit ein paar einfachen Eingabeaufforderungen auch erstaunliche Ergebnisse
mit den Elementen erzielen können . Um Ihre Probleme zu beheben, können
Sie also mehr Videos generieren. Sie können Ihre Keywords
von hier und da aus optimieren. Jetzt haben wir ein weiteres Beispiel
mit demselben Bild, und dieses Mal haben wir
dieses andere Auto, und wir haben dieses Ergebnis Karte auf dem Feld.
Schau dir das an. Und dieses Mal, wenn wir in den
Zuschneidemodus wechseln, habe ich, wie
ihr sehen könnt , nur
diesen Teil dieses Bildes ausgewählt. Das ist mein Element
, das ich ausgewählt habe. In diesem Beispiel
haben wir zwei Anime-Charaktere, und ich habe beide im Standardmodus
gekämpft .
Das haben wir bekommen Wenn Sie nun manchmal Videos mit einem Element
erstellen, wird die Referenz genau dieses Element
notieren Ich nehme die Referenz
dieses Elements und es wird ein brandneues Video
generiert. Mit den gleichen Bildern
habe ich also beide Kämpfe
miteinander verknüpft. Mit dem Standardmodus haben wir das. Wie Sie sehen können,
wird anhand der Referenz dieser beiden Charaktere ein ganz neues Video
generiert. Nun, bei
diesen beiden Elementen, wenn ich mein Bild öffne, ist
das mein Element Nummer eins, und das ist mein
Element Nummer zwei. Wenn man auf einem Stuhl sitzt, passiert
im Hintergrund
eine große Explosion. Das sind also die Abschlussballdaten, die
verwendet wurden, um dieses Video zu generieren. Selbst mit dem Stehbrett ist
das Ergebnis ziemlich überzeugend. Schau dir das an. Das ist verrückt Ein weiterer Grund, warum
Sie nicht das
gewünschte
Ergebnis erzielen, ist, dass Sie die falschen Bilder
verwenden Also in diesem Beispiel, wie ihr sehen könnt,
habe ich diese Bilder
und wir haben diese
beiden Kinder, die Rad fahren, und das ist ein seltsamer Zyklus , den ich
mit Labs Google generiert habe. Das ist das Problem, und
das ist das seltsame Ergebnis. Dies ist ein weiteres Beispiel, und dies ist das letzte Beispiel. Stellen Sie also sicher, dass Sie die richtigen Bilder
ausgewählt haben. Jetzt haben wir dieses Beispiel. In diesem Beispiel
habe ich das Element for verwendet,
was das meiste
Element ist, das Sie verwenden können um Videos
mithilfe der Elements-Funktion zu generieren. Also zuerst haben wir diese Person. Wir haben dieses Mikrofon.
Wir haben dieses Auto und wir haben das
als Hintergrund. Nun zu meiner Aufforderung: Ich habe
Boy getippt, der ein Mikrofon hält, in einem Auto
sitzt, das in der Wüste
geparkt Kamera langsam heranzoomt Im Standardmodus haben wir
das. Mit einem
professionellen Modus mit genau
den gleichen Eingabeaufforderungen und
Elementen ist dies das Ergebnis Jetzt haben wir ein weiteres Beispiel für
das am häufigsten verwendete Element. Wir haben also diese vier Elemente, und ich habe die Kamera auf einen Radfahrer
fokussiert, dann auf das Flugzeug und dann auf den Stand des Menschen
fokussiert Im Standardmodus haben wir
das. Wir haben ein Flugzeug für Radfahrer. Und genau hier
haben wir einen Mann, diesen. Für mein nächstes generiertes Video entferne
ich den Hintergrund, und das ist es, was wir haben. Wir haben dieses seltsame Ergebnis. Der Grund, warum wir
diesen Morphing-Effekt
im Video bekommen diesen Morphing-Effekt
im , ist, dass ich den Standardmodus
verwende Deshalb haben wir
diesen Morphing-Effekt. Jetzt, in meinem nächsten generierten Video,
korrigiere ich hier und da mein
Eingabeaufforderungswort, und dieses Mal hat es
das Ergebnis ein wenig verbessert Wir haben das Standing Man-Flugzeug und wir haben den Radfahrer Sie können also auch
eine dynamische Szene
wie diese
mit den Elementen erstellen auch
eine dynamische Szene
wie diese
mit den Elementen In diesem Beispiel
habe ich jetzt auch den
Hintergrund wieder gelöscht. Und mit dieser Aufforderung im Standardmodus haben wir das bekommen. Aus irgendeinem Grund
habe ich jetzt den
professionellen Modus mit genau
der gleichen Eingabeaufforderung
und dem gleichen Element verwendet , und das haben wir bekommen. Es hat gerade
dieses brandneue Video generiert. Es nimmt die Referenz
aus meinen Elementen, generiert
kein Video mit genau
demselben Element, sondern nimmt die Referenz
von meinem Element. Sie können auch Ihr
generiertes Video verbessern. Wie Sie hier mit genau
derselben Aufforderung bei
diesen Bildern mit diesem Element sehen können genau
derselben Aufforderung bei
diesen Bildern mit ,
habe ich, wenn Sie zur
negativen Eingabeaufforderung wechseln, das wenn Sie zur
negativen Eingabeaufforderung wechseln, das Schlüsselwort eingegeben,
dass ich dieses Ding nicht in meinem
generierten Video haben möchte ,
Entstellung, Verzerrung und Wir schauen uns das ursprüngliche Ergebnis an, das ist mein Originalclip,
und ich habe
diesen Clip mit der negativen Eingabeaufforderung regeneriert ,
und
das ist, und Wie Sie sehen können, wurde das
Ergebnis erheblich verbessert. Wir haben in diesem
Video weniger
Verzerrungen, Entstellungen und Morphing-Effekte als im Original Dies ist das
Originalvideo. Schauen Sie sich
die Verzerrung und Entstellung Und jetzt schau dir das neueste Video
an. Jetzt erhalten Sie auch ein anderes Ergebnis, wenn Sie Ihren Clip
regenerieren Wie
ihr in diesem Beispiel sehen könnt, haben
wir diesen Hintergrund Wir haben die Ferrati-Karte
und wir haben diese Aufforderung. Mit dem professionellen Modus haben wir dieses Im Standardmodus entferne
ich jetzt einfach mein
Schlüsselwort Ferratic von hier,
platziere zuerst mein Auto und dann meinen Hintergrund.
Das haben wir In diesem Beispiel
platziere ich mein Auto wieder an erster Stelle
und dann
meinen Hintergrund mit genau derselben
Aufforderung. Das haben wir bekommen. Der Grund, warum
ich euch
das zeige , ist, dass, wenn ihr
euren Hintergrund zuerst platziert, es
das Element aus
eurem Hintergrund kopiert und
dieses Element auf
eurem zweiten Bild platziert , auf eurem zweiten Element. Lass uns damit experimentieren
, damit du besser verstehst,
wovon ich spreche. Lass uns dieses Bild löschen. Lassen Sie uns auch dieses Bild löschen. Und dieses Mal werde ich mein Element
eindämmen. Lassen Sie uns diesen Teppich entfernen. Klicken
wir auf Bestätigen. Und wir haben das gleiche Bild. uns
mit derselben Aufforderung im Standmodus Lassen Sie uns
mit derselben Aufforderung im Standmodus dieses Video erstellen. Das Video ist jetzt also generiert. Dies ist eine Vorschau, und wie
ich euch bereits gesagt habe, Leute, wenn ihr euren
Hintergrund zuerst platziert und euer Auto an zweiter
Stelle, euer Auto an zweiter
Stelle, bekommen
wir weniger Hintergrund
als im vorherigen Beispiel. Dies ist das vorherige Beispiel, und wie ihr sehen könnt, Leute, haben
wir den Hintergrund an zweiter Stelle. Deshalb bekommen wir dieses ganze
Hintergrundelement in diesem Video. Meine Empfehlung lautet also, wenn Sie möchten, dass Ihr Hintergrund im gesamten Video
statisch ist, platzieren
Sie Ihren Hintergrund
am Ende Ihrer Elemente. Wenn du vier Elemente hast, platziere deinen Hintergrund genau
hier im vierten Element. Wenn Sie zwei Bilder haben und einen Hintergrund haben möchten, platzieren Sie Ihr Element als Hintergrund auf dem
zweiten. Und wenn Sie zwei Elemente haben und wenn Sie einen Hintergrund
platzieren
möchten, platzieren Sie Ihr Element
am dritten Elementplatz. Wenn wir jetzt zu
den Labs gehen, Google, sind das meine generierten Bilder , die ich in der
Elemente-Vorlesung verwende. Das ist meine Aufforderung
für dieses Bild. Für diesen Hintergrund haben
wir diese Aufforderung. Für das Auto
haben wir diese Aufforderung. Für den Anime-Hintergrund haben
wir diese Aufforderung. Für den Hintergrund des
Feldes haben wir diese Eingabeaufforderung. Für das Autobild haben wir diese Aufforderung bekommen. Der Anime-Mann, wir haben
diese einfache Aufforderung. Wir haben diese Aufforderung und
wir haben dieses Ergebnis. Wir haben dieses Bild, und
das ist die Aufforderung. Und für dieses Bild gebe ich diese Eingabeaufforderung ein. Für das endgültige Bild mit dieser Eingabeaufforderung haben wir das bekommen. Sie können also Labs oder Google verwenden , um beeindruckende Bilder zu generieren. So können Sie die
Elements-Funktion von Ling AI verwenden.
38. Mehrelementig: Willkommen zurück,
alle zusammen. Also hat der Link AI New Update
eine neue Funktion namens
Multi Elements gestartet . Jetzt ist es anders
als normale Elemente. Wenn Sie zu normalen Elementen wechseln, müssen
Sie
bei normalen Elementen bis zu vier Bilder
hochladen um ein Video zu generieren. Bei mehreren Elementen
können Sie jedoch etwas
in Ihrem Video austauschen. Sie können Ihrem Video sogar
etwas hinzufügen und
etwas in Ihrem Video löschen. Derzeit ist das
Modell 1.6 Kling für mehrere Elemente verfügbar. Wenn Sie Ihr Modell
auf Kling 2.0 Master umstellen, können
Sie eigentlich nichts austauschen. Sie müssen
Ihr Modell auf 1.6 ändern. Wenn ich also zu Imagevideo gehe, haben
wir
in normalen Elementen auch 1.6. Wir haben keinen 2.0-Master. Wenn Sie Ihr
Modell jedoch auf 2.0-Master ändern und zu mehreren Elementen
wechseln, wechseln Sie zum entsprechenden Modell. Wie Sie sehen können, können wir mehrere Elemente
nur mit Cling 1.6 verwenden. Lassen Sie uns zunächst
den Tupfer für mehrere Elemente verwenden. Sie müssen also ein Video von
bis zu fünf Sekunden hochladen Video von
bis zu fünf Sekunden wenn Sie
mehrere Elemente verwenden möchten Sobald Sie Ihre Medien hochgeladen haben, wird Ihr Video analysiert. Wenn Ihr Video länger
als fünf Sekunden dauert, müssen Sie Ihr Video schneiden. Sie müssen Ihr Video zuschneiden und ein
Video mit einer Länge von bis zu fünf Sekunden erstellen. Meine dringende Empfehlung
ist daher , Ihr Video
unter fünf Sekunden zu halten. Jetzt haben wir diese Schnittstelle. Jetzt müssen wir eine Auswahl hinzufügen. Wir müssen ein Objekt auswählen
, das wir ersetzen möchten. Also werde ich dieses Auto auswählen. Also füge ich diesen Keyframe
für eine genaue Auswahl hinzu. Sie können auch, wenn Sie einen Punkt
hinzufügen und reduzieren oder diesen Punkt reduzieren oder
löschen möchten,
Sie können sogar die
Dio-Auswahl auswählen, und wir können darauf klicken, und
dieser Punkt wird gelöscht Fügen wir das jetzt noch einmal hinzu und bestätigen wir es. Sobald Sie bestätigt haben, müssen
Sie
ein Bild hochladen , durch das Sie dieses Auto ersetzen möchten
. Mit dieser Aufforderung habe ich dieses Bild generiert. Wie Sie sehen können,
haben wir diese Bilder. Ich werde dieses herunterladen und jetzt werden wir
das Auto durch dieses ersetzen. Sobald Sie Ihr Bild hochgeladen
haben, können Sie das Thema auswählen. Also werde ich mein Bild zuschneiden und dann auf
diese Bestätigungsschaltfläche klicken. Wenn Sie nun das Motiv ausgewählt haben, haben wir,
wie Sie sehen können, Swap
und in Klammern X, also müssen wir dem Ding einen Namen geben. Also gebe ich Fahrzeug
richtig ein , weil wir
ein Fahrzeug gegen ein anderes austauschen Tauschen Sie also das Fahrzeug von
diesem Bild gegen dieses Auto aus. Also werde ich
in der Klammer auch Fahrzeug eingeben. Jetzt können wir dieses Video generieren. Jetzt, wie Sie sehen können, tauscht
es das Fahrzeug aus. Wenn Sie nun denken,
dass Sie das Fahrzeug auf
dem
Bild umdrehen können , erhalten
Sie ein besseres Ergebnis. Also werde ich
Ihnen ein Beispiel zeigen , das ich zuvor generiert habe. In diesem Beispiel drehe ich mein Fahrzeug um und
alles bleibt beim Alten. Wie Sie sehen können, haben wir
dieses Ergebnis wieder. Ich werde Ihnen
den Grund zeigen, warum
wir diese Art von Fehler erhalten. Wenn du also genau hinschaust, habe ich mit demselben Abschlussball auch dieses Bild. Also habe ich dieses Bild heruntergeladen und verwende das Video mit dem Tupfer In diesem Bild habe ich, wie Sie sehen können, das gesamte Bild
ausgewählt Ich habe mein Bild nicht gekräht. Und wie Sie
sehen können, wurde auch
der Schlamm hinzugefügt , den wir auf dem Bild
haben, und er tauscht ihn mit der Rute In meinem letzten Beispiel habe ich das Fahrzeug nicht umgedreht und mein Motiv auf
diesem Bild zugeschnitten. Nun, das ist das Ergebnis. Wie Sie sehen können, wurde nur ein
bisschen Schlamm hinzugefügt, nicht
zu viel, wie wir
es in diesem Video gemacht
haben. Wenn Sie also Ihr Objekt
austauschen
möchten, müssen Sie
ein ähnliches Objekt auswählen. Wie Sie sehen können, zeigt
das Auto in diese Richtung Deshalb
habe ich dieses Bild ausgewählt. Das ist der Grund, warum dieses Auto
mit dem Video, das wir haben, nicht funktioniert. Jetzt musst du das auch
berücksichtigen. Wenn Sie ein Fahrzeug
gegen das Tier austauschen, erhalten
Sie auch ein
beschissenes Ergebnis In diesem Beispiel
habe ich, wie Sie sehen können, mein
Bild gegen ein Bier getauscht, und indem ich dasselbe Video verwendet habe, ändere ich in meiner Aufforderung einfach das Fahrzeug auf Und wie Sie sehen können, haben
wir dieses Ergebnis. Sie erhalten also beschissenes Ergebnis, wenn Sie das
Fahrzeug gegen ein Tier tauschen Sie müssen also
das Fahrzeug gegen ein Fahrzeug
austauschen und Sie müssen das Tier
gegen ein Tier tauschen Jetzt haben wir ein anderes Beispiel. Wie Sie sehen können, haben wir diesen
Clip und wir haben dieses Bild. Wenn ich also zur
Bearbeitung gehe, habe
ich, wie Sie sehen können, diesen Code ausgewählt und tausche diesen Code den Hund aus, den wir auf diesem Bild
haben. das Bild zu generieren, verwende
ich nun labstt Google Image
ex und tippe diese Eingabeaufforderung ein Der Grund, warum ich
einen weißen Hintergrund habe, ist , dass die KI
mit einem weißen Hintergrund besser funktioniert Es wird also
besser verstehen, wenn Sie
einen weißen Hintergrund
hinter Ihrem Bild haben . Wie Sie sehen können, tausche ich jetzt
die Ziege gegen den Hund, und das ist das Ergebnis. Jetzt verwende ich wieder
Bildeffekte auf Google
und habe dieses Ergebnis erzielt, und habe dieses Ergebnis erzielt, moderne Cyberpunk-Jacke
mit weißem Hintergrund Wie Sie sehen können, haben wir einen weißen Hintergrund und wir
haben diese Cyberpunk-Jacke Jetzt benutze ich dieses Video und habe mein
gesamtes Thema so ausgewählt Ich habe dieses
Thema so ausgewählt
und mehrere Keyframes hinzugefügt, um dieses Thema auszuwählen Jetzt habe ich diese Jacke
mit weißem Hintergrund. Und in meiner Eingabeaufforderung tippe ich
Jacke für vier Personen ein. Und wie Sie sehen können, haben wir dieses
Ergebnis erzielt, und es passt perfekt zu unserer
Cyberpunk-Jacke Was ist nun, wenn du Jacke und
Pent tauschen möchtest? In diesem Beispiel habe ich eine
Cyberpunk-Jacke
plus Farbe mit
weißem Hintergrund generiert plus Farbe mit
weißem In demselben Video verwende
ich dieses Bild. Wenn ich zur Bearbeitung gehe, haben wir, wie du siehst,
Cyberpunk-Jacke und Farbe,
und ich tippe einfach Jacke und Farbe für Person,
Jacke und Farbe Und wie Sie sehen können, haben wir
dieses phänomenale Ergebnis. Sie können ganz einfach
alles in Ihrem Video austauschen, wenn Sie das Bild mit
weißem Hintergrund verwenden , denn
bei einem weißen Hintergrund versteht
die KI es besser
und
kann dieses Bild leicht auf
Ihr Motiv oder Objekt zurückverfolgen Lassen Sie uns nun darüber sprechen, wie wir die Funktion zum Hinzufügen mehrerer
Elemente
verwenden können . Die Funktion zum Hinzufügen funktioniert so, als ob Sie Ihrem Video
etwas hinzufügen möchten. Mit den Farben 2.0 dieser Aufforderung habe ich diese Bilder generiert und verwende dieses Bild. Also habe ich mein Video verwendet,
in dem ich mit der
Kamera gesprochen habe, und das habe ich als Motiv
verwendet. Jetzt wird diese Aufforderung automatisch für Sie
geschrieben. Sie müssen nur diese Klammer eingeben
. Ich werde dies zunächst
aktualisieren, damit Sie besser verstehen, wie das Add-Element
verwendet wird. Gehen wir nun
zum Multielement. Und wenn Sie zur Anzeige gehen, müssen Sie
zunächst ein Video auswählen. Wie Sie sehen können, wird diese Aufforderung automatisch für Sie
geschrieben. Sobald Ihr Video analysiert wurde, müssen
Sie nichts mehr
auswählen, wie
wir es müssen
Sie nichts mehr
auswählen, wie in der
Swab-Funktion von Multi Element ausgewählt Wie Sie jetzt sehen können, müssen
Sie nach der Auswahl Ihres Videos ein Bild hochladen Sobald wir das Bild
im Kontext
dieses Referenzvideos haben , fügen Sie es
nahtlos hinzu und wir haben
dieses X unter Klammer. Wir können also tippen: Der Roboter
sitzt auf der Schulter einer Person. Sie müssen also Ihre Kontakte
in diese schließende
Klammer aus dem Bild
eingeben . Wenn ich nun zu meinem
Video gehe, das wir zuvor
generiert haben , und
zur Bearbeitung gehe,
wie Sie sehen können, in der inneren Klammer,
habe ich Roboter, der
auf der Schulter eines Menschen sitzt, eingegeben, und das ist das
Ergebnis, das wir erhalten haben Wie Sie sehen können, wurde dieser Roboter nahtlos auf meiner Schulter
hinzugefügt Ich habe noch ein anderes Beispiel für ein
Abenteuer mit mehreren Elementen. ,
habe ich in diesem Beispiel Wie Sie sehen können,
habe ich in diesem Beispiel mehrere Ich habe ein Bubble-Bild und ich
habe dieses Kreatur-Bild. Jetzt verwende ich den Kontext
dieses Referenzbildes, füge
einfach hinzu und ich tippte Multibubble in the
Air von diesem Bild aus Ein Schöpfer
steht neben dem Menschen,
neben der Person aus diesem Bild Und wie du siehst, habe ich
nur die Seifenblase bekommen. Also gebe ich
meine Eingabeaufforderung erneut ein und wenn ich zur
Bearbeitung gehe und in dieser Eingabeaufforderung einfach einen Ersteller
neben der Person Und wieder habe ich den Ersteller nicht
bekommen, ich habe nur die Seifenblase Also behebe ich mein Problem. In meiner nächsten Aufforderung, wenn ich zur Bearbeitung gehe, haben
wir,
wie Sie sehen können, einen Hund mit
weißem Hintergrund und ich habe eine Seifenblase mit
schwarzem Hintergrund. Also habe ich
die Luftblase aus diesem Bild zusammengebunden, Hund steht neben den
Ziegen auf diesem Bild Und wie Sie sehen können, bearbeitet
es nur den Hund. Der Grund, warum es den Hund
nahtlos bearbeitet , ist, dass wir den Hund im
weißen Hintergrund
haben, wie ich Ihnen bereits gesagt habe In meinem nächsten Beispiel habe ich, wie Sie sehen können, dieses Bild mit
dem weißen Hintergrund
generiert Wenn ich zum Labs-Punkt,
Google Image Effex, gehe, das die Multi-Bubbles
mit weißem Hintergrund Und wie Sie sehen können, fügt es
diesmal sowohl die
Blase als auch den Hund hinzu Wie Sie sehen können, haben wir einen realistischen
Cyborg-Roboterhund und wir haben dieses Hundebild Also verwende ich dieses
Cybergrobot-Bild des Hundes und tippe Cyberg Dog
neben Und wie Sie sehen können,
haben wir dieses verrückte Ergebnis. Wie Sie sehen können, ist das Licht
wichtig wir haben auch den Schatten
des Hundes. Lassen Sie uns nun über die letzte
Funktion von Multi Element sprechen, die als Löschen bezeichnet wird. Und so funktioniert es. Zuallererst
musst du ein Video hochladen. Nachdem Sie ein Video hochgeladen haben, wird Ihr Video analysiert wenn Ihr Video
weniger als fünf Sekunden dauert. Sobald es Ihr Video analysiert hat, haben wir
wieder diese Schnittstelle. Wir müssen ein Objekt oder ein
Thema auswählen , das Sie aus dem Video
löschen möchten. Also werde ich mein Thema
auswählen. Sie können mehrere
Punkte hinzufügen, wenn Sie möchten. nun im letzten Keyframe wir nun im letzten Keyframe erneut
mehrere Punkte hinzu und klicken wir auf Bestätigen Jetzt müssen Sie eingeben, was Sie
aus diesem Video löschen möchten habe das Thema ausgewählt,
also gebe ich Person aus
diesem Referenzvideo
löschen ein. Jetzt habe ich dieses Video bereits
generiert, sodass ich es nicht erneut
generieren muss. Wenn ich jetzt meinen
Clip abspiele, wird, wie Sie sehen, das
Thema präzise gelöscht In diesem Bereich liegen keine Fehler beim
Ausfüllen vor. Mit der Option Löschen können
Sie also ganz einfach
alles aus Ihrem Video löschen. So können wir also
die
Multi-Elemente-Funktion von Cling AI nutzen .
39. Kling 2.0 Master: Willkommen zurück, alle zusammen. Wir haben ein brandneues
Videomodell namens Cling 2.0. Wenn du auf die
Cling AI-Website gehst, kannst
du auf Global gehen,
und wie du siehst, können wir zu Video gehen,
und genau hier kannst
du dein
Modell auf Kling
1.6 auf Cling 2.0 Master ändern . Wenn Sie nun Text für Video
generieren möchten, können
Sie zu TextVDO gehen Sie können Ihre Eingabeaufforderung eingeben. Sie können auch die Hilfe von Deep Seek in Anspruch nehmen, um
Ihre Eingabeaufforderung einzugeben. Sie können ihn auch bitten,
Ihre Eingabeaufforderung zu verbessern. Jetzt können wir auch das Preset verwenden. Wie Sie sehen können, können Sie
diese Voreinstellung in Ihrer
Eingabeaufforderung verwenden , z. B. Ihre Linse , Ihren
Kurztyp, Licht und
Schatten usw. Sie können
Bild-zu-Video auch mit Cling 2.0 Master verwenden. Sie können Ihr
Bild hochladen, Ihre Aufforderung eingeben oder einfach Ihr
Bild verwenden und ein Video generieren. Lassen Sie uns nun Cling 2.0
Master mit einem anderen Modell vergleichen. Wie Sie sehen können,
haben wir diese Aufforderung und Kling 2.0 Master
ist so verdammt teuer. Für die Generierung werden 100
Credits pro Video von 5
Sekunden benötigt. Das ist meine Aufforderung, und das
ist das Video, das wir bekommen haben. Und ich werde
ehrlich zu dir sein. Dies ist das schlechteste Video, wenn
Sie es mit anderen Modellen vergleichen. Mit 100 Credits habe ich das bekommen, und das ist das schlechteste Video, wenn man dieses
Video mit einem anderen Modell vergleicht Wie Sie sehen können, schneidet das
andere Modell besser ab als Kling 2.0 Master. Wir haben dieses Beispiel.
Wie Sie sehen können, haben
wir einen
Lego-Hai im Meer. Das Design des Hais ist
wie bei dem anderen gewöhnlichen Hai. Lassen Sie uns nun dieses Video,
diese Aufforderung, mit Kling 1.6 vergleichen . Jetzt habe ich diese Aufforderung,
und wie Sie sehen können, verwende
ich den
professionellen Modus von Kling 1.6, und das haben wir bekommen. In diesem Video gefällt mir
das Design des Hais sehr gut, aber der Kling AI
2.0-Master verleiht dem Video einen
realistischen Ansatz Jetzt haben wir dieses Beispiel, ein
Ferrari-Auto, das sich
in Bugatti verwandelt Das
haben wir mit dem
professionellen Modus von Kling 1.6 mit derselben Aufforderung bekommen,
das haben wir bekommen Wie Sie sehen können, erhalten wir
ein Video, obwohl
wir einen Fehler im Video haben. Aber wenn Sie
das mit Kling 2.0 vergleichen
, erhalten Sie nur diesen
gewöhnlichen Übergang von einem Auto zum anderen. Jetzt haben wir dieses Beispiel
und wie Sie sehen können, sieht
es aus wie eine
echte Videoaufnahme. Ich bin jetzt wirklich beeindruckt,
wenn Sie das Colors
2.0 Master of Kling AI
Image Generation Model verwenden 2.0 Master of Kling AI
Image Generation Model und Ihr Bild neu stylen, wie Sie sehen können, habe ich dieses
Bild im Enim-Stil der 90er umgestaltet Und wenn Sie dieses Bild mit Kling 2.0 Master in ein
Video umwandeln , haben wir, wie Sie sehen können,
dieses Jetzt können Sie
hochauflösende
Videos im Anime-Stil wie dieses erstellen . Jetzt verwende ich diese Eingabeaufforderung und
habe diese Bilder generiert. Und ich verwandle dieses Bild mit Clean 2.0 Master in ein
Video, und das haben wir bekommen. Auch hier hat mich 2.0
Master wirklich beeindruckt , weil der
dynamische Moment verrückt ist. Jetzt zeige ich
dir dieses Beispiel. Dies ist das Ergebnis des professionellen Modus
1.6, der Sichtweise eines Autos, und genau das haben wir Nicht schlecht. Lassen Sie uns nun
diese beiden Kling 2.0 Master vergleichen. Dies ist mit derselben Eingabeaufforderung. Das ist Kling 2.0 Master. Und wie Sie sehen können, sah
es aus wie eine echte
Videoaufnahme einer GoPro In den meisten Fällen
schnitt der
Kling 2.0 Master unglaublich
gut ab, schnitt der
Kling 2.0 Master unglaublich
gut ab wenn Sie
den Kling 2.0-Master
mit anderen Modellen vergleichen , aber in einigen Fällen
schneidet er einfach viel schlechter
ab als die anderen Modelle Es gibt dir einfach
irgendwann in dieser Aufforderung ein Bild, als ob ich dieses Bild bekommen habe, und ich habe diese einfache
Pan-Animation für 100 Credits, nicht einmal eine vergrößerte Ansicht Das müssen Sie also im Hinterkopf behalten wenn Sie
Kling 2.0 Master verwenden möchten Wenn Sie nicht Ihren Ruf
verlieren wollen, dann ist meine dringende
Empfehlung, das
Bild-zu-Video-Modell zu verwenden ,
denn in to prompt verwende
ich das Bild-zu-Video-Modell, und ich bin wirklich
beeindruckt von
Bild-zu-Video von Cling 2.0 Master, denn wie Sie
sehen, gibt es Ihnen einfach einen dynamischen Moment,
der Ihrem Bild Leben einhaucht.