KI-Videos in Kling AI erstellen | Text-zu-Video- und Bild-zu-Video generieren | Faizan Amjed | Skillshare
Suchen

Vitesse de lecture


1.0x


  • 0.5x
  • 0.75x
  • 1 x (normale)
  • 1.25x
  • 1.5x
  • 1.75x
  • 2x

Réaliser des vidéos par IA dans Kling AI | Générer du texte à la vidéo et des images à la vidéo

teacher avatar Faizan Amjed, Video Editor,Filmmaker & Youtuber

Schau dir diesen Kurs und Tausende anderer Kurse an

Erhalte unbegrenzten Zugang zu allen Kursen
Lerne von Branchenführern, Ikonen und erfahrenen Experten
Wähle aus einer Vielzahl von Themen, wie Illustration, Design, Fotografie, Animation und mehr

Schau dir diesen Kurs und Tausende anderer Kurse an

Erhalte unbegrenzten Zugang zu allen Kursen
Lerne von Branchenführern, Ikonen und erfahrenen Experten
Wähle aus einer Vielzahl von Themen, wie Illustration, Design, Fotografie, Animation und mehr

Einheiten dieses Kurses

    • 1.

      INTRODUCTION

      0:48

    • 2.

      Comment accéder à Kling AI

      1:52

    • 3.

      Interface IA Kling

      5:14

    • 4.

      Nouvelle interface de KlingAI

      2:24

    • 5.

      Générez des images étonnantes

      7:18

    • 6.

      Essais virtuels de l'IA

      3:46

    • 7.

      KOLORS 1.5 vs KOLORS 1.0

      12:09

    • 8.

      Générer des images avec une cohérence du sujet

      7:19

    • 9.

      Introduction de base pour générer des vidéos par IA

      3:48

    • 10.

      Générez un texte impressionnant pour la vidéo

      4:39

    • 11.

      Créativité vs pertinence

      5:01

    • 12.

      Mouvement de caméra IA

      5:49

    • 13.

      Amorce négative

      2:49

    • 14.

      Générez une image pour une vidéo IA

      3:02

    • 15.

      Cadre de début et de fin

      5:44

    • 16.

      Transformez-vous en Iron Man

      8:54

    • 17.

      Pinceau de mouvement

      16:15

    • 18.

      Vidéos de synchronisation labiale avec l’IA

      5:24

    • 19.

      Étendre la génération de vidéos par IA

      5:29

    • 20.

      kling 1.0 vs kling 1.5 mode Pro

      3:42

    • 21.

      Mode standard Kling 1.5 et Kling 1.0

      3:52

    • 22.

      Cadre de début et de fin 1.5

      9:34

    • 23.

      Pinceau de mouvement de Kling 1.5

      11:25

    • 24.

      Mouvement de caméra avec Kling 1.5

      8:24

    • 25.

      Kling 1.6 vs 1.5 vs 1.0 pour le texte sur vidéo

      9:44

    • 26.

      Mode Kling 1.6 vs mode Kling 1.5 Pro

      7:51

    • 27.

      Mode standard Kling 1.6 vs mode Kling 1.5

      6:46

    • 28.

      Comment synchroniser les labiales avec Kling AI

      5:22

    • 29.

      Éléments

      13:38

  • --
  • Niveau débutant
  • Niveau intermédiaire
  • Niveau avancé
  • Tous niveaux

Généré par la communauté

Le niveau est déterminé par l'opinion majoritaire des apprenants qui ont évalué ce cours. La recommandation de l'enseignant est affichée jusqu'à ce qu'au moins 5 réponses d'apprenants soient collectées.

158

apprenants

1

projets

Über diesen Kurs

Apprenez à générer des vidéos IA avec Kling AI, explorez tout le potentiel de Kling AI pour générer des vidéos avec du texte et des images.

Salutations, tout le monde

Je m'appelle Faizan, et je suis un instructeur Skillshare expérimenté.

Si vous souhaitez apprendre les techniques de génération de vidéo Kling par IA, ce cours est fait pour vous. Dans ce cours, vous apprendrez l'IA complète de Kling.

J'ai conçu ce cours pour les apprenants qui réfléchissent à eux-mêmes. En regardant ce cours et en réalisant les activités présentées dans la vidéo, vous apprendrez ces techniques de génération de vidéo.

Je vous ai expliqué chaque petit détail étape par étape et je vous ai facilité la tâche pour que vous puissiez me suivre.

Introduction à Kling AI :

Kling AI est un outil de génération de vidéos qui génère des vidéos à partir d'images et de texte.

  • De l'image à la vidéo

    Convertissez des images en vidéos vives exprimant des idées visuelles créatives

  • Du texte à la vidéo

    Invites d'entrée et générez des vidéos Des visuels de qualité cinématographique

  • Illustrations

    Éveillez l'inspiration, Peignez le monde du texte à l'image et de l'image à image

Ce que vous allez apprendre dans ce cours vidéo sur l'IA :

  • Processus de génération de vidéos par IA Kling

  • Comment générer des images réalistes

  • Comment générer du texte pour les vidéos

  • Comment écrire une invite impressionnante

  • Comment transformer des images en vidéos

  • Comment appliquer différents mouvements de caméra dans les vidéos IA

  • Comment réaliser des vidéos IA avec synchronisation labiale

  • Comment étendre des vidéos avec Kling AI

  • Comment utiliser la dernière version de Kling AI 1.5

  • et plus encore

Rencontrez votre enseignant·e

Teacher Profile Image

Faizan Amjed

Video Editor,Filmmaker & Youtuber

Enseignant·e

I am Faizan, an experienced video editor. Editing has been my profession since 2012. Over the years, I have edited numerous videos for myself as well as for others. My goal is to teach those interested in video editing and graphic designing. I am a software engineer who runs a youtube channel and works as an instructor at Skillshare and Udemy.

Voir le profil complet

Level: All Levels

Kursbewertung

Erwartungen erfüllt?
    Voll und ganz!
  • 0%
  • Ja
  • 0%
  • Teils teils
  • 0%
  • Eher nicht
  • 0%

Warum lohnt sich eine Mitgliedschaft bei Skillshare?

Nimm an prämierten Skillshare Original-Kursen teil

Jeder Kurs setzt sich aus kurzen Einheiten und praktischen Übungsprojekten zusammen

Mit deiner Mitgliedschaft unterstützt du die Kursleiter:innen auf Skillshare

Lerne von überall aus

Ob auf dem Weg zur Arbeit, zur Uni oder im Flieger - streame oder lade Kurse herunter mit der Skillshare-App und lerne, wo auch immer du möchtest.

Transkripte

1. EINFÜHRUNG: Entdeckte die Macht von Kling AI. Das führende Tool zur Videogenerierung , das einfache Texte und Bilder mühelos in professionelle und fesselnde Videos verwandelt und Bilder mühelos in professionelle und fesselnde Videos Hallo, alle zusammen. Mein Name ist Faizan Amjad Und in diesem Kurs lernst du, Videos von Grund auf neu zu erstellen und dabei die atemberaubenden Funktionen von King AI wie Text-zu-Video und Bild-zu-Video-Generierung zu nutzen Text-zu-Video und Bild-zu-Video-Generierung zu Ich führe Sie durch jeden Schritt, von der Generierung hyperrealistischer Bilder bis hin zur nahtlosen Integration in Videos Am Ende dieses Kurses werden Sie mit den Fähigkeiten ausgestattet sein, mühelos atemberaubende Videoinhalte zu produzieren Worauf warten Sie also noch? Melden Sie sich jetzt an und entfalten Sie Ihr kreatives Potenzial mit Kling AI. 2. So bekommst du Zugriff auf Kling-KI: Willkommen. Um also Zugang zu Cling AI zu erhalten, suchen Sie nach Cling AI und Sie müssen diesen Link cling-ai.com öffnen Sobald Sie auf den Link klicken, gelangen Sie zu dieser Seite. Dies ist die Oberfläche von cling.com. Hier können Sie sich kostenlos anmelden und Sie erhalten täglich 66 Credits Das Guthaben wird ebenfalls täglich zurückgesetzt Jetzt melde ich mich kostenlos an. Wenn Sie ein Konto haben, können Sie Ihre E-Mail-Adresse und Ihr Passwort hinzufügen. Wenn Sie jedoch kein Konto haben, melden Sie sich kostenlos an. Klicken Sie hier. Klicken Sie jetzt auf diese nächste Schaltfläche. Gehen Sie zu Ihrer E-Mail und Sie erhalten diese Bestätigungsnummer. Kopieren Sie diese Nummer und fügen hier ein und klicken Sie nun auf diese Anmeldeschaltfläche. Und jetzt, wie ihr sehen könnt, Leute, haben wir 66 Credits. Jetzt werde ich Ihnen die Oberfläche von Cling AI vorstellen . Hier, wie ihr sehen könnt, Leute, wenn ihr KI-Bilder generieren wollt, dann könnt ihr hier klicken. Und wenn du diese Bilder oder irgendein Bild in Videos umwandeln möchtest, dann kannst du hier klicken. Sie können auch Ihre KI-Videos generieren, und in Kürze wird die Funktion auch einen Video-Editor Bleiben Sie also auf dem Laufenden. Genau hier, wie du sehen kannst, sind dies einige Beispiele, die mit Ling AI erstellt wurden. Wenn Sie nun nach unten scrollen , bis Sie Guy sehen können, sind dies einige KI-Bilder und -Videos, die mit Ling AI erstellt wurden. Also hat der Benutzer dieser Website diese Beispiele erstellt. Sie können sich also auch von diesen Bildern und Videos inspirieren lassen . Sie können auf ein beliebiges Bild oder Video klicken, und hier, wie Sie sehen können, ist dies die Eingabeaufforderung für dieses Bild. Dies ist das Bildverhältnis, und dies ist ein Referenzbild, das keins ist. Dieser Benutzer hat dieses Bild also mit all in der Eingabeaufforderung ohne Referenzbild erstellt . Das ist also die Schnittstelle von Ling AI. 3. Kling-KI-Schnittstelle: Willkommen zurück. Jetzt werden wir einige grundlegende Bilder erstellen, damit Sie Cling AI besser verstehen können. Klicken Sie auf diese KI-Bilder. Sie werden zu dieser Schnittstelle weitergeleitet. Genau hier können Sie eine beliebige Eingabeaufforderung eingeben. Sie können ein beliebiges Bild generieren. Sie können auch auf Ihr Bild verweisen , wenn Sie ein ähnliches Ergebnis gemäß Ihrer Referenz erzielen möchten . Hallo, Sie können Ihr Seitenverhältnis auswählen, und hier können Sie die Anzahl der Generationen entsprechend Ihrer spezifischen Aufforderung auswählen . Ihr Ergebnis wird in diesem Teil dieser Website angezeigt . Cling AI benötigt 0,20 Credits , um ein Bild zu generieren. Wir generieren vier Bilder, es werden also 0,80 Credits Für ein Video werden zehn Credits benötigt. Sie erhalten 66 Credits und es läuft in 24 Stunden ab. Wenn Sie beispielsweise 20 von diesen 66 Credits verwenden, wird es am nächsten Tag auf 66 zurückgesetzt. Geben wir nun eine einfache Eingabeaufforderung ein. Also werde ich ein Glas Wasser auf einen Tisch tippen. Also, wie ihr sehen könnt, Leute, wenn ich die Anzahl der Generationen herabsetze, wird das auch meine Kreditwürdigkeit senken. wir also für die Generierung und wählen wir dieses Seitenverhältnis aus. Jetzt haben wir kein Referenzbild, also klicken wir auf dieses Generate. Denken Sie jetzt daran, dass wir das kostenlose Konto verwenden, sodass es einige Zeit dauern wird bis Ihre Bilder oder Videos generiert sind. Jetzt müssen Sie nicht mehr auf Ihre Generation warten, sondern können auch Ihre nächste Aufforderung eingeben. Nun, wie ihr sehen könnt, Leute, haben wir diese Bilder, und das sind atemberaubende Bilder. Jetzt können Sie eine beliebige Eingabeaufforderung eingeben und jedes Bild generieren, das Sie generieren möchten. Nun, wie ihr sehen könnt, Leute, wenn ich meine Maus auf ein Bild halte, haben wir drei Möglichkeiten. Eine ist erweitert und steht für Premium-Benutzer zur Verfügung . Mach dir keine Sorgen. Ich habe ein Premium-Konto, also werde ich Ihnen alles zeigen , was diese Website zu bieten hat. Genau hier, wie Sie sehen können, können wir dieses Bild als Referenz verwenden, und genau hier können wir dieses Bild zum Leben erwecken. Also werde ich dieses Bild auswählen. Erwecke dieses Bild zum Leben. Und wie ihr sehen könnt, Leute, braucht es zehn Credits, um dieses Bild zu erstellen. Klicken Sie auf diese Schaltfläche zum Generieren. Wie ich Ihnen bereits sagte, müssen Sie jetzt nicht hier sitzen und ein paar Minuten oder vielleicht Stunden warten , um zu sehen, wie Ihr Bild in ein Video umgewandelt wird. Sie können das nächste Video generieren, wenn Sie möchten. Also genau hier, wie ihr sehen könnt, Leute, wenn wir zurück zum Dashboard gehen, schließen wir es und klicken auf diese KI-Videos. Genau hier, wie ihr sehen könnt, generiert diese Website gerade unser Video. Hier haben wir die erste Option, nämlich Text zu Video. Das ist also im Grunde den AI-Bildern ähnlich. Wenn ich meine Maus genau hier halte, können wir zu den KI-Bildern gehen. Wir können jede Eingabeaufforderung eingeben. Das ist also dem Textvideo ähnlich. Jetzt können wir jedes Video generieren , wenn Sie nur eine Aufforderung eingeben möchten. Sie können diese Aufforderung auswählen. Sie können zum Beispiel Ihren Kamera-Moment auswählen, also wähle ich bis aus und lassen Sie uns nun dieses Video generieren. Wie ihr sehen könnt, Leute, kann ich mehr als ein Video generieren und muss nicht darauf warten. Sie können also mehrere Videos gleichzeitig generieren. Jetzt weiß ich, dass diese Website so viele Funktionen bietet. Also gerate nicht in Panik. Dies ist nur eine Einführung in die Website. Ich werde Ihnen alle Funktionen von Cling AI vorstellen und wir werden mit diesem KI-Tool einige atemberaubende Bilder und Videos erstellen . Also hier haben wir das Ergebnis. Also hat es aus meinem Bild dieses wunderschöne Video gemacht. Jetzt haben wir auch dieses Video. Wir generieren dieses Video über diese Eingabeaufforderung. Jetzt gibt es einen großen Unterschied zwischen dem Premium-Konto und dem kostenlosen Konto von King AI. Der erste Unterschied besteht darin, dass Sie Kling 1.5 nicht verwenden können , wenn Sie das kostenlose Konto von Kling AI verwenden. Der zweite Unterschied , der sehr groß ist, besteht darin, dass Sie länger gebraucht haben, wenn Sie das kostenlose Konto zum Generieren Ihrer Clips verwenden das kostenlose Konto zum Generieren , als das Premium-Konto. Also, ob Sie mir glauben oder nicht , ich habe zwei Tage gebraucht, um diesen Clip zu generieren. Manchmal generiert es Ihren Clip sehr schnell und manchmal generiert es Ihren Clip sehr langsam. Bis zu dem Punkt, dass Ihr Ergebnis nicht generiert werden konnte . Und wenn es Ihr Ergebnis nicht generiert hat, wird es Ihnen Ihre Gutschrift zurückerstatten. Wie ihr sehen könnt, Leute, ist mein Kredit mehr als 66. Das kostenlose Kontolimit beträgt nur 66 Guthaben für 24 Stunden. Warum habe ich nicht mehr als 66 Guthaben? Weil ich so viele gescheiterte Generationen habe, es dir deine Credits zurück und plus dein Guthaben zu deinen aktuellen Credits. Ihre Credits laufen in 24 Stunden ab, egal ob Sie all diese Credits aufgebraucht haben oder nicht, sie werden auf 66 Credits zurückgesetzt. Das ist also nur eine grundlegende Einführung in Kling AI. Ich habe ein Premium-Konto, also werden wir uns eingehend mit diesem Tool befassen und sein volles Potenzial ausschöpfen, befassen und um die gewünschten Ergebnisse zu erzielen. Ich werde euch also in der nächsten Vorlesung sehen. 4. Neue Benutzeroberfläche von KlingAI: Heißen Sie alle willkommen. Die Cling-Oberfläche hat sich jetzt also ein wenig geändert. Wenn ihr zu den KI-Videos geht, wenn ihr zu den Bild-zu-Video-Videos geht, wie ihr sehen könnt, Leute, vor diesem Update hatten wir eine Funktion namens End Frame, und wir können diese Funktion von hier aus aktivieren oder deaktivieren. Aber im neuen Update haben wir diese Funktion nicht. Denn wenn Sie Ihr Bild hochladen, haben wir standardmäßig diese Oberfläche. Jetzt können wir den Endrahmen hier hochladen. Und wenn du den Sternrahmen auf den Endrahmen ändern möchtest , dann kannst du diesen auch von diesem Symbol aus austauschen , indem du darauf klickst. Dadurch wird der Startframe gegen den Endframe ausgetauscht. Und wenn Sie Ihren Endrahmen in den Startrahmen ändern möchten , klicken Sie erneut auf dieses Symbol. Es wird deinen Rahmen austauschen. Wenn Sie jetzt kein Frame-Video vom Anfang bis zum Ende generieren möchten , können Sie auch das Einzelbild verwenden , um Ihre AI-Videos zu generieren. Wenn du dich daran erinnerst, wenn du dein Modell von 1.0 auf 1.5 änderst, wird Motion Brush deaktiviert und der Kamera-Moment wird ebenfalls deaktiviert. Wenn Sie jedoch Ihren professionellen Modus wählen, die Kamerabewegung jetzt aktiviert, und wir haben auch Motion Brush. Jetzt können Sie also den Bewegungspinsel und den Kamera-Moment in Cling 1.5 im professionellen Modus verwenden . Wir haben auch diese Änderung. In der vorherigen Benutzeroberfläche hatten wir nur einen professionellen Modus, aber jetzt können Sie auch den Standardmodus verwenden, und für den Standardmodus von 1.5 werden 20 Credits benötigt. Und wenn Sie das Modell auf 1.0 ändern , werden zehn Credits benötigt. Ich denke also, das ist ein unglaubliches Update. Wir haben auch eine neue Funktion. Wenn Sie zu den KI-Bildern gehen, heißt diese Funktion AI Virtual Tryon Sie können also Kleidung an sich selbst oder an einem beliebigen Modell anprobieren , und es wird realistisch aussehen Das ist also im Grunde die neue Oberfläche von Kling AI. 5. Atemberaubende Bilder generieren: Willkommen zurück. Klicken Sie nun zunächst auf A und gehen Sie zu AI-Bildern. Es gibt zwei Möglichkeiten, Ihr Bild zu generieren. Schreiben Sie zunächst Ihre Eingabeaufforderung. Zweitens können Sie auf ein Bild verweisen. Wenn Sie ein ähnliches Ergebnis erzielen möchten, können Sie auf ein Bild verweisen, um Ihr Ergebnis entsprechend diesem Bild zu erstellen. Nun, wie ihr sehen könnt, Leute, habe ich mit diesem Tool so viele tolle Bilder generiert weil ich mehr als ein paar Wörter schreibe , um meine beeindruckenden Ergebnisse zu erzielen. Wenn Sie jetzt das Premium-Konto verwenden, können Sie auch Ihr Image verbessern. Wenn Sie also zum Beispiel hier klicken, können Sie mit der Maus darüber fahren, und wir haben eine Option namens Verbessern Wenn ich darauf klicke, wird mein Bild verbessert. Dadurch wird das Bild in eine höhere Auflösung umgewandelt. Nun, wie ihr sehen könnt, Leute, ist das mein Ergebnis. Dies ist das vorherige Ergebnis und das ist mein neues Ergebnis. Sie können hier auch die Maus bewegen. Wenn Sie das Premium-Konto verwenden, können Sie dieses Ergebnis auch ohne Wasserzeichen herunterladen dieses Ergebnis auch ohne Wasserzeichen In einem kostenlosen Konto können Sie jedes gewünschte Bild herunterladen, aber Sie haben auch ein Wasserzeichen mit diesem Bild Dies ist ein Premium-Konto, wir haben kein Wasserzeichen. Und wenn Sie ein kostenloses Konto verwenden, haben Sie ein Wasserzeichen wie dieses Wenn Sie nun beeindruckende Ergebnisse erzielen möchten, müssen Sie mehr als ein paar Wörter schreiben Wie kannst du also deine Worte finden? Gehen Sie zu designer.microsoft.com, melden Sie sich an, klicken Sie hier und Sie müssen Bilder Jetzt können wir diesen Tab schließen. Was Sie nun tun müssen, Sie müssen hier klicken und Ihre Aufforderung schreiben. Also werde ich zum Beispiel schreiben. Das ist also nur eine einfache Nahaufnahme eines Burgers in einem Hotel Jetzt gibt es eine Option namens Enhanced Prompt. Und was sie macht, wenn ich auf diese erweiterte Eingabeaufforderung klicke , werden einige Wörter hinzugefügt, um diese Aufforderung beeindruckend zu machen. Jetzt können wir diese Aufforderung kopieren. Wir können zur tötenden KI gehen. Wir fügen diese Eingabeaufforderung und wir können unsere Auflösung wählen. Sie können Ihr Verhältnis wählen. Also werde ich diesen auswählen. Sie können die Anzahl der Generationen auswählen , die Sie generieren möchten. Ich werde vier auswählen. Und jetzt klicken wir auf diesen Generator. Gehen wir nun zurück zu Microsoft Designer und wir können hier eine beliebige Auflösung auswählen. Jetzt können wir auf diese Schaltfläche zum Generieren klicken und es wird dieses Ergebnis generiert. Dies sind alle unsere Bilder, die wir mit dieser Aufforderung generiert haben. Jetzt können wir dieses Bild verbessern und es auch referenzieren, wenn Sie möchten. Wir können dieses Bild auch zum Leben erwecken. Nun, das ist das Ergebnis von Microsoft Designer, und dieses gefällt mir. Dann die Ling AI. Also was wir tun können, wir können einfach auf diesen Download klicken und zur Ling AI gehen. Wir können auf A klicken, um auf dieses Bild zu verweisen. Bevor wir das Ergebnis gemäß dem Referenzbild generieren , gibt es einen Schieberegler. Wir haben Null Plus und wir haben drei Plus, genau hier haben wir Minus und wir haben drei Minus. Das ist also die Stärke Ihrer Referenz. Wenn Sie Ihre Stärke auf die Nullposition legen, wird Ihr Ergebnis genau diesem Bild entsprechen. Wenn du deinen Slider auf die positive Seite legst, wird er deinem Bild einfach etwas hinzufügen. Und wenn du deinen Slider auf die Minus-Seite legst, dann wird er etwas von By nehmen, ich zeige dir alle Ergebnisse , die diesem Slider entsprechen. Lassen Sie uns also zunächst diese Nullposition ausprobieren. Übrigens, wenn Sie auf ein Bild verweisen, werden 0,40 Credits benötigt, um auf dieses Bild zu verweisen. Ohne jegliche Referenz können Sie also vier Bilder mit 0,80 Credits generieren, aber wir haben eine Referenz, also haben wir jetzt 1,20 Klicken Sie nun auf diese Schaltfläche zum Generieren, um die Ergebnisse gemäß der Referenz zu generieren Wir müssen nicht warten, bis das Ergebnis generiert wird. Wir können diesen Schieberegler auf die Plusseite und jetzt auf diesen Strang-Button klicken. Jetzt kann ich den Schieberegler auf die Größe Drei plus stellen, und jetzt können wir Ergebnisse erzielen. Stellen Sie jetzt den Schieberegler auf das Minus. Jetzt haben wir diese Ergebnisse. Die Stärke ist auf Null gesetzt und die Ergebnisse sind erstaunlich. Wenn Sie nun Ihre Stärke auf Plus setzen , werden Ihre Bilder etwas verändert. Wie ihr sehen könnt, Leute, wenn ihr zum Originalbild geht und die Stärke auf Null gesetzt ist, haben wir nichts in unseren Platten, aber wenn ihr zur Plusstärke übergeht, wie ihr sehen könnt, Leute, hat das eurem Bild einfach wie ihr sehen könnt, Leute, hat das eurem Bild einfach etwas hinzugefügt. Also haben wir diese Brotstücke zu unserem Burger hinzugefügt. Und wenn wir zum Le Plus gehen, würde das Ihrem Image etwas mehr hinzufügen. Im Triple Minus ignoriert es einfach mein Hotelzimmer und legt meinen Burger auf einen Tisch. Und bei nur einem Minus nimmt es einfach etwas aus dem Bild. Um diese Stärke zu erklären Wenn Sie Ihre Stärke auf Null setzen, wird genau das gleiche Ergebnis gemäß Ihrer Referenz generiert . Wenn Sie Ihren Schieberegler jedoch auf die positive Seite legen, fügt er Ihrem Bild etwas hinzu Wenn du deinen Slider auf die linke Seite bewegst, wird er etwas von deinem Bild nehmen Es gibt noch ein Beispiel, das ich dir erklären möchte. Mit der Aufforderung habe ich diese Ergebnisse generiert. Mit dem Referenzbild, bei dem die Stärke auf das Pluszeichen gesetzt ist, wie ihr sehen könnt, Leute, wird einfach etwas in meinem Bild bearbeitet. Wenn die Stärke auf Null gesetzt ist, werden genau die gleichen Ergebnisse erzielt. Und wenn diese Stärke auf das dreifache Minus gesetzt ist, nimmt es alles aus meinem Bild und generiert nur den Vektor des Bildes. Jetzt, als ich meine Ergebnisse überprüfte , fiel mir etwas Bei dieser Stärke Null können Sie sehen, dass wir normale Bilder haben, aber wenn diese Stärke auf Plus eingestellt ist, schauen Sie sich die Größe des Burgers Die Größe des Burgers wird ebenfalls größer. Das ist also eine normale Größe. Das ist eine Übergröße, und das ist eine Übergröße von drei. Schau dir die Burger-Größe an. Die Burgergröße wird ebenfalls größer. Wenn wir jetzt zu den drei Minus gehen, wird die Burgergröße kleiner. Und das ist nur ein Minus-Ergebnis. Jetzt, in meinem zweiten Beispiel, merke ich das auch. Mit dieser Referenz sind meine Ziele gering, aber wenn die Stärke auf drei Pluspunkte eingestellt ist, wie Sie sehen können, Leute, wird mein Gold fett Bei einer Stärke von Null haben wir eine normale Größe und bei Minus-Sinus wird sie immer kleiner Und es entfernt auch etwas aus meiner Referenz und generiert einfach dieses Bild. Sie müssen dies also auch berücksichtigen, wenn Sie die Referenzstärke verwenden , um Ihr Bild zu erzeugen. So können Sie KI-Bilder in cling.com generieren . Auf Wiedersehen Wir sehen uns in meiner nächsten Vorlesung. 6. KI-Virtuelles Ausprobieren: Willkommen zurück, alle zusammen. Wenn Sie also zu den KI-Bildern gehen, haben wir eine neue Funktion namens AI Virtual Tryon Du kannst also jedes Hemd, jeden Stift anprobieren, du kannst jedes Kleidungsstück an dir selbst anprobieren. Oder wenn Sie nach unten scrollen, können Sie auch dieses Modell verwenden Und wie ihr sehen könnt, Leute, sind einige Beispiele. Wir haben also zwei Möglichkeiten. Zuerst haben wir einzelne Kleidungsstücke und dann haben wir mehrere Kleidungsstücke Zuallererst werde ich dieses Shirt auswählen. Wenn Sie jetzt nach unten scrollen, werde ich dieses Modell verwenden. Und jetzt lass uns generieren. Lassen Sie uns eine Ausgabe generieren. Und wie ihr sehen könnt, Leute, ist es gerade dabei, dieses Kleidungsstück für dieses Modell zu Und wie ihr sehen könnt, Leute, einfach so, wir haben dieses Kleidungsstück für diese Person oder für dieses Modell Lass uns jetzt mehrere Kleidungsstücke anprobieren. Also werde ich zuerst das Top hochladen, also werde ich dieses Shirt auswählen Du musst den Hintergrund des Kleidungsstücks nicht entfernen. Sie können dieses Bild auch verwenden. Jetzt kann ich diesen schwarzen Stift benutzen. Wenn Sie jetzt nach unten scrollen, haben wir eine weitere Option namens Benutzerdefiniert. Jetzt lade ich mein Bild hier hoch. Jetzt wurde das Bild erfolgreich hochgeladen. Lass uns dieses Kleidungsstück für mich selbst generieren. Und wie ihr sehen könnt, Leute, haben wir dieses Shirt und die Farbe genau hier. Wenn Sie nun mit dem Mund auf Ihr Bild zeigen, haben wir eine weitere Option namens Erweitern Jetzt können wir darauf klicken und es bis zu einem bestimmten Verhältnis erweitern. Also werde ich dieses Verhältnis auswählen und sofort auf Bild erweitern klicken. Auf diese Weise können Sie Ihre vertikalen Bilder in horizontale Bilder ändern. Sie können Ihr Bild in ein anderes Seitenverhältnis ändern. Und wie Sie in der Anleitung sehen können, ist dies die endgültige Ausgabe. Jetzt zeige ich Ihnen ein anderes Beispiel. Wie Sie in der Anleitung sehen können, ist dies die Unterseite und dies ist die Oberseite. Ich werde auf diesen erneuten Upload klicken. Und wenn Sie ein Bild wie dieses haben, können Sie dieses Bild auswählen, und es wird das Bild automatisch zuschneiden und das untere Bild auswählen Und wenn ich dieses Bild erneut hochlade und auswähle, wird es jetzt automatisch das obere Bild auswählen, wie Sie sehen können Klicken wir nun auf Generieren. Und wie ihr sehen könnt, Leute, haben wir dieses Ergebnis. Wenn Sie nun dieses Bild öffnen, laden wir dieses Bild herunter. Lass uns dieses Bild öffnen. Und wenn wir heranzoomen, damit ihr sehen könnt, Leute, haben wir hier ein kleines Problem. Wenn Sie in dem Modell einen Bart haben, werden Sie ein solches Ergebnis erzielen. Aber lassen Sie uns das Modell ändern, um es zu empfehlen. Und dieses Mal wählen wir dieses Modell aus und klicken auf „Generieren“. Wie ihr sehen könnt, Leute, haben wir dieses Ergebnis. Jetzt wähle ich diesmal ein anderes Bild aus, und jetzt klicken wir auf Generieren und erhöhen die Anzahl der Ausgaben. Und wie ihr sehen könnt, Leute, haben wir jetzt diese Ausgaben. Die Ergebnisse sind jetzt ziemlich beeindruckend. Lassen Sie uns das weiter auf eine vertikale Form ausdehnen und los geht's. So können wir mithilfe der virtuellen KI-Tryon-Funktion von Kling AI verschiedene Kleidungsstücke am Modell oder von Kling AI verschiedene Kleidungsstücke am Modell oder an Ihnen selbst anprobieren 7. FARBEN 1,5 vs. FARBEN 1,0: Komm zurück. Also haben wir ein neues Modell für die Bilderzeugung namens Close 1.5. Vor diesem Modell hatten wir 1.0. Jetzt werde ich beide mit derselben Aufforderung vergleichen . Nun, diese Beispiele sind für 1.5, und wie ihr sehen könnt, Leute, mit dieser Aufforderung haben wir diese Ergebnisse erhalten. Jetzt haben wir mit genau derselben Eingabeaufforderung, mit 1.0, diese Ergebnisse erhalten. Sehen wir uns nun ein anderes Beispiel an. Bei dieser Eingabeaufforderung ist das 1,0, was nicht schlecht ist, aber mit 1,5 haben wir diese Ergebnisse erhalten. Der Hauptunterschied zwischen 1.5 und 1.0 besteht nun darin, dass 1.5 realistische Bilder erzeugt. Auf der anderen Seite generiert 1.0 beeindruckende Bilder, aber sie sehen aus, als wären sie mit KI generiert worden. Und wie Sie sehen können, sieht das wie ein künstliches Bild aus. Aber wenn Sie sich das Ergebnis von 1,5 ansehen, ist es für mich realistischer als 1,0. Wir haben ein anderes Beispiel. Mit dieser Eingabeaufforderung sind das 1,5 Ergebnisse. Und wie du sehen kannst , sehen die Ergebnisse ziemlich gut aus. Jetzt haben wir mit derselben Eingabeaufforderung 1.0. Und wie ich Ihnen bereits sagte, das für mich künstlicher als 1,5, ist das für mich künstlicher als 1,5, weil 1,5 eher einem realistischen Bild ähnelt als 1,0. Jetzt haben wir ein anderes Beispiel. Mit dieser Aufforderung haben wir dieses Ergebnis erhalten, das nicht schlecht ist. Aber mit genau der gleichen Aufforderung mit 1.5 haben wir diese Ergebnisse erhalten. Jetzt sagst du mir, welcher gut ist, dieser oder dieser. Offensichtlich sieht 1.5 ziemlich gut aus. Mit dieser Eingabeaufforderung haben wir diese Ergebnisse erhalten und mit genau derselben Aufforderung mit 1.0 haben wir dieses Ergebnis erhalten. Mit dieser Aufforderung, mit 1.0, haben wir diese Ergebnisse erhalten und mit 1.5 haben wir diese Ergebnisse erhalten. In diesem Beispiel sieht 1.0 wunderschön aus, aber in 1.5, von dem ich Ihnen bereits erzählt habe, wird das Bild dadurch eher dem Realismus als der Fantasie 1.5 bringt das Bild quasi in die Vorstellungskraft, aber 1.5 erzeugt ein realistisches Bild Wenn ihr nun etwas wie reine Fantasie in diese Eingabeaufforderung eintippt, wie ihr sehen könnt, Leute, dann ist das ein reines Einfalls-Szenario. Mit 1.0 haben wir diese Ergebnisse erhalten. Mit 1,5 haben wir diese Ergebnisse erzielt. In diesem Beispiel generiert 1.0 also einige beeindruckende Ergebnisse, weil das reine Fantasie ist als die reale Welt. Aber 1.5 versucht, realistische Ergebnisse zu erzielen, aber ich denke, 1.0 gewinnt in diesem Fall. Bei diesem Abschlussball ist das ein reines Fantasieszenario. Das sind 1,0 Wüsten und bei 1,5 mit exakt derselben Aufforderung ist das echt, was wir bekommen haben Und 1.5 macht einfach 1.0 kaputt, denn wie ihr sehen könnt, Leute, sieht es nach einem realistischen Auf der anderen Seite sehen 1.0 wie eine Konzeptgrafik aus. Jetzt haben wir ein anderes Beispiel. Bei dieser Eingabeaufforderung sind dies 1,0 Ergebnisse, und bei exakt derselben Eingabeaufforderung ist dies 1,5. Und wie ihr sehen könnt, generiert 1.5 ein realistisches Bild. Jetzt versuche ich, mit dieser Aufforderung Vektorgrafiken zu generieren, und wie Sie sehen können, Leute mit 1.0 haben wir diese Ergebnisse erzielt, was nicht schlecht ist. Aber mit 1.5 generiert es das, worum ich ihn bitte. Weil ich diese Aufforderung kopiere, stehle ich diesen Abschlussball vom Designer domicrosoft.com AzkacGuide, das ist ein Microsoft-Designer-Ergebnis. Und ich habe diese Aufforderung kopiert und diese Aufforderung hier eingefügt, und wir haben Mit dieser Eingabeaufforderung, mit 1.0, haben wir diese Ergebnisse erhalten. Und wenn wir zu 1,5 gehen, erhalten wir diese Ergebnisse, was beeindruckend ist, denn wenn Sie sich die Farbkombination und das Diagramm ansehen, erzeugt 1.5 ein realistisches Bild und dann 1,0. Wie Sie sehen können, ist das Diagramm in 1.0 nicht richtig ausgerichtet, aber in 1.5 haben wir ein realistisches Diagramm und wir haben eine realistische Zahl, und wir haben eine gute Farbkombination, dann 1,0. Jetzt versuche ich, drei animierte D-Bilder zu erzeugen . Mit dieser Aufforderung. Wir haben 1,0 Ergebnisse. Wie Sie sehen können, sind dies einige gruselige Ergebnisse, weil ich ihn bitte, Drei-D-Animationen zu generieren Aber mit 1.5 haben wir dieses wunderschöne Ergebnis erzielt, weil 1.5 ein dualistisches Bild erzeugen Deshalb bekommen wir das, worum wir ihn bitten. Wenn Sie versuchen, einige Bilder im Anime-Stil zu generieren, können Sie das auch tun. Mit dieser Aufforderung sind es, wie Sie in der Anleitung sehen können, 1,5 Ergebnisse, was sehr beeindruckend ist. In diesem Beispiel sehen 1.5 wie ein fertiges Bild im Anime-Stil aus, aber 1.0 sieht aus wie eine Konzeptgrafik. Wir haben ein anderes Beispiel. Mit dieser Eingabeaufforderung, mit 1.0, haben wir diese Ergebnisse erhalten, und mit genau derselben Aufforderung haben wir 1.5 Ergebnisse. Mit dieser Eingabeaufforderung haben wir jetzt ein Ergebnis von 1,0, und mit genau derselben Eingabeaufforderung haben wir ein Ergebnis von 1,5. Und 1.5 generiere, worum ich ihn bitte Ich frage ihn nach einem Mann mit Skimaske der auf einer Couch sitzt und im Hintergrund ein großes Feuer passiert. Und das ist es, was 1.5 generiert, und 1.0 generiert einfach diese Art von Bildern , die ich wirklich nicht mag. Eine weitere Sache, die mir in 1.5 gegenüber 1.0 auffällt , ist , dass 1.0 eine gewisse künstliche Weichzeichnung in diesen Bildern enthält , 1.5 aber Bilder ohne künstliche Weichzeichnung erzeugt Wie ihr sehen könnt, Leute, sieht das aus wie eine Kinokamera. Und wenn wir zum Ergebnis 1.0 gehen, enthalten diese Bilder eine künstliche Weichzeichnung Jetzt haben wir ein weiteres Beispiel für 1.5. Ich ändere einfach einige Keywords in meiner Eingabeaufforderung und wir haben diese Ergebnisse von 1.5 erhalten. Nun, wie Sie bei den Jungs in 1.0 sehen können, haben wir wieder ein gewisses Maß an künstlicher Weichheit Es sieht so aus, als ob ich ein Bild mit niedriger Qualität hochskaliere, und das ist das Endergebnis Mit diesem Abschlussball haben wir 1,5 Ergebnisse, und mit exakt demselben Abschlussball es 1,0 Ergebnisse Lassen Sie uns nun über die Vektorbilder sprechen. Mit 1,5 bei diesem Abschlussball haben wir diese Ergebnisse erzielt. Mit 1,0 haben wir diese Ergebnisse erzielt, was beeindruckend ist als 1,5. Die Farbkombination ist gut. Im Hintergrund ist die rote Farbe gut, aber andererseits töten 1,5 rote Farben meine Augen. Nun, mit dieser einfachen Aufforderung, 1.0, generieren Sie diese Bilder, die, wie ich Ihnen bereits gesagt habe, etwas künstlich sind. Aber 1.5 macht auch in diesem Beispiel einfach 1.0 kaputt. Mit dieser Eingabeaufforderung haben wir nun 1,0 Ergebnisse und mit genau derselben Aufforderung haben wir 1,5 Ergebnisse Jetzt haben wir ein anderes Beispiel. Mit dieser Aufforderung habe ich ein Ergebnis von 1,0. Mit genau derselben Eingabeaufforderung haben wir ein Ergebnis von 1,5. Nun, 1.5 sieht so aus, als würde ich mit meiner Kamera ein Bild von dieser Szene machen , aber in 1.0 haben wir das Gefühl, dass es durch künstliche Intelligenz generiert wird . Jetzt haben wir ein anderes Beispiel. Mit dieser Eingabeaufforderung haben wir Ergebnis von 1,0 und mit genau demselben Abschlussball haben wir ein Ergebnis von 1,5. Und wie Sie sehen, 1.5, versuchen Sie, so viel wie möglich ein realistisches Bild zu erzeugen. Jetzt haben wir ein anderes Beispiel. Dies ist die Eingabeaufforderung, und das ist das Ergebnis 1.0. Und bei exakt demselben Abschlussball ist das Ergebnis 1,5. Und wie ihr sehen könnt, Leute, 1,5 allgemeines realistisches Bild, dann 1,0. Jetzt haben wir ein anderes Beispiel. W 1.0, das ist die Eingabeaufforderung. Dies sind einige Ergebnisse von 1,0, und bei exakt demselben Prom haben wir ein Ergebnis von 1,5. Bei diesem einfachen Abschlussball-POE eines Autos ist das 1,5, und bei exakt demselben Abschlussball ist das Ergebnis 1,0. Jetzt haben wir auch wieder ein Vektorbild. Mit dieser Eingabeaufforderung haben wir ein Ergebnis von 1,0, aber mit genau derselben Eingabeaufforderung haben wir ein Ergebnis von 1,5. 1.5 versuchen also, einen realistischen Vektor zu erzeugen, aber 1.0 enthält einige Details. Wenn wir also versuchen, diese beiden Modelle zu vergleichen, wenn Sie Vektorbilder generieren möchten, dann denke ich, dass 1.0 die beste Option ist. Aber wenn du deinen Vektor vereinfachen willst, dann versuche 1.5 zu verwenden, weil 1.5 deine Vektorbilder so weit wie möglich vereinfacht, aber 1.0 einige Details in seinen Vektorbildern hat. Lassen Sie uns nun dieses Bild mit Link-AI neu erstellen, also werde ich diese Aufforderung kopieren Dies sind das Ergebnis dieses Abschlussballs mit Microsoft Designer Fügen wir nun diese Eingabeaufforderung ein und generieren wir nun ein Bild. Ein weiterer großer Unterschied zwischen 1.0 und 1.5 besteht darin, dass, wenn Sie ein Bild mit 1.0 generieren möchten, Ihre 0,20 Credits Wenn Sie Ihr Modell jedoch auf 1,5 umstellen, wird ein Credit pro Bild benötigt Wenn Sie also vier Bilder generieren möchten, werden dafür Ihre vier Credits benötigt. Lassen Sie uns nun klicken, um mit 1.5 zu generieren. Das ist jetzt ein Ergebnis von 1,0 mit dieser Aufforderung, und die Ergebnisse sind nicht schlecht. Ich bin wirklich beeindruckt der Ausgabe dieses Abschlussballs mit 1.0. Jetzt mit 1.5 und genau derselben Aufforderung haben wir diese Ergebnisse erhalten. Was auch nicht schlecht ist, aber aus irgendeinem Grund mag ich das Ergebnis 1.0. Wenn wir andererseits zur Originalquelle zurückkehren , denke ich, dass 1.5 versuchen, ein realistisches Bild gemäß dieser Aufforderung zu generieren. Aber 1.0 generiert eine eigene Version dieser Aufforderung. Wenn Sie Ihre Credits sparen möchten, empfehle ich Ihnen, ein Bild zu verwenden, beide Modellergebnisse zu generieren, und wenn Ihnen dann ein Modellergebnis gefällt, verwenden Sie dieses Modell und generieren Sie vier Ergebnisse, wenn Sie möchten. Denn wenn Sie vier Bilder generieren, erhalten Sie eine andere Variante. Wenn wir diese vier Bilder vergleichen, haben wir einige winzige Unterschiede zwischen diesen Bildern. Dies gilt auch für dieses 1.5-Modell. Wir haben winzige Änderungen in vier Bildern. Und in der endgültigen Ausgabe wurde nur der Kamerawinkel geändert. 8. Bilder mit konsistenten Motiven erstellen: Willkommen zurück, alle zusammen. Wenn ihr also euer Modell von Cro 1.0 auf oder 1.5 ändert, wenn ihr zu Text zu Bild geht, genau hier, wie ihr sehen könnt, Mädels, haben wir eine neue Funktion für 1.5 namens Referenz hochladen. Wenn ihr jetzt also eine Referenz hochladet, müsst ihr ein Thema auswählen. Jetzt haben wir dieses Bild als Referenz. Um diese Art von Bildern zu erstellen, müssen Sie also zu AbstodGoogle gehen Sobald Sie zu Labs Dot Google gehen, müssen Sie Bildeffekte auswählen Und wenn wir jetzt mein Originalbild öffnen, ist dies der Abschlussball, mit dem ich dieses Bild mit Labs-Google-Bildeffekten generiere . Sobald wir die Referenz hochgeladen haben, haben wir drei Möglichkeiten. Entweder können wir das gesamte Thema auswählen, wir können nur die Phasenreferenz oder wir können das gesamte Bild auswählen. Jetzt müssen Sie dies berücksichtigen Wenn Sie das gesamte Bild auswählen, wechselt das Modell von 1,5 auf 1,0. Nehmen wir also an, wir wählen das gesamte Bild aus. Ich werde das bestätigen, und wie ihr sehen könnt, Leute, haben wir jetzt Cloud 1.0. Und wenn wir jetzt mit der Maus auf diese kleine Vorschau dieses Bildes fahren, wenn wir hier klicken, ist das die Bearbeitung. Wenn wir die Subjektphase auswählen und ich jetzt auf diese bestätigte Schaltfläche klicke, wird das Modell jetzt, wie Sie sehen können von 1,0 auf 1,5 umgestellt. Wenn wir zu 1,0 wechseln, wird die Referenz weitergeführt. Laden wir nun die Referenz erneut hoch. Und jetzt wähle ich dieses Mal die Phase aus. Lass uns auf Bestätigen klicken. Sobald Sie die Phase Ihrer Referenz ausgewählt haben, können Sie alles eingeben, was dieser Betreff tun soll. Wenn Sie nun Ihre Referenzstärke auf 100 ändern, wird das exakte Gesichtsmerkmal Ihres Motivs kopiert . Lassen Sie uns das also auf 50% ändern. Und jetzt tippe ich einen Jungen, der auf einem Sofa in einem Studio sitzt , und lass uns dramatische Beleuchtung eingeben. Und wie Sie sehen können, werden für jedes Bild zwei Credits mit der Referenz benötigt. Und wenn Sie die Referenz löschen, wird ein Credit pro Bild benötigt. Wir haben also vier Varianten. Deshalb haben wir acht Credits. Und jetzt lassen Sie uns diese Bilder generieren. jetzt mit genau derselben Aufforderung Gehen wir jetzt mit genau derselben Aufforderung zur Bearbeitung, und jetzt wähle ich mein gesamtes Thema aus. Wenn Sie also die Phase auswählen, wird Ihr Gesicht als Referenz kopiert. Wenn Sie jedoch das Thema auswählen, wird Ihr gesamtes Thema kopiert. Das schließt seine Kleidung ein und so weiter. Klicken wir auf Bestätigen und dann auf Generieren Wie ihr sehen könnt, Leute, haben wir diese Ergebnisse. Wie Sie jetzt sehen können, haben wir dieses wunderschöne Ergebnis erzielt. Und wenn wir zur Originalquelle zurückkehren , wie ihr sehen könnt, Leute, haben wir diese Phase als Referenz, und das sind komplett neue KI-generierte Bilder. Jetzt können wir auch die Referenz und die Betreffphasenreferenz ändern . Nun, wie ihr sehen könnt, Leute, hat es meine 45% -Phasenreferenz dieses Bildes kopiert. Wenn wir das auf 100% ändern, wird genau diese Phase kopiert. Also lass uns das machen. Gehen wir zurück zu den Ergebnissen der Phase Select und ich ändere meinen Referenzwert auf 100%. Gehen wir jetzt mit genau derselben Aufforderung zur Bearbeitung. Und dieses Mal wähle ich das gesamte Bild aus. Und jetzt haben wir das Modell 1.0. Und mit der Referenz werden 0,30 Credits pro Bild benötigt Lassen Sie uns also vier Varianten generieren. Also sind die Bilder jetzt generiert. Bei einer Phasenreferenz, einer Stärke von 100%, das haben wir auch mit der Motivreferenz erreicht. Nun, mit nur der Phasenreferenz, wie ihr sehen könnt, Leute, haben wir das Ergebnis. Und wie ich dir schon gesagt habe, es wird nur dein Gesicht kopieren. Deshalb haben wir in diesen vier Varianten unterschiedliche Frisuren. Jetzt haben wir die gesamte Bildreferenz, und das haben wir mit 1.0 bekommen. Wählen wir nun ein anderes Thema aus. Ich werde diesen Betreff löschen. Wenn wir jetzt mit dieser Aufforderung zu Labs Dot Google Image Effects zurückkehren , habe ich dieses Bild generiert. Laden wir also dieses Bild herunter. Jetzt wähle ich diesen Betreff aus, klicke auf Bestätigen und mit genau der gleichen Aufforderung. Mit einer hundertprozentigen Phasenreferenz können wir generieren, lassen Sie uns diesen Aspekt zur Geltung bringen. Und jetzt lassen Sie uns diese zur Variation generieren. Nun, wie ihr sehen könnt, Leute, haben wir diese Bilder. Lassen Sie uns auch den Betreff-Bezug auf 100% ändern, und ich werde meinen Tempo-Bezug auf 60% ändern , weil ich möchte, dass KI die Referenz des Subjekts übernimmt, nicht zu sehr, und ich möchte, dass die Kleidung des Probanden zu 100% passt. Deshalb ändere ich meinen Bereich auf 100%. Lassen Sie uns diese Ergebnisse generieren. Wie ihr sehen könnt, Leute, haben wir diese Ergebnisse. Jetzt haben wir eine andere Phase, weil ich einen Jungen tippe und das Schlüsselwort in Männer ändern und jetzt lass uns generieren. Wie ihr sehen könnt, Leute, in den neu generierten Ergebnissen zu 100% auf mein Thema Bezug genommen . Wie ihr sehen könnt, Leute, wenn wir zur ursprünglichen Quellenangabe gehen , lasst uns zur Bearbeitung übergehen. Wir haben diese Jacke, und wenn wir zu den generierten Bildern gehen, haben wir dieselbe Jacke. Und jetzt, wie ihr sehen könnt, haben wir diese Ergebnisse. Der Grund, warum diese Referenzbildfunktion wichtig ist, liegt darin Sie jetzt konsistente Bilder generieren können, dass Sie jetzt konsistente Bilder generieren können, und mit diesen konsistenten Bildern können Sie Ihre Bilder auch in Videos umwandeln. Wenn wir also zum animierten Korrektor zurückkehren, wie ihr seht, Leute, können wir diesen Jungen überall hinbringen Wir können also auch tippen, auf einem Sofa sitzen oder in einem Auto sitzen Mit dieser Aufforderung werden Bilder generiert, und jetzt können wir diese Bilder in Videos umwandeln. Auf diese Weise können Sie konsistente Videos mit derselben Themenkonsistenz erstellen . Wie Sie sehen können , haben wir jetzt dasselbe Thema in einem Auto. Wir können das Sitzen im Auto auf Autofahren umstellen. Fügen wir ein Komma mit dramatischer Beleuchtung hinzu. Lasst uns nach rechts abbiegen. Und jetzt, wie Sie sehen können, haben wir diese Ergebnisse. Jetzt können wir mit dieser Referenzfunktion von Ling AI konsistente Charaktervideos erstellen mit dieser Referenzfunktion von Ling AI konsistente Charaktervideos . 9. Grundlegende Einführung in die Generierung von KI-Videos: Willkommen zurück. Jetzt musst du hier klicken und zu den Videos gehen, um Clips mit Cling AI zu generieren. Jetzt gibt es einige Möglichkeiten, Clips mit Cling AI zu generieren. Der erste ist Text zu Video. In Text-to-Video müssen Sie eine Eingabeaufforderung eingeben , um den Clip zu generieren. Also lass uns das jetzt machen. Jetzt habe ich diese Aufforderung. Sie können genau dieselbe Aufforderung in den Einstellungen kopieren. Wie ihr sehen könnt, Leute, müssen wir den Slider ziehen. Wir haben Kreativität und Relevanz. Jetzt haben wir den Modus Standard und den Modus Professional. Wenn Sie das kostenlose Konto verwenden, erhalten Sie nur den Standardmodus. Lassen Sie uns nun den Standardmodus für dieses Beispiel überprüfen. Jetzt haben wir die Länge fünf bis 10 Sekunden. Wir haben das Seitenverhältnis , das Sie ebenfalls ändern können. Sie können ein beliebiges Seitenverhältnis auswählen. Jetzt haben wir die Anzahl der Generationen. Im Moment habe ich mich auf eine Videogeneration eingestellt. Jetzt, unterhalb des Seitenverhältnisses, haben wir Kamera-Momente. Wenn du hier klickst, haben wir so viele Kameramomente. Unter den Kameramomenten haben wir nun negative Abschlussballmomente. Also, was ist der negative Abschlussball? Ein negativer Abschlussball ist etwas, das du in deinem generierten Video nicht haben willst. Wenn du zum Beispiel keine Unschärfe in deinem Video haben möchtest , tippe einfach die Unschärfe Wenn du keine Verzerrung oder etwas wie eine Verletzung des Frames möchtest , kannst du das Wort hier eingeben, dann wird das nicht in deinem Video erzeugt Klicken wir nun auf diese Schaltfläche zum Generieren. Deshalb verwende ich auch Microsoft Designer für diese Aufforderung. Wie Sie sehen können, Leute, ist dies das Ergebnis dieser Aufforderung in Microsoft Designer. Jetzt denke ich , dass wir ein anderes Ergebnis als dieses haben werden , weil es in Microsoft Designer generiert wurde und wir King Eye verwenden, bei dem zwei völlig verschiedene Arten von Tools handelt. Während das Video auf der rechten Seite generiert wird, werden wir die Ergebnisse der generierten Videos haben. Wie ihr sehen könnt, Leute, ich generiere so viele Videos. Sie können hier klicken, um Ihre Videos in Text in Video umzuwandeln. Das sind also alles mein Text zum Video. Du klickst hier, du kannst das in Bild zu Video ändern. Dies sind alle meine Bilder, die in KI-Videos umgewandelt wurden Sie können auch alle Videos auswählen Alle Videos werden auf der rechten Seite angezeigt. Sie können auch hier klicken. Sie können die Ansicht auch von der einfachen Ansicht zur Detailansicht ändern. Wie Sie sehen können, ist dies nun in der Detailansicht das neue Video, das ich mit diesem Tool generiere. Das sind alles meine alten Videos. In der Detailansicht haben Sie dem Abschlussball das Referenzbild. Wenn Sie eines haben, habe ich in diesem Beispiel das Referenzbild, sind also alle meine Referenzbilder. Es wird auch die Version angezeigt, mit der Sie das Video generiert haben. Also verwende ich für dieses Video zum Beispiel Kling 1.0. Wenn ich für einige Videos nach unten scrolle, verwende ich Kling 1.5, wie in diesem Beispiel. Lass uns das ändern. Sie können auch auf A klicken, um ein Video oder Bild auszuwählen , das Sie herunterladen können. Sie können das Video oder Bild auch löschen. Sie können das auch auf Ihren Favoriten setzen, oder Sie können erneut klicken, um das Ding als Favorit Klicken wir jetzt erneut darauf. Jetzt wird das Video generiert. Sehen wir uns das Ergebnis an. Und es unterscheidet sich grundlegend vom Microsoft-Designer, wie ich bereits sagte. So können Sie mit Ing AI einen Clip generieren, indem Sie eine Eingabeaufforderung in Text-zu-Video verwenden. In der nächsten Vorlesung werden wir nun darüber sprechen, was der Unterschied zwischen dem Standardmodus und dem professionellen Modus ist. 10. Beeindruckenden Text in Video generieren: Komm zurück. Kopieren wir jetzt diese Aufforderung. Ich habe Microsoft Designer verwendet , um meine Eingabeaufforderung zu verbessern, und ich habe diese Ergebnisse erzielt. Gehen wir jetzt zur King AI und fügen diese Aufforderung ein. nun für dieses Video Lassen Sie uns nun für dieses Video den Standardmodus auswählen, und ich möchte keine Einstellung ändern Und jetzt klicken wir auf die Schaltfläche Generieren. Während dieses Video generiert wird, können wir den professionellen Modus auswählen. Übrigens, wenn Sie das Premium-Konto verwenden, kostet Nutzung des professionellen Modus 35 Credits. Jetzt können wir diesen Abschlussball generieren, sodass die Videos jetzt generiert werden. Das ist also das Video im Standardmodus. Es sieht ziemlich gut aus. Und das ist ein professioneller Modus. Wie du sehen kannst, gibt es einen großen Unterschied. Es liegt kein Frame-Verstoß vor. In diesem Video ist nichts falsch. Es sieht aus wie ein echtes Filmmaterial aus dem wirklichen Leben. Jetzt ändern wir den Wert von Cling 1.0 auf 1.5. Wenn Sie jetzt 1.5 wählen, verschwindet der Kamera-Moment. Und wir können den professionellen Modus nicht auf Standard ändern. Also lass uns jetzt generieren. Jetzt gibt es einen großen Unterschied zwischen dem professionellen Modus und dem Standardmodus. Der professionelle Modus bleibt konsistent und generiert Ihr Video. Es ist nichts falsch. In diesem Clip liegt kein Frame-Verstoß vor. Aber im Standardmodus generieren Sie einfach Ihren Clip, was auch immer Sie fragen, und er bleibt inkonsistent Wie ihr sehen könnt, Leute, haben wir etwas, das den Rahmen verletzt , im Vordergrund, und im Berg tauchen auch komische Punkte oder Ringe Wenn Sie also hochauflösende Ergebnisse erzielen möchten, verwenden Sie einen professionellen Modus, aber Sie müssen auf die Pro-Version aktualisieren Übrigens, wenn Sie Ihre generierten Videos erneut aufrufen und sehen möchten, welchen Modus ich verwende und welche Einstellung ich verwende, um diesen Clip zu generieren, dann können Sie sich diesen auch ansehen Zum Beispiel, wenn ich dieses Video auswähle. Wie ihr sehen könnt, Leute, habe ich den Modus auf Standard geändert. Aber wenn ich dieses Video auswähle, wurde der Modus automatisch auf Beruf geändert , da ich diesen Modus ausgewählt habe, als ich dieses Video generiert habe. Nicht nur das, wenn Sie eine Kamerasteuerung auswählen, wird sie genau hier angezeigt. Wenn Sie ein Seitenverhältnis, eine Länge usw. ändern , wird es auf der linken Seite angezeigt Jetzt ist das Video regeneriert, hier haben wir das Ergebnis Ich mag das irgendwie, weil es das generiert, wonach ich gefragt habe Für den professionellen Modus glaube ich, dass mir dieser gefällt, aber die neue Version sieht schöner und besser aus als die vorherigen. Wenn ich dieses Video jetzt auch regeneriere, erhalten wir ein anderes Ergebnis Warum also nicht das tun? Wenn Sie nun nicht das gewünschte Ergebnis erzielen, regenerieren Sie Ihr Ergebnis In diesem Beispiel erhalten wir also ein anderes und besseres Ergebnis als das vorherige Dieses Video, das wir mit eins, aber fünf generiert haben , ist nicht schlecht. Aber das neue Video sieht schöner aus als das vorherige. Jetzt haben wir also das regenerierte Videoergebnis 1.0-Perfektionsmodus Wenn Sie Videos generieren möchten, müssen Sie Version 1.0 im professionellen Modus und Version 1.5 im Perf-Modus ausprobieren im professionellen Modus und Version 1.5 im Perf-Modus Da Sie unterschiedliche Ergebnisse erzielen, können Sie das Video auswählen, das Sie in Ihren Projekten verwenden möchten Ich kann all diese Videos außer der Standardkarte verwenden , da der Standardmodus nicht nützlich ist. Sie können es in Ihren YouTube-Videos verwenden, aber es ist nicht sinnvoll, da wir ein inkonsistentes Video haben, wohingegen der Modus 1.5 im Pressionsmodus viel bessere Methode zum Generieren von Videos ist 11. Kreativität vs. Relevanz: Willkommen zurück. Jetzt zeige ich Ihnen, was der Unterschied zwischen Kreativität und Relevanz ist. Für dieses Beispiel verwende ich also diese Eingabeaufforderung und generiere diese vier Ergebnisse. Dann verwende ich dieses Bild als Referenz. Dann generiere ich diese vier Ergebnisse. Klicken wir jetzt hier, um dieses Bild zum Leben zu erwecken. Lassen Sie uns diesen Tab schließen. Wenn wir jetzt einfach hier in der Mitte bleiben, wird es ein normales Video erzeugen, melken und Schokolade darüber gießen Lass uns das in Kreativität umwandeln und lass uns generieren. Auch jetzt ändere ich meinen Schieberegler nach rechts, sodass die Relevanz angezeigt wird. Und jetzt klicken wir auf diese Gnute-Schaltfläche. Jetzt werden die Ergebnisse generiert. Hier haben wir das Ergebnis der Kreativität. Und hier haben wir das Relevanzergebnis. Also, was Kreativität angeht, wie ihr sehen könnt , geht es einfach darum, von selbst etwas hinzuzufügen. Was die Relevanz angeht, bleibt man einfach beim Thema und generiert das, was wir von ihm verlangen. Was ist nun, wenn wir den Schieberegler einfach nicht auf „ extreme Relevanz“ oder „extreme Kreativität“ umstellen den Schieberegler einfach nicht auf „ extreme Relevanz“ oder „extreme ? Lassen Sie uns den Schieberegler auf etwa 0,35 Kreativität ändern. Und dieses Mal werde ich den Standardmodus wählen und jetzt lass uns diesen Clip generieren Lassen Sie uns nun den Schieberegler auf ungefähr sieben Relevanz ändern und den Clip generieren. Lassen Sie uns nun den Ling 1.0 auf 1.5 ändern. Lassen Sie uns nun den Schieberegler auf Kreativität umstellen. Ändern Sie den Schieberegler erneut auf Relevanz und lassen Sie uns nun generieren. Jetzt generieren wir die vier Videos gleichzeitig. Die Ergebnisse werden jetzt also generiert. Wenn wir also die Folie einfach ein wenig nach links verschieben, um der Kreativität zu entsprechen, haben wir dieses Ergebnis. Und wenn wir die Folie der Relevanz entsprechend ein wenig nach rechts verschieben, haben wir dieses Ergebnis. Jetzt weiß ich, dass diese beiden Ergebnisse ähnlich aussehen, aber es gibt einen großen Unterschied. Also, was die Relevanz angeht, bleib beim Thema. Es geht darum, die Milch auf dieser Seite zu sammeln, wo kreativ, wie ihr sehen könnt, Leute, die Milch verteilt sich auf diese Portion, nicht nur sammelt sie sich auf dieser Seite. die Relevanz angeht, wie ihr sehen könnt, Leute, ist die Milch jetzt auf dieser Seite gesammelt. Lassen Sie uns nun das Ergebnis auf die extreme Kreativität und Relevanz von 1.5 bringen . Das ist die extreme Kreativität, 1.5. Die Ergebnisse sind nicht schlecht. Schauen wir uns nun das Dileman-Ergebnis an. Wenn wir nun die Folie auf Kreativität auf 0,3 ändern, werden wir meiner Meinung nach ein besseres Ergebnis erzielen Lassen Sie uns jetzt den Clip generieren. während der Generierung des Videos Lassen Sie uns während der Generierung des Videos ein anderes Beispiel herausnehmen. In diesem Beispiel verwende ich also diese Eingabeaufforderung. Ich verwende 1.5 und ändere meinen Schieberegler, um extreme Kreativität zu erzielen. Wir haben also dieses Ergebnis. Und im nächsten Beispiel ändere ich meinen Schieberegler mit 1.5 auf extreme Relevanz, und wir haben dieses Ergebnis erhalten. Und wenn wir den Slider einfach gar nicht ändern, haben wir dieses Ergebnis. Und in diesem Beispiel verwende ich einfach ein Bild. Ohne den Schieberegler zu ändern, haben wir dieses Ergebnis erhalten. Jetzt werden die Ergebnisse generiert. Wenn Sie nur ein bisschen Kreativität einsetzen, werden Sie einige interessante Ergebnisse erzielen. Und ich verwende dafür den Standardmodus, nicht den professionellen Modus. Und ich verwende die neueste Version 1.5. Die Kreativität ist auf 0,3 gesetzt, und das ist das schlechteste Ergebnis, das wir je mit diesem Bild erzielt haben. Also meine letzten Worte: Benutze diesen Schieberegler nicht über 0,65 und unter bis zu 0,35 Wenn du etwas Interessantes generieren willst, dann schiebe diesen Schieberegler nicht nach links oder extrem rechts Und das ist der Unterschied zwischen Kreativität und Relevanz. 12. KI-Kamerabewegung: Willkommen zurück. Gehen Sie jetzt zu Microsoft Designer und ich möchte einen Schokoladen-Werbespot erstellen. Also werde ich Chocolate Commercial in einem Hotel schreiben. Jetzt können wir die Eingabeaufforderung verbessern. Ich finde diese Aufforderung gut. Kopieren wir diese Aufforderung. Gehen Sie zu Kling AI und wir können diese Aufforderung einfügen. Wenn wir jetzt nach unten scrollen, können Sie sehen, dass der Moment, in dem die Kamera verschwunden ist, angezeigt wird. Um also den Kamera-Moment nutzen zu können, müssen wir den Kling 1.5 auf Kling 1.0 umstellen. Jetzt haben wir diese Kamera-Momentsteuerung. Wenn wir hier klicken, können Sie sehen, dass wir verschiedene Arten von Kameramomenten haben . Wenn wir nach unten scrollen, haben wir auch Master Shot. Sie können dies auswählen und Sie erhalten verschiedene Kameramomente. Jetzt werde ich jede Kamerabebewegung erklären. Zuallererst haben wir also horizontal. Jetzt können wir den Schieberegler ändern und erhalten eine andere horizontale Position. Wenn ich das auf die linke Seite ändere, erhalte ich einen horizontalen Moment von der Mitte zur linken Seite, und wenn ich das auf die rechte Seite ändere, dann haben wir einen Kamera-Moment von der Mitte zur rechten Seite. Anstatt es zu erklären, werde ich es dir zeigen. Wählen wir also zunächst die Horizontale aus und ändern wir sie auf die linke Seite. In dieser Eingabeaufforderung haben wir also einen Werbespot für Schokolade, und im Werbespot ändert die Kamera die Position die horizontale Position von der Mitte zur linken Horizontalen. Wählen wir nun 1.0, ändern den Motor Professional und lassen Sie uns den Clip generieren. Jetzt ist das Video generiert, das ist das Ergebnis. Wie ihr sehen könnt, Leute, in diesem Video ändert die Kamera die Position zur linken horizontalen Seite. Was wir eingestellt haben. Jetzt können wir den Kamera-Moment sehr einfach ändern. Sie müssen nur den Schieberegler so einstellen , dass Sie Ihren Kameramoment einstellen möchten. Lassen Sie uns also den Kamera-Moment zum Verkleinern ausprobieren. Jetzt habe ich verschiedene Kamera-Momente generiert. Das ist also der Zoom im extremen Zoom im Kamera-Moment. Und das ist die Pfanne 3.4. Das ist eine Neigung von fünf und das ist eine extreme Rolle bis minus zehn. Wie ihr bemerkt, Leute, sind die Videos, die wir mit diesen Kameramomenten generiert haben , inkonsistent Also sind alle Clips inkonsistent. In dem Video im Hintergrund, im Vordergrund passiert etwas , während Sie die Kamera-Momente verwenden Es gibt einen subtilen Kamera-Moment, den Sie nutzen können und Sie werden weniger von diesem Verstoß betroffen sein. Wenn Sie jedoch extreme Kameramomente verwenden, wie wir sie bei Zoomin verwenden , und bei extrem minus zehn waagerechten Momenten, kommt es zu extremen Lassen Sie uns nun den Kamera-Moment zurücksetzen. Lassen Sie uns das einfache Video generieren. Jetzt werde ich diese Aufforderung kopieren. Dies sind die Ergebnisse dieser Aufforderung. Und jetzt gehen wir zum Video. Lassen Sie uns diese Eingabeaufforderung einfügen. Lassen Sie uns zunächst ohne Kameramoment generieren. Also ohne jeden Kameramoment ist das das Ergebnis. Und wie du sehen kannst, ist das Video konsistent. In dem Video passiert nichts Seltsames, und dies ist das Video mit drei D-Charakteren ohne Kameramoment ohne Kameramoment Aber wie du sehen kannst, Alter, sind die Ergebnisse ziemlich beeindruckend Für dieses Video haben wir also dieselbe Eingabeaufforderung, die wir in drei D-Zeichen verwenden, und ich verwende Master Shot, Move Left und Zoom in. Und hier haben wir das Ergebnis. Wie du sehen kannst, ist das Ergebnis inkonsistent. In der Aufnahme ist etwas Seltsames passiert. Wir haben ein anderes Beispiel: Master Shot, Move Forward und Zoom Up Das Video enthält nicht viele Details, deshalb haben wir dieses reibungslose Ergebnis. Und wir haben ein weiteres Beispiel für Master Shot, bewegen Sie sich nach rechts und vergrößern Sie es. Auch hier Inkonsistenz im Video. Ich glaube also nicht, dass wir derzeit mit den Kameramomenten ein konsistentes Ergebnis erzielen können mit den Kameramomenten ein konsistentes Ergebnis erzielen Wenn Sie mit dem Kameramoment experimentieren möchten, können Sie das auch tun. Mit der kostenlosen Version können Sie einfach Ihren Standardmodus auswählen und jeden Kameramoment verwenden. Und ich glaube nicht , dass Sie zusätzliches Guthaben verlieren werden , wenn Sie den Kameramoment nutzen. Wenn Sie jedoch ein konsistentes Ergebnis erzielen möchten, empfehle ich, keinen Kameramoment zu verwenden , da der Kameramoment momentan nicht nutzbar ist. 13. Negative Aufforderung: Willkommen zurück. Jetzt haben wir in diesem Tool eine weitere tolle Option namens negative Eingabeaufforderung. Wenn Sie also nichts in Ihrem Video sehen möchten, geben Sie einfach dieses Wort ein und es wird ohne das generiert , was Sie hier eingeben. Also, in diesem Video, wie ihr sehen könnt, Leute, haben wir diese seltsame Verzerrung. In diesem Beispiel gebe ich also Rechtsverletzung und Bewegungsunschärfe , die ich in meinem Video nicht sehen möchte, und hier haben wir das Ergebnis Wie du sehen kannst, Alter, gibt es in unserem Video keine Verzerrung. Wir haben ein anderes Beispiel, bei dem ich nur Verstoß eintippe. Wir haben also diesen reibungslosen Übergang zwischen zwei Frames. Wenn ich dieses Video abspiele, haben wir dagegen diesen seltsamen Verstoß. So wie dieser. Auch in diesem Beispiel tippe ich einfach Verletzung ein und wir haben reibungsloses Übergangsergebnis. Übrigens, wenn Sie den Standardmodus verwenden, können Sie auch erstaunliche Ergebnisse erzielen. Wie bei diesem verwende ich meinen Standardmodus und wähle diese Masteraufnahme aus. Und ich tippe einfach „Entstellung“, „ Bewegungsunschärfe Bewegungsunschärfe Und hier haben wir das Ergebnis. Es liegt ein kleiner Verstoß vor, aber nicht viel. Wir haben auch dieses Ergebnis und wir haben auch dieses. Wir haben noch einen. Für diesen verwende ich den Standardmodus und wir haben dieses Ergebnis erhalten. Wie ihr sehen könnt, Leute, schließt der Charakter sein Auge und es passiert etwas Verzerrtes im Kurzfilm Um diese Verzerrung zu vermeiden, gebe ich bei der negativen Eingabeaufforderung einfach Distortion Und wie ihr sehen könnt, Leute, haben wir jetzt dieses glatte Ergebnis. Übrigens verwende ich den Standardmodus, nicht den professionellen Modus. Wie ihr sehen könnt, Leute, erscheinen die zehn Credits in der Generierung. Wenn ihr also negative Eingabeaufforderung eintippt, alles, was ihr nicht in eurem Video sehen wollt, werdet ihr ein atemberaubendes Ergebnis erzielen, selbst wenn ihr den Standardmodus benutzt. Und nachdem ich das mit diesem Kamera-Moment, mit diesen negativen Keywords, die ich nicht in meinem Video sehen möchte, erneut regeneriert mit diesem Kamera-Moment, mit diesen negativen Keywords, die ich nicht in meinem Video sehen möchte, erneut mit diesen negativen Keywords habe, habe ich dieses Ergebnis erhalten, und es gibt fast keine Verstöße im Video So können Sie mit Ling AI ein atemberaubendes Ergebnis erzielen, indem Sie eine negative Eingabeaufforderung eingeben 14. Generieren von Bild zu KI-Video: Willkommen zurück. Der nächste Weg, Videos zu generieren, ist also die Verwendung von Bildern. Gehe zum Bild zum Video. Wir können das Bild hochladen oder zu den AI-Bildern gehen und ein beliebiges Bild auswählen. Sie können ein beliebiges Bild auswählen und dann hier klicken, um es zum Leben zu erwecken. Sie können mit Ihrem Bild ein Video generieren. Also haben wir das schon gemacht, also lasst uns das löschen. Gehen Sie jetzt zum Microsoft-Designer. Sie können eine beliebige Eingabeaufforderung eingeben Ihre Eingabeaufforderung verbessern. Sie können Ihre Größe auswählen, was die Größe Ihres Bildes sein soll. Sie können eine beliebige Größe wählen. Und jetzt klicken wir auf diese Warte-Taste der Generation. Nun, hier haben wir das Ergebnis. Sie können jedes Bild auswählen, das Ihnen gefällt. Also ich mag diesen irgendwie. Sie können hier klicken, um ein beliebiges Bild herunterzuladen. Gehen Sie jetzt zurück zu Cling Eye, gehen Sie zum Bild zum Video, klicken Sie hier und wählen Sie das Bild aus, das wir gerade heruntergeladen haben. Klicken Sie darauf, um es zu öffnen. Sie können Ihr Bild auch per Drag & Drop verschieben. Jetzt können wir dieses Bild auch per Drag & Drop verschieben. Sie können jede Aufforderung eingeben, die optional ist. Es gibt auch einige andere Einstellungen. Und für dieses Beispiel wählen wir den Standardmodus. Jetzt können wir klicken, um dieses Video zu generieren. Das Video ist jetzt also generiert. Hier haben wir das Ergebnis. Sie können jedes Bild zum Leben erwecken. Sie können jedes Bild hochladen. Es spielt keine Rolle. Sie können sich auch selbst hochladen. In diesem Beispiel lade ich jetzt mein Bild und hier haben wir das Ergebnis. Nicht nur das, Sie können auch Ihr altes Foto zum Leben erwecken. Sie können auch Ihr manipuliertes Foto hochladen. Wie ihr sehen könnt, Leute, habe ich dieses Bild mit Photoshop selbst bearbeitet und dieses Bild auch zum Leben erweckt Dies ist auch ein weiteres Beispiel. Wir haben auch dieses Beispiel. Und wir haben auch dieses Beispiel. Ihr könnt also sehen, Leute, es ist ziemlich erstaunlich, wie ihr euer Kindheitsfoto zum Leben erwecken könnt. Nicht nur das, Sie können ihm auch sagen , dass er mit Ihrem Foto alles machen soll, was Sie wollen. In diesem Beispiel gebe ich Messer ein, das Orange in zwei Stücke schneidet. Und jetzt haben wir hier das Ergebnis. Das Messer schneidet jetzt die Orange. Und in diesem Beispiel bitte ich ihn, dieses Videoset im Cyberpunk-Stil zu machen Und das habe ich bekommen. Ziemlich erstaunlich, oder? So können Sie Ihre Videos mit dem Bild generieren. 15. Start- und Endrahmen: Willkommen zurück. In Killing A haben wir also eine weitere tolle Funktion namens Add Ndframe Wenn wir es aktivieren, können Sie sehen, dass wir zwei Fenster zum Hochladen der Bilder haben Dies ist der Startframe und dies ist der Endrahmen. Gehen Sie jetzt zum Microsoft-Designer. Sie können diese Eingabeaufforderung eingeben. Sie können diese Bilder generieren. Für dieses Beispiel werde ich dieses Bild herunterladen. Jetzt müssen Sie Ihren Endframe entsprechend der Perspektive Ihres ersten Frames auswählen entsprechend der Perspektive , um atemberaubende Ergebnisse zu erzielen. Ich denke also, dass das Bild Nummer vier dem orangefarbenen Bild sehr ähnlich ist. Also lass uns das auch herunterladen. Jetzt können wir hier klicken, um den Startframe hochzuladen. Jetzt klicken wir hier, um den letzten Frame hochzuladen. Und für dieses Beispiel wähle ich diesen Modus mit zehn aus, und jetzt klicken wir auf diese Schaltfläche mit zehn Wt. Also hier haben wir das Ergebnis. Wie ihr sehen könnt, Leute, verwandelt sich Orange jetzt in Apple. Jetzt erweitere ich dieses Video auch automatisch, und jetzt haben wir dieses generierte Video. Dann verlängere ich das Video um fünf Sekunden mit der Aufforderung , Äpfel zu pürieren, und jetzt haben wir dieses Ergebnis Sie können ihn auch bitten, alles zu tun. In diesem Beispiel gebe ich Apple Transforming Camera Stay Static ein. Die Kamera bewegt sich also nicht, die Kamera bleibt in der Position. Es gibt zwei verschiedene Perspektiven. Deshalb haben wir dieses seltsame Ergebnis erzielt. Aber wenn Sie die richtige Perspektive gewählt haben und die Tabellenposition dieselbe ist, erhalten Sie ein atemberaubendes Transformationsvideo. In diesem Beispiel gebe ich einfach Apple Transforming ein. Vorher hatten wir die Orange am Startframe, jetzt haben wir den Apfel am Startframe und die Orange am Endrahmen. der End-Frame-Funktion dieses Tools können Sie verschiedene Arten Mit der End-Frame-Funktion dieses Tools können Sie verschiedene Arten von verrückten Dingen machen. Lassen Sie mich Ihnen einige Beispiele zeigen. Wir haben also dieses Beispiel. Das ist mein Start-Frame und das ist mein Ende-Frame. Ich habe den Pro Car Crash durch die Wand getippt und bin zwischen zwei Wänden hängen geblieben Setze meinen Schieberegler auf Relevanz 0,8 und verwende den Standardmodus für diese Generation In diesem Beispiel verwende ich diesen Frame und füge mich selbst dem Venom hinzu, und dann verwende ich ihn am Ende des Frames Wie ihr sehen könnt, Leute, und ich tippe Mann, der Gift wird. Ich habe keine Einstellungen geändert, auch den Standardmodus für diese Generation verwendet habe auch den Standardmodus für diese Generation verwendet und dieses Ergebnis erzielt Nachdem ich das Video generiert habe, verbessere ich etwas Licht in meinem Gesicht, füge das Giftgesicht im Startbild und mein Gesicht im Endbild hinzu und gebe ein, dass ein Symbiont einen Mann darin enthüllt Benutze auch hier den Dan-Modus, und ich habe dieses Danach regeneriere ich mein Video erneut und habe dieses verrückte Ergebnis erzielt Sie werden also ein anderes Ergebnis erzielen, wenn Sie sich regenerieren Ich verwende meine beiden Bilder auch am selben Ort, aber mit unterschiedlichen Winkeln verwende ich auch den Standardmodus für diese Generation, und das ist das Ergebnis im professionellen Modus Wie ihr sehen könnt, Leute, ist mein Gesicht jetzt konsistent. Und jetzt haben wir dieses Beispiel. Wenn Sie dasselbe Bild mit derselben Perspektive haben, erhalten Sie ein solches Ergebnis. Wie Sie sehen können, gebe ich Camera Stay Static ein und wir erhalten dieses verrückte Ergebnis. Wenn Sie jetzt einen professionellen Modus mit der Funktion „Endbild hinzufügen“ verwenden , erhalten Sie ein konsistentes Ergebnis. Das ist also das Video im Standardmodus. Und wie ihr sehen könnt, Leute, ist mein Gesicht nicht richtig sichtbar, und das ist das Ergebnis eines professionellen Modus. Das Video wird konsistent bleiben. Wir haben auch dieses Beispiel. Und dies ist ein weiteres Beispiel für die End-Frame-Funktion von Kling AI mit einem professionellen Modus. Und wir haben ein weiteres Beispiel mit einem professionellen Modus mit diesen beiden Bildern. Wie Sie sehen können, sehen die Ergebnisse realistisch aus, und wir haben auch dieses Beispiel. Mit dem Frame-Switch erhalten Sie diesen Effekt. Jetzt müssen Sie in dieser Kombination, bei der wir einen weißen Winkel und einen Nahaufnahmewinkel haben, nicht den ersten und den letzten Frame verwenden der wir einen weißen Winkel und einen Nahaufnahmewinkel haben, nicht den ersten und den letzten Frame in dieser Kombination, bei wir einen weißen Winkel und einen Nahaufnahmewinkel haben, nicht den ersten und , da Sie so etwas erhalten. Sie werden einen extremen Franseneffekt wie diesen erzielen. Und wir haben auch dieses Beispiel. Und wie Sie in der Anleitung sehen können, haben wir einige ziemlich tolle Laser. Sogar die Leute, die im Hintergrund sind, bewegen sich sehr korrekt. Mit diesem Schalter können Sie also alles erstellen. Sie müssen nur einen Sternrahmen hinzufügen und Sie müssen einen Endrahmen hinzufügen, und es wird etwas dazwischen erstellt. 16. Verwandle dich in Iron Man: Willkommen zurück. Selbst wenn Sie die kostenlose Version von Killing AI im Standardmodus verwenden, können Sie jetzt so etwas erstellen. So können Sie auch ohne besondere Fähigkeiten atemberaubende visuelle Effekte erzielen. Und wenn Sie einen professionellen Modus verwenden, können Sie auch atemberaubende Ergebnisse erzielen. Jetzt zeige ich Ihnen, wie wir so etwas erstellen können. Gehen Sie zunächst zu photob.com. Dies ist eine kostenlose Alternative zu Photoshop. Wir haben zwei Screenshots von Ironman. Deaktivieren Sie zunächst Autoselect und dann die Transformationskontrolle aktivieren, erhalten Sie die Transformationskontrolle Wir können Control C drücken, um diese Ebene zu kopieren. Gehe zum Iron Man und drücke Control V, um dich einzufügen. Jetzt können wir diese Ebene in ein intelligentes Objekt konvertieren. Drücken Sie nun die Strg-Taste und halten Sie sie gedrückt. Benutze deine Maus, um die Ansicht zu verkleinern. Und jetzt können wir die Größe dieser Person oder des Motivs ändern, Inter drücken und wir können erneut Strg plus drücken oder sie gedrückt halten, Scrollen zu vergrößern Jetzt werde ich meine Deckkraft verringern und jetzt können wir die Phase an die Ironman-Phase Jetzt können wir die Opazität auf etwa 100% ändern. Klicke hier. Und jetzt richten wir das hier aus. Jetzt aktiviere ich die Rastermaske, klicke hier, wähle zuerst deine Ebene aus und klicke dann hier. Jetzt können wir darauf klicken und gedrückt halten und den Farbfehler auswählen Wir können auch die Farbe austauschen, die Farbe auf Schwarz ändern und jetzt klicken wir auf die Maske auswählen und klicken Jetzt können wir den Pinsel auswählen und mit der rechten Maustaste klicken. Wir können die Größe des Pinsels hier ändern und jetzt können wir die Farbe wechseln. Also klicke hier. Jetzt haben wir die weiße Farbe. Jetzt können wir wieder Strg und T verwenden, sie gedrückt halten und die Scrolltaste verwenden, um sie zu vergrößern. Wählen Sie die Rastermaske aus und jetzt können wir malen. Drücken Sie Kontozi, um den Vorgang rückgängig zu machen. Klicken Sie mit der rechten Maustaste, und wir können die Größe des Pinsels verringern. Und jetzt kann ich genau hier bürsten. Du musst also vorsichtig putzen. Darin befindet sich die Maske „Ich habe es gemacht“. Jetzt sind wir fertig. Wir können das Verschiebewerkzeug auswählen, die Steuerung drücken oder die Ansicht verkleinern. Jetzt sind wir fast fertig. Jetzt klicke ich hier und füge diese Einstellungsebene hinzu, klicke mit der rechten Maustaste auf die Einstellungsebene und erstelle eine Schnittmaske Es wird sich also nur auf die Phase auswirken, nicht auf die ganze Sache. Zuerst werde ich meinen Kontrast erhöhen und meine Helligkeit verringern. Wir können das ein- und ausschalten. Lassen Sie uns diese Ebene ausblenden , um die richtige Farbe zu erhalten. Lassen Sie uns die Helligkeit etwas verringern. Ich werde auch eine selektive Farbe hinzufügen. Wenn Sie diese Eclipsing-Maske nicht erstellen, neutrale Farbe auswählen wirkt sich das auf das gesamte Bild aus, wenn wir die Wie ihr sehen könnt, Leute, wirkt es sich jetzt auf das gesamte Bild aus Und wenn ich das in eine Schnittmaske ändere, wirkt sich das nur auf die Ebene aus, die sich unter dieser Ebene befindet Jetzt können wir diese Ebene zurücksetzen und die Farbe an die Farbe von Iron Man anpassen die Farbe von Iron Man Jetzt glaube ich, wir sind fertig. Platzieren wir das auf etwa. Jetzt sind wir fertig. Das Letzte, was wir tun müssen, ist, mit der rechten Maustaste auf das Gesicht der Person zu klicken und zur Option Überblenden zu wechseln, ohne inneren Schatten Gehen Sie in den Mischmodus, ändern Sie den Mischmodus auf Normal, klicken Sie hier und ändern Sie die Farbe auf Schwarz Jetzt können wir die Größe erhöhen, die Opazität erhöhen. Lassen Sie uns die Vergangenheit ein wenig herunterspielen. Jetzt sind wir fertig. Gehen Sie nun zu diesem Screenshot, klicken Sie hier, drücken Sie Strg C, um ihn zu kopieren, und drücken Sie V. Jetzt können wir diesen Screenshot unter allen Ebenen platzieren . Jetzt können wir all diese Ebenen auswählen, diese Ebene auswählen, die Umschalttaste drücken und die erste Ebene auswählen. Es werden also alle Ebenen ausgewählt. Klicken Sie mit der rechten Maustaste und konvertieren Sie dies in ein intelligentes Objekt. Wählen Sie dies aus und klicken Sie mit der rechten Maustaste und konvertieren Sie es ebenfalls in ein intelligentes Objekt. Jetzt können wir hier klicken und auch Control drücken und dieses auswählen. Klicken Sie mit der rechten Maustaste und konvertieren Sie dies in ein intelligentes Objekt. Jetzt können wir zum Filter gehen, zum Geräusch gehen und etwas Rauschen hinzufügen. Also werde ich 5% Rauschen hinzufügen. Vielleicht ändere ich das auf 3%. Klicken Sie jetzt hier erneut auf den Filter, gehen Sie zur Schärfe und wählen Sie Intelligente Schärfe Klicken Sie auf Okay. Und jetzt sind wir fertig. Sie können Ihre Bilder auch farblich korrigieren, wenn Sie möchten. Also füge ich einfach etwas Grünes hinzu und füge etwas wie Merchant hinzu. Und wenn wir das ein- und ausschalten, könnt ihr sehen, Leute, wir haben einige Farbkorrekturen, die uns helfen , das Gesicht der Szene zuzuordnen Jetzt können wir hier auf die Datei klicken, zum Export gehen und diese Datei als JPEC speichern Wir können die Qualität auf 100% ändern und jetzt auf die Schaltfläche Speichern klicken Wählen Sie nun diese Ebene aus und doppelklicken Sie darauf. Wir können diese Ebene ausschalten. Jetzt haben wir diese Ebene, wir können die Strg-Taste drücken, um sie zu speichern und jetzt haben wir diese Update-Version. Jetzt können wir zu der Datei gehen und sie als JPA speichern. Der Grund, warum ich diesen Screenshot unter diesem Screenshot hinzufüge , ist, sie zu einer Ebene zu machen, einem intelligenten Objekt Dann können wir eine Farbkorrektur vornehmen und wir können einen Effekt über dieser Ebene hinzufügen, der sich auf alle Ebenen auswirkt , die sich unter den Hauptebenen befinden. Und jetzt gehe zum Link KI, wir können diese Bilder löschen und wir können die neuen Bilder hochladen. Jetzt können Sie auch den Standardmodus verwenden, wenn Sie möchten , und wir können auf die Schaltfläche Erstellen klicken. Die Videos sind jetzt generiert. Wenn ich das nun als ersten Frame und das als letzten Frame nehme, ist das im Standardmodus das Ergebnis. Und wenn wir diesen ersten Frame setzen und diesen als letzten Frame setzen, dann haben wir dieses Ergebnis auch mit dem Standardmodus erhalten. Also habe ich dieses Video im professionellen Modus gelesen und gelesen und wir haben dieses erstaunliche Ergebnis erzielt. Das sieht realistischer aus als die anderen generierten Videos. Mit dieser Technik habe ich mich auch selbst als Gift erschaffen Jetzt kannst du dich mit Hilfe der KI in jeden Superhelden ohne besondere Fähigkeiten verwandeln jeden Superhelden ohne besondere 17. Bewegungspinsel: Willkommen zurück. Jetzt sprechen wir über den Bewegungspinsel, und diese Funktion ist ein entscheidender Faktor für die Branche der KI-Videogenerierung Zuerst müssen wir unser Bild hochladen. Sobald Sie Ihr Bild hochgeladen haben, müssen Sie Cling 1.5 auf 1.0 ändern , da diese Funktion in 1.5 derzeit nicht verfügbar ist. Jetzt müssen wir hier klicken. Und wie ihr sehen könnt, Leute, haben wir diese einfache Anleitung. Lassen Sie mich Ihnen zeigen, wie es funktioniert hat. Zuerst haben wir diesen Pinsel. Wir können etwas zeichnen, wir können alles zeichnen, was du bewegen willst. Und wir haben Radiergummi Wenn du zum Beispiel deinen Pinsel löschen willst, wenn ich diesen Stein zeichne, und wenn ich meinen Pinsel löschen möchte, muss ich den Radiergummi auswählen und dann muss ich den Stein entfernen Ich kann den Pinsel auch vergrößern. Jetzt haben wir die automatische Segmentierung. Also, wie ihr sehen könnt, Leute, putze ich mich gerade selbst. Aber wenn ich zurücksetze, kannst du auch deinen Pinselbereich zurücksetzen Ich kann mich automatisch selbst auswählen , indem ich die automatische Segmentierung aktiviere Jetzt wähle ich auch meine Haare, meine Brille, meine Hose und meine Schuhe Jetzt kann ich das Häkchen entfernen und die fehlenden Teile bürsten Wir werden also das genaue Ergebnis erhalten. Jetzt sind wir fertig. Also auf der rechten Seite haben wir die Strecke, und das ist für diesen Bereich, den grünen Bereich. Im Moment wähle ich meinen Track aus und wir müssen die Richtung vorgeben, und wir müssen die Richtung vorgeben in die ich mich bewegen möchte. Ich möchte mich also in diese Richtung bewegen, oder? Lassen Sie uns diesen Pinsel löschen und dann auf diese Seite zeichnen. Jetzt kannst du auch deinen Pfad löschen, auch deinen Track. Du musst hier auf das Kreuz klicken, um deinen Pfad zu löschen. Jetzt werden wir verschiedene Bereiche bekommen. Sie können mehrere Bereiche auswählen, die verschoben werden sollen, aber im Moment habe ich nur mich selbst auf diesem Bild, also ist das genug. Jetzt, am Ende, haben wir das Hinzufügen eines statischen Bereichs. Der statische Bereich bewegt sich also nicht. Dafür muss ich also alles in meinem Bild auswählen, was ich nicht verschieben möchte. Ich denke, das ist genug. Nun, genau hier, wie ihr sehen könnt, Leute, wenn ihr etwas auswählt, das ihr verschieben wollt, aber versehentlich als statischen Bereich auswählt , dann könnt ihr das auch rückgängig machen. Wie ihr jetzt sehen könnt, ist dieser Bereich jetzt leer. Sie können den Vorgang auch wiederholen. Oder Sie können alles zurücksetzen, wenn Sie möchten. Jetzt sind wir fertig. Wir können das bestätigen und wir sind fertig. Übrigens werde ich den Motion Brush wieder öffnen Wenn du zum Beispiel keinen Zug zeichnest, wenn du keinen Pfad zeichnest und auf die bestätigte Schaltfläche klickst, haben wir diese Nachricht hinzugefügt, nicht gezeichnet, nicht gepaart Bewegungspinsel wirken sich nicht auf das Senden aus. Sie reichen also ein, wenn Sie dies bestätigen Wenn Sie diesen Pinselbereich einreichen, hat das keinerlei Auswirkungen, da Sie die Richtung nicht angegeben haben. Um also etwas in deinem Bild zu bewegen, musst du dieses Ding zeichnen und du musst einen Pfad zeichnen. Wenn du keinen Pfad gezeichnet hast, wird es das Objekt, eine Person oder eine Sache nicht bewegen. Lassen Sie uns das jetzt bestätigen. Und jetzt verwenden wir dafür den Standardmodus und wir können dieses Video generieren. Und jetzt haben wir hier das Ergebnis. Wie ihr sehen könnt, Leute, wenn wir den professionellen Modus verwenden, werden wir ein konsistentes Ergebnis erzielen. Im Moment ist es nicht konsistent, aber es sieht gut aus. Jetzt müssen wir nicht mehr einfach zurückgehen und auf das Video klicken , um Videos aus dem Bild zu generieren. Wir können das auch löschen. Keine Sorge, dein Video wird dadurch nicht gelöscht. Und jetzt für dieses Beispiel werde ich auf den Bewegungspinsel klicken. Lassen Sie ihn also zuerst Ihr Bild analysieren, und jetzt können wir die Segmentierung aktivieren Ich kann mich selbst auswählen. Lassen Sie uns das Häkchen entfernen. Wählen wir nun den Track aus und zeichnen wir hier einen Pfad Jetzt wähle ich den statischen Bereich aus und aktiviere die automatische Segmentierung Und wir sind fertig. Lassen Sie uns auch diese Person auswählen. Klicken Sie nun auf Bestätigen und Generieren. Jetzt haben wir dieses Video. Manchmal generiert es also etwas, von dem Sie nicht erwartet hatten, dass er es generiert Keine Sorge, ich denke, wir können das reparieren. Während dieses Video generiert wird, können wir das Bild löschen. Wir können ein anderes Bild hochladen. Und in diesem Beispiel werden wir mehrere Objekte zeichnen, um sie zu verschieben. Jetzt ist das Bild hochgeladen, klicken Sie auf die Zeichenbewegung. Lass ihn das Bild analysieren. Wir können die automatische Segmentierung aktivieren und die Idee Nummer eins auswählen Wir können das zeichnen, den Bereich Nummer zwei auswählen, diesen auswählen Jetzt wähle ich Spur zwei und lass uns diesen Weg zu dieser Position bewegen, den ersten Track auswählen und diesen zu dieser Position bewegen. Jetzt müssen wir den Hintergrund als statischen Bereich zeichnen, sodass sich der Hintergrund nicht bewegt. Jetzt sind wir fertig. Wir können auf Bestätigen klicken und diesen Clip generieren. Und ich habe dieses Beispiel für euch, und ich möchte etwas erklären. Lassen Sie ihn zuerst das Bild analysieren. Nehmen wir zum Beispiel die automatische Segmentierung. Wenn Sie auf den Hintergrund klicken, wenn Sie den Hintergrund als Bewegungsbereich, Momentbereich, Momentpfad zeichnen , wenn Sie den statischen Bereich auswählen, können Sie den Hintergrund nicht als statischen Bereich zeichnen den Hintergrund nicht als statischen Bereich da wir den Hintergrund als Bewegungspfad zeichnen . Wir können es also zurücksetzen. Lassen Sie uns das noch einmal zurücksetzen. Und wenn du zum Beispiel deinen Charakter als statischen Pfad zeichnest wenn ich zum Beispiel für den Bereich Nummer eins mein Gesicht zeichnen muss, dann kann ich mein Gesicht nicht zeichnen weil dieser Bereich jetzt auf den statischen Bereich eingestellt ist. Achten Sie also darauf, sehr vorsichtig zu bürsten. Und wenn ich in diesem Fall zum Beispiel diesen Teil, diesen Teil des Charakters, auswähle, wird auch der gesamte Hintergrund ausgewählt. Um diesen Bereich zeichnen zu können, müssen Sie diesen Bereich manuell auswählen. Und wenn wir die automatische Segmentierung den Hintergrund als statisch festlegen, bleibt er der Momentpfad Es wird dies nicht als statischen Bereich betrachten. Lassen Sie uns also alles zurücksetzen. Und in diesem Clip möchte ich einen Teil meines Charakters bewegen, nicht einen ganzen Charakter. Also werde ich meinen Arm dieses Charakters auswählen. Lass uns diesen Arm an sein Gesicht ziehen, den Bereich Nummer zwei auswählen und ich werde den Arm dieses Charakters zeichnen. Lassen Sie uns das auch zeichnen Deaktivieren Sie Lassen Sie uns auch diesen Arm zeichnen Und jetzt werde ich das blockieren und jetzt sind wir fertig. Lassen wir den Hintergrund zunächst das Häkchen entfernen Lass uns das zeichnen. Lass uns nur sein Gesicht zeichnen. Und jetzt, glaube ich, drehen wir uns um, wir können den statischen Bereich auswählen, auf Bestätigen klicken und lassen Sie uns diesen Clip generieren. Das Video ist jetzt also generiert. Hier haben wir das Ergebnis. Wie ihr sehen könnt, Leute, bewegt sich einer zu dieser Position, der andere bewegt sich zu dieser Position, während wir den Bewegungspinsel eingegeben haben andere bewegt sich zu dieser Position . In diesem Beispiel zeichne ich einen Pfad in der Erwartung, dass ich in diesem Video fliegen werde, aber stattdessen haben wir dieses Ergebnis erhalten. Was nicht schlecht ist. Und im nächsten Beispiel ziehe ich eine Grenze und erwarte, dass er mich zum Sitzen zwingt, aber wir haben dieses Ergebnis. Im nächsten Beispiel habe ich eine Lösung für dieses Problem gefunden . In diesem Beispiel zeichne ich also diesen Pfad, und jetzt stehe ich im Video. Und in diesem Beispiel sitze ich jetzt endlich. Jetzt zeige ich Ihnen, wie Motion Barrage funktioniert. Also, wenn wir uns den Pfad genau ansehen, wie ihr sehen könnt, Leute, zeichne ich einen Pfad zwischen meinen Beinen Also versteht die KI jetzt , dass ich ihn bitte, mich sitzen zu lassen. Und jetzt werde ich darüber sprechen, was das Problem mit der anderen Generation ist. Wenn Sie also genau hinschauen, überzeichne ich meinen Pfeil auf die Zeichenfläche. Deshalb haben wir dieses Ergebnis erhalten, Deshalb haben wir dieses Ergebnis weil die KI jetzt verwirrt ist Wie ihr sehen könnt, Leute, in diesem Video, in dem ich sitze, zeichne ich in diesem Video, in dem ich sitze, auf der statischen Fläche Und jetzt, in diesem Beispiel, haben wir dieses Ergebnis erhalten. Dieser Roboter hebt seine Hand nicht. Er erhöht seine Schlagkraft nicht. Also im nächsten Beispiel, was ich gemacht habe, habe ich einfach diesen Pfeil gezeichnet und wir haben dieses Ergebnis erhalten. Also musst du Bewegung zeichnen. In diesem Beispiel haben wir nun dieses Ergebnis erhalten. Und ich habe den Pfeil ein wenig verändert. Wie ihr sehen könnt, Leute, ändere ich jetzt meine Pfeilbahn ein wenig und wir haben dieses Ergebnis. Ich habe auch dieses Beispiel. Wie ihr sehen könnt, Leute, wenn wir den Bewegungspinsel öffnen, zeichne ich diesen Charakter komplett und ich zeichne einen Pfad. Ich möchte, dass sich dieser Charakter an diese Position bewegt. Und für diesen Charakter zeichne ich nur die Schläge und den Kopf dieses Charakters und stelle den Hintergrund als statisch Wenn du genau hinschaust, ist dieser Charakter nicht vollständig auf diese Statik eingestellt, nur seine Schläge und der Kopf sind jetzt gezeichnet, nicht der ganze Charakter, und ich zeichne diesen Pfad, wohin ich ihn bewegen möchte Und das ist ein Ergebnis dieser Zeichnung. Und das ist ein weiteres einfaches Beispiel Wenn wir den Bewegungspinsel öffnen, zeichne ich einfach mein Auto und ich zeichne einfach einen Pfad. Stellen Sie den Hintergrund als statisch ein. Wir haben ein anderes Beispiel: Wir kämpfen mit Robotern. Wenn wir den Bewegungspinsel öffnen, zeichne ich diese Figur, ich möchte diese Figur stanzen und gleichzeitig möchte ich, dass sich diese Figur ein wenig zurücklehnt. Und für diesen Charakter ziehe ich diesen Schlag. Ich möchte , dass dieser Charakter diesen Charakter und sich auch ein bisschen zurücklehnt. Und wir haben dieses Ergebnis erzielt. Sie können auch mehrere Bereiche zeichnen, und Sie erhalten unterschiedliche Ergebnisse. Dies ist auch ein weiteres einfaches Beispiel. Wenn wir den Bewegungspinsel öffnen, zeichne ich diesen Charakter auf diese Seite, zeichne den Bus und bewege den Bus auf diese Seite, stelle den Hintergrund als statisch und jetzt haben wir dieses Ergebnis. Der Roboter bewegt sich nicht , weil die KI vielleicht denkt , dass ich möchte, dass der Bus diesen Roboter zerquetscht. Im Moment ist die KI also auch sensibel. Wir haben auch ein anderes Roboter-Beispiel. Wenn ich Ihnen den Bewegungspinsel zeige, haben wir hier den Bewegungspinsel. Jetzt haben wir hier das Ergebnis. Wie du sehen kannst, Alter, die Ergebnisse sind umwerfend. Wenn Sie jetzt einen professionellen Modus verwenden, erhalten Sie ein genaues Ergebnis. In diesem Beispiel zeichne ich also den linken Arm von diesem und auch den linken Arm dieses Roboters, und ich zeichne diesen Pfad. Wenn Sie den Hintergrund als statisch festlegen, wird dieses Ergebnis generiert. Das Ergebnis ist jetzt präzise. Im Gegensatz zum Standardmodus mit derselben Zeichnung, wenn ich es Ihnen mit derselben Zeichnung zeige, erstelle ich dieses Video im Standardmodus, und der Charakter bewegt sich auch ein wenig und der Hintergrund bewegt sich ebenfalls. Aber im professionellen Modus könnt ihr sehen, Leute, dass genau nur der Teil bewegt wird, den ich gezeichnet habe. Mit dieser Zeichnung haben wir also dieses Ergebnis im professionellen Modus erzielt. Wie ihr sehen könnt, Leute, ist jetzt alles konsistent und mit derselben Zeichnung. Aber mit dem Standardmodus haben wir dieses Ergebnis erzielt. Jetzt können Sie Ihr bearbeitetes Bild auch verschieben. Wie ihr sehen könnt, Leute, bearbeite ich mich selbst im Studio und zeichne diesen einfachen Bewegungspinsel. Wir haben diesen Effekt. Wir haben ein anderes Beispiel. Wenn ich Ihnen den Bewegungspinsel zeige, ist dies der Bewegungspinsel, und das ist das Ergebnis im professionellen Modus. Das Video im professionellen Modus sieht komisch aus , weil es das generiert, worum ich ihn bitte. Wie ihr sehen könnt, Leute, bitte ich ihn, den Schnauzenblitz und auch seinen Arm zu bewegen , und es ist einfach gemacht und es sieht komisch aus Aber mit derselben Zeichnung im Standardmodus erhalten Sie ein anderes Ergebnis Und das ist das Ergebnis mit dem Standardmodus. Wie ihr sehen könnt, Leute, hat es den Arm bewegt und auch die Schnauze blinken Der Motion-Pinsel mit Standardmodus sieht realistischer und atemberaubender aus als der professionelle Modus Die Videos werden jedoch inkonsistent, wenn Sie den Standardmodus verwenden Im professionellen Modus müssen Sie jedoch präzise mit Ihren Pinseln umgehen, da nur der Teil bewegt wird, an dem Sie den Bereich bürsten Wenn Sie sich also fragen, wie ich die Boardpunching-Videos erstellt habe , ist dies die Aufforderung und das Ergebnis mit dem Microsoft-Designer In diesem Beispiel habe ich nur den Blitz der Pistole gezeichnet und wir haben dieses Ergebnis Lass mich dir den Bewegungspinsel zeigen. Wie ihr sehen könnt, Leute, ist nicht alles statisch eingestellt , außer dem Gesicht und dem Körper dieser Person. Mein Punkt ist also, dass Sie bei der Verwendung des professionellen Modus präzise sein müssen bei der Verwendung des professionellen Modus wenn Sie den Bewegungspinsel verwenden, wenn Sie die Bewegung richtig machen wollen. Und so können Sie den Bewegungspinsel verwenden. 18. Lippensynchronisierungs-Videos mit KI: Willkommen zurück. Jetzt haben wir also das letzte Feature, das Lip Sync heißt. Wenn Ihr von Ino generiertes Video ein Tempo enthält, können Sie die Lippen dieser Person synchronisieren. Sie müssen nur Ihr Video auswählen. Du musst auf den Lippensynchronisator klicken. Es wird zuerst dein Video identifizieren. Dann haben wir diese Schnittstelle. Wie Sie in der Anleitung sehen können, gibt es so viele Stimmen. Sie können eine beliebige auswählen. Hallo da. Du kannst spielen und du kannst es tun. Du kannst auf diese Stimme hören. Sie können jedes Geschlecht wählen, z. B. männlich, junger Mann. Hallo da. Wunderschön. Sobald Sie Ihre Stimme ausgewählt haben, können Sie alles eingeben , was er sagen soll. Sobald Sie Ihre Sprache eingegeben haben, können Sie auch hier klicken, um eine Vorschau Ihrer Wörter anzuzeigen. Hallo, da. Ich komme aus der Vergangenheit. Ich heiße Alex. Sie können auch die Geschwindigkeit Ihrer Stimme ändern. Hallo, da. Ich komme aus der Vergangenheit. Lass uns das auf ein X ändern, was die normale Geschwindigkeit ist. Und jetzt kannst du auf die Lippensynchronisation klicken und das kostet deine fünf Credits. Jetzt können Sie auch Ihr Audio hochladen , um die Lippen zu synchronisieren. Im Moment klicke ich hier, Lippensynchronisierung und gehe zum Upload. Lokales Verdummeln. Wir können eine Datei hochladen Und wie ihr sehen könnt, Leute, wenn eure Aufnahme länger als 5 Sekunden dauert, dann müsst ihr euer Audio kürzen. Hallo, da. Mein Name ist Faizan und ich komme aus der Vergangenheit. Hallo, meins. Sie müssen also einen Teil aus Ihrem Audio auswählen , weil die Videolänge fünf Sekunden beträgt, also müssen wir den Ton unter fünf Sekunden auswählen. Jetzt bestätige ich meinen Zuschnitt und lasse uns nun auch diesen Clip mit den Lippen synchronisieren. Es spielt keine Rolle, ob Sie die Bild-zu-Video- oder die Text-zu-Video-Generierung verwenden . Wenn es eine Phase gibt, können Sie dieses Video per Lippensynchronisierung synchronisieren. Also wähle ich zum Beispiel diesen Roboter und klicken wir jetzt auf die Lippensynchronisation. Zunächst wird nun erkannt, ob es eine Phase für die Lippensynchronisation gibt. Wenn es nun kein Tempo in Ihrem Clip identifizieren kann, erhalten Sie diesen Fehler. Lassen Sie uns dieses Video identifizieren, und jetzt, wie Sie sehen können, Leute, haben wir jetzt diese Schnittstelle. Wenn Sie nun möchten, dass eine Person sehr langsam spricht, können Sie die Sprechgeschwindigkeit auf 0,8 einstellen , was die niedrigste ist. Und bevor Sie etwas eingeben, können Sie eine Vorschau dieser Stimme anzeigen. Gehen wir zu dieser Seite und vielleicht stecke ich meine Hände in meine Tasche. Wie ihr sehen könnt, Leute, der Text spricht jetzt sehr langsam, und wenn ich will, dass er schnell spricht, müsst ihr die Sprechgeschwindigkeit erhöhen Gehen wir auf diese Seite. Und vielleicht stecke ich meine Hände in meine Tasche. Und hier oben auf der rechten Seite der Stimme gibt es eine Zeitbegrenzung . Gehen wir auf diese Seite. Also diese Stimme ist jetzt 4,5 Sekunden lang. Also müssen wir vielleicht die Sprechgeschwindigkeit auf 0,9 ändern. Gehen wir auf diese Seite. Jetzt haben wir eine Stimme von 5,3 Sekunden. Jetzt können wir uns eine Vorschau dieser Stimme ansehen. Gehen wir auf diese Seite. Nun, wenn Sie möchten, dass eine Person sehr schnell spricht, dann erhöhen Sie einfach die Sprechgeschwindigkeit. Gehen wir auf diese Seite und vielleicht stecke ich meine Hände in meine Tasche. Für mich stelle ich meine Sprechgeschwindigkeit auf 0,9 ein und klicke auf Lippensynchronisation. Das Lippensynchronisationsvideo wird jetzt also generiert. Hier haben wir das Ergebnis. Hallo da. Ich komme aus der Vergangenheit. Ich heiße Alex. Nun, wie ihr sehen könnt, Leute, sind die Ergebnisse jetzt ziemlich beeindruckend. Nun, wenn Sie ein perspektivisches Video wie dieses mit der Frontkamera haben , aber wenn Sie eine Seitenkamera haben, dann ist die Lippensynchronisation auch sehr beeindruckend. Hallo, mein Name ist Faizan und ich komme aus der Vergangenheit. Wie ihr sehen könnt, Leute, meine Perspektive ändert sich gerade, aber mein Mund bewegt Mein Name ist Fazan und ich komme aus der Vergangenheit. Wir haben auch dieses Beispiel. Gehen wir auf diese Seite und vielleicht stecke ich meine Hände in meine Tasche. Ich finde, mein Mund sieht viel zu groß als er sein sollte, aber das ist okay. Es ist nicht so schlimm, und das ist das letzte Video, das wir mit Lippen gemacht haben. Oh, ich werde fett. Meine Lungen, meine Lungen. Jetzt kannst du dein Video auch reduplizieren, wenn du willst. Sie müssen nur hier klicken, Redub, Sie können Ihr Audio hochladen oder Sie können Text-to-Speech verwenden, um Ihren Clip mit den Lippen zu synchronisieren So können Sie die Lippensynchronisierung verwenden um Ihre Videos mit Cling AI Lippensynchronisation 19. KI-Videogenerierung erweitern: Willkommen zurück. Wenn Sie jetzt ein Video generieren, können Sie dieses Video auch erweitern. In diesem Beispiel wähle ich meinen Burger genau hier aus. Ich werde diesen Burger verbessern. Jetzt ist der Burger verbessert. Lass uns das zum Leben erwecken. Jetzt wähle ich den professionellen Modus und lass uns Cling 1.0 wählen, denn wenn du 1.5 verwendest, kannst du deinen Clip nicht wirklich erweitern. Es gibt keine Option. Wenn Sie 1.5 verwenden, können Sie Ihren Clip nicht wirklich erweitern. Das Video wird also generiert. Hier haben wir das Ergebnis. Wenn Sie genau hinschauen, haben wir eine Option namens Extend, und wir haben zwei Optionen in Extend. Eine davon ist Auto Extend. Die andere Option ist die benutzerdefinierte Erweiterung. Wenn Sie jetzt die Standardversion verwenden, können Sie auch diese verwenden. Und wenn Sie den Standardmodus verwenden, werden zehn Credits benötigt. Und wenn Sie den professionellen Modus verwenden, werden erneut 35 Credits benötigt. Lassen Sie uns also automatisch verlängern. Jetzt wähle ich erneut mein generiertes Video aus und dieses Mal wähle ich anpassen und erweitern. Jetzt gebe ich Catchup Pouring on top of the Jetzt wird das Video verlängert. Wir haben also das Ergebnis. Wie ihr sehen könnt, Leute, ist das Video jetzt auf neun Sekunden verlängert. Und das ist das Ergebnis der automatischen Verlängerung. Jetzt haben wir den Nachtisch für den Kunden. Und nach 5 Sekunden, wie ihr sehen könnt, haben wir diesen Fänger auf den Burger geschüttet Und einfach so kannst du deinen Clip verlängern. Sie können alles, was Sie wollen, in Ihr Video eingeben. Jetzt habe ich auch andere Beispiele. In diesem Clip haben wir also diese Aufforderung. Ich habe dieses Video mit Text-zu-Video generiert . Übrigens, dies ist der Standardmodus, nicht der professionelle Modus. Und das ist auch der Standardmodus. Und wir können die Maus auch in die Erweiterungshistorie aufnehmen. Und wie ihr sehen könnt, Leute, habe ich eine Hand getippt, die Milch antreibt Also haben wir dieses Ergebnis. Wir haben keine Milch, aber Sie können es erneut versuchen, um das gewünschte Ergebnis zu erzielen. Manchmal verlängert es nicht, was Sie von ihm verlangen. In diesem Clip tippe ich dunkle Wolken, die den Himmel bedecken, und wie ihr sehen könnt, Leute, passiert nach 5 Sekunden nichts Es ist nur ein normales Zoom-Video. Es passiert nichts am Himmel. Dies ist ein weiteres Beispiel, bei dem ich gesehen habe , wie ich mich auf einen Parkplatz begeben habe. Und wenn ich dieses Video abspiele, wie ihr sehen könnt, Leute, haben wir nach fünf Sekunden ein Auto hinter dem Charakter. Das ist übrigens die automatische Verlängerung. Wir haben nur einen normalen Zoom-Out-Clip. Und ich tippe, ein futuristisches Fahrrad steht vor dem Arrektor. Und nach fünf Sekunden kannst du sehen, dass wir ein Fahrrad haben Dies ist auch ein Video im Standardmodus. Ich habe Autounfall getippt und nach fünf Sekunden können Sie sehen, dass Rauch aus dem Auto kommt Manchmal generiert es nicht das , worum Sie ihn bitten In diesem Beispiel bitte ich ihn also, die Buchstaben vom Burger zu nehmen, und es hat gerade dieses Video generiert. Und in einem anderen Beispiel fügt eine Hand zusätzliches Patty in den Burger, und wir haben diese Hand, die den Burger zupasst, nicht das Patty hinzugibt Und in diesem Beispiel tippe ich, dass Imodi rot wird und wütend wird Nach 5 Sekunden haben wir also dieses Ergebnis. Er wird wütend, aber er wird nicht rot. Sie können Ihr Video nicht nur auf bis zu 10 Sekunden verlängern, Sie können es auf so viel verlängern, wie Sie möchten. Wie in diesem Beispiel in meinem Erweiterungsverlauf ist dies die ursprüngliche Aufforderung, mit der wir dieses Video generiert haben. Und nachdem ich ein vorbeifliegendes Flugzeug hinzugefügt habe, füge ich hinzu, dass ein Flugzeug in einiger Entfernung fliegt Dann füge ich in der letzten Aufforderung hinzu, dass der Himmel dunkler wird Es wird bald regnen. Das ist also das ganze Video. Es wird überhaupt kein Flugzeug hinzugefügt, aber der Himmel wird dunkler, was ich merke Hier haben wir es nach 15 Sekunden, der Himmel wird dunkler So können Sie Ihren Clip mit King erweitern. 20. kling 1.0 vs. kling 1.5: Willkommen zurück. Jetzt haben wir also alle Videos, die mit Kling AI mit unterschiedlichen Modi generiert wurden . Und in diesem Vortrag werden wir 1,0 pro Fraktionsmodus mit 1,5 pro Fraktionsmodus vergleichen pro Fraktionsmodus mit 1,5 pro Fraktionsmodus Hier haben wir also die Einstellung für das folgende generierte Video Das erste Ergebnis ist 1,0 pro Fraktionsmodus. Und jetzt haben wir 1,5 Ergebnisse im professionellen Modus. Wie Sie sehen können, liefert der 1.5, worum ich ihn bitte, während der 1.0 nur ein Video von einem Autounfall liefert. Wir haben ein anderes Beispiel. Hier haben wir die Eingabeaufforderung, hier haben wir die Einstellungen, und das ist das Ergebnis im professionellen Modus 1.0. Und mit den gleichen Einstellungen ist dies der 1.5 Pro-Modus. Und wir haben ein anderes Beispiel. Mit dieser Einstellung haben wir 1,0 Promde-Ergebnis und jetzt 1,5 Promote Es gibt also einen großen Unterschied zwischen 1,0 Promote und 1,5 Promote. Sehen wir uns ein anderes Beispiel an. Mit diesen Einstellungen haben wir ein Promo-Ergebnis von 1,0. Und mit genau der gleichen Einstellung mit 1,5 haben wir dieses Ergebnis erhalten. Also hast du etwas bemerkt? Sehen wir uns auch ein anderes Beispiel an. Mit dieser Einstellung ist das ein Werbeergebnis von 1,0, und mit genau derselben Einstellung haben wir ein Werbeergebnis von 1,5. Bei dieser Einstellung entspricht das Werbeergebnis 1,0. Und mit exakt derselben Einstellung haben wir 1,5 Promote-Ergebnis erhalten. , wenn wir mit einem animierten Charaktervideo fertig würden wir aussehen, wenn wir mit einem animierten Charaktervideo fertig wären? Mit dieser Einstellung haben wir ein Promo-Ergebnis von 1,0 erhalten. Wie ihr sehen könnt, Leute, haben wir unsere Gesichtsanimation und mit exakt derselben Einstellung haben wir 1,5 Promote. Lassen Sie uns nun darüber sprechen, wie Ihre Bilder aussehen würden, wenn Sie sie zum Leben erwecken würden. Das ist also das Ergebnis von 1.0 promote, und das ist das Ergebnis von 1.5 promote. Wenn Sie also davon sprechen Ihre Bilder zum Leben zu erwecken, gibt es keinen großen Unterschied zwischen 1.0 und 1.5 Promote. 1,5 Promde ist also konsistenter als 1,0 Promote. 1.0 generiert atemberaubende Videos, aber es gibt einige Verzerrungen in den Videos, die bemerkt werden können Es gibt jedoch keine großen Verzerrungen. Wenn Sie den Standardmodus verwenden, treten starke Verzerrungen oder Verstöße auf. Wenn Sie jedoch den 1.0-Promo verwenden, werden Sie keine großen Verzerrungen oder Verstöße feststellen. Aber wenn Sie 1.5 Promod in Betracht ziehen, wäre es besser, es zu verwenden, da ich kaum Verzerrungen oder Verstöße feststelle. Beim Vergleich dieser beiden Punkte stelle ich fest, dass 1,5 konsistenter ist und die beste Werbewirkung bietet als 1,0 1,0 werben schneidet in einigen Szenarien besser ab als 1,5. Das ist also die Schlussfolgerung , ob Sie 1.5 oder 1.0 Promote verwenden möchten. 21. Kling 1.5 VS Kling 1.0 Standardmodus: Willkommen zurück, alle zusammen. Das neue Update von Kling AI ermöglicht es uns also, Kling 1.5 im Standardmodus zu verwenden. Vor diesem Update können wir also nur den professionellen Modus verwenden. Jetzt können wir den Standardmodus verwenden, was gut ist. Und der Standardmodus benötigt 20 Credits. Zunächst wähle ich Bild zu Videomodell aus und lass uns ein Bild auswählen. Jetzt wähle ich mein Bild aus und tippe jetzt diesen braunen Mann ein, der in einem Anzug im Cyberpunk-Stil durch eine Cyberpunk-Stadt rennt der in einem Anzug im Cyberpunk-Stil durch eine Cyberpunk-Stadt Wählen wir nun den Standardmodus und klicken wir auf Generieren Jetzt habe ich einige Beispiele generiert, und jetzt werden wir den Standardmodus von Kling 1.1 mit dem 1.5-Standardmodus vergleichen . Dies ist das erste Beispiel: Männer, die in einer Cyberpunk-Umgebung laufen und einen Cyberpunk-Stil tragen Und wie ihr sehen könnt, Leute, verwende ich Kling 1.0 und ich habe den Standardmodus verwendet Und das ist das Ergebnis. Und mit demselben Bild mit derselben Eingabeaufforderung ist das Kling 1.5. Und wie du sehen kannst, Alter, ist das Ergebnis stark verbessert. Ich habe dafür nicht einmal den professionellen Modus verwendet, wie Sie hier sehen können, ich habe den Stand-in-Modus verwendet. Schauen wir uns nun ein anderes Beispiel an. Riesiger Schleim, der weit von der Decke entfernt war und den Körper des Mannes bedeckte Jetzt verwende ich dafür den professionellen Modus von Kling 1.5, und das ist das Ergebnis des professionellen Modus Kling 1.5 Und mit demselben Bild und derselben Aufforderung verwende ich einfach den Stand-in-Modus von Kling 1.5, und hier ist das Ergebnis. Sie können also den Standardmodus von Kling 1.5 verwenden und Sie werden einige ziemlich erstaunliche Ergebnisse erzielen. Hier haben wir ein weiteres Beispiel, einen Mann, der vor dem Tsunami davonläuft aus dem Hintergrund kommt Ich verwende das Modell Kling 1.0 und den Standardmodus. Und hier haben wir das Ergebnis. Und mit demselben Bild und derselben Aufforderung ist dies das Ergebnis von Kling 1.5. Und wie ihr sehen könnt, Leute, sind die Ergebnisse ziemlich konsistent. Hier haben wir ein weiteres Beispiel Standardmodus ING 1.0, einen Mann, der vor der großen Explosion davonläuft, die sich in der Hintergrundkamera ereignet und ihm folgt. Mit demselben Bild und derselben Eingabeaufforderung ist dies das Ergebnis des Standardmodus von Kling 1.5. Y. Das ist nun das letzte Beispiel Jeder fängt an zu kämpfen und schlägt sich gegenseitig. Ich benutze Kling 1.0 und verwende den Standardmodus für diesen, und hier haben wir das Ergebnis Und mit Kling 1.5 haben wir hier dieses Ergebnis. Jetzt können Sie den Standardmodus von Kling 1.5 verwenden und Sie werden einige ziemlich erstaunliche Ergebnisse erzielen, wenn Sie kein professionelles Konto für Kling AI haben. 22. Start- und Endframe-Kling 1.5: Willkommen zurück. Im neuen Update können Sie also auch Start- und Endframe verwenden , indem Sie das 1.5 Cling AI-Modell verwenden. Jetzt generiere ich diesen Clip mit diesen beiden Frames, das ist der Start-Frame und das ist der End-Frame. Übrigens können Sie auch das Ende- und das Start-Frame austauschen , wenn Sie möchten. Und ich verwende den professionellen Modus für diese Generation, und das ist das Ergebnis. Und wie ihr sehen könnt, Leute, ist so ziemlich die gesamte Bewegung meines Körpers inkonsistent Also lasst uns das Modell auf 1.5 ändern und schauen, ob das Video konsistent oder inkonsistent bleibt Wir haben ein weiteres Beispiel für Start und Frame. Wenn Sie den Standardmodus verwenden, ist dies das Ergebnis. Lassen Sie uns nun mehr auf Professional umsteigen und das Modell auf 1.5 ändern. Wir haben auch dieses Beispiel. den professionellen Modus 1.0 verwenden, ist dies der Start-Frame und dies ist der End-Frame. Und wir haben dieses Ergebnis erzielt. Lassen Sie uns nun sehen, ob wir mit 1.5 ein konsistentes Ergebnis erzielt haben . Lassen Sie uns also mehr auf 1.5 ändern und dann auf Konzentrieren klicken. Die Videos sind jetzt also generiert. Hier haben wir das Endergebnis. Das Video ist also ziemlich konsistent. Aber in meinem Gesicht gibt es Widersprüche , die ich nicht sehe Aber es hat den Antrag richtig gemacht. Er ist besser als der professionelle Modus von 1.0. Schauen wir uns nun das zweite Beispiel an. Und ich finde, dieses Ergebnis ist ziemlich beeindruckend als der Standmodus von 1.0. Wenn Sie nun inkonsistente Bilder verwenden, wenn Sie das erste Bild verwenden und zweite Bild völlig anders ist als das erste Bild, dann werden Sie ein seltsames Ergebnis erzielen Und das ist das erste Beispiel dafür. Auf beiden Bildern steckt das Auto in der Wand fest. Deshalb haben wir dieses Ergebnis erhalten. Selbst wenn Sie 1.5 verwenden, werden Sie ein seltsames Ergebnis erzielen. Nun, das ist das zweite Beispiel. Wenn Sie völlig unterschiedliche Bilder verwenden, unterscheidet sich der Start-Frame vom End-Frame. Deshalb haben wir dieses Ergebnis erhalten. Und wie Sie sehen können, verwende ich den professionellen Modus 115. In diesem Beispiel verwende ich jetzt einen Ferrari. Wenn Sie konsistente Bilder generieren möchten, gehen Sie zunächst zu Designer dotmicrosoft.com Und für den Ferrari tippe ich einfach eine große Ansicht eines Ferrari-Autos ein Und wenn Sie dieses Wort eingeben, müssen Sie nur die Eingabeaufforderung verbessern, auf diese erweiterte Eingabeaufforderung klicken und die Eingabeaufforderung wird für Sie geschrieben. Jetzt können Sie die Bilder vom Designer dotmicrosoft.com kopieren oder die Größe auswählen oder sie generieren Aber die Bilder von Designer Microsoft sehen karikaturhaft aus Sie sehen nicht realistisch aus. realistische Bilder zu generieren, gehen Sie zu Labs Dot Google und dann zu Bildeffekten. Wie ihr sehen könnt, Leute, habe ich Bildeffekte ausgewählt. Lass uns in Meine Bibliothek gehen. Und wie Sie sehen können, die Bilder von Labors Dot Google ziemlich realistisch. jetzt hier klicken, können Sie zum Bildeffekt gehen , Ihre Eingabeaufforderung einfügen und auf dieses Generieren klicken während der Generierung der Bilder zum Designer, Gehen wir während der Generierung der Bilder zum Designer, und wie Sie sehen können, Leute, sehen die Designerbilder karikaturhaft aus Wenn Sie dagegen in die Labore von Google gehen, haben wir realistische Ergebnisse Lass uns dieses Bild herunterladen. Und wenn du in deiner Eingabeaufforderung nach oben scrollst, wie du sehen kannst, ist das ein Weitwinkelobjektiv. Wir können das auch ändern, um es zu schließen. Wir können auch die Farbe des Ferrari ändern. Wir können den Markennamen ändern. Sie können das farbige Schlüsselwort ändern, wenn Sie möchten. Jetzt können wir auf Generieren klicken. Bevor wir einen Weitwinkel erzeugen, können wir jetzt eine Nahaufnahme eines Ferrari erstellen. Und wenn Sie das tun, werden Sie, wie Sie sehen können , einige konsistente Bilder erhalten. Klicken wir nun auf diesen Download-Button. Und wenn wir jetzt die Bilder öffnen, sehen diese beiden Bilder konsistent aus. Sie sehen gleich aus. Nachdem wir die Bilder heruntergeladen haben, wähle ich im Startbild die Nahaufnahme und im Endbild die weiße Aufnahme aus, und wir haben dieses Ergebnis erhalten. Und das wird übrigens im Standardmodus 1.0 generiert . Und mit den gleichen Bildern haben wir dieses Ergebnis erzielt. Wie Sie sehen können, ist das Ergebnis konsistent. Wenn Sie möchten, dass sich die Kamera bewegt, können Sie auch den Rahmen austauschen. Und in diesem Ergebnis tausche ich einfach den Rahmen aus. Ich wähle die weiße Aufnahme am Startbild aus und ändere die Nahaufnahme am Endbild. Und das ist das Ergebnis, das wir erzielt haben. Und diese beiden Bilder wurden auch mit dem Kartenpunkt Google generiert, und wir haben dieses Ergebnis Es gibt also eine andere Methode, wenn Sie konsistente Bilder generieren möchten Gehen Sie zunächst zum Chat GBD und bitten Sie ihn, eine Aufforderung zur Bilderzeugung zu schreiben, in Paris eine Wasserflasche vom Himmel fällt Und wir haben diese Aufforderung bekommen und bitten ihn nun, eine Aufforderung zur zweiten Szene zu schreiben Jetzt bitte ich ihn nur, diese beiden Eingabeaufforderungen konsistent zu halten und mir diese beiden Eingabeaufforderungen zu geben. Ich kopiere diese Aufforderung und füge sie in Labs Dot Google ein. Wie Sie sehen können, sind dies das erste Prompt-Ergebnis und dies ist das zweite Prompt-Ergebnis. Die Flasche fällt vom Himmel und in der zweiten Aufforderung ist sie auf dem Boden gelandet. Und hier haben wir das Ergebnis. Jetzt habe ich den 1,0 Zapfenmodus verwendet, aber Sie können Ihr Modell auf 1,5 ändern und den professionellen Modus auswählen, und dann erhalten Sie professionelle , konsistente Ergebnisse Jetzt können Sie JA GPT auch bitten, Bilder für Sie zu generieren. Wie ihr sehen könnt, Leute, bitte ich ihn, sechs Prompt zu schreiben und die Konsistenz in sechs beizubehalten, ein Zeitraffer, in dem eine Pflanze zu einem ausgewachsenen Baum heranwächst Und das sind sechs Eingabeaufforderungen, aber ich bitte ihn, diese Bilder zu generieren und diese Bilder zu generieren Und dann frage ich ihn, kannst du sie realistisch machen? Und wir haben diese Ergebnisse? Dann habe ich ihn gebeten, sie ultrarealistisch zu machen , und wir haben diese Ergebnisse erhalten. Dann füge ich diese beiden Bilder hinzu und schaue mir das Ergebnis an. also die konsistenten Bilder verwenden, erhalten Sie ein professionelles Ergebnis. Hier ist ein weiteres Beispiel: Wenn Sie den Rahmen des Formulars austauschen, haben wir diesen Fade-Out-Übergang zwischen diesen beiden Frames. Und wenn Sie diesen Frame am Anfang und diesen Frame am Ende verwenden und Standard 1.0 verwenden, haben wir dieses Ergebnis erhalten, haben wir dieses Ergebnis besser ist als das Ergebnis 1,5, aber das Ergebnis 1,5 ist konsistent. Ich hoffe, du hast eine Idee, wie du die Start- und Endframe-Videos professionell generieren kannst . Halte die Bilder einfach konsistent. Wenn Sie nun zwei konsistente Bilder haben, können Sie ein ziemlich erstaunliches Ergebnis erzielen. Ich habe zum Beispiel diese beiden Bilder , die identisch aussehen. Im ersten Bild haben wir einen Samen und im letzten Bild haben wir eine kleine Pflanze oder einen Baum. Jetzt verwende ich den Link 1.0-Standardmodus und wir haben dieses Ergebnis erhalten. Aus einem Samen wird eine Pflanze oder ein kleiner Baum. Jetzt ändere ich mein Modell einfach auf den professionellen Modus 1.5 und habe dieses seltsame Ergebnis. Der Samen verwandelt sich nicht. Wir haben nur zwei Clips in einem Video zusammengefasst. Wenn Sie also ein solches Ergebnis erhalten, versuchen Sie, eine Eingabeaufforderung einzugeben. Also verwende ich einfach wieder diese beiden Bilder und tippe eine Eingabeaufforderung ein, wobei sich der Samen in einen kleinen Baum verwandelt. Und dann habe ich dieses erstaunliche Ergebnis erzielt. 23. Bewegungspinsel von Kling 1.5: Willkommen zurück. Das neue Update von Kling AI ermöglicht es uns also, Kling 1.5 mit der Draw Brush-Funktion zu verwenden. Jetzt können Sie die Draw Brush-Funktion mit Kling 1.5 verwenden. Jetzt haben wir dieses Beispiel. Wie ihr sehen könnt, Leute, habe ich das mit der Draw Brush-Funktion generiert . Und das ist mein Zeichenpinselpfad, und das ist ein Ergebnis des Kling 1.0-Standardmodus. Jetzt verwende ich mit demselben Bild und demselben gezeichneten Pfad den professionellen Modus, wähle Cling 1.5 und lass uns generieren. Jetzt haben wir ein anderes Beispiel. Und wenn ich den Weg gehe, wie ihr sehen könnt, Leute, ist das mein Weg. Jetzt verwende ich den professionellen Modus und lasse uns das Modell auf 1.5 umstellen und auf Generieren klicken. Jetzt haben wir diesmal dasselbe Bild. Aber ich habe nur den Blitz der Pistole gezeichnet, wie Sie sehen können. Jetzt wähle ich den professionellen Modus und lass uns Clean 1.5 auswählen und dann auf Generieren klicken. Dies ist ein weiteres Beispiel für einen Bewegungspinsel mit professionellem Modus und Verwendung, und dies ist ein weiteres Beispiel für einen Bewegungspinsel unter Verwendung des Clean 1.0-Modells und des professionellen Modus. Und wenn wir zu dem Pfad gehen, ist das der Pfad, den ich gezeichnet habe, und hier haben wir das Ergebnis. Lassen Sie uns nun das Modell mit demselben gezeichneten Bewegungspinselpfad ändern . Klicken wir auf Generieren. Und wir haben auch dieses Beispiel. Wenn wir bei diesem Bild zum Bewegungspinselpfad gehen, ist dies der Pfad, den ich gezeichnet habe. Bei einem professionellen Modus von 1.0 ist dies das Ergebnis. Wenn Sie sich meinen vorherigen Vortrag über Motion Brush ansehen, versuche ich wirklich sehr, mich zum Sitzen zu bringen. Und am Ende habe ich nach ein paar Versuchen dieses Ergebnis erzielt. Versuchen wir es jetzt mit demselben Motion-Pinsel-Pfad, aber mit Kling 1.5, und verwenden wir den professionellen Modus, um Zugriff auf Motion Brush von 1.5 zu erhalten . Und das ist jetzt das Ergebnis des professionellen Modus von Kling 1.5. Und wie ihr sehen könnt, Leute, ist jetzt alles konsistent. Und dies ist das zweite Beispiel für 1.5 Motion Brush im professionellen Modus. Und wie Sie in der Anleitung sehen können, ist das Ergebnis ziemlich beeindruckend. Und das ist ein weiteres Beispiel, bei dem ich einfach den Blitz der Pistole putze. Und dieser ist ziemlich wild. Und das ist ein weiteres Beispiel für deinen Stiefel. Und wie ihr sehen könnt, Leute, ist die Bewegung ihres Körpers konsistent. Es liegt in keinem Frame ein Verstoß gegen das Video vor. Es sieht irgendwie aus wie eine echte Drei-D-Animation. Selbst in diesem Beispiel hatten im professionellen Modus von 1.0 wir im professionellen Modus von 1.0 eine seltsame Handbewegung, aber in 1.5 habe ich bemerkt, dass die Handbewegung jetzt behoben ist Also 1.5 wurde in Motion Brush tatsächlich verbessert, und das ist das Ergebnis meines Versuchs, mich mit der KI zu positionieren. Und ich finde, dieses Ergebnis ist ziemlich beeindruckend Und hier haben wir noch einige weitere tolle Beispiele. Also verwende ich dieses Bild, und wenn wir zum Bewegungspinsel gehen, zeichne ich diesen Pfad. Zuerst zeichne ich das Pedal und verfolge dieses Pedal bis zu dieser Seite. Dann zeichne ich das ganze Wasser und folge dem Wasser bis zu dieser Seite. Dann entferne ich diese Seite des Wassers, denn wenn wir uns das Bild ansehen, haben wir diese Wellen im Wasser Also entferne ich diesen Teil. Also entferne ich diesen Pfad mit dem Array-Werkzeug und wähle dann den dritten Bereich aus, zeichne diesen Pfad und verfolge das Pad bis zu dieser Seite Und zum Schluss wähle ich mein Host-Thema aus und verfolge mein Thema nach oben. Jetzt, im Finale, zeichne ich dieses Brett als statischen Bereich. Und ich verwende den Standardmodus für diese Motion-Pinsel-Generation und verwende 1.0. Und wenn ich mein Video abspiele, ist das Ergebnis 1.0. Sogar 1.0 sieht fantastisch aus. nun 1.5 mit demselben Bild und demselben Motion-Pinselpfad verwenden, haben wir dieses konsistente Ergebnis erzielt. Ist es nicht unglaublich? Jetzt kannst du noch eine Sache tun. Falls du merkst, dass wir ein Problem haben. Das Boot bewegt sich überhaupt nicht. Sie können also auch das As-Werkzeug auswählen, die automatische Segmentierung aktivieren und den statischen Bereich löschen Weil wir das Boot als statischen Bereich zeichnen, bewegt sich das Boot deshalb nicht Jetzt können wir das Pinselwerkzeug auswählen. Wir können Bereich fünf auswählen. Wir können das ganze Boot zeichnen. Und wir können das Boot bis zu diesem Ort verfolgen. Jetzt lassen Sie uns das bestätigen. Und dafür verwende ich meinen Standardmodus und wähle 1.0. ein anderes Beispiel an, während das Video generiert Sehen wir uns ein anderes Beispiel an, während das Video generiert wird. Ich verwende also dieses Bild, und wenn wir zum Bewegungspinselpfad wechseln, der sich jetzt im Bewegungspinselpfad , zeichne ich mein Auto und möchte mein Auto durch diese Seite bewegen. Und ich zeichne den gesamten Bereich als statische Idee. 1.0-Standardmodus ist dies das Endergebnis. Wie Sie sehen können, fährt das Auto in diese Richtung. Also repariere ich mein Gebiet in der nächsten Generation. Wenn wir zum Bewegungspinsel gehen, ziehe ich meine Linie auf diese Seite. In der Vergangenheit habe ich meine Linie so gezogen. Jetzt habe ich mich auf diese Seite gezogen. Und hier haben wir das Ergebnis des 1.0-Standardmodus. Und es sieht so aus, als ob das Auto irgendwie driftet. Und mit dem professionellen Modus 1.0, mit diesem aktualisierten Pfad, haben wir hier das Ergebnis Und mit demselben Auto mit demselben Bild, demselben Weg. Aber dieses Mal verwende ich den professionellen Modus 1.5, und das ist das Endergebnis. Jetzt haben wir auch ein anderes Beispiel. Ich verwende dieses Bild, und wenn wir zum Bewegungspinsel gehen, zeichne ich mein Auto und dann diesen Pfad. Ich möchte dieses Auto auf diese Seite bewegen, und ich zeichne den gesamten Ozean und ich verschiebe den Ozean auf diese Seite und zeichne den gesamten Bereich als statischen Bereich. Und das ist das Ergebnis. Das habe ich nicht erwartet. Das Auto fährt rückwärts statt vorwärts. In meiner nächsten Generation behebe ich dieses Problem Ich zeichne diesen Pfad auf diese Seite, ich zeichne den Pfeil auf diese Seite. In der vorherigen Generation habe ich den Pfeil wie diese Seite gezeichnet. Indem ich also den Pfeil auf diese Seite des Bodens gezogen habe, habe ich dieses Ergebnis erzielt. Wir beheben dieses Problem. Wenn Sie also ein solches Problem haben, können Sie es leicht beheben, indem Sie Ihren Bereich untersuchen. Und wenn Sie den professionellen Modus 1.5 verwenden, ist dies das Endergebnis. Wie Sie sehen können, ist das Video konsistent. Es liegt kein Verstoß vor. Alles sieht realistisch aus. Und wir haben dieses Beispiel , wo wir einen Tiger haben. Und wenn du zum Bewegungspinsel gehst, zeichne ich den Tiger und richte den Pfeil ins Wasser und ich zeichne das ganze Wasser und richte den Pfeil auf diese Seite. Ich möchte, dass sich das Wasser auf diese Seite bewegt, und ich möchte, dass mein Tiger ins Wasser geht. Und das haben wir mit 1.0 erreicht. Wenn Sie nun zum Bewegungspinsel gehen, zeichne ich diesen Stein als Dachboden. Aber in meiner nächsten Generation, wenn wir zum Bewegungspinsel übergehen, entferne ich das als Dachboden. Und ich korrigiere auch meine Pfeilpositionierung des Tigers, und im professionellen Modus 1.5 ist das das Endergebnis. Das ist das Ergebnis, das wir wollen. Das Boot bewegt sich irgendwie. Nicht das Boot, aber wir haben einen Kamera-Moment im Video. Verwenden wir jetzt einen professionellen Modus und verwenden wir 1.5 und lassen Sie uns generieren. Wenn du also keine zusätzlichen Credits verlieren möchtest , habe ich einen Tipp für dich. Wenn du Motion Brush verwenden möchtest, dann verwende den 1.0-Tendon-Modus Wenn Sie auf diese Weise etwas falsch gemacht haben, können Sie Ihr Problem in Ihrer nächsten Generation beheben Und wenn das Problem behoben ist, können Sie den professionellen Modus 1.5 verwenden, und Sie erhalten Ihre Generation, und das Video bleibt konsistent. Mit dieser Methode können Sie Ihre Credits speichern. Wenn Sie in Ihrer ersten Generation den professionellen Modus 1.5 verwenden , verlieren Sie 25 zusätzliche Credits. Das ist also meine Art, die Credits zu sparen. Sie können dieselbe Methode auch verwenden , um Ihre Credits zu speichern. Das 1.5-Video im professionellen Modus wird jetzt generiert, und hier haben wir das Ergebnis. So können Sie das Motion Brush-Tool verwenden, indem professionellen Modus 1.5 verwenden. 24. Kamerabewegungen mit Kling 1.5: Willkommen zurück. In der vorherigen Version von Ling AI können wir den Kamera-Moment also nicht wirklich nutzen, wenn Sie das Bild auch auf Video Inkling 1.5 oder Inkling 1.0 umschalten auf Video Inkling 1.5 oder Inkling 1.0 Aber jetzt können wir den Kamera-Moment in Cling 1.5 nutzen , indem wir den professionellen Modus verwenden Um Bilder zu generieren, verwende ich den Designer domicrosoft.com, kopiere diese Eingabeaufforderung Dann füge ich die Eingabeaufforderung in Labs Dot Google ein. Und wähle Bild links aus. Jetzt können Sie auch das hervorgehobene Schlüsselwort ändern. Wenn ich in meine Bibliothek gehe, sind dies, wie Sie sehen können, meine ursprünglichen Prompt-Ergebnisse, und ich wähle das hervorgehobene Schlüsselwort und ändere einige Stichwörter, und dann habe ich diese Ergebnisse erhalten. Wenn Sie zum Microsoft-Designer gehen, wähle ich dieses Bild aus, Sie können hier klicken, gesamten Abschlussball bearbeiten, Sie können diese Aufforderung kopieren, und ich füge die Eingabeaufforderung in Labs do Google ein, und ich habe diese Ergebnisse erhalten. Gehen Sie zu Cling AI und wählen Sie Ihr Modell auf 1.5 aus. Gehe zum Bild zum Video. Jetzt wähle ich zuerst das mobile Bild aus. Sie können nach unten scrollen und den professionellen Modus auswählen. Und sobald ihr euren professionellen Modus ausgewählt habt, wie ihr sehen könnt, haben wir Kamera-Moment. Du kannst deinen Kamera-Moment aus diesem Drop-down-Menü auswählen , wenn du noch weiter nach unten scrollst, da du sehen kannst, Alter, das ist mein Kamera-Moment. Wenn du das auswählst, kannst du den Schieberegler ändern , um deinen Kamera-Moment zu bekommen. Wenn Sie diesen Wert auf die linke Seite auf minus zehn ändern, erhalten Sie den linken horizontalen Kameramoment. Wenn Sie Vertikal wählen, erhalten Sie den vertikalen Kameramoment. Wir haben den Zoom, wir haben den Stift und wir haben Tilt and Roll. Also wähle ich diesen Stift minus zehn. Lass uns die zwei minus fünf ändern. Lasst uns nicht ins Extreme gehen. Gehen wir vielleicht ins Extrem. Klicken wir jetzt auf Content Rate. Wählen wir nun dieses Bild und laden wir dieses Bild herunter. Und für dieses Bild wähle ich Tilt und ändere das auf minus zehn. Oder vielleicht können wir dieses Bild auswählen. Laden wir dieses Bild herunter und scrollen wir nach unten, und ich ändere meine Neigung auf zehn. Klicken wir nun auf Generieren. Ich generiere auch dieses Bild, und das ist die Aufforderung zu diesem Bild. Für dieses Bild ändere ich nun die Pfanne auf zehn. Während dieses Video generiert wird, werde ich Ihnen einige Beispiele für Kamera-Momente zeigen , indem ich 1,5 Bild-zu-Video verwende. In diesem Beispiel wähle ich also dieses Bild aus und ändere meinen Kameramoment auf vertikal zehn, und ich habe dieses Ergebnis erhalten. Jetzt ändere ich im zweiten Bild den Kameramoment auf Schwenk minus zehn, und wir haben dieses Ergebnis erhalten. Und für dieses Bild verwende ich den Zoom-Kameramoment, Wert zehn, und das ist das Ergebnis. Wie ihr sehen könnt, Leute, ist 1.5 ziemlich konsistent. Und für dieses Bild verwende ich meinen Kamera-Moment-Pan, Wert zehn. Die Kamera schwenkt in Richtung Himmel. Und wenn Sie feststellen, dass das Video keine Inkonsistenz aufweist, ist das Video ziemlich Und in diesem Beispiel verwende ich den Rollenwert zehn Das ist der extreme Kamera-Moment. Und trotzdem haben wir hier einige Verstöße, aber nicht zu viele. Übrigens können Sie diese Arten von Kamera-Moment-Videos jetzt auch miteinander mischen. Zum Beispiel kann ich dieses Video mit diesem Video mischen Laden wir diese beiden Videos herunter. Jetzt zeige ich Ihnen, wie wir diese Art von Kameravideos zusammenmischen können . Öffnen Sie zunächst den Kappenschnitt. Dies ist die beste Video-Editor-Software für Anfänger auf dem Markt. Erstellen Sie jetzt ein neues Projekt. Klicken Sie hier, um ein neues Projekt zu erstellen. Wählen Sie nun diese beiden Videos aus und importieren sie direkt hier auf der Medienseite. Jetzt kann ich dieses Video zuerst importieren und lassen Sie uns dieses Video neben dem ersten Clip importieren. Jetzt können wir die Leertaste drücken , um eine Vorschau dieses Clips anzuzeigen. Die Kamera schwenkt also auf diese Seite, sodass wir diesen Clip auch umkehren können Aber ich denke, anstatt den Clip umzukehren, platzieren wir diesen Clip genau hier und wir können diesen Clip genau hier umkehren. Klicken Sie hier. Wählen Sie zuerst Ihren Clip aus und klicken Sie hier , um Ihren Videoclip umzukehren. Und jetzt, wie Sie sehen können, können wir dieses Video hier platzieren. Wir können diesen Clip auch auswählen, zur Maske gehen und die horizontale Maske auswählen. Wir können diese Maske umkehren, indem wir hier klicken, und wir können diesen Pfeil auswählen und ihn nach oben bewegen , um diese Feder zu erstellen Jetzt können wir diese Linie auf diese Seite ziehen und die Feder ändern Zwei 0%. Fügen Sie jetzt genau hier einen Keyframe hinzu, und wir können den Keyframe auch an der richtigen Position hinzufügen Gehen Sie nun ein paar Frames weiter, ändern Sie diese Seite auf diese Seite und ändern Sie auch die Feder Und jetzt, wenn Sie sich das Video ansehen, haben wir dieses erstaunliche Ergebnis. Lassen Sie uns das zuschneiden, wählen Sie diesen Clip gehen wir zur Animation, gehen wir zur Out-Animation und wir können eine Ausblendanimation hinzufügen. Und wenn ich diesen Clip abspiele, wie ihr sehen könnt, Leute, ist das das Endergebnis. So könnt ihr eure Kamera-Moment-Clips von Kling AI verwenden und sie so zusammenfügen. Dies ist ein weiteres Beispiel Kamera-Moment im professionellen Modus von Kling 1.5. Dies ist der Wert für das Kamera-Moment minus zehn, und das ist das Ergebnis. Jetzt empfehle ich dringend, den extremen Wert Ihres Kamera-Moments nicht zu sehr zu verwenden . Sagen Sie einfach wie hier, wenn Sie ein realistisches Ergebnis erzielen möchten, zwei minus drei oder zwei plus drei, wenn Sie ein fantastisches Ergebnis erzielen möchten. Jetzt haben wir das zweite Beispiel, bei dem ich die extreme Neigungsposition zehn verwende, und das ist das Ergebnis. Nun, das ist das letzte Beispiel. Ich verwende Pan Plus Ten, und das ist auch ein extremer Kamera-Moment. Aber für diese Aufnahme funktioniert es ziemlich gut. So können Sie den Kamera-Moment nutzen, indem Sie den professionellen Modus 1.5 verwenden. 25. Kling 1.6 vs. 1.5 vs. 1.0 Text-to-Video: Willkommen zurück. Deshalb hat Kling AI gerade ihr neues Modell , Kling 1.6, und es wird sich gegenüber der Vorgängerversion verbessern . Wie bei Kling 1.5 können Sie auch mit Kling 1.6 den Standardmodus verwenden. Derzeit können wir Motion Brush jedoch nicht wirklich verwenden, und wir können Camera Moment mit Kling 1.6 nicht wirklich verwenden. Ich habe also dieses Beispiel. Dies ist eine Aufforderung, und ich verwende den professionellen Modus von Kling 1.0, und das ist das Ergebnis. Jetzt verwende ich mit derselben Aufforderung Cling 1.5, und das ist das Ergebnis des professionellen Modus 1.5. Gehen wir nun zur Bearbeitung und generieren wir das mit einer neuen Version von 1.6. Jetzt können wir auf Generieren klicken. Das Video ist jetzt generiert und hier haben wir das Ergebnis. Sehen wir uns das Ergebnis an. Bei weitem ist 1.6 ziemlich erstaunlich. Es ist viel besser. Es ist weitaus besser als 1.5 und 1.0, da Sie keine Frame-Verletzung finden können oder Sie können keine Frame-Verletzung wirklich feststellen Ihren generierten Clips keine Frame-Verletzung finden können oder Sie können keine Frame-Verletzung wirklich feststellen. Jetzt habe ich noch ein Beispiel , das ich mit euch teilen möchte. Das ist die Aufforderung, und ich verwende 1.6 Promote für diese Generation, und hier haben wir das Ergebnis. Wie Sie feststellen, liegt in den generierten Clips kein Frame-Verstoß vor. Und wie ihr sehen könnt, Leute, ist 1.6 klarer und in 1.6 gibt es keinen Inframe-Verstoß In 1.0 und 1.5 haben wir einen kleinen Frame-Verstoß, aber in 1.6 gibt es im generierten Ergebnis keinen Frame-Verstoß Nun, hier haben wir ein weiteres Beispiel. Dies ist die Aufforderung, und ich verwende auch den Pro-Modus für diese Generation. Und das Ergebnis sieht realistisch aus. Hier liegt ein kleiner Frame-Verstoß vor, aber alles sieht gut aus. Und das ist das Ergebnis 1,0 und 1,5. Nun, bevor ihr euch aufregt und anfängt, 1.6 zu verwenden möchte ich dieses Geheimnis mit euch teilen. Bei 1.6 handelt es sich um vier realistische Clips. Wenn Sie eine unrealistische Eingabeaufforderung verwenden, werden Sie kaum ein besseres Ergebnis als 1,5 oder 1,0 Lassen Sie mich Ihnen ein Beispiel zeigen. Dieselbe Eingabeaufforderung, wir haben sowohl ein Ergebnis von 1,0 als auch ein Ergebnis von 1,5. Und jetzt mit derselben Eingabeaufforderung ist dies das Ergebnis im Pro-Modus 1.6. Es liegt kein Frame-Verstoß vor, aber mir hat der Stil von 1.6 nicht gefallen. 1.5 ist weitaus besser, wenn Sie animierte Clips generieren möchten, aber 1.6 ist für realistische Clips. Bei diesem Abschlussball ist dies also das Ergebnis des 1.5 Pro-Modus. Und mit derselben Aufforderung ist dies das Ergebnis des 1.6 Pro-Modus. Nun, all diese Videos wurden im professionellen Modus 1.6 generiert, aber ist der 1.6-Standardmodus auch gut für die Videogenerierung geeignet? Ich werde Ihnen einige Beispiele zeigen und die Standardmodi 1.0, 1.5 und 1.6 vergleichen Standardmodi 1.0, 1.5 und 1.6 da all diese Videos im professionellen Modus generiert wurden. Lassen Sie uns nun sehen, ob der Standardmodus auch für die Videogenerierung gut genug ist oder nicht. Das ist also die Aufforderung, und das ist das Ergebnis des 1.0-Standardmodus. Jetzt mit derselben Eingabeaufforderung ist dies das Ergebnis im Standardmodus 1.5. Und 1.5 eignet sich auch gut für die Videogenerierung. Und jetzt haben wir den endgültigen 1.6-Standardmodus. Wie ich Ihnen bereits gesagt habe, ist 1.6 weitaus realistischer als das andere, weil das 1.5-Video großartig aussieht, aber für mich ist es unrealistisch 1.6 ist also für die realistische Generierung vorgesehen, aber wenn Sie zwischen Realismus und Unrealismus generieren möchten , Das ist nun ein weiteres Beispiel. Dies ist die Eingabeaufforderung, und dies ist das Ergebnis von 1.5. Und hier haben wir das Ergebnis des 1.6-Standardmodus. Und für dieses Beispiel denke ich, dass 1.6 ein klarer Gewinner ist, denn in der 1.6-Generation kann man deutlich ein bisschen Kameramoment erkennen und alles sieht knackig klar Mit dieser Eingabeaufforderung ist das Ergebnis nun 1,0 Und das ist das Ergebnis im Standardmodus 1.5. Und jetzt ist das Ergebnis von 1.6 mit derselben Eingabeaufforderung. Und für dieses Beispiel ist 1.6 auch der Gewinner für diese Generation, weil das Gebäude im Hintergrund auch wirklich toll aussieht und auch toll aussehen kann. Jetzt haben wir ein anderes Beispiel. Dies ist die Aufforderung, und dies ist das Ergebnis des 1.0-Standardmodus. Bei derselben Eingabeaufforderung ist dies das Ergebnis des 1.5-Standardmodus. Jetzt haben wir endlich das Ergebnis im Standardmodus 1.6. Und wie ihr sehen könnt, Leute, 1.6 ist großartig. Es sieht so aus, als würden wir diese Kugel mit dem Handy fotografieren . Und wie ich Ihnen bereits sagte, liegt 1,5 zwischen Realismus und Unrealismus Jetzt haben wir das zweitletzte Beispiel. Dies ist die Aufforderung, und zuallererst ist dies das Ergebnis des 1.0-Standardmodus. Und wie wir erwartet hatten, sieht alles Mist aus. Gehen wir nun zu 1.5 über. Mit derselben Aufforderung gelingt es 1.5, dieses Meisterwerk zu generieren. Wir haben einen kleinen Verstoß, aber alles sieht gut aus. Jetzt haben wir endlich ein Ergebnis von 1,6. Und das ist ein unerwartetes Ergebnis für mich. Weil ich glaube, dass 1.5 in diesem Beispiel gut aussieht. Weil man in 1.5 deutlich im Hintergrund sehen kann, dass wir ein gewisses Publikum haben, aber in 1.6 gibt es kein Publikum. Und wie ich Ihnen bereits gesagt habe, wenn Sie realistische Videos erstellen möchten, verwenden Sie 1.6. Wenn Sie jedoch kein realistisches Video generieren möchten, sondern auch einen Teil des Realismus im Video erzeugen möchten, verwenden Sie 1.5 Wenn Sie nun versuchen, diese Aufforderung zu regenerieren, ist dies das Ergebnis von 1.5 Und überraschenderweise schneidet 1.6 jetzt etwas besser ab. Und wenn Sie bemerken, dass der Roboter anfängt, sich auf den roten Roboter zuzubewegen, wackelt der Boden und mit der Kamera am Boden wackelt auch ein wenig Und jetzt haben wir das Publikum im Hintergrund. Für diese Generation ist es meiner Meinung nach ein Unentschieden zwischen 1,6 und 1,5. Jetzt haben wir das letzte Beispiel. Heat ist die Eingabeaufforderung, und mit dieser Aufforderung ist dies der 1.0-Standardmodus. Und mit derselben Eingabeaufforderung ist dies das Ergebnis von 1.5. Und jetzt haben wir endlich 1.6. Und wie ihr bemerkt, Leute, auch mit diesem Standardmodus ist 1.6 auch mit diesem Standardmodus herausragend. Jetzt habe ich diese Aufforderung versehentlich mit 1.5 regeneriert, und das ist das regenerierte Ergebnis Und 1.5 sieht in diesem regenerierten Clip besser aus als zuvor Bei dieser Spende ist 1,6 also auch der Gewinner weitem ist das, was ich verwendet habe , weitaus besser, wenn Sie realistische Clips generieren möchten. 26. Kling 1.6 vs. Kling 1.5 Pro-Modus: Willkommen zurück. Lassen Sie uns nun über die Bild-zu-Video-Generierung von 1.6 sprechen. Ist 1,6 besser bei der Bild-zu-Video-Generierung als 1,5? Lassen Sie mich Ihnen einige Beispiele zeigen. Zuallererst haben wir in diesem Beispiel dieses Bild, und ich schreibe eine Aufforderung, ein Messer zu schreiben, das einen Apfel in zwei Stücke schneidet. Und wie Sie sehen können, verwende ich das Modell 1.5 und für diese Generation den professionellen Modus. Jetzt sieht sogar der Profi-Modus, wie ihr sehen könnt, Leute , unrealistisch aus Jetzt verwende ich mit demselben Bild und derselben Aufforderung einfach den professionellen Modus 1.6, und das ist das Ergebnis von 1.6 Und nachdem ich diese Generation gesehen habe, ist 1.6 weitaus besser als die anderen Tools, die derzeit auf dem Markt erhältlich sind , weil die Bewegung großartig ist und Apple Slice Slide realistisch aussieht. Sehen wir uns nun auch ein anderes Beispiel an. In diesem Beispiel verwende ich nun mein Bild und tippe einen Abschlussball ein. Der Raum wird sehr schnell dunkler und der Kopf der Person brennt und beleuchtet danach den Raum. Also möchte ich, dass der Raum dunkel wird und ich möchte, dass mein Gesicht in Brand gerät. Und wie Sie sehen können, verwende ich den professionellen Modus 1.5, und das ist das Ergebnis. Sieht gut aus, aber es sieht nicht realistisch aus. Lassen Sie uns nun das Ergebnis von 1.6 mit derselben Eingabeaufforderung und demselben Bild herausnehmen . Ich verwende den professionellen Modus für 1.6. Sogar das Video ist unrealistisch, aber visuell ist 1.6 weitaus besser Jetzt haben wir ein anderes Beispiel. Und bei diesem Bild tippe ich Man, der vor dem Roboter wegläuft, der ihm folgt. Ich verwende den professionellen Modus 1.5 und habe dieses seltsame Ergebnis erzielt. Und nachdem ich dieses Ergebnis gesehen habe, dachte ich mir, warum diesen Clip nicht im professionellen Modus 1.6 regenerieren 1.6 wird besser sein, oder? Wenn ich meinen Clip abspiele, wie Sie sehen können, rennt die Person, alles sieht realistisch aus, aber der Clip enthält keinen Roboter. Ich bitte ihn, einen Roboter hinzuzufügen, aber der Clip enthält keinen Roboter. Das ist also eine kleine Enttäuschung. Also möchte ich dieses Problem beheben. Also habe ich mir überlegt, wie ich dieses Problem beheben kann. Also in diesem Beispiel ändere ich einfach den Abschlussball. Person, die auf die Kamera zuläuft, unser riesiger Roboter verfolgt ihn Ich verwende ein anderes Bild, weil man auf dem vorherigen Bild mein Gesicht nicht wirklich sehen kann Und ich verwende den professionellen Modus 1.6, und jetzt haben wir ein besseres Ergebnis. Die Person rennt und der Roboter verfolgt ihn auch. Und wie du sehen kannst, sieht das Ergebnis wirklich toll Und ich bin mit diesem Ergebnis zufrieden. Wenn Sie also Probleme mit Ihrer Generation haben, ändern Sie einfach die Eingabeaufforderung. Sie erhalten das gewünschte Ergebnis. Wenn Sie nun nicht das gewünschte Ergebnis erzielen, wie in diesem Beispiel, mit demselben Bild und demselben Abschlussball, habe ich dieses Ergebnis erhalten. Aber ich regeneriere dieses Ergebnis und habe dieses Ergebnis erhalten, das sich sowohl in der Qualität als auch in der Bewegung verbessert Wenn Sie nicht das gewünschte Ergebnis erzielen, auch wenn Sie eine sehr präzise Eingabeaufforderung eingeben, ein qualitativ hochwertiges Bild von sich selbst oder jemandem erhalten auch wenn Sie eine sehr präzise Eingabeaufforderung eingeben, haben, versuchen Sie, dick zu regenerieren, da Sie dadurch auch die Qualität oder die Bewegung verbessern Jetzt haben wir ein anderes Beispiel. Mit diesem Bild tippe ich diesen bunten Ballon, der von der Decke fällt. Einige von ihnen fallen auf das Licht der Person, das den Raum mit einem Farbballon beleuchtet den Raum mit einem Farbballon Und das ist das Ergebnis, das ich bekommen habe, das ist übrigens der 1.5 Profi-Modus, und alles sieht gut aus Und jetzt haben wir 1.6 mit demselben Pro mit demselben Bild und auch mit demselben Modus, dem professionellen Modus. Schauen wir uns das Ergebnis an. 1.6 ist weitaus realistischer als 1.5. Aber in 1.6 haben wir einige Details. Wenn ihr auf dem LCD bemerkt, wie ihr sehen könnt, Leute, sobald ein Ballon von der Decke fällt, haben wir die Spiegelung auf diesem LCD. Und wir haben auch realistische Ballons, aber sie erscheinen für einen kürzeren Zeitraum. 1.6 ist ein bisschen besser als 1.5. Wenn Sie das Ergebnis vergleichen, ist 1,6 ein bisschen besser, nicht zu viel, aber ein bisschen besser. Aber wenn du über das Gefühl sprichst, 1.6, zerstöre einfach 1.5, weil 1.6-Bewegung realistisch aussieht, dann 1.5. Wenn du dir 1.5 Emotionen ansiehst, haben sie nur das Gefühl , dass das nicht real ist. Aber in 1.6 sieht alles gut aus. Aber ich mag beide Ergebnisse irgendwie. Also wenn du 1.5 verwenden willst, dann kannst du das auf jeden Fall verwenden. Nun ist 1.6 auch in Bezug auf den Ausdruck besser. , tippe ich bei diesem Bild Wie Sie sehen können, tippe ich bei diesem Bild eine Aufforderung ein, eine Person steht mit neutralem Gesichtsausdruck da, geht zu einem traurigen Gesichtsausdruck über, dann zu einem glücklichen Gesichtsausdruck und dann lächelt sie Und das ist das Ergebnis. Jetzt, nach diesem Ergebnis, regeneriere ich das Ergebnis mit demselben Modus und demselben Modell, nämlich 1,6 Hier haben wir das Ergebnis regeneriert, und mir gefällt dieses Ergebnis mehr als das vorherige Wenn Sie also nicht das erwartete Ergebnis erzielen , versuchen Sie es zu regenerieren Wir haben ein weiteres Beispiel für den professionellen Modus 1.6. Mit demselben Bild tippe ich Mann, der in einem Cyberpunk-Anzug durch eine Cyberpunk-Stadt rennt , und das ist das Ergebnis, das ich Wenn Sie etwas Unrealistisches versuchen, könnten Sie in Ihren generierten Clips einige Verstöße feststellen Aber visuell finde ich, dass 1.6 großartig aussieht Und jetzt ist dies das letzte Beispiel für den professionellen Modus 1.6. Ich verwende dieses Bild und tippe Karte, die sich in ein weißes Auto verwandelt, und das ist das Ergebnis des professionellen Modus 1.6. Was die Videoqualität und den Realismus angeht, versuche 1.6 nun, so realistisch wie möglich zu sein 27. Kling 1.6 vs. Kling 1.5 Standardmodus: Willkommen zurück. Der professionelle Modus 1.6 ist also besser als andere KI-Modelle. Aber ist der 1.6-Tener-Modus auch gut für die Videogenerierung geeignet? Lassen Sie uns das anhand einiger Beispiele herausfinden. Genau hier haben wir dieses Bild und wir haben das gleiche Problem, das wir im professionellen Modus verwenden. Nun, was die Ausdrucksweise angeht, ist 1.5 nicht wirklich gut darin. Jetzt mit demselben Bild mit derselben Eingabeaufforderung mit demselben Modus, was der Standardmodus ist, aber ich verwende 1.6, und selbst im Standardmodus ist 1.6 besser als 1.5. Jetzt haben wir ein anderes Beispiel. Auf diesem Bild, auf dem diese aufforderte Person auf die Kamera zuläuft, verfolgt ihn ein riesiger Roboter Ich verwende den 1.5-Standardmodus und das ist das Ergebnis Für diese Spende hat 1.5 meiner Meinung nach wirklich gute Arbeit geleistet. Aber der Roboter verfolgt mich nicht. Er jagt diese Leute. Und jetzt mit demselben Bild mit demselben Abschlussball, aber mit dem 1.6-Modell mit Standardmodus, ist dies das Ergebnis Und ich denke, 1.6 hat wirklich gute Arbeit geleistet. Auch in dieser Generation hat es 1,5 übertroffen. Wir haben ein anderes Beispiel. Stellen Sie sich vor, bei diesem Abschlussball fangen alle an zu kämpfen und sich gegenseitig zu schlagen Ich verwende den 1.5-Standardmodus und das ist das Ergebnis Jetzt mit demselben Bild mit demselben Abschlussball, verwende einfach 1.6 für dieses, und ich verwende dafür auch den Standardmodus. Und das ist das Ergebnis. Ich sehe etwas besser aus als 1,5, weil es weniger Verstöße als 1,5 gibt. Lassen Sie uns auch ein anderes Beispiel herausnehmen. Erinnerst du dich an diesen Typen? Ich verwende dieses Monster-Bild für den Vergleich des professionellen Modus 1.0 und 1.5 Aber beide schaffen es nicht, den Ausdruck dieses Ungeheuers auszudrücken. Jetzt, mit dem 1.6-Standardmodus, hat 1.6 wirklich gute Arbeit geleistet um den Gesichtsausdruck dieses Monsters zum Ausdruck Sehen wir uns nun ein anderes Beispiel an. Bei diesem Bild ist dies der 1.5-Standardmodus. Bei dieser Aufforderung fällt ein dünner Schleim von der Decke und bedeckt den Körper des Mannes Jetzt mit demselben Bild mit derselben Eingabeaufforderung, mit dem 1.6-Standardmodus, ist dies das Ergebnis Nun, ich denke, 1,5 in dieser Generation hat wirklich gute Arbeit geleistet, dann 1,6. Jetzt haben wir ein weiteres Beispiel mit demselben Bild, bei dem dieser Ballmann in einer Cyberpunk-Stadt läuft und einen Anzug im Cyberpunk-Stil trägt 1,5-Standardmodus ist das das Ergebnis Und ich werde nicht lügen. Mir gefällt das Ergebnis , das ich mit 1.5 erzielt habe, auch im Standardmodus. Aber meine Frage ist, es hat keine Cyberpungität erzeugt Wir haben nur einen futuristischen Würfel oder so etwas bekommen, aber wir haben keine Jetzt mit demselben Bild und derselben Aufforderung, dem 1.6-Standardmodus, ist dies das Ergebnis, das wir erhalten Und selbst im Standardmodus übertraf 1,6 1,5 in Bezug auf die visuelle Qualität und die Videoqualität. Jetzt mit demselben Bild, auf dem dieser Profi-Mann vor einer großen Explosion davonläuft vor einer großen Explosion davonläuft die in der Hintergrundkamera ihm folgt. 1.5-Standardmodus ist dies das Ergebnis. Und mit demselben Bild mit derselben Aufforderung, dem 1.6 Tender-Modus, ist dies das Ergebnis. 1.6 schneiden besser ab, was das visuelle Erscheinungsbild und die Ausdrucksweise der Menschen angeht . Wie Sie sehen können, bemerkt diese Person die Explosion und rennt auf die Explosion zu, um Menschen zu retten oder etwas Ähnliches. Ich denke, 1.6 hat in dieser Generation einen wirklich fantastischen Job gemacht. Jetzt könnten Sie eine Frage stellen , welches Modell Sie verwenden sollten? 1.6, 1.5 oder 1.0. Was den Realismus angeht Wenn Sie realistische Videos erstellen möchten, verwenden Sie 1.6, da 1.6 weitaus realistischer ist als 1.5 Wenn Sie jedoch einen Clip generieren möchten , der eine Mischung aus realistischem oder realistischem und unrealistischem Clip ist , dann versuchen Sie es mit 1.5, weil 1.5 zwischen beiden generiert Aber wenn Sie Ihre Eingabeaufforderung ausprobieren möchten, wenn Sie mit der Aufforderung experimentieren möchten und gleichzeitig keine zusätzlichen Credits verlieren möchten, dann verwenden Sie 1.0, weil 1.0 mit zehn Credits generiert wird, was 1,5 war und 1,6 Sie 20 Credits pro Generation kosten wird Nachdem Sie mit der Generation 1.0 experimentiert haben, bekommen Sie vielleicht eine Vorstellung davon, wie das 1.5- und 1.6-Video aussehen würde. Das ist also meine Schlussfolgerung. Ich hoffe, ich beantworte deine Frage. Wenn Sie nun eine andere Frage zu diesem Kurs haben, Sie mich gerne stellen. Ich stehe Ihnen jederzeit zur Verfügung, um Ihre Frage zu beantworten. 28. So synchronisiert man die Lippen mit Kling KI: Willkommen zurück. Jetzt haben wir ein neues Update von Lip Sync. Jetzt haben wir einen speziellen Bereich nur für Lippensynchronisation. Was in diesem Update neu ist, ist, dass wir das Video hochladen können, um diese Lippensynchronisation auszuprobieren. Vor diesem Update können wir wirklich kein Video hochladen. Wir müssen ein Video generieren, um dieses Video mit den Lippen zu synchronisieren. Wenn Sie nun einige Videos verwenden, die mehrere Phasen enthalten , wie in diesem Beispiel, haben wir, wie Sie sehen können, mehrere Gesichter, dann erkennt die KI keine Phase. Ich empfehle daher, das Video zu verwenden , das Ihr Gesicht deutlich zeigt und das nur eine Phase enthält. Jetzt werde ich mein Video hochladen. Sobald Sie Ihr Video hochgeladen haben, analysiert AI Ihr Video und bestätigt dann, ob dieses Video die Lippensynchronisationsfunktion verwendet oder nicht. Sie können mein Gesicht in diesem Video also deutlich sehen, sodass wir dieses Video jetzt mit den Lippen singen können. Wenn Sie nun Ihr Video wechseln möchten, wenn Sie beispielsweise Ihr Video ändern möchten, möchte ich dieses Video nicht verwenden. Wenn ich mein Video ändern muss, muss ich hier klicken, um mein Video erneut auszuwählen. Und jetzt, wie Sie sehen, können wir jedes gewünschte Video auswählen. Jetzt gibt es zwei Möglichkeiten, Ihr Video mit den Lippen zu synchronisieren. Sie können entweder Text-to-Speech verwenden, das mehrere Stimmen enthält, oder Sie können Ihr eigenes Audio hochladen, um die Lippen zu synchronisieren. Jetzt habe ich diese Zeile getippt. Gehen wir jetzt zur Mail und lassen Sie uns dieses Audio abspielen. Hallo da. Ich heiße Faison. Ich benutze King A. Jetzt können manche Stimmen Emotionen nicht wirklich gebrauchen, und jetzt haben wir diese Botschaft Neutrale Emotionen sind mit dieser Stimme nicht verfügbar. Wir haben also mehrere Stimmen, die neutrale Emotionen nicht wirklich gebrauchen können . Sie müssen also eine andere Stimme wählen , um neutrale Emotionen zu verwenden. Hallo da. Ich heiße Faison Ich benutze King AI. Hallo da. Ich heiße Faison Manchmal haben wir in einigen Stimmen diese Botschaft, sodass du diese Stimme nicht wirklich benutzen kannst Du musst eine andere Stimme wählen. Hallo da. Ich heiße Faizan Ich benutze Kling Ai. Lass uns jetzt diese Stimme benutzen. Jetzt kannst du auch deine Emotionen ändern. Wählen wir wütende Emotionen aus. Hallo da. Ich heiße Faizan Ich benutze King Ai. Jetzt lass uns rot werden. Jetzt haben wir die Lippensynchronisation. Schauen wir uns die endgültige Ausgabe an. Hallo da. Ich heiße Pasan Ich benutze King Ai. Jetzt stehen wir vor einem Problem. Wie Sie sehen können, ist die Lippensynchronisation ungewöhnlich. Denn wenn Sie im Originalvideo genau hinschauen, bewegt sich mein Mund zu sehr. Aus diesem Grund hat die KI Schwierigkeiten, meine Lippen neu zu formen , um die Lippensynchronisation auszuprobieren In diesem Beispiel, dem ich überhaupt nicht gesprochen habe, wie ihr sehen könnt, Leute, bewegt sich mein Mund überhaupt nicht Ich habe dieses Video mit Bild-zu-Video-KI generiert. Jetzt versuche ich die Lippensynchronisation dieses Video und das ist die endgültige Ausgabe. Leute, es gibt so viele Luftballons in meinem Zimmer. Nein, glaub mir, sieh dir das an. Nun, wie ihr sehen könnt, Leute, ist die Lippensynchronisation bei diesem Video verrückt. Jetzt haben wir ein anderes Beispiel. Also bei diesem Video, wenn ich diesen Clip abspiele, bewegt sich der Mund ein bisschen, nicht zu sehr. Und ich versuche es mit Lippensynchronisation bei diesem Video, wir haben dieses Ergebnis erzielt. Hallo, da. Mein Name ist Faison und ich werde Pixar Animation erstellen Wie du sehen kannst, Alter, die Lippensynchronisation ist verrückt. nun, wie ich Ihnen bereits gesagt habe, kein Video hoch , das zwei Phasen enthält. Nun, ich versuche das und überraschenderweise wähle ich in KI nur eine Phase aus. Der Grund dafür ist, dass dieser spricht. diesem Grund konzentriert sich der Link auf diese Phase und ich versuche, die Lippensynchronisation für diesen Charakter zu verwenden, und das ist das Endergebnis. Glaubst du, du kannst Anime ohne besondere Fähigkeiten erstellen ? Nun ja, und ich werde dir zeigen, wie. Glaubst du, du kannst Anime ohne besondere Fähigkeiten erstellen ? Nun ja, und ich werde dir zeigen, wie. Jetzt haben wir ein weiteres Beispiel für Animationen im Anime-Stil. Dies ist die Originalquelle, in der der Charakter spricht, aber nicht zu viel, und dies ist das endgültige Ergebnis von Lip Sync. In Ordnung, eine Stunde Arbeit und ich kann loslegen. Das ist ein weiteres Beispiel, und das ist meine ursprüngliche Quelle, wo der Mund bei diesem Charakter überhaupt nicht bewegt, und das ist das Ergebnis der Lippensynchronisation Was für ein toller Tag für eine Fahrt. Ich muss den Schwung aufrechterhalten. Jetzt haben wir ein weiteres Beispiel für schlechten Lippensynchronismus. Wie ich Ihnen bereits gesagt habe, wenn sich Ihr Mund zu stark bewegt, wie in diesem Video und in meinem vorherigen Originalclip, erhalten Sie ein schlechtes Lippensynchronisationsergebnis. Wie oft muss ich dasselbe sagen? Hörst du überhaupt zu? Wenn du also die Lippensynchronisation richtig ausprobieren willst, wenn du die Lippensynchronisation auf dein Video übertragen willst, dann wende Lippensynchronisation auf das Video an, das weniger Gesichtslippenbewegungen enthält. Wenn Sie also in Ihrem Video zu viel Mundbewegung haben, werden Sie bei der Lippensynchronisierung ein schlechtes Ergebnis erzielen. So können Sie also die Lippensynchronisierung mithilfe von Cling AI verwenden. 29. Elemente: Willkommen zurück, alle zusammen. Wenn wir jetzt zu KI-Videos gehen, haben wir eine neue Funktion namens Elements. Und dabei können Sie mehrere Bilder auswählen und es werden Videos mit dieser Bildreferenz generiert. Nehmen wir zum Beispiel ein einfaches Beispiel. Jetzt haben wir diese beiden Bilder. Wie Sie sehen können, können Sie von hier aus Ihr Bild löschen, ein anderes Bild hochladen und hier Ihr Element auswählen. In meinem Beispiel möchte ich das gesamte Bild auswählen, aber wenn Sie beispielsweise nur diesen Truck auswählen möchten, können Sie auch diesen Truck auswählen. Sie können auf Bestätigen klicken und dann Ihre Videos mit diesen Elementen generieren . Jetzt wähle ich mein gesamtes Bild aus. Für mein zweites Bild habe ich dieses Ferrari-Auto ausgewählt. Jetzt werden wir ein Video mit diesen beiden Bildern machen . Also werde ich einen einfachen Abschlussball wie ein Ferrari-Auto in ein Feld tippen . Also funktioniert die Elementfunktion nur mit einem 1,6-Liter-Modell. Wenn Sie Ihr Modell auf 1,5 ändern, können Sie dieses Elementvideo nicht wirklich generieren. Wenn Sie dies auf 1.0 ändern, haben wir dasselbe Problem. Jetzt können wir diese Elementvideos nur noch mit dem Modell 1.6 generieren . Wenn der professionelle Modus ausgewählt ist, können wir dieses Video generieren. Das Video ist jetzt generiert und hier haben wir das Ergebnis. Wie Sie sehen können, haben wir dieses Ferrari-Auto auf einem Feld. Und wenn ich dieses Video pausiere, wenn wir das Originalbild öffnen, wie Sie auf dem Originalbild sehen können, haben wir keine Cloud. Wenn wir dieses Bild öffnen, möchte ich, dass ihr euch auf das Wolkenmuster konzentriert. Und in dem generierten Clip haben wir, wie ihr sehen könnt , genau hier am Himmel dasselbe Wolkenmuster. Und wir haben dieses Feld in diesem generierten Video. Also hoffe ich, du verstehst die Idee. Sehen wir uns einige andere Beispiele an, um diese Elementfunktion besser zu verstehen. In diesem Beispiel haben wir also zwei Bilder. Wir haben dieses Bild, ein fliegendes Flugzeug. Das ist die Referenz. Das ist das Element, und wir haben noch ein anderes Element. Wir haben einen Vektorstil für fahrende Motorradfiguren. Jetzt habe ich dieses Problem eingegeben: Mann fährt Fahrrad und Flugzeug fährt vorbei Mit dem Standardmodus von 1.6 haben wir dieses Ergebnis Lass das Flugzeug vorbeifliegen und wir haben den Motorradfahrer diese Art von Bildern zu generieren, können Sie nun Labstt Google-Bildeffekte verwenden Und wie ihr sehen könnt, Leute, wenn wir zum Labstt-Google gehen, sind dies Eingabeaufforderungsdaten, die verwendet werden, um dieses Bild zu generieren, und dies ist eine Aufforderung zum Bild eines Motorradfahrers Jetzt können wir auch ein Objekt hinzufügen und mit diesem Objekt alles machen Also zum Beispiel, genau hier, wie ihr sehen könnt, Leute, das ist mein Originalbild. Genau hier haben wir dieses Objekt, einen SWOT-, IATI-Mann, der im Standardmodus auf einem SWOT herumschwingt Wie ihr sehen könnt, Leute, in diesem generierten Video schwinge ich Wir haben ein anderes Beispiel. Diesmal wurde auch der Hintergrund dieses Objekts kopiert . In diesem Beispiel habe ich jetzt drei Elemente. Was wir haben ist dieses Bild von einem Auto im Nirgendwo. Wir haben diesen Hintergrund und wir haben dieses Thema. Und mit dieser Aufforderung, mit dem professionellen Modus 1.6, haben wir genau das bekommen. Manchmal generiert es also diese Art von Videos. In meiner nächsten Generation habe ich diese Aufforderung eingegeben und im Standardmodus haben wir das bekommen Jetzt entferne ich ein Element aus diesen Elementen, und in meiner nächsten Generation habe ich das nur mit diesen beiden Elementen bekommen In diesem Beispiel habe ich also nur zwei Elemente, einen Mann, der auf einer Couch sitzt, und wir haben dieses Auto, und ich tippe diese Person ein, die auf einem Sofa neben einem verlassenen Auto in der Wüste sitzt . Und selbst im Standardmodus, wie ihr sehen könnt, Leute, ist das Ergebnis erstaunlich. Der Grund, warum ich euch dieses Beispiel gezeigt habe , ist, dass wir mit ein paar einfachen Eingabeaufforderungen auch erstaunliche Ergebnisse mit den Elementen erzielen können . Um Ihre Probleme zu beheben, können Sie also mehr Videos generieren. Sie können Ihre Keywords von hier und da aus optimieren. Jetzt haben wir ein weiteres Beispiel mit demselben Bild, und dieses Mal haben wir dieses andere Auto, und wir haben dieses Ergebnis Karte auf dem Feld. Schau dir das an. Und dieses Mal, wenn wir in den Zuschneidemodus wechseln, habe ich, wie ihr sehen könnt , nur diesen Teil dieses Bildes ausgewählt. Das ist mein Element , das ich ausgewählt habe. In diesem Beispiel haben wir zwei Anime-Charaktere, und ich habe beide im Standardmodus gekämpft . Das haben wir bekommen Wenn Sie nun manchmal Videos mit einem Element erstellen, wird die Referenz genau dieses Element notieren Ich nehme die Referenz dieses Elements und es wird ein brandneues Video generiert. Mit den gleichen Bildern habe ich also beide Kämpfe miteinander verknüpft. Mit dem Standardmodus haben wir das. Wie Sie sehen können, wird anhand der Referenz dieser beiden Charaktere ein ganz neues Video generiert. Nun, bei diesen beiden Elementen, wenn ich mein Bild öffne, ist das mein Element Nummer eins, und das ist mein Element Nummer zwei. Wenn man auf einem Stuhl sitzt, passiert im Hintergrund eine große Explosion. Das sind also die Abschlussballdaten, die verwendet wurden, um dieses Video zu generieren. Selbst mit dem Stehbrett ist das Ergebnis ziemlich überzeugend. Schau dir das an. Das ist verrückt Ein weiterer Grund, warum Sie nicht das gewünschte Ergebnis erzielen, ist, dass Sie die falschen Bilder verwenden Also in diesem Beispiel, wie ihr sehen könnt, habe ich diese Bilder und wir haben diese beiden Kinder, die Rad fahren, und das ist ein seltsamer Zyklus , den ich mit Labs Google generiert habe. Das ist das Problem, und das ist das seltsame Ergebnis. Dies ist ein weiteres Beispiel, und dies ist das letzte Beispiel. Stellen Sie also sicher, dass Sie die richtigen Bilder ausgewählt haben. Jetzt haben wir dieses Beispiel. In diesem Beispiel habe ich das Element for verwendet, was das meiste Element ist, das Sie verwenden können um Videos mithilfe der Elements-Funktion zu generieren. Also zuerst haben wir diese Person. Wir haben dieses Mikrofon. Wir haben dieses Auto und wir haben das als Hintergrund. Nun zu meiner Aufforderung: Ich habe Boy getippt, der ein Mikrofon hält, in einem Auto sitzt, das in der Wüste geparkt Kamera langsam heranzoomt Im Standardmodus haben wir das. Mit einem professionellen Modus mit genau den gleichen Eingabeaufforderungen und Elementen ist dies das Ergebnis Jetzt haben wir ein weiteres Beispiel für das am häufigsten verwendete Element. Wir haben also diese vier Elemente, und ich habe die Kamera auf einen Radfahrer fokussiert, dann auf das Flugzeug und dann auf den Stand des Menschen fokussiert Im Standardmodus haben wir das. Wir haben ein Flugzeug für Radfahrer. Und genau hier haben wir einen Mann, diesen. Für mein nächstes generiertes Video entferne ich den Hintergrund, und das ist es, was wir haben. Wir haben dieses seltsame Ergebnis. Der Grund, warum wir diesen Morphing-Effekt im Video bekommen diesen Morphing-Effekt im , ist, dass ich den Standardmodus verwende Deshalb haben wir diesen Morphing-Effekt. Jetzt, in meinem nächsten generierten Video, korrigiere ich hier und da mein Eingabeaufforderungswort, und dieses Mal hat es das Ergebnis ein wenig verbessert Wir haben das Standing Man-Flugzeug und wir haben den Radfahrer Sie können also auch eine dynamische Szene wie diese mit den Elementen erstellen auch eine dynamische Szene wie diese mit den Elementen In diesem Beispiel habe ich jetzt auch den Hintergrund wieder gelöscht. Und mit dieser Aufforderung im Standardmodus haben wir das bekommen. Aus irgendeinem Grund habe ich jetzt den professionellen Modus mit genau der gleichen Eingabeaufforderung und dem gleichen Element verwendet , und das haben wir bekommen. Es hat gerade dieses brandneue Video generiert. Es nimmt die Referenz aus meinen Elementen, generiert kein Video mit genau demselben Element, sondern nimmt die Referenz von meinem Element. Sie können auch Ihr generiertes Video verbessern. Wie Sie hier mit genau derselben Aufforderung bei diesen Bildern mit diesem Element sehen können genau derselben Aufforderung bei diesen Bildern mit , habe ich, wenn Sie zur negativen Eingabeaufforderung wechseln, das wenn Sie zur negativen Eingabeaufforderung wechseln, das Schlüsselwort eingegeben, dass ich dieses Ding nicht in meinem generierten Video haben möchte , Entstellung, Verzerrung und Wir schauen uns das ursprüngliche Ergebnis an, das ist mein Originalclip, und ich habe diesen Clip mit der negativen Eingabeaufforderung regeneriert , und das ist, und Wie Sie sehen können, wurde das Ergebnis erheblich verbessert. Wir haben in diesem Video weniger Verzerrungen, Entstellungen und Morphing-Effekte als im Original Dies ist das Originalvideo. Schauen Sie sich die Verzerrung und Entstellung Und jetzt schau dir das neueste Video an. Jetzt erhalten Sie auch ein anderes Ergebnis, wenn Sie Ihren Clip regenerieren Wie ihr in diesem Beispiel sehen könnt, haben wir diesen Hintergrund Wir haben die Ferrati-Karte und wir haben diese Aufforderung. Mit dem professionellen Modus haben wir dieses Im Standardmodus entferne ich jetzt einfach mein Schlüsselwort Ferratic von hier, platziere zuerst mein Auto und dann meinen Hintergrund. Das haben wir In diesem Beispiel platziere ich mein Auto wieder an erster Stelle und dann meinen Hintergrund mit genau derselben Aufforderung. Das haben wir bekommen. Der Grund, warum ich euch das zeige , ist, dass, wenn ihr euren Hintergrund zuerst platziert, es das Element aus eurem Hintergrund kopiert und dieses Element auf eurem zweiten Bild platziert , auf eurem zweiten Element. Lass uns damit experimentieren , damit du besser verstehst, wovon ich spreche. Lass uns dieses Bild löschen. Lassen Sie uns auch dieses Bild löschen. Und dieses Mal werde ich mein Element eindämmen. Lassen Sie uns diesen Teppich entfernen. Klicken wir auf Bestätigen. Und wir haben das gleiche Bild. uns mit derselben Aufforderung im Standmodus Lassen Sie uns mit derselben Aufforderung im Standmodus dieses Video erstellen. Das Video ist jetzt also generiert. Dies ist eine Vorschau, und wie ich euch bereits gesagt habe, Leute, wenn ihr euren Hintergrund zuerst platziert und euer Auto an zweiter Stelle, euer Auto an zweiter Stelle, bekommen wir weniger Hintergrund als im vorherigen Beispiel. Dies ist das vorherige Beispiel, und wie ihr sehen könnt, Leute, haben wir den Hintergrund an zweiter Stelle. Deshalb bekommen wir dieses ganze Hintergrundelement in diesem Video. Meine Empfehlung lautet also, wenn Sie möchten, dass Ihr Hintergrund im gesamten Video statisch ist, platzieren Sie Ihren Hintergrund am Ende Ihrer Elemente. Wenn du vier Elemente hast, platziere deinen Hintergrund genau hier im vierten Element. Wenn Sie zwei Bilder haben und einen Hintergrund haben möchten, platzieren Sie Ihr Element als Hintergrund auf dem zweiten. Und wenn Sie zwei Elemente haben und wenn Sie einen Hintergrund platzieren möchten, platzieren Sie Ihr Element am dritten Elementplatz. Wenn wir jetzt zu den Labs gehen, Google, sind das meine generierten Bilder , die ich in der Elemente-Vorlesung verwende. Das ist meine Aufforderung für dieses Bild. Für diesen Hintergrund haben wir diese Aufforderung. Für das Auto haben wir diese Aufforderung. Für den Anime-Hintergrund haben wir diese Aufforderung. Für den Hintergrund des Feldes haben wir diese Eingabeaufforderung. Für das Autobild haben wir diese Aufforderung bekommen. Der Anime-Mann, wir haben diese einfache Aufforderung. Wir haben diese Aufforderung und wir haben dieses Ergebnis. Wir haben dieses Bild, und das ist die Aufforderung. Und für dieses Bild gebe ich diese Eingabeaufforderung ein. Für das endgültige Bild mit dieser Eingabeaufforderung haben wir das bekommen. Sie können also Labs oder Google verwenden , um beeindruckende Bilder zu generieren. So können Sie die Elements-Funktion von Ling AI verwenden.